港交所回应伦交所拒绝并购提议:感到失望,会继续接洽

PingWest品玩9月14日讯,据澎湃新闻报道,昨日晚间,在伦敦证券交易所集团(以下简称“伦交所”)发布声明称,其董事会已否决了香港交易及结算所有限公司(以下简称“港交所”)的收购提议后,港交所发布声明称,仍将继续与伦交所接洽。

在声明中,港交所表示,与伦敦证券交易所集团建议合并,是互利共赢的重大战略机遇,可以打造一个领先的全球性金融市场基础设施,并称“期望与伦敦证券交易所集团董事会进行建设性的对话,但对伦敦证券交易所集团拒绝正面洽谈感到失望”。

附:香港交易所声明

香港交易及结算所有限公司 (香港交易所) 得悉伦敦证券交易所集团董事会的声明。

香港交易所董事会仍然认为,与伦敦证券交易所集团建议合并是互利共赢的重大战略机遇,可以打造一个领先的全球性金融市场基础设施。

香港交易所董事会期望与伦敦证券交易所集团董事会进行建设性的对话,但对伦敦证券交易所集团拒绝正面洽谈感到失望。香港交易所希望证明所提出的合并建议远比伦敦证券交易所集团收购Refinitiv的计划更可取。

香港交易所已向伦敦证券交易所集团表明,已就是次计划进行详尽的准备工作。此外,香港交易所亦曾与相关的监管机构及决策者进行初步的建设性讨论。

香港交易所董事会仍然相信,是次的建议对股东、客户及环球资本市场整体来说都有重大裨益。香港交易所认为伦敦证券交易所集团的股东应有机会详细分析两项交易,并会继续与他们接洽。


增强学习在推荐系统有什么最新进展?

前阵子正好写了一篇专栏分析google在youtube应用强化的两篇论文:

吴海波:以youtube的RL论文学习如何在推荐场景应用RL

正文如下:

2个月前,业界开始流传youtube成功将RL应用在了推荐场景,并且演讲者在视频(https://www.youtube.com/watch?v=HEqQ2_1XRTs)中说是youtube近几年来取得的最显著的线上收益。

放出了两篇论文:Top-K Off-Policy Correction for a REINFORCE Recommender SystemReinforcement Learning for Slate-based Recommender Systems: A Tractable Decomposition and Practical Methodology。本文不想做论文讲解,已经有同学做的不错了:http://wd1900.github.io/2019/06/23/Top-K-Off-Policy-Correction-for-a-REINFORCE-Recommender-System-on-Youtube/

个人建议两篇论文都仔细读读,TopK的篇幅较短,重点突出,比较容易理解,但细节上SlateQ这篇更多,对比着看更容易理解。而且,特别有意思的是,这两篇论文都说有效果,但是用的方法却不同,一个是off-policy,一个是value-base,用on-policy。很像大公司要做,把主流的几种路线让不同的组都做一遍,谁效果好谁上。个人更喜欢第二篇一些,会有更多的公式细节和工程实践的方案。

很多做个性化推荐的同学,并没有很多强化学习的背景,而RL又是一门体系繁杂的学科,和推荐中常用的supervised learning有一些区别,入门相对会困难一些。本文将尝试根据这两篇有工业界背景的论文,来解答下RL在推荐场景解决什么问题,又会遇到什么困难,我们入门需要学习一些哪些相关的知识点。本文针对有一定机器学习背景,但对RL领域并不熟悉的童鞋。

本文的重点如下:

  1. 目前推荐的问题是什么
  2. RL在推荐场景的挑战及解决方案
  3. 常见的套路是哪些

推荐系统目前的问题

目前主流的个性化推荐技术的问题,突出的大概有以下几点:

  1. 优化的目标都是short term reward,比如点击率、观看时长,很难对long term reward建模。
  2. 最主要的是预测用户的兴趣,但模型都是基于logged feedback训练,样本和特征极度稀疏,大量的物料没有充分展示过,同时还是有大量的新物料和新用户涌入,存在大量的bias。另外,用户的兴趣变化剧烈,行为多样性,存在很多Noise。
  3. pigeon-hole:在短期目标下,容易不停的给用户推荐已有的偏好。在另一面,当新用户或者无行为用户来的时候,会更倾向于用大爆款去承接。

RL应用在推荐的挑战

看slide

  1. extremely large action space:many millions of items to recommend.如果要考虑真实场景是给用户看一屏的物料,则更夸张,是一个排列组合问题。
  2. 由于是动态环境,无法确认给用户看一个没有看过的物料,用户的反馈会是什么,所以无法有效模拟,训练难度增加。
  3. 本质上都要预估user latent state,但存在大量的unobersever样本和noise,预估很困难,这个问题在RL和其他场景中共存。
  4. long term reward难以建模,且long/short term reward。tradeoff due to user state estimate error。

旅程开始

熟悉一个新领域,最有效率的做法是和熟悉的领域做结合。接下来,让我们先简单看下RL的基本知识点,然后从label、objective、optimization、evaluation来切入吧。

RL的基本知识

有一些基本的RL知识,我们得先了解一下,首先是场景的四元组结构:

RL最大的特点是和环境的交互,是一种trial-error的过程,通常我们会用MDP来描述整个过程,结合推荐场景,四元组数学定义如下:

• S: a continuous state space describing the user states;
• A: a discrete action space, containing items available for recommendation;
• P : S × A × S → R is the state transition probability;
• R : S × A → R is the reward function, where r(s, a) is the immediate reward obtained by performing action a at user state s;

RL在推荐场景的Label特点

众所周知,RL是典型的需要海量数据的场景,比如著名的AlphaGo采用了左右互博的方式来弥补训练数据不足的问题。但是在推荐场景,用户和系统的交互是动态的,即无法模拟。举个例子,你不知道把一个没有推荐过的商品a给用户,用户会有什么反馈。

老生常谈Bias

好在推荐场景的样本收集成本低,量级比较大,但问题是存在较为严重的Bias。即只有被系统展示过的物料才有反馈,而且,还会有源源不断的新物料和用户加入。很多公司会采用EE的方式去解决,有些童鞋表示EE是天问,这个点不能说错,更多的是太从技术角度考虑问题了。

EE要解决是的生态问题,必然是要和业务形态结合在一起,比如知乎的内容自荐(虽然效果是呵呵的)。这个点估计我们公司是EE应用的很成功的一个了,前阵子居然在供应商口中听到了准确的EE描述,震惊于我们的业务同学平时都和他们聊什么。

off-policy vs on-policy

论文[1]则采取off-policy的方式来缓解。off-policy的特点是,使用了两个policy,一个是用户behavior的β,代表产生用户行为Trajectory:(s0,A0,s1, · · · )的策略,另一个是系统决策的π,代表系统是如何在面对用户a在状态s下选择某个action的。

RL中还有on-policy的方法,和off-policy的区别在于更新Q值的时候是沿用既定策略还是用新策略。更好的解释参考这里:https://www.zhihu.com/question/57159315

importance weight

off-policy的好处是一定程度上带了exploration,但也带来了问题:

In particular, the fact that we collect data with a periodicity of several hours and compute many policy parameter updates before deploying a new version of the policy in production implies that the set of trajectories we employ to estimate the policy gradient is generated by a different policy. Moreover, we learn from batched feedback collected by other recommenders as well, which follow drastically different policies. A naive policy gradient estimator is no longer unbiased as the gradient in Equation (2) requires sampling trajectories from the updated policy πθ while the trajectories we collected were drawn from a combination of historical policies β.

常见的是引入importance weighting来解决。看下公式

从公式看,和标准的objective比,多了一个因子,因为这个因子是连乘和rnn的问题类似,梯度容易爆炸或消失。论文中用了一个近似解,并有人证明了是ok的。

RL在推荐场景的Objective特点

在前文中,我们提到,现有的推荐技术,大多是在优化短期目标,比如点击率、停留时长等,用户的反馈是实时的。用户的反馈时长越长,越难优化,比如成交gmv就比ctr难。

同时也说明,RL可能在这种场景更有优势。看下objective的形式表达:

可以发现,最大的特点是前面有个累加符号。这也意味着,RL可以支持和用户多轮交互,也可以优化长期目标。这个特点,也是最吸引做个性化推荐的同学,大家想象下自已在使用一些个性化产品的时候,是不是天然就在做多轮交互。

轮到Bellman公式上场了,先看下核心思想:

The value of your starting point is the reward you expect to get from being there, plus the value of wherever you land next.

看下公式,注意它包含了时间,有助于理解。

在论文[2]中,有更多关于bellman在loss中推导的细节。由于论文[1]采用的policy-gradient的优化策略,我们需要得到loss的梯度:

加入importance weighting和一些correction后,

更多细节可以去参考论文。

optimization和evaluation

通常,RL可以分成两种,value-base和policy-base,虽然不是完全以optimial的角度看,但两种套路的优化方法有较大的区别。其中value-base虽然直观容易理解,但一直被质疑不能稳定的收敛。

they are known to be prone to instability with function approximation。

而policy-base则有较好的收敛性质,所以在很多推荐场景的RL应用,大部分会选择policy-base。当然现在也很有很多二者融合的策略,比如A3C、DDPG这种,也是比较流行的。

怎么训练β和π

π的训练是比较常规的,有意思的是β的学习。用户的behavior是很难建模的,我们还是用nn的方式去学一个出来,这里有一个单独的分支去预估β,和π是一个网络,但是它的梯度不回传,如下图:

这样就不会干扰π。二者的区别如下:

(1) While the main policy πθ is effectively trained using a weighted softmax to take into account of long term reward, the behavior policy head βθ′ is trained using only the state-action pairs;
(2) While the main policy head πθ is trained using only items on the trajectory with non-zero reward 3, the behavior policy βθ′ is trained using all of the items on the trajectory to avoid introducing bias in the β estimate.

为何要把evaluation拿出来讲呢?通常,我们线下看AUC,线上直接看abtest的效果。本来我比较期待论文中关于长期目标的设计,不过论文[1]作者的方式还是比较简单,可借鉴的不多:

The immediate reward r is designed to reflect different user activities; videos that are recommended but not clicked receive zero reward. The long term reward R is aggregated over a time horizon of 4–10 hours.

论文[2]中没有细讲。

两篇论文中还有很大的篇幅来讲Simulation下的结果,[1]的目的是为了证明作者提出的correction和topK的作用,做解释性分析挺好的,[2]做了下算法对比,并且验证了对user choice model鲁棒,但我觉得对实践帮助不大。

One more thing:TopK在解决什么问题?

listwise的问题

主流的个性化推荐应用,都是一次性给用户看一屏的物料,即给出的是一个列表。而目前主流的个性化技术,以ctr预估为例,主要集中在预估单个物料的ctr,和真实场景有一定的gap。当然,了解过learning to rank的同学,早就听过pointwise、pairwise、listwise,其中listwise就是在解决这个问题。

通常,listwise的loss并不容易优化,复杂度较高。据我所知,真正在实践中应用是不多的。RL在推荐场景,也会遇到相同的问题。但直接做list推荐是不现实的,假设我们一次推荐K个物料,总共有N个物料,那么我们能选择的action就是一个排列组合问题,C_N_K * K!个,当N是百万级时,量级非常夸张。

这种情况下,如果不做些假设,问题基本就没有可能在现实中求解了。

youtube的两篇论文,都将问题从listwise(他们叫slatewise)转化成了itemwise。但这个itemwise和我们常规理解的pointwise的个性化技术还是有区别的。在于这个wise是reward上的表达,同时要引申出user choice model。

user choice model

pointwise的方法只考虑单个item的概率,论文中提出的itemwise,虽然也是认为最后的reward只和每个被选中的item有关,且item直接不互相影响,但它有对user choice做假设。比如论文[2]还做了更详细的假设,将目标函数的优化变成一个多项式内可解的问题:

这两个假设也蛮合理的,SC是指用户一次指选择一个item,RTDS是指reward只和当前选择的item有关。

有不少研究是专门针对user choice model的,一般在经济学中比较多。推荐中常见的有cascade model和mutilnomial logit model,比如cascade model,会认为用户选择某个item的概率是p,那么在一个list下滑的过程中,点击了第j个item的概率是(1-p(i))^j * p(j).

论文[1]中最后的objective中有一个因子,表达了user choice的假设:

简单理解就是,用π当做用户每次选择的概率,那上面就是K-1不选择a概率的连乘。而论文[2]中,RL模型和现有的监督模型是融合在一起的,直接用pCTR模型预估的pctr来当这个user choice的概率。

最后

这篇写的有点长,但就算如此,看了本文也很难让大家一下子就熟悉了RL,希望能起到抛砖引玉的作用吧。从实践角度讲,比较可惜的是long term reward的建模、tensorflow在训练大规模RL应用时的问题讲的很少。最后,不知道youtube有没有在mutil-task上深入实践过,论文[2]中也提到它在long term上能做一些事情,和RL的对比是怎么样的。

参考

[1] Top-K Off-Policy Correction for a REINFORCE Recommender System

[2] Reinforcement Learning for Slate-based Recommender Systems: A Tractable Decomposition and Practical Methodology*

[3] https://slideslive.com/38917655/reinforcement-learning-in-recommender-systems-some-challenges

[4] https://zhuanlan.zhihu.com/p/72669137

[5] 强化学习中on-policy 与off-policy有什么区别?https://www.zhihu.com/question/57159315

[6] http://wd1900.github.io/2019/06/23/Top-K-Off-Policy-Correction-for-a-REINFORCE-Recommender-System-on-Youtube/

来源:知乎 www.zhihu.com

作者:吴海波

【知乎日报】千万用户的选择,做朋友圈里的新鲜事分享大牛。
点击下载

此问题还有 11 个回答,查看全部。
延伸阅读:
MDP马尔可夫决策过程中的值迭代和策略迭代感觉并没有本质区别?

为什么Q-learning不用重要性采样(importance sampling)?


虚拟安全独角兽Shape Security获5100万美元融资,计划上市

WechatIMG72_meitu_1

【猎云网(微信号:)】9月13日报道(编译:叶展盛)

虚拟安全创企Shape Security能保护企业在线系统免于欺诈攻击。近日该创企获得了C5 Capital领投的5100万美元融资,参投方包括Kleiner Perkins、HPE Growth和Norwest Ventures Partners。

在本次交易后,Shape Security的估值将超过10亿美元,成功跻身独角兽俱乐部。

这家加州山景城创企成立于2011年,它的核心服务就是帮助银行等大型企业预防欺诈。具体地讲,就是防止机器人通过不断的凭证填充、创造虚假账户等手段入侵正常用户的账户。

许多网络攻击都采用了自动化技术,一旦找到在线系统的弱点,它就会立刻入侵。举个例子,如果一个入侵者窃取了大量的信用卡细节,如果他要挨个尝试信息就会花费太多时间,他只需要训练一个机器人,在自己示范了一次后,机器人就会跟着把剩余的信息处理完,直到获得可用的信息。恶意软件也能远程绑架设备,甚至黑客可以窃取某个用户的信息为自己创建一张新的信用卡。

通过身份造假和自动化技术,大规模的网络攻击就非常容易实现。而Shape Security反过来利用自动化技术来应对这类攻击。

这家公司能利用历史数据、机器学习和人工智能技术,判断某个网站、手机应用或API终端的用户“是真是假”。如果确定是“假用户”,那么它就会立刻进行阻止。攻击者会不断改变方法,反复尝试,Shape Security也会跟进学习。

在此之前,Shape Security已经获得了将近1.3亿美元融资,投资方包括著名的GV和谷歌前任首席执行官Eric Schmidt的Tomorrow Ventures。这家公司表示会利用这笔资金在全球推广其平台,并提高它的人工智能。

“这次投资会扩大我们的国际运营,支持公司的人工智能研发。我们取得的发展成绩和新老投资人的信任,都证实了公司保护所有企业免受欺诈交易危害的愿景。”Shape Security联合创始人兼首席执行官Derek Smith补充道。

另外工程主管Jarrod Overson表示公司将计划上市,但没有透露具体的时间。


品牌跨界不止,老字号月饼更“作”?

WechatIMG72_meitu_1

 【猎云网北京】9月13日报道(文/李欢欢)

中秋节作为我国的一个传统节日,似乎在这两年变成了一个月饼营销节,好不好吃早已不再是大众关注的重点,那些特别的月饼反倒更能吸引人的眼球。豆汁、酸菜白肉、蒜泥白肉、柠檬豌豆黄,不知道是新奇美味还是黑暗料理的月饼自身就带有吸引力,让不少人去“打卡”“发票圈”。

今年的月饼大战似乎更加迅猛,无论是包装还是口味,月饼礼盒一家赛过一家。仔细观察我们就可以发现,越来越多的品牌开始跨界卖月饼,加入月饼大战中,而无论是新锐品牌还是老字号品牌都采用了多种营销手段,努力向年轻人靠近。

品牌跨界做月饼为哪般?

微信图片_20190913110117.png

三只松鼠、良品铺子、百草味三大电商零食巨头,喜茶、乐乐茶、奈雪的茶三大新式茶饮巨头,全聚德、呷哺呷哺等饭店、7-11、全家等国民便利店纷纷都跨界做起月饼来[姚1]。零时电商和茶饮品牌推出的月饼具有很强的针对性,无论是包装还是口味,都以年轻人的品味来。以乐乐茶为例,乐乐茶今年打造了登月计划月饼礼盒,月饼表皮模拟了月球表面,有精心设计的陨石坑,口味也是颇受年轻人喜爱的奶黄流沙味。248元的月饼包含一枚月球灯,满足了年轻人拍照的需求。

饭店推出的月饼礼盒若能与自有品牌相结合,则更为有吸引力。全聚德今年推出的“聆花醉月”礼盒中有蔓越莓月饼、榴莲月饼,还有具有全聚德特点的鸭肉味月饼,虽然具有黑暗料理的感觉在,但在好奇心的驱使下,必然还是会有不少人尝试。

乐乐茶.jpg

为什么各行各届纷纷跨入月饼大战中?究其原因,最根本的就是巨大的月饼市场。根据中商产业研究院的数据,2018年中国市场月饼的规模大概是158亿元。今年,据京东大数据研究院发布的中秋消费数据,中秋节前两周全国月饼销量是去年同期的1.52倍,而月饼、糕点类礼券的销量为去年同期的2.6倍。可以看得出,我国的月饼销售是一个巨大的市场且份额在不断扩大。

除此之外,月饼的利润率也比普通的烘焙糕点高。老字号月饼品牌广州酒家2018年财报显示,月饼系列产品的毛利率达到63.22%,同比增长1.70%, 对于跨界销售商来说,卖月饼有力可图且利润较高。

最后,月饼是一种具有情怀的节日商品,品牌跨界卖月饼可以加强与消费者的联系,突出品牌形象。以喜茶为例,喜茶的月饼与自家欧包口味有很多相似之处,礼盒中带有的茶也是喜茶家的招牌茶,包装简洁又带有复古风,极具品牌特色的月饼礼盒强化了喜茶的品牌形象。

营销花样多,老字号更“作”

微信图片_20190913110126.png

请明星代言等老式营销外,跨界合作推出联名款成为很多月饼品牌青睐的营销手段。今年美心月饼和大火的盲盒品牌POPOMART合作推出了联名款月饼礼盒。礼盒分两种,含公仔的典藏款和不含公仔的普通款,典藏款价格略高,为448元,但为了嫦娥公仔,很多盲盒迷还是“剁手”买下了。这款礼盒更特别的在于有少量的异色款嫦娥公仔(正常为红色、异常款为绿色),一些有强迫症的盲盒迷为了抽到异色款,可能会买两盒甚至更多。跨界合作可同时吸引两个品牌的粉丝,试错成本也比较低,是老字号月饼品牌比较容易尝试的手段。

除跨界合作外,今年也出现了一些针对女性的月饼礼盒。广州酒家今年和国际设计师合作推出了国朝包包定制款乳酸菌流心月饼,这款月饼的礼盒为设计师设计的包包,可在之后“背出门”。星巴克今年和东方雅致生活品牌“上下”合作,推出了玉兔揽月、星月霁茗限量礼盒。玉兔揽月礼盒中是中秋主题丝巾和玉兔红手绳,星月霁茗礼盒中是白瓷罗汉杯和彩色釉瓷香炉。其实严格意义上来说,这两套并不算是月饼礼盒,因为礼盒中并不包含月饼,但目前消费者购买这两款礼盒可得到星巴克今年的星情月饼礼盒,所以就有用户调侃“不知是买礼盒送月饼,还是买月饼送礼盒”。

广州.jpg

除此之外,找网红带货也成为一种必不可少的营销手段。百草味和北京稻香村今年分别找了李佳琦和薇娅直播带货,其商品评论中有不少“从佳琦/薇娅直播间过来的”等类似的话语,而美食博主通过测评打广告也不再是什么新鲜的事。

总得来说,老字号品牌比新锐品牌更努力营销,会做很多新的尝试,原因在于他们更需要通过频繁的活动来抓取年轻人的眼球,获得年轻人的好感。

跨越“代沟”,向年轻人靠近

目前,80后90后已经成为了月饼的消费主力,无论是新品牌还是老字号品牌都努力向年轻人靠近。此外,月饼作为一种低频词的商品,一年只购买一次,再加上年轻人本身就对价格不太敏感,因此,对于他们来说,价格不是重点,口味新奇、包装有趣、营销好的月饼更容易受到他们青睐。

柠檬茶.jpg

首先是口味,年轻人对于新口味月饼的接受度高,在猎奇心理下,这些人更愿意买特别的月饼,哪怕是黑暗料理也值得一试。广州酒家今年和“上瘾神仙水”维他柠檬茶联合推出了柠檬茶饼中秋礼盒,据用户反馈,柠檬茶味的月饼还是很难以接受的,“胃酸的感觉”。但很多柠檬茶忠实粉还是会尝鲜,“买来给宿舍一起尝尝”“留个纪念”等等。美团点评发布的统计数据显示,大董烤鸭月饼、云海肴奇特植物月饼、歌帝梵巧克力月饼、北京宴桃山皮燕窝月饼、唐宫猫山王榴莲果肉冰皮月饼、乐忻的蜜汁鲍鱼月饼等“奇葩”口味的月饼都成为今年的新晋网红月饼,受到年轻人喜爱。

其次是包装,月饼是不是好吃,对于年轻人来说似乎并不重要,那些好玩有趣、具有传播价值的月饼礼盒更受年轻人欢迎。众所周知,每年的中秋节也是BAT月饼礼盒的pk战,大家很少会去关注口味,包装有新意又有独特意义的礼盒更容易胜出。今年,奢侈品的月饼礼盒也是赚足了眼球,爱马仕的“皮影戏”、LV的“热气球”、迪奥的斑斓星光,新奇的包装不仅让大家纷纷感慨“奢侈品就是奢侈品”,也自动充当起自来水,在朋友圈进行宣传推广。

最后是代言人方面,美心月饼今年请了王嘉尔做代言人,哈根达斯推出了国民弟弟刘昊然亲笔手绘款“昊月当空冰淇凌”。请年轻明星代言是老字号能够迅速贴近年轻人的方式,此外,粉丝的带货能力也不容小觑。

中秋节作为一个传统节日,具有一家人团圆的特征,但现在,不仅仅年轻人变为消费月饼的主力,他们也越来越不在乎月饼好吃与否,买一盒有趣的月饼礼盒送朋友或者留给自己拍照发朋友圈变成了很多年轻人的习惯。此外,节日一年只有一次,只要好玩好看,即使价格高,很多年轻人还是会剁手买单。在这样的月饼狂欢中,中秋节也逐渐带有了年轻人的色彩。


一文看懂两款顶级芯片——苹果A13打得过麒麟990吗?

【TechWeb】对于众多科技粉来说,苹果的秋季发布会就像一个节日,此次发布会之后,依然是预料之中的被刷屏。本次发布会除喜厌参半的浴霸摄像头之外,另一个巨大的亮点就是苹果A13处理器。

在发布会上,苹果罕见地将自己的机器和华为P30 Pro进行对比,但是重点在于苹果拿自己的上一代A12芯片“碾压”了华为P30 Pro,有网友用下面这张图来调侃华为。

1

当然真实情况不是这个样子,因为华为最新的麒麟990芯片尚无新机问世,而苹果也只能拿“旧机”对比,这样的比较让输的一方很不爽,赢的一方也感觉胜之不武。今天小编就带大家一起来看看苹果A13和麒麟990这两款全球顶级芯片的差异,来一场公平对决。

麒麟990何其物?

首先我们来看看麒麟990,麒麟990共有4G和5G两个版本,其主要不同在于是否集成5G通信基带,5G版支持独立组网和非独立组网两种通信方式,在全球走在前列,这是两个版本最大的区别。以下是关于麒麟990(5G)的一些资料,供各位读者忽略(请直接跳过看下一段):

从工艺上来讲,采用7nm+ EUV工艺制程,板级面积相比业界其他方案小36%。这是世界上第一款晶体管数量超过100亿的移动终端芯片,达到103亿个晶体管,与此前的麒麟980相比晶体管增加44亿个。CPU方面,麒麟990 5G采用2个大核(基于Cortex-A76开发)+2个中核(基于Cortex-A76开发)+4个小核(Cortex-A55),与业界主流旗舰芯片相比,单核性能高10%,多核性能高9%。GPU方面,麒麟990 5G搭载16核Mali-G76 GPU,业界主流旗舰芯片相比,图形处理性能高6%,能效优20%。NPU方面,麒麟990 5G采用华为自研达芬奇架构NPU,采用NPU双大核+NPU微核计算架构,在人脸识别的应用场景下,NPU微核比大核能效最高可提升24倍。

这些材料当然不可以全信,看文章和听人说话一样,不仅要听对方说了什么,还要听对方没说什么,看一款芯片也当然不能只看官方宣传画。笔者以为,看一款手机芯片的优劣一般要从以下四个方面:1.通信,作为手机来讲,打电话和可以随时随地使用移动网络是一个主要因素;2.CPU和GPU性能,性能是第一生产力,这一点不用哆嗦;3.架构,芯片架构是决定手机能耗和性能之间平衡的主要因素; 4.NPU,随着人工智能的发展,AI已经不再仅仅是云端的事情了,就像当年GPU的出现替代了一部分CPU的图像处理功能,NPU也即将成为下一个衡量指标,所以笔者在此将其列入。

第一, 通信,5G通信方面,华为可以说是独占鳌头式的领先,有基站也有基带,麒麟990搭载了Balong 5G基带全球首发,但是同时也存在两个问题,首先是全球5G商用还不成熟,中国作为5G领先国家,也仅仅是部分城市试点,目前三大运营商合起来试点城市也只有26个,并且这26个城市还要被三大运营商均分,买手机之前一定要确认自己所在城市是哪一家运营商的试点,对于大多数二三线城市来讲,5G是没有必要的,其次,5G由于基站建设尚不完备,5G手机使用存在极大发热问题,据笔者之前测试,当使用5G网络下载时,手机发热会急剧增加,手持即可明显感觉到热量的增加,5G手机续航时间也会缩短为原来的60%-70%。所以,从这两方面来讲,5G目前并不是一个很好的选择。

第二, 架构:对于架构来讲,很多朋友很不重视,其实架构决定了一款手机在性能和功耗之间的平衡,手机需要考虑的是便携性,一款需要随身带着充电宝的手机对于消费者来说是完全失败的,这也是乔布斯当年放弃x86拍版ARM架构的主要原因,x86架构虽然性能强悍,高功耗也让众多手机厂商耗不起。麒麟990和其上一代一样采取了Cortex-A76架构,而A77早已经发布。对此华为表示,没有用A77架构,是因为A77功耗太高,华为宁愿让消费者拥有一部电池续航给力一点的手机,而不是将注意力全放在提升运行速度而牺牲了电池续航时间。另一方面,笔者以为:麒麟990因为采取了5G基带,本身会极大地增加功耗,在加上A77的大功耗,对于华为手机来说简直就是灾难性地发热,也促使其不得不选择功耗更小的A76架构。

第三, 性能:从性能上来讲,麒麟990微调了之前麒麟980的4大核4小核设计,采用2个大核(基于Cortex-A76开发)+2个中核(基于Cortex-A76开发)+4个小核(Cortex-A55),的设计,大核频率为2.86GHz相比上一代980的2.6GHz高,中核2.38GHz较上一代低,小核频率1.95GHz较上一代1.8GHz高,所以据笔者猜测这一代990在性能方面提升不大。按照华为发布会公布的数据,和高通骁龙855相比,单核性能提高10%,多核性能提高9%,以下将会有详细测试。

第四, NPU:麒麟970是全球首款的端侧搭载NPU的移动处理器,当时是搭载寒武纪1H智能处理器,在华为Mate20上首发,获得了十分惊艳的表现,在影像和文字处理方面有很多黑科技面世。两代之后在麒麟990中,华为改用了自研的达芬奇架构,AI一直是华为的强项,麒麟990在AI BenchMark上的跑分达到了麒麟980的476%,由此可以看出其强大的AI能力。

AI性能增强是二者趋势

对于手机的AI能力,很多人觉得AI是服务器的事儿,和终端没有关系,但是华为Mate20系列的惊艳表现大家还记得吧,华为Mate20 Pro采用的是麒麟970,当时麒麟970搭载的是寒武纪1H芯片,也是全球首款搭载NPU的手机芯片,这么说可能对苹果有点不公平,因为相关的AI能力,苹果早就有了,只不过人家叫圣经网络引擎。再说回麒麟系列NPU的惊艳表现,首先是影像方面,从970开始,华为旗舰手机就可以实现AI人像留色,实时人像识别等功能,在此类黑科技方面,华为用户可以说是过足了瘾。

2

另外,在人像识别方面,比如夜景智能补足、暗光拍摄、磨皮等等都是其中的NPU在起作用。在文字识别方面,搭载NPU的华为手机可以即时将文字翻译成外文,并且可以保持和原文字的相似字体。如下图所示,便是用华为P30 Pro翻译的一段中文。

3

下面来说说苹果。从A11开始,苹果在自家的A系列芯片上搭载了一个专用于机器学习的硬件——“神经网络引擎(neural engine)”实际上所指的是一个处理器包封装在一起,这个计算包专业一点说叫Soc(System-on-a-Chip),根据分工不同,很多专用功能的处理单元加进来,比如我们最熟悉的是GPU,现在这个包里的独立单元数量已经越来越大,比如ISP(图像处理)、Modem(通信模块)、DSP(数字信号处理)等。不同的数据进来,交给不同特长的计算模块来处理将会得到更好的效果、更高的能效比。

从某种程度上来讲,苹果的“神经网络引擎”和华为的NPU是同样的功能,只不过开始之除,华为搭载寒武纪NPU,被更多人关注到而已,而苹果加入的都是自家的东西,很少拿出来说。“神经网络引擎”和NPU承担的功能大致相似,在图像方面的能力大大增强,华为NPU多表现在相机方面,而苹果相对来讲,更多表现在人脸识别,到现在为止,苹果手机的人脸识别功能是最好用的,原因即在此。其中对于 iPhone X 的“面容 ID”,面容 ID 功能会投射 30000 多个肉眼不可见的红外光点,然后将得到的红外图像和点阵图案传输给神经网络,创建脸部的数学模型,再将这些数据发送至安全隔区,以确认数据是否匹配。如果样貌随着时间而改变,它也能随之进行调整适应。

从两大巨头的惊艳表现来看,AI越来越成为未来手机的一大趋势,也逐渐将成为未来智能手机不可或缺的一部分。

另外,需要补充的是,A12的单个GPU核心面积相比A11减少了37%,显然,新的7nm工艺的加持下,使得A12能够在面积进一步缩小的同时,能够额外增加一颗GPU核心。神经网络单元面积增加3.16倍,性能暴涨,A13是A12基础上的升级,性能当然更为强大。

苹果和华为的大PK

接下来当然到了本文最重要的一部分,苹果A13和麒麟990到底谁能更胜一筹呢?一向只谈用户体验的苹果在发布会上首次开启跑分,并且跟友商进行对比,这是不是意味从此手机进入跑分时代了,还是说一向高傲的苹果终于“创新不够跑分凑”了?

在本次发布会上,苹果虽然和友商进行了跑分对比,由对比图可以看出,搭载A13芯片的iPhone11性能上远远胜过了搭载麒麟980的华为P30 Pro,对上麒麟990究竟孰强孰弱呢? 

4

在著名CPU跑分网站Geekbench上流出了iPhone11的跑分记录,单核成绩5415分,多核成绩11294分,这为笔者的比较计划提供了重要参考。

5

在麒麟990发布会上,公布出来的数据都是以高通骁龙855为基准的:相比骁龙855,麒麟990单核性能高10%,多核性能高9%,图形处理性能高6%,笔者在业内比较权威的跑分网站Geekbenchmark查询得到:三星 S10+的单核成绩为4461分,多核成绩为10003分,在Android阵营,三星 S10+的性能表现是有目共睹的,根据华为公布的性能提升占比,换算可得麒麟990的得分为:单核4907分,多核10901分,按照此标准粗略对比,麒麟990负于苹果A13,但是差距并不是十分大。

根据以上推断大致可以得出:

1. 苹果A13芯片性能优于麒麟990;

2. 苹果A13和麒麟990之间的距离并不是十分巨大,事实并非网络流传的“苹果有性能,华为有基带”,在性能上来讲,二者差距并没有拉开差距;

3. 麒麟990采用A76架构对于性能的影响有限,工艺进入5nm之后,下一代麒麟芯片有很大的追赶空间。

需要说明的是,上述对比并不具有十分严密的科学性,在跑分换算上的求值有一定的误差,只能得到一个大致的结论。另外,同一款芯片,在不同的机器上面也会有不同的性能表现,二者具体表现还要等华为Mate30 Pro发布之后再作实际对比。

文章


小鹏G3辅助驾驶全面体验:智能化长征的第一步 完全自动驾驶还有待时日

 

【TechWeb】2019年,小鹏汽车无疑成了新能源界的网红。

自改款以来,G3便颇受到媒体、汽车圈“聚光灯般”的关注。然而除了520km款增加续航,TechWeb还关注到:G3通过XPilot升级,具备了更大速度范围ACC、加入LCC。其他的升级我们暂且不聊,今天单纯谈谈ACC以及LCC的整体感受。

1

自适应ACC:

ACC并不是新技术,如果你购买30万的基础版宝马3系,4S店会问你要不要加装ACC。对于燃油车来讲,自动挡、小排量的汽车装ACC可以在长途、高速上节省不少力气。宝马3系给出ACC的加装费用是2k上下,各位可以参考下。

但问题来了,燃油车ACC可以做什么:据悉,宝马加装ACC仅仅是帮驾驶员在直线平整道路中,提供速度“恒定”功能,油门可以被放开。

2

小鹏G3升级后,ACC功能扩展到全速域,重点是:G3具备“自适应”ACC,用户可以放开双腿,把油门、刹车一股脑丢给XPilot。

首先来说操作,方向盘左手靠近小拇指处,便是辅助驾驶拨杆,如果在行车过程中需要开启ACC、LCC功能,只需左手拨动即可。

3

仪表盘指示灯亮起(路况允许),单次向内拨 = 开启ACC,上拨提速、下拨减速(5km/h一档,例上拨四次即可从50km/h增加70km/h);上扭增加跟车距离,下扭缩紧距离。

通过实际测试,初步体验为:60km/h主路巡航开启ACC跟车(前车55km/h),G3自动降速55、调整车距20m左右。这个跟车距离会随着智能传感器的检测数据得出:如果前方是小轿车,则维持20~30米距离;如果是货车,则拉开更大距离。整体体验相当不错。

4

文章