• 项目
首页>>文章列表 >>文化教育
文章列表

计算芯片革命来临?英伟达谷歌入局紧逼英特尔

随着神经网络的研究和应用越来越多,人们也越发地认识到神经网络所需的计算力近乎于无底洞 。如果说高校实验室和一般爱好者在耐心等待之外办法不多的话,大公司们要面对的则是“做还是不做”的问题。

英特尔、英伟达、微软、谷歌这几年为了“做”,都有哪些举动呢?纽约时报的这篇文章可以带我们看看这一变化的梗概。

现编译如下,有删改。

最近人们希望电脑能做的事情越来越多。电脑要跟人对话,要能认出人脸,也要能认出路边的小花,再过不久还要给人类开车。所有这些人工智能都需要极高的计算能力,即便当下最先进的电脑也没法随随便便完成。

为了能够满足高速增长的计算需求,一些科技巨头们现在正从生物学中寻找灵感。他们正在重新思考电脑的本质,然后建造更像人类大脑的机器:神经系统里要有一个中央脑干,然后把听、说这样的具体任务交给周围的大脑皮层去做。他们希望电脑也能这样。


新时代的萌芽

在连续几年的缓步发展以后,计算机终于又开始进化了,换上了新样子的计算机会产生广泛而持久的影响。它们能够大大提高人工智能系统的运行速度,也许未来某一天“机器人可以统治世界”的梦想也可以成真。这种转换也会削弱芯片巨头英特尔的地位。从提供互联网服务的数据中心、手里的iPhone到VR头盔和无人机,所有科技产品的核心都是半导体芯片。随着新型芯片的时代来临,目前年产值三千亿美元的半导体工业很可能会完全变个样子。

现任谷歌母公司Alphabet董事的 John Hennessy 曾任斯坦福大学校长,1990年代他出版写过一本计算机设计的权威著作。“这是一场巨大的变革,”他说,“现在的这一套做法马上就要过时了,大家都想重新开发一套系统架构。”

现有的计算机架构也有过自己的好日子。在过去的接近五十年里,计算机的设计者们都围绕着一块单独的、全能的芯片设计整个系统。这个全能的芯片就是CPU,台式电脑、笔记本电脑里都有,往往来自英特尔;手机里有时候也有英特尔的CPU。英特尔也是全球最大的半导体生厂商之一。

更复杂的系统在计算机工程师中间变得流行起来。以前可能所有的任务都要传到英特尔CPU中完成,现在的计算机则会把任务分成许多的小块,然后把它们交给外围的专用芯片完成,这些芯片结构比CPU简单、耗电也要更少。

谷歌的大型数据中心里的变化是对全行业未来走向的一个预兆。谷歌大多数的服务器里都还有一个CPU,但是现在有数不清的定制化芯片和它们共同工作,为语音识别等人工智能应用提供运算支持。

实实在在的需求推动了谷歌的这一变化。多年以来,谷歌都有着全世界最大的计算机网络,简直像是一个数据中心和线缆组成的帝国,从加利福尼亚一直扩张到芬兰和新加坡。然而,对这位谷歌的研究员来说,这样的网络还是太小了。

Jeff Dean 和谷歌为人工智能应用开发的TPU

Jeff Dean 是谷歌最出名、最受人尊敬的工程师之一。2011年他开始带领团队探索“神经网络”的想法。这种想法的核心是让计算机算法自己学习任务,然后可以用在很多的场合中,比如识别手机用户的语音输入,又或者是照片中的人脸。只花了几个月的时间,Jeff Dean 和他的团队就开发出了一个基于神经网络语音识别系统,它识别对话的准确率要比谷歌那时已有的系统高得多。但接下来也有一个麻烦,全世界运行谷歌的安卓系统的智能手机已经超过了10亿部,假设这些手机用户们每天只用3分钟语音识别,根据 Jeff Dean 的计算,谷歌也需要把现有的数据中心容量翻一倍才能支持得了。

监控着谷歌“数据中心帝国”运行的是计算机科学家 Urs Hölzle,在一次开会的时候 Jeff Dean 就对他说:“我们需要再建立一个谷歌”,后来有参会者回忆道。但这个想法实现不了,Jeff Dean 就提出了一个替代方案:自己造一种专门运行这种人工智能的芯片。

谷歌数据中心里的这个苗头已经扩散到了其它科技巨头的身上。在未来几年里,谷歌、苹果、三星等公司都会制造带有专用的AI芯片的手机。微软设计的这种芯片打算专门用在AR头盔上,然后谷歌、丰田等一大群造自动驾驶汽车的厂商也会需要类似的芯片。

这种研发专用芯片和新计算机架构的热潮,在美国国防部研究机构 DARPA 的前项目管理人员 Gill Pratt 看来可谓是人工智能界的“寒武纪生物大爆发”,他本人现在正在丰田从事无人车的研究。他已经感觉到,把不同的计算分散给数量众多的小面积、低功耗芯片的运行方式,会让机器更像人脑,这也让能源的利用效率提高了不少。“在生物的大脑中,能源效率至关重要”,在近期的一次采访中,身处丰田在硅谷的新研究中心的 Gill 这样说。


地平线已经发生变化

硅基的计算机芯片有很多种。有的芯片可以存储数据,有的芯片可以完成玩具和电视机中的基本任务;也有的芯片可以运行计算机上的各种运算,它们大到能构造全球变暖模型的超级计算机用的芯片,小到个人计算机、服务器和手机上用的。

多年以来,计算机和类似的设备都是以CPU为核心运行的,CPU也是设备成本的大头。这一切都似乎不需要做什么改变。根据英特尔联合创始人戈登·摩尔提出的著名的摩尔定律,计算机芯片中晶体管数量每两年左右就会翻一番,几十年来计算机性能的提升就是按照摩尔定律一路稳定地发展了过来。而根据 IBM 研究员 Robert Dennard 提出的 Dennard 缩放定律,芯片性能提升的同时,它们消耗的能源却几乎维持不变。所以在以往的日子里一切都还好。

然而到了2010年,让晶体管数量再翻一倍花的时间比摩尔定律预测的更长了,Dennard 缩放定律也失效了,因为芯片设计人员们遇到了来自材质物理特性本身的限制。结果就是,如果想要更高的计算能力,只靠升级CPU已经不能解决问题了,需要增加更多的计算机、消耗更多的空间和电力。

语音和语言团队负责人黄学东(左)和计算架构组的 Doug Burger 都是微软的专用芯片开发团队成员

业界和学术界的研究者们都在想办法延长摩尔定律的生命力,探索全新的芯片材料和芯片设计方法。但是微软研究员 Doug Burger 有了另一种想法:除了整个业界从1960年代以来都倚仗的CPU的稳步进化之外,为什么不试着探索专用芯片之路呢?

当时微软才刚刚开始用机器学习改进必应搜索,通过分析用户的使用方式改善搜索结果。虽然那时候的算法对硬件的要比后来风靡的神经网络低得多,但是芯片已经有点跟不上了。

Doug Burger 和他的团队做了很多不同的尝试,最终决定用了这种叫做“FPGA”(现场可编程矩阵门阵列)的芯片,它们可以在工作过程中重新编程,适应新的任务。微软的Windows需要运行在英特尔的CPU上,但是CPU是不能重新编程的,一旦造出来,能做什么就固定了。有了FPGA,微软就可以改变芯片工作的方式。他们可以先对芯片编程,让它在特定的机器学习算法中表现非常好;然后可以重新编程,让它适合做逻辑运算。同一个芯片可以有截然不同的表现。

大概2015年前后,微软开始应用这类芯片。到现在,几乎每一台微软的数据中心新增的服务器中都带有一块FPGA芯片,它们帮助呈现必应搜索的结果,以及支持着微软的云计算服务Azure。


给计算机装上耳朵

2016年秋天,另一组微软的研究员们做了和 Jeff Dean 的团队同样的工作,构建了一个比人类的平均水平还要高一点点的语音识别系统,也是通过神经网络。

这个项目的负责人就是黄学东,他是来自中国的语音识别专家。在介绍这项工作的论文发表之后没多久,他就约了他的好朋友、英伟达 CEO黄仁勋在 Palo Alto 吃了个饭。他们开了一瓶香槟庆祝。

黄学东和他的微软同事们就是靠着数量众多的英伟达 GPU训练出他们的语音识别系统的。没有继续使用英特尔的CPU。如果没有做这样的转换,他们很可能完成不了这项突破。“我们花了差不多一年的时间达到了人类的水平”,黄学东说。“如果没有新计算架构的帮助,我们可能至少要花5年。”

基于神经网络的系统可以很大程度上自己学习,所以它们进化得比传统方法设计的系统快得多。以往的系统需要工程师们写下无数行代码,仔仔细细描述系统应该如何如何做。基于神经网络的系统就不需要这样。不过神经网络的问题就是,它需要无数次的试错。要构建一个单词识别达到人类水平的系统,研究者们需要花费很多时间反复训练它,对算法做精细的调节,以及不断优化训练数据。这个过程里需要尝试成百上千算个不同的算法,每个算法又需要运行上万、上亿次。这需要庞大的计算能力,如果微软这样的公司用一般的通用芯片来做这样的计算,这个过程花的时间就太久了,芯片可能支持不了这样高的负载,用掉的电也太多了。

所以,几个互联网巨头都已经借助英伟达的GPU训练自己的神经网络。GPU本来的设计只是为了用在游戏图形渲染中的,专用的设计让它们保持了CPU近似水平的功耗,但是在神经网络训练中的计算速度要比CPU高很多。现在GPU就和CPU联手负责计算机中的运算。

英伟达借着这个机会大举扩张,向美国以及全世界的科技公司销售了大量的GPU,中国公司的购买数量尤为惊人。英伟达季度营收中数据中心业务的部分,在过去的一年中翻了3倍,超过了4亿美元。

“有点像是互联网刚兴起的那时候就走对了路”,黄仁勋在最近的一个采访中说。换句话说,科技界的局势正在快速改变,英伟达正处在这场改变的中心。


创造专用芯片

GPU是各个公司训练神经网络的重要基石,不过这也只是整个过程中的一部分。当神经网络训练完毕以后就可以开始执行任务,这时候需要的计算能力又有所不同。

比如,在训练好一个语音识别算法以后,微软会把它作为一个线上服务提供出来,然后它就可以开始识别人们讲给自己手机的指令。GPU在这种时候就没有那么高效了。所以很多公司现在都开始制造专门用于执行所学到的东西的芯片。

谷歌造了自己的专用芯片:TPU。英伟达也在造类似的芯片。微软在继续对 FPGA 芯片重新编程来让它们更适合运行神经网络,这些芯片来自英特尔收购的 Altera。

其它的公司也在后面追赶。专做智能手机用的ARM芯片的高通,以及数量客观的初创公司都在研发AI芯片,希望能在这个快速成长的市场中分一杯羹。根据科技调研公司 IDC 预计,到2021年,带有替代计算芯片的服务器将达到68亿美元的销售额,大致是整个服务器市场的十分之一。

Bart Sano 表示目前 TPU 也只是谷歌整个网络运营里的一小部分

Doug Burger 透露,在微软全球的服务器网络中,替代计算芯片只占了所有运营中很小的一部分。谷歌的网络软硬件研发工程副总裁 Bart Sano 表示谷歌的数据中心也是类似的状况。

英特尔实验室的主管 Mike Mayberry 已经向着替代计算芯片开始发起努力。可能是因为英特尔占据着数据中心市场90%的市场份额,从而也是传统芯片的最大的销售商。他说,如果对CPU做一些适当的修改,它们也可以应对新的任务而无需其它帮助。

不过这个硅片的新浪潮扩散得很快,英特尔的市场地位也越来越纠结。它一方面否认市场正在发生变化,但是又或多或少地转换着自己的业务避免掉队。2年前,英特尔花费了高达167亿美元收购了Altera,这家公司造的就是微软使用的FPGA。这是英特尔历史上最大的收购。去年,英特尔又收购了一家开发专门用于神经网络的公司 Nervana,据说又花了超过4亿美元。如今,在Nervana团队的领导下,英特尔也在开发一款专门用于神经网络训练和执行的芯片。


硅谷风投公司红杉资本的合伙人 Bill Coughran 在过去的接近10年中为谷歌的互联网基础设施出谋划策,他的工作内容基本针对的就是英特尔。他表示,“他们都有大公司病,他们需要想清楚如何踏入这片新的、成长中的领域,而且还不损害他们的传统业务。”

当英特尔内部高管们讨论摩尔定律失效的状况时,他们内部的混乱连公司外的人都看得到。在近期一次纽约时报的采访中,Nervana创始人、现在已是英特尔高管的Naveen Rao表示,英特尔其实可以让摩尔定律“再坚持几年”。从官方口径上讲,英特尔的姿态是传统芯片的改善在未来10年都还可以顺利地进行下去。

英特尔实验室的主管 Mike Mayberry 则表示加一两块芯片不是什么新鲜事了,他说以前的电脑里就有单独的芯片来处理声音之类的事情。

不过现在的趋势要比以前大多了,而且从新的层面上改变着这个市场。英特尔面前的竞争对手不仅有英伟达和高通的这样的芯片制造商,还有谷歌和微软这样一直以来都相当“软”的公司。谷歌已经在设计第二代的TPU芯片了。根据谷歌的说法,今年晚些时候,任何谷歌云计算服务的客户或者开发者都可以在新的TPU芯片上面运行他们自己的软件。

虽然目前这些事情都还只发生在消费者视野之外的大型数据中心里,但是这对整个IT工业体系产生广泛的影响恐怕只是时间问题。人们最期待的是,随着新型移动芯片的到来,手持设备也可以独立完成更多、更复杂的任务,不再需要把任务交给几百公里外的数据中心,无论是智能手机无需互联网也能识别语音指令,还是无人驾驶汽车可以用现在无法企及的速度和精度识别周边的世界。

换句话说,无人驾驶汽车少不了摄像头和雷达,但是同样少不了一颗好的大脑。

文森特系统用深度学习将涂鸦变成艺术创作

你喜欢艺术但下笔皆为灵魂画作,那么今天要介绍的这个项目肯定合你心意。


AI研究者创建了一个名叫“文森特”(Vincet)的系统——是的,就是梵高那个文森特——使用深度学习,将简笔画转变为“艺术品”。用户在平板上的涂鸦经过文森特之手(姑且这样表述),犹如梵高、塞尚和毕加索再临创作。


先来看一下效果:

再来一个:

据介绍,“文森特”是第一个能够实时解读(interpret)人类正在绘制的内容,然后帮人完成作品的系统。


为了设计文森特,研究人员使用了数千幅从文艺复兴时期到现在的绘画作品作为训练数据,让计算机学习对比度、颜色、纹理等信息。训练好的文森特可以解读画作线条的边缘,并运用这种理解来生成一个完整的画面。


要使用这个系统,用户只需直接在平板电脑上画画就好。文森特可以实时地解读用户绘制的不同线条,并在用户停笔后,在现有信息的基础上创建一张完整的图片。


忍不住再来一个,注意看自动补全的阴影和纹理效果:

文森特由剑桥顾问公司(Cambridge Consultants)的研究人员设计和制作。虽然机器学习/深度学习此前也被用于艺术创作(包括生成、编辑图像和音乐),但研究人员表示,文森特的独创性在于,它是第一个能实时解读内容并进行补完的系统。


剑桥顾问公司机器学习总监Monty Barlow先生表示:“我们所建造的产品对于原来的深度学习先驱是不可想象的。”


“通过成功结合不同的机器学习方法,比如对抗训练,感知损失(perceptual loss)和堆叠网络的端到端的训练,我们创造了一个高度互动的产品,提炼出草图中精髓,然后用整个人类艺术史润色。”


研究人员认为,除了在艺术绘画方面大放异彩,类似文森特的技术还有一系列潜在的应用。例如,如果使用真实的和模拟的驾驶场景训练文森特,那么这个系统也可以用于无人驾驶汽车。

百度开源移动端深度学习框架MDL,手机部署CNN支持iOS GPU

在开源PaddlePaddle深度学习框架的一年后,百度再次将另一AI技术投入公共领域——一个旨在将AI放到智能手机上的项目。


百度在GitHub开源了其移动端深度学习框架Mobile Deep Learning (MDL)的全部代码和脚本,并放出“先睹为快”的demo安装文件。


MDL是一个基于卷积的神经网络,设计来适用于移动设备。百度表示,它适用于使用智能手机的相机功能识别图片中的对象等应用程序。


MDL神经网络的计算部署在手机GPU,具有高速和低复杂性的特征。它可以运行在iOS或Android上,但项目的文档相比Google更倾向于Apple,支持iOS GPU计算,但Android GPU实现和TensorFlow模型转MDL尚未释放。


开源代码约4 MB,没有第三方库依赖(神经网络模型之外)。开发人员推荐使用该公司的PaddlePaddle模型转MDL,但也可以使用Caffe模型。


下面的截图显示,MDL可以在不到半秒内识别出图中的手机。


另一个MDL demo是识别图中的瓷杯,并将其用于寻找同款商品。


百度Mobile Deep Learning (MDL)



百度研发的移动端深度学习框架,致力于让卷积神经网络极度简单的部署在手机端。目前正在手机百度内运行。支持iOS gpu计算。体积小,速度快。


  • 体积 armv7 340k+

  • 速度 iOS GPU mobilenet 可以达到 40ms、squeezenet 可以达到 30ms


先睹为快


如果你想先运行demo试试效果。或者你仅仅是想快速用起来,而不关心CNN细节实现。开源库提供编译好的安装文件, 直接下载安装即可。


特征


  • 一键部署,脚本参数就可以切换ios或者android

  • 支持iOS gpu运行MobileNet、squeezenet模型

  • 已经测试过可以稳定运行MobileNet、GoogLeNet v1、squeezenet模型

  • 体积极小,无任何第三方依赖。纯手工打造。

  • 提供量化脚本,对32位float转8位uint直接支持,模型体积量化后4M上下

  • 与ARM相关算法团队线上线下多次沟通,针对ARM平台会持续优化

  • NEON使用涵盖了卷积、归一化、池化所有方面的操作

  • 汇编优化,针对寄存器汇编操作具体优化

  • loop unrolling 循环展开,为提升性能减少不必要的CPU消耗,全部展开判断操作

  • 将大量繁重的计算任务前置到overhead过程


MDL使用的是宽松的MIT开源协议。


demo源码实现请阅读GitHub页面。

搜狗清华斩获NTCIR-STC2冠军,如何在检索生成两大任务中脱颖而出?

第十三届 NTCIR 评测比赛于近日正式公布了短文本对话任务(STC2)的赛果。本次比赛吸引了国内共有 11 家企业、29 所大学和研究所,包括 BAT 等企业,以及北京大学、中国人民大学等多所知名高校参与。搜狗搜索联合清华大学人工智能国家重点实验室组成的 SG01 战队首度参战,在 NTCIR13-STC2 评测比赛中以绝对优势排名第一。


据了解,SG01 的团队成员共 5 人,包括搜狗搜索研发部研究员赵海舟,杜毅,黎航宇,以及清华人工智能所的研究生钱桥和周昊。搜狗搜索总经理许静芳和清华大学朱小燕、黄民烈教授都对该团队进行了充分指导。

在分工上,清华人工智能所与搜狗合作进行生成模型的设计与验证,另外搜狗还负责检索模型研发、系统搭建以及评测的工作。「搜狗在搜索领域有着十分深厚的技术基础,而清华人工智能所在生成式对话领域也有着丰富的研究基础,二者刚好互补,」钱桥向 AI 科技评论表示。

NTCIR Workshop 是一个针对信息访问(IA)技术(包括信息检索、问题回答、文本摘要、提取等)的评估比赛,经过十余年的发展,现在已经成为一项国际重要赛事。

在 2016 年,第十二届 NTCIR 中首次设置了基于中文、日文两种语料的评测新任务,即短文本对话任务(STC),这也是目前国际上唯一的开放域对话方面的评测比赛。

从语料上讲,一个对话系统可以分为两种,即任务域语料以及开放域语料。任务域是指其对话内容可以被某一任务领域的语料所涵盖,比如订餐,天气查询等等,其对话意图以及语言的复杂性比较可控;开放域是指其对话内容没有限制,可以是生活中的任意对话场景,其对话意图十分广泛,可以说涵盖所有对话意图,语言复杂性也很高。


从官网获悉,本次赛事共分为两个子任务,即检索任务和生成任务。在检索任务中,研究者需要基于微博作为中文语料(或 Twitter 作为日语语料),并针对给定的一条新微博,通过给定的以往评论知识库检索到对应的连贯且有效的评论;而在生成任务中,则是希望参赛团队能根据给定帖子生成流畅、连贯且有意义的评论。根据规定,这一任务采用与第一个任务相同的知识库。生成器可通过使用统计机器翻译(SMT)模型或基于 RNN 的神经模型进行建模,当然,参赛团队也可以使用其它 NLG 方法。

对于团队而言,检索任务和生成任务可以看作是完全不同的两个任务。「检索任务像是选择题,核心问题是语义相似度的计算。生成任务更漫无边际一些,要做自然语言的生成,并且还要保证与问题的逻辑相关性。」钱桥向 AI 科技评论表示,在问题层面,生成模型产出的结果可以通过检索模型进行重排序。在模型层面,二者都用到了深度学习模型,相互的借鉴是很有必要的。

钱桥透露,本次比赛所采用的所有模型都是基于 Seq2Seq 模型的,「它可以看作一个带有 Attention 的 RNN-Encoder-Decoder,此外我们还使用了 VAE 等模型。比赛中我们还使用了基于检索以及基于学习的方法对 Beam-Search 生成的结果进行重排序,从而挑选出更为合理的回复。」

在基于检索的方法中,搜狗团队告诉 AI 科技评论,检索式的对话系统主要使用了 deep match 和 learning to rank 的技术,除此之外还加入了生成式的 seq2seq 模型的生成概率作为 feature 进行排序。

由于这次比赛在过程中并没有组织公开的评测,而是在比赛结束后统一评测,钱桥表示,这使得 SG01 团队在比赛过程中只能跟自己比较,自己就是自己最强劲的对手。「在组长的安排下,我们每周都会组织一次评测工作,评测标准与大赛一致且都是人工评测。这个评测结果驱动着我们挑战现有的最好模型,从而创造更好的模型。」

而在评审阶段,团队认为一条评论是否「合适」(符合评分标准)主要从两个方面入手,一是语法性和通顺性,第二是评论与原贴的逻辑关系的合适程度。


除此之外,主办方还有更加详细的指标,如信息量和场景依赖等,但 SG01 团队表示,通过他们所进行的测试看来,前两点还是起了更加重要的作用。「技术上我们通过多个模型的集成学习来增加多样的评论候选列表,并且通过重排序模型进行后处理选出最合适的评论。」

而在与钱桥交流的过程中,他认为生成式模型会是未来对话系统的主流。「检索式方法最大的问题就是不能根据特定的问题产生定制的回复,而且其数据库也很难涵盖所有的开放域的对话内容。从这两点来看,生成式的方法可以根据有限的语料学习到人类对话的模式,根据特定问题产生定制的回复,从技术上来讲有成为未来的主流对话系统的可能性。」

比赛虽然已经告一段落,但 SG01 团队依然在为年底的 NTCIR-13 会议做准备。而从对话系统研究的角度来讲,团队正在尝试解决多轮对话系统中的一些问题,比如上下文一致性,话题相关性等。

百度开源移动端深度学习框架MDL,手机部署CNN支持iOS GPU

在开源PaddlePaddle深度学习框架的一年后,百度再次将另一AI技术投入公共领域——一个旨在将AI放到智能手机上的项目。


25日,百度在GitHub开源了其移动端深度学习框架Mobile Deep Learning (MDL)的全部代码和脚本,并放出“先睹为快”的demo安装文件。


MDL是一个基于卷积的神经网络,设计来适用于移动设备。百度表示,它适用于使用智能手机的相机功能识别图片中的对象等应用程序。


MDL神经网络的计算部署在手机GPU,具有高速和低复杂性的特征。它可以运行在iOS或Android上,但项目的文档相比Google更倾向于Apple,支持iOS GPU计算,但Android GPU实现和TensorFlow模型转MDL尚未释放。


开源代码约4 MB,没有第三方库依赖(神经网络模型之外)。开发人员推荐使用该公司的PaddlePaddle模型转MDL,但也可以使用Caffe模型。


下面的截图显示,MDL可以在不到半秒内识别出图中的手机。


另一个MDL demo是识别图中的瓷杯,并将其用于寻找同款商品。


百度Mobile Deep Learning (MDL)



百度研发的移动端深度学习框架,致力于让卷积神经网络极度简单的部署在手机端。目前正在手机百度内运行。支持iOS gpu计算。体积小,速度快。


  • 体积 armv7 340k+

  • 速度 iOS GPU mobilenet 可以达到 40ms、squeezenet 可以达到 30ms


先睹为快


如果你想先运行demo试试效果。或者你仅仅是想快速用起来,而不关心CNN细节实现。开源库提供编译好的安装文件, 直接下载安装即可。


特征


  • 一键部署,脚本参数就可以切换ios或者android

  • 支持iOS gpu运行MobileNet、squeezenet模型

  • 已经测试过可以稳定运行MobileNet、GoogLeNet v1、squeezenet模型

  • 体积极小,无任何第三方依赖。纯手工打造。

  • 提供量化脚本,对32位float转8位uint直接支持,模型体积量化后4M上下

  • 与ARM相关算法团队线上线下多次沟通,针对ARM平台会持续优化

  • NEON使用涵盖了卷积、归一化、池化所有方面的操作

  • 汇编优化,针对寄存器汇编操作具体优化

  • loop unrolling 循环展开,为提升性能减少不必要的CPU消耗,全部展开判断操作

  • 将大量繁重的计算任务前置到overhead过程


MDL使用的是宽松的MIT开源协议。


demo源码实现请阅读GitHub页面。

一文读懂AI发展史里程碑事件

神经网络的诞生

你可能听说过神经网络,这是当今最前沿的人工智能背后的AI工具。虽然深度学习的概念相对较新,但它们建立的基础可以追溯到1943年的数学理论。


McCulloch和Walter Pitts写的《神经活动中思想的逻辑计算》(A Logical Calculus of the Ideas Immanent in Nervous Activity)听起来又长又拗口,但它对计算机科学的重要性就像(甚至超过!)“佩奇排名”(The PageRank Citation Ranking),这是催生了Google的一篇研究论文。在《逻辑计算》中,McCulloch和Pitts描述了人工神经元的网络是如何实现逻辑功能的。AI的梦想自此诞生了!



“人工智能”有了名字

如果你想知道“人工智能”(artificial intelligence)这个词正式出现是在什么时候,答案很可能是1955年8月31日。这是由研究人员John McCarthy、Marvin Minsky、Nathaniel Rochester和Claude Shannon提出“2个月、10个人的人工智能研究”(2 month, 10 man study of artificial intelligence)提案的日子。


这个会议第二年在达特茅斯学院举行。不幸的是,他们的时间表有点过于乐观了。他们写道:“我们认为,只需经过精心挑选的一组科学家一个夏季的研究,我们就能取得重大进展。”取得进展需要的时间可比两个月长得多。



“BACKPROP”的到来


反向传播(backpropagation)有时缩写为“backprop”,反向传播是机器学习历史上最重要的一种算法。1969年,它的理念首次被提出,尽管它在上世纪80年代中期才成为机器学习的主流。


反向传播的作用是在产生的输出与所期望的输出不匹配时允许神经网络调整其隐藏层。简而言之,这意味着人类可以通过在网络犯错时进行纠正来训练他们的网络。当这完成后, backprop 就会修改神经网络中的不同连接,以确保它在下次遇到同样的问题时得出正确的答案。


与计算机交谈

你有没有想过,亚马逊的Alexa、谷歌的Google Assistant、苹果的Siri,等等,它们都是什么?早在20世纪60年代中期,麻省理工学院人工智能实验室的一位教授发明了一个名叫 ELIZA的计算机心理治疗师,它可以通过文本的方式与用户进行看似智能的对话。


它的创造者当时就注意到,用户非常愿意用这种方式与机器进行对话,这让他们感到非常惊讶。



奇点

别担心,你并没有错过某个重要的头条新闻:奇点,也就是机器变得比人类更聪明的那个点,还没有发生。在1993年,作家兼计算机科学家Vernor Vinge发表了一篇文章,使“奇点”的观点流行开来。


奇点又被称为“即将到来的技术奇点”(The Coming Technological Singularity),Vinge预测,在未来30年里,人类将有能力创造超越人类的智能。他在书中写道:“不久之后,人类统治世界的时代就会结束。”这是一个警告,以伊隆·马斯克为代表的一些人在此后一直重申。



自动驾驶汽车来了

世界上第一辆自动驾驶汽车是谷歌开发的吗?不对。早在1986年,德国联邦国防军大学的研究人员就成功地在空旷的街道上驾驶了一辆自动驾驶的奔驰车,配有摄像机和智能传感器。


几年后,卡内基梅隆大学的一名研究人员Dean Pomerleau开发了一辆自动驾驶的庞蒂亚克运输小货车,从宾夕法尼亚州匹兹堡到加州圣地亚哥行驶了2797英里。用今天的标准来看,它的技术相当原始,但它证明了自动驾驶可以实现。



人脑与电脑的决战

1997年是人工智能的一年,因为IBM的“深蓝”超级计算机在国际象棋比赛中击败了人类象棋世界冠军 Garry Kasparov。这是一场人类大脑和机器大脑的决战。尽管无疑“深蓝”处理信息的速度比Kasparov更快,但真正的问题是,它是否会思考策略?事实证明它是可以的!


这一结果尽管可能并没有证明AI除了在有明确定义的规则的问题上表现出色之外,在其他问题是否也表现出色,但这仍是人工智能领域向前迈进的一大步。



AI在Jeopardy!节目获胜

就像深蓝与Garry Kasparov的对弈一样,2011年,IBM的AI面临着另一个巨大的挑战,IBM Watson在挑战Jeopardy!(美国一档电视智力竞赛节目)的前优胜者Brad Rutter和Ken Jennings——冠军奖获得100万美元奖金。比赛结束后,被沃森碾压的Ken Jennings打趣说:“我,作为一个人,欢迎我们的新机器人霸主。”



AI喜欢...猫?

2012年6月,谷歌的研究人员Jeff Dean和Andrew Ng通过喂给机器从YouTube视频得到的1000万张未加标签的图片,使用1.6万个处理器训练了一个用于识别猫脸的巨大神经网络。尽管没有提供关于这些照片的任何识别信息,AI还是能够通过深度学习算法,学会了识别猫的照片。



AI打败围棋世界冠军

2016年3月,谷歌DeepMind的AlphaGo在四场比赛中击败了围棋世界冠军李世乭(Lee Sedol)。全世界有6000万观众观看了这场比赛。这是一个具有里程碑意义的事件,因为围棋中可能的落子位置数目比宇宙的原子总数还要多。这是人工智能迄今为止最惊人的成就。


【微软AI已达8000人】加大AI赌注,联手亚马逊,与谷歌苹果抗衡

2016年9月,微软首席执行官Satya Nadella宣布成立微软AI研究小组,这是除Office, Windows,云企业以外的第四大工程部门。


这一步反映了Satya Nadella誓将“人工智能民主化“的理想。


负责微软AI研究小组的沈向洋表示人工智能将是颠覆性的力量。我们将把人工智能作为下一步。


在过去一年,微软AI研究小组人数增长了60%,从最初的5000人增长到目前8000人。这说明微软正在摩拳擦掌,誓与其他科技巨头(谷歌、苹果等)以及创业公司一较高下。

Bill Gates and Satya Nadella. (Microsoft Photo)


在这场激烈的人工智能角逐中,微软的优点和缺点同样明显。例如,该公司的Windows Phone业务无法与iPhone和Android相提并论。但是,通过其搜索引擎必应和最近对领英的收购,微软拥有海量数据以及机器学习原始材料。Office365等产品也为微软AI增加了分发渠道。


微软AI研究小组由计算机科学家和工程师组成。该小组的目标是促使这些研究人员和产品团队合作,把AI研究成果带出实验室,运用到更多产品上。



接连不断的AI创新

去年,微软很多产品和服务中都加入人工智能和机器学习元素,包括office,必应,Azure,可编程AI芯片。此外,还推出了一些人工智能程序,例如一款叫做“Seeing AI”的应用程序,能够帮助视觉受损的人们更好地去感知理解周边世界。


微软宣布和竞争对手亚马逊进行合作,将其各自的声控AI助手 Cortana and Alexa联合起来。


沈向洋暗示这次合作或许只是个开始,二个科技巨头之间还有更多合作机会。


微软正在推动AI更好地融入office中,例如一个叫做“ppt设计师”的功能,能分析ppt的文字内容,提出一个画面布局的优化建议。还有一个叫做presentation translator的项目,能将讲演者的现场演讲翻译成60种语言,通过分析幻灯片文本,创建自定义语音模型以获得更高准确性。

在Apple的iOS 11上运行在Core ML中的Microsoft Custom Vision Service,使用自定义数据模型自动识别菠萝。 (GeekWire Photo / Todd Bishop)


另一个AI计划叫做“微软认知服务”,为开发商提供API,将AI元素融入他们的应用程序中。这正是微软将AI民主化理想的一个反映。



更多挑战

尽管已经做了不少创新,微软还有很长的路要走。


在近期的GIX U.S.-China tech institution开幕式商,沈向洋表示,“我想提醒大家,我们现在还处在人工智能非常早期的阶段。电脑现在的确能将特殊任务做的很好,但涉及到通用任务时,AI还比不上一个孩子。”


上月在接收GeekWire采访时,沈向洋承认公司的部分AI业务还处于初级阶段。他说,“目前我们并不考虑赚钱的问题。在用户体验方面,我们还处在初期阶段。未来几年将非常重要。”


微软通过战略收购加强其AI能力。微软此前收购了两家创业公司:做自然语言的Genee和专注于深度学习的Maluuba。


为了解决AI伦理问题,微软成立了一个叫做“Aether”的内部小组。这个小组两周召开一次会议,来帮助公司形成人工智能的标准和最佳实践。


微软需要解决的另一个问题是如何利用必应和领英提供的海量数据。沈向洋承认在利用和连接这些数据时的局限性。微软需要考虑这些数据的所有权。


前微软高级项目经理Samir Diwan表示,如果微软能够解决上述问题,将会处于独一无二的地位。


他表示,微软在产品和研究之间的努力,将会在二者中产生一个良好的共生关系。