• 项目
首页>>文章列表 >>文化教育
文章列表

【AI TOP 10】腾讯实验室又破解特斯拉制动系统

中科院院士新增选初步名单出炉,清华39岁颜宁教授为最年轻候选人


中国科学院8月1日公布2017年中国科学院院士增选初步候选人名单,157位科学家“榜上有名”,其中年龄最小的是39岁的清华大学教授颜宁。


中国科学院各学部初步候选人分布如下:数学物理学部23人、化学部25人、生命科学和医学学部32人、地学部27人、信息技术科学部20人、技术科学部30人。




 MIT 人工智能实验室开放图像标注工具 LabelMe 源代码


最近,MIT 的计算机科学和人工智能实验室(CSAIL)开放了图像标注工具 LabelMe 的源代码,可以使用该工具创建定制化标注任务或执行图像标注。同时,CSAIL 开放此工具的源码有助于进一步开发出更高效的标注方式和工具,有助于机器视觉的进一步发展。



在该网址我们可以找到可在服务器上安装的 LabelMe 图像标注工具源码。LabelMe 是一个用于在线图像标注的 Javascript 标注工具。与传统图像标注工具相比,其优势在于我们可以在任意地方使用该工具。此外,它也可以帮助我们标注图像,不需要在电脑中安装或复制大型数据集。



 腾讯的实验室破解特斯拉制动系统,这不是第一次了

据《今日美国》报道,来自中国安全研究人员第二次成功破解了特斯拉Model X系统。研究人员能够远程开启汽车的制动器,车门和汽车后备箱也能够被打开和关闭。不仅如此,研究人员还能让车灯闪烁,车内广播播放音乐。他们把这一破解行为称之为“未经许可的圣诞表演。”


报道指出,这一破解过程比较复杂,研究者们利用汽车网络浏览器中存在的一系列漏洞,并借此发送恶意软件。他们甚至还能够通过无线局域网(Wi-Fi)和蜂窝连接(移动数据连接)来远程控制汽车。


来自中国科技巨头腾讯公司的科恩实验室总监吕一平(Samuel Lv)说,今年六月,研究者们将自己的发现告诉了特斯拉公司,该公司在两周之内修补了这些漏洞。




 200亿美元国家大基金助力中国芯片业发展


在中国力争成为一个集成电路强国之际,有政府背景的“大基金”正在发挥巨大作用。这只规模200亿美元、由政府资金支持的基金于2014年宣布设立,是中国政府力争在电脑芯片行业占据主导地位计划的核心。该基金正式名称为国家集成电路产业投资基金股份有限公司(China Integrated Circuit Industry Investment Fund Co.),在业内又称“大基金”。


这只国家芯片基金为帮助中国公司生产更先进半导体的关键性交易提供融资。英特尔和高通均参与过有该基金支持的与中国公司的投资。


  


苹果第三财季净利润87亿美元同比增长12%,AR技术加持的iPhone会变得不可或缺


苹果公司发布了2017财年第三财季业绩,报告显示,苹果第三财季净营收为454.08亿美元,高于去年同期的423.58亿美元;净利润为87.17亿美元,比去年同期增长12%。其中,第三财季大中华区营收为80.04亿美元,比去年同期下滑10%。


据外媒报道,公布最新一季财报后,苹果CEO蒂姆-库克接受了CNBC的专访,他表示AR技术的加入会让iPhone变得更加重要。


“对用户来说,智能手机会变得越发重要,因为它将覆盖你生活中的大多数活动,我们在WWDC上就做了展示。”库克说道。“而有了AR,我认为智能手机就变得更加不可或缺了。”


在今年6月的WWDC上,苹果推出了ARKit,开发者可以利用它打造AR应用。未来,用户手中的大部分iPhone都能享受到AR应用带来的便利,它们将为用户呈现一个完全不同的新世界。


 


微软的混合现实头盔299美元开卖


Microsoft“混合现实”头盔终于可以在微软商店(适用于开发人员)上买到。5月份开通的耳机预订,现在开发人员可以用299美元买到Acer耳机,以及329美元买到HP型号。规格上,两个耳机几乎相同。 都是每个研究1440×1440 90Hz显示95度运动视野,唯一的功能差异似乎是HP型号有更多功能,这可能会使用过程更加舒适,虽然我还没试用过。


微软拥有多个耳机方案合作伙伴,联想,华硕和戴尔也为Windows混合现实构建了硬件。




 巨头的收购和兼并正在放缓,创业公司退出更难

大型科技公司的收购连续第四年下滑。几年前,科技巨头快速获公司,收购成为主要趋势之一。但最近,微软,Salesforce和Facebook等大型科技公司的并购已经放缓。


科技创业公司的退出也在下滑,2016年约有3350个技术公司退出,比2015年下降了4%。


本文分析一些技术最大的玩家和最活跃的收购者的并购活动,综合而言,这些公司自2013年以来已经收购了444家创业公司。




 Facebook收购硅谷初创公司Ozlo,通过概率方法打造虚拟助理


据外媒报道,社交巨头 Facebook 刚刚收购了一家名叫 Ozlo 的公司,作为一家扎根于帕洛阿尔托的人工智能初创企业,或有助于为 Messenger 打造一款虚拟助理。Ozlo 擅长于基于文本的对话,声称能够理解和提供问题的答案,而不是简单地给出‘是’或‘不是’,该公司称之‘通过概率来断定事实’。Ozlo 在官网上有一段简短的演示,显示该人工智能助理在查询和理解了多个评论之后,回答某个餐厅的聚餐环境是否足够友好。




 曼恩集团等四大对冲基金采用机器学习,管理127亿美元资金


曼恩集团等四大对冲基金采用机器学习,管理127亿美元资金,世界上最大的上市对冲基金公司正在努力通过改进人工智能技术,更快更便宜的计算能力和越来越多的数据开放机会来提高收益。


 



 录下9万句话 用AI程序让亡父重生


2017年2月弗拉霍的父亲因癌症病逝。在父亲患癌期间,弗拉霍做出了一个大胆的决定:设计出一款属于自己和父亲的聊天程序。于是,在父亲生命的最后一段日子里,弗拉霍将父亲的话语全部录制下来,一共整理出了9万余词语。


之后,他借助Pullstring平台,设计出了专属的聊天机器人程序。该程序以上传的9万余词语为基础,由弗拉霍设定出针对某些语句接近父亲风格的回答,以此实现与去世父亲的虚拟交流。


通过这个程序,弗拉霍不仅希望自己和母亲能够重温与父亲交流对话的温暖,还希望自己的孩子未来也能够通过这种方式与他们从未谋面的爷爷对话,真正了解爷爷究竟是怎样的人。




 王小川发布“征女友启事”,还说了与马云、马化腾、张朝阳、周鸿祎之间的恩怨


很多人都说搜狗欠王小川一个老婆,王小川的回答却是,搜狗就是我老婆。


7月31日下午,有媒体爆料搜狗启动在美IPO,准备上市。随后,搜狗创始人兼CEO王小川也发了内部信,肯定了赴美上市这一说法。


在内部信中,王小川回顾了搜狗13年来的发展历程:“自2003年搜狗成立以来,我们将很多个不可能变为可能:我们在媒体的基因下孕育了搜索;我们重新定义了中文输入法,赢得了超过5亿用户;我们发明的“输入法-浏览器-搜索”三级火箭模式,是搜索行业追赶破局的唯一成功模式;2010年搜狗独立运营后,搜索份额与收入就开始爆发增长,这样的高速增长持续至今;2013年我们合并了腾讯搜搜。搜狗是中国互联网里一个不断创造惊喜的变量。”

【AI TOP 10】Reddit融资2亿美元

财富中国500强发布:最赚钱公司10~20位出现了两家民营公司—腾讯和阿里巴巴


财富中文网于7月31日发布了最新的《财富》中国500强排行榜。今年中国500家上榜公司的总营业收入达到了33.54万亿元,较去年大涨9%;净利润达2.8万亿元,增长约2.2%;营业收入和利润增幅较去年均有明显回升。今年企业上榜的年营收门槛为113.23亿元,首次突破百亿。


在所有上市公司中,最赚钱的依然是中国工商银行。而在最赚钱公司10~20位出现了两家民营公司——腾讯和阿里巴巴。

整体排名中,联想第18名,京东第21名,腾讯43名,阿里巴巴49名,百度92名。




  

潜在杀人凶器?VR设备、无人机、平衡车的死穴在“声音”!


我们常常听到过黑客入侵电脑攻击网页的情况,但是对于智能硬件设备而言,阿里云集团安全部门的王正博、王康表示,传感器可能是被我们忽略的一个重要的攻击面。


干扰、操控平衡车和VR虚拟头盔到底有多容易?其实只需一段27千赫兹(kHz)左右频率的超声波就能改变这类物联网设备的正常运行。生活中,一只宽吻海豚便能发出从20千赫兹(KHz)到220千赫兹(KHz)的超声波。


如果再对超声波的参数加以细致调节,甚至可以操控平衡车的行动轨迹和改变VR、AR等虚拟现实设备的动态画面,极端情况甚至会给这些设备用户带来人身伤害的风险。




 腾讯市值首次突破了3万亿港元大关


7月31日,根据腾讯自选股的消息显示,腾讯股价今日再度大涨,收市竞价中甚至一度达到316港元,以此计算,腾讯市值首次突破了3万亿港元大关。


截至收盘腾讯涨2.82%,报313.4港元,成交额67.29亿港元,成交量2160.91万股,市值达2.97万亿港元,股价再创上市新高。


近一段时间,腾讯股价接连创新高,今年的上涨幅度已经超过了60%。




 “逼死”交易员:摩根大通的AI机器人席卷欧亚和美国


人类交易员请注意,人工智能跑来抢工作了。


摩根大通全球股票电子交易负责人Daniel Ciment对英国《金融时报》表示,内部代号为LOXM的人工智能(AI)从一季度起已经在欧洲股票算法业务中投入使用,计划在四季度将其运用扩大至亚洲及美国地区。


据他介绍,LOXM的工作就是用最快的速度、以最优价格来执行指令。

LOXM并非只是机械地执行,它的特色在于能够利用“深层强化学习”方法,从过去几十亿条实盘和模拟盘的历史交易中进行学习总结,归纳经验和教训,以解决更加复杂的问题,比如怎样才能在不惊扰市场价格的情况下大量抛售股票。



 

未来15年AI将取代大量工作,但只能创造19%的新工作

人们通常认为人工智能所替代的就业机会远远大于它所创造的。最近,一项新的分析表明,以目前的增长速度来看,未来人工智能能创造的工作,只占因AI失去的工作数量的19%。劳动力的调整可能不仅限于蓝领工作,而且越来越多的咨询公司选择用AI来寻找解决方案,而不是增加昂贵的人力投入。



 中国科学技术大学自主研发机器人柔性手爪国际获奖


随着全球机器人产业发展进入高潮,需求驱动的源头技术竞争日趋白热化。中国科学技术大学自主研发的一款机器人柔性手爪,可抓握多种形状、尺寸和材质的物体,日前获得第 21 届 RoboCup 机器人世界杯及学术大会“最佳操作奖”。 


中国科大自主研发的柔性手爪采用刚-柔合一、电-气互补的设计原理,突破了刚性手爪的局限性,显著提高了手爪与被操作物体表面之间的贴合度,有效降低了物体形状分析的精度要求,极大改善了手爪与操作环境之间的可接触性。与现有各种刚性、柔性、软体手爪相比,具有更强的适应性,可操作更多具有不同形状、大小和表面特性的物体,具有极其广阔的应用前景。




 大跌眼镜!IBM 12个月的云收入超过亚马逊:151亿美元 VS 145亿美元

IBM在截至6月30日的12个月的云计算收入超过了亚马逊:151亿美元比145亿美元,这让业界大跌眼镜。


这么一来,IBM还成为了第一家12个月期间完全认可的云收入超过150亿美元的企业技术厂商。


亚马逊昨天表示,AWS云计算部门的季度收入达到41亿美元,比去年同期增长42%,涨幅惊人。如果这41亿美元与AWS前三个季度的收入相累加,截至6月30日的过去12个月的总收入为145亿美元。




 搜狗启动美股IPO,王小川:搜狗立项时,我与今天很多的创业者一样惨


今天(7月31日),搜狐公司宣布,其控股互联网搜索服务子公司搜狗公司计划就潜在的首次公开招股(IPO),向美国证券交易委员会(SEC)提交一份登记草案。随后,搜狗CEO王小川发布全员内部信,确认此事。


在没有控制权、没有资源投入的情况下,王小川打起“游击战”,一边做着公司需要的视频P2P项目,一边从各个项目划人做浏览器。自2003年成立以来,搜狗浏览器将很多的不可能变成了可能,它取得的不仅仅是“阶段性的成功”,更是一手促成了今天“四赢”的局面,于张朝阳,于王小川,于搜狐,于搜狗,都值得庆贺。


搜狐周一公布了强劲的第二季度财报。同时旗下搜狗将启动赴美IPO(首次公开招股)。受此消息刺激,搜狐周一股价大涨11.76%。



 社交新闻聚合网站Reddit融资2亿美元 估值18亿美元


Recode中文站 8月1日报道 社交新闻聚合网站Reddit联合创始人史蒂夫-霍夫曼(Steve Huffman)表示,该公司已募集2亿美元,目前估值为18亿美元。


霍夫曼在接受Recode采访时称,2亿美元是Reddit迄今为止规模最大的一笔融资,其将用于加速推进一系列内部产品和业务。


Reddit本轮融资获得数家硅谷知名风投公司的支持,这其中就包括Andreessen Horowitz和Sequoia Capital。




 百度在智能驾驶上下功夫 阿里却专心玩起了智能停车


围杆抬起又落下,车缓缓驶出停车场。车载系统接收到支付消息:已从绑定的账户中扣费。停车支付的全程几乎“无感”。


这是阿里YunOS Auto系统最近迭代的一项“无感支付”服务。通过与ETCP等停车场服务提供商合作,预计年底占领全国超过4000个具备电子支付功能的停车场,占市场总规模的50%。


相比于百度大张旗鼓的“阿波罗计划”,阿里巴巴在智能驾驶方向的布局显得谨慎而低调。2015年3月,阿里、上汽共同出资10亿元成立了一支“互联网汽车”基金,同时投资成立了“斑马网络技术有限公司”。“斑马”成立后,接管了阿里YunOS Auto及上汽的团队,继承了双方基因,志向是打造基于YunOS Auto系统的车联网体验平台。

【AI TOP 10】刷爆朋友圈的“换军装”采用人脸融合算法

数学家出身陈永财教授,明年起接任新加坡国立大学校长


新加坡国立大学(NUS)今日宣布陈永财教授(Prof Tan Eng Chye)将从2018年1月起担任新加坡国立大学校长。


陈永财教授毕业于新加坡国立大学数学系,获得一等荣誉学位后,赴耶鲁大学深造,并获得耶鲁大学数学博士学位。


在新加坡国立大学执教32年,陈永财教授提倡为学生提供“立足亚洲,放眼世界”的教育。在他的倡导下,NUS近年增加了学生到海外开展浸濡式学习的机会,赴海外交流学习的学生比例从2009年的50%增加到了2016年的90%。




   

科大讯飞机器阅读理解SQuAD测试夺第一

最近,一场机器阅读理解考试的最新成绩新鲜出炉——由斯坦福大学发起的SQuAD(Stanford Question Answering Dataset)挑战赛榜单更新成绩,科大讯飞与哈工大联合实验室(HFL)提交的系统模型夺得第一名,这也是中国本土研究机构首次取得该赛事的榜首。

 

SQuAD挑战赛最新成绩榜单


SQuAD挑战赛是行业内公认的机器阅读理解标准水平测试,也是该领域的顶级赛事,被誉为机器阅读理解界的ImageNet(图像识别领域的顶级赛事)。参赛者来自全球学术界和产业界的研究团队,包括微软亚洲研究院、艾伦研究院、IBM、Salesforce、Facebook、谷歌以及卡内基·梅隆大学、斯坦福大学等知名企业研究机构和高校,赛事对自然语言理解的进步有重要的推动作用。




 沈向洋介绍微软自制芯片HPU,AI崛起迫使谷歌和微软成为芯片制造商


谷歌和微软的项目中最显眼的是AI芯片制造,挑战目前成熟的半导体巨头如英特尔和英伟达。


苹果早几年就开始为其移动设备设计了处理器,并且被认为正在致力于创建一个新的芯片,以使未来的iPhone更好的人工智能。


微软近日宣布推出新的协处理器,以帮助当前的混合现实设备HoloLens的下一个版本体验更好。根据微软执行副总裁沈向洋的介绍,新的HPU将使HoloLens能够进行通常仅在云端完成的深度学习处理。




 换军装H5火爆朋友圈,人脸融合算法六步变脸“满足”从军梦


近日一款“穿上军装”的H5刷爆朋友圈,它由人民日报与腾讯天天P图合作推出,由于玩法简单有趣,加上建军90周年的气氛火爆,已经在朋友圈刷屏,连雷军等大佬也“换上军装”满足一下军人情结。

此次“穿上军装”活动由腾讯公司天天P图团队提供技术支持,包括人脸融合技术。


人脸融合算法总体上可分为人脸检测、关键点定位、透视变换、区域提取、色彩转换、边缘融合等步骤。六步实现“变脸”。





 


微软新成立AI研究院,13个研究组都在做什么?


十三个研究小组,分别是自适应系统和互动组、空中信息和机器人组、会话系统组、深度学习组、信息和数据科学组、知识技术组、语言和信息技术组、机器学习和优化组、机器教学组、自然语言处理组、感知和互动组、生产力组、强化学习组。


根据文章介绍,其中强化学习组研究者最多达20人,其次是自适应交互组和深度学习组均有十几人。



 Facebook推出Messenger平台2.1内置自然语言处理


Facebook最近宣布推出Messenger Platform 2.0,允许企业和开发人员构建更丰富的对话体验,并使用户更容易发现这些体验。而现在,Facebook已经宣布对这个平台进行了增量更新。


Messenger平台2.1包括企业与客户连接的新功能。此更新的重点之一是内置的自然语言处理,允许开发人员以简单的方式将NLP纳入其机器人。当内置NLP被启用时,它将自动检测用户在传递到机器人之前发送的消息的文本中的含义和信息。内置NLP的第一个版本可以检测以下内容:hello,再见,谢谢,日期和时间,位置,金额,电话号码,电子邮件和URL。 Facebook表示,这些NLP功能将是带给所有开发人员的第一步,从而使其能在Messenger上扩展体验。




 一场编程机器人“跨国对抗赛”,展示了中、日 stem 教育的哪些不同?

在机器人比赛领域,RoboCup 是全球影响力最大的赛事之一。2017 年 7 月末,RoboCup 在创立二十年后再次回到了出生地名古屋,此次 比赛首次加入了针对 12 岁以下学生的比赛“KOOV Challenge”。以 Sony 的教育机器人 KOOV 为载体,来自中国和日本的参赛选手们进行了一场“机器人对抗赛”。


在带队参赛的王海涛看来,儿童对编程的掌握可以分为三个阶段:

  • 面对已经完成的代码,能够读懂并进行调试;

  • 无法将需求拆分为任务步骤,但在面对明确的任务步骤时能通过编程解决问题;

  • 能够有效理解需求,将其拆分为逻辑明确的步骤并加以解决;

几乎所有来自国内机构的带队老师都认为中国学生在编程能力和技巧上有明显的优势,但在审美、造型、创意和材料运用上,中国选手还存在着差距。“龙、虎等选题有不少重复的现象,我们的孩子能实现很炫的功能,但在创造性思维上确实不如国外的孩子更放得开。”一位老师说道。


“不只是和日本,中国孩子与全世界相比都有类似的现象。”王海涛表示,“在公开的 Scratch 作品里可以看到,外国孩子写程序很多时候就是为了去完成作品的一个小功能,重要的是创意和外观造型。很多时候他们的程序只有几行,而中国孩子能够写出很复杂的逻辑。”




 李泽湘:下一个世界硅谷就在港深莞!


2017年,“粤港澳大湾区”概念正式写入《政府工作报告》,早在10多年前,香港科技大学创校校长吴家玮教授已提出这个概念。他认为,湾区应具备超级大港、所在区域的创新高地、金融功能发达和交通枢纽等几大要素。而粤港澳恰恰具备这样的基础和条件。


李泽湘教授在2013年,根据其过去十多年在港深莞地区的产学研实践,以及该地区产业升级与转型过程中对高科技人才的需求情况,撰写了这篇总结深港粤地区科创情况,描绘未来蓝图和努力方向的文章。相信下一个“世界硅谷”也将在香港、深圳及周边的东莞松山湖等地区诞生。这里的深圳是指广义的深圳,包括周边的东莞、惠州,甚至广州。



 微软正在机器阅读理解上加倍投入

作为公司日益增长的人工智能推动的一部分,微软正在加大对机器阅读的投入。 


七月份,两名微软研究人员介绍了新型神经网络架构ReasoNet。ReasoNet是推理网络的缩写,针对机器理解。 根据关于论文的摘要,ReasoNets利用多次转换来有效利用,然后对查询,文档和答案之间的关系进行理解,研究人员将在8月SIGKDD知识发现和数据挖掘大会上发表演讲。


这一项目在行业会议和内部招股会上展示,这通常会提供有关微软可能准备尝试将下一步商业化的线索。




 星巴克将使用人工智能让你对咖啡更上瘾!


星巴克将通过新的AI方式诱惑你买更多咖啡。今年秋天,星巴克将启动基于云计算的数字风轮计划(Digital Flywheel),通过记录常客的咖啡习惯,进行有针对性的咖啡推荐,从而通过个性化服务增加销量。

【AI TOP 10】Go能取代Python?

 新的全球首富亚马逊CEO贝佐斯超越盖茨成为全球首富


27日,美股开盘亚马逊上涨逾1.5%,报1068.88美元,亚马逊公司市值一度超过5110亿美元,按照盘中股价计算,贝索斯超越比尔盖茨成为全球首富。这也是比尔盖茨四年来首次被夺“世界首富”桂冠。



 Go取代Python;Kubernetes取代Linux、Apache;Etcd或取代MySQL


多年来,LAMP架构(Linux、Apache、MySQL和PHP/Python/Perl)一直是许多开发人员心目中的绿洲,有了它,开发人员很容易构建应用程序架构。


Sirish Raghuram是某提供托管私有云部署方案的公司的首席执行官。他认为新的LAMP架构有几大变化:


  1. Kubernetes同时取代Linux和Apache

  2. Etcd或许取代替换MySQL

  3. Go取代Python



 西雅图软件开发工作机会超硅谷


外媒于6月统计Glassdoor网站发布的开放软件相关工作中,西雅图区域占16.9%,而硅谷 - 包括旧金山和圣荷西区域 - 占16%。




 余承东透露,华为预计在今年秋季推出人工智能芯片


在刚刚举行的华为上半年业绩发布会上,华为消费者业务CEO余承东透露,华为预计在今年秋季推出人工智能芯片。




 李沐公布CVPR 2017 Tutorial所有资料,Gluon 新界面简化MXNet研究


MXNet作者李沐今天在GitHub公开了CVPR 2017 Tutorial所有资料,介绍MXNet/Gluon 的使用。MXNet是在生产环境中广泛使用的深度学习框架,其速度很快。Gluon 是MXNet的新界面,能令使用MXNet进行研究更简单。

 



 马斯克与扎克伯格争论的实质表面谈AI,实际维护个人品牌

人工智能已经超出了计算机科学的轨道,甚至有点科幻小说,成为一个抽象的话题。 当人们利用这一谈资树立自己的品牌,特别是像马斯克和扎克伯格这样大咖。




 迪士尼魔术长凳打破次元壁不用戴头盔体验AR

想进入迪士尼的梦幻世界?AI技术可以帮你实现。纽约迪士尼研发人员利用AI技术开发了一款名为“魔术长凳”(Magic Bench)的平台设施,不需要佩戴显示器或手持设备,通过增强现实技术和混合现实达到浸入式体验,让你进入迪士尼世界与迪士尼动画角色互动。



  


英特尔第二财季净利润28亿美元 同比增长111%


据外电报道,英特尔周四公布了截至2017年7月1日的2017财年第二季度财报。报告显示,英特尔第二季度营收为148亿美元,与去年同期的135亿美元相比增长9%,创历史同期最好水平;净利润为28亿美元,与去年同期的13亿美元相比增长111%。


据汤森路透统计的数据显示,市场分析师平均预期英特尔第三季度营收将达153.2亿美元。



 


阿里巴巴市值一度突破4000亿美元,已超过腾讯


7月27日晚间消息,阿里巴巴在美股价盘初上涨1.6%,刷新了盘中纪录高位至158.38美元。目前,阿里巴巴的市值超过了4000亿美元,而腾讯市值截止到目前约3700多亿美元。在阿里巴巴最近公布的2017年第一季度财报中,公司的营收同比增长了60%。






百度Q2净利同比增82.9% AI驱动强劲增长


北京时间7月28日(美国东部时间7月27日),全球最大中文搜索引擎百度(NASDAQ:BIDU)公布了2017年第二季度未经审计的财务报告。本季度百度营收为208.74亿人民币(约合30.79亿美元),同比增长14.3%;净利润44.15亿人民币(约合6.51亿美元),同比增长82.9%;非美国通用会计准则下,净利润55.71亿元人民币(约合8.22亿美元),同比增长98.4%;其中移动营收占比72%,高于去年同期的62%。


财报中,百度对下一季度业绩进行了展望:预计在2017年第三季度,百度的营收总额将会介于231.30亿元人民币(约合34.12亿美元)到237.50亿元人民币(约合35.03亿美元),同比增长26.7%到30.1%。移除百度游戏影响,同比增长29.1%到32.6%。该展望只代表基于当前情况的初步预测,不排除今后有调整的可能。

【AI TOP 10】AI ETF今年增长了30% 3倍于道指

NYU教授给AI新闻记者写了一封推心置腹的信,Yann Lecun等纷纷点赞转发


亲爱的记者朋友们,近期常能读到不少人工智能相关的“烂文”(新闻和公关稿都有),故想针对如何写成更好更真实的人工智能新闻为各位稍提建议。你对人工智能的了解可能和我对“皮革制造”的了解一样少。


1. 人工智能是一个很大且分支很广的领域


事实 :人工智能是一个很大的领域,从相关论题和使用的方法来看,是变化多样的 

建议:不要默认你采访的研究者了解“最近人工智能领域最前沿的是什么”。


2.没有任何人工智能的系统是可以做多个任务的


事实 :根本没有所谓的“一种人工智能技术”存在。

建议:不要说"一种人工智能技术”。


3. 人工智能不是什么新鲜事物


事实 :人工智能是一个旧领域,并且其中只有几个概念是真正的新概念。

建议:阅读图灵1950年的论文(http://www.loebner.net/Prizef/TuringArticle.html)。 这是一篇阅读感非常棒的文章,没有复杂的数学公式,各种技术词汇也非常通俗的融入其中。 


4. 不要相信炒作,多寻求客观意见。


事实:研究人员总是想卖点什么。 

建议:不要相信炒作。 


5. 人工智能多来自于人类的智慧,并不完全为自动化。


事实:大部分“人工智能”其实是人的智慧。 

建议:理解“AI解决方案”的哪些部分是自动的,哪些是由于人类领域知识的手动编码而来。




 

贝佐斯离全球首富比尔盖茨只差20亿美元


据《福布斯》北京时间7月25日报道,在《福布斯》追踪全球富豪个人财富的过去30年中,只有5人曾登顶年度富豪排行榜。


由于亚马逊股价持续上涨,该公司首席执行官杰夫·贝佐斯(Jeff Bezos)很有可能加入这一成员仅为个位数的俱乐部。美国当地时间星期一,亚马逊股价上涨13.28美元,涨幅为1.3%,报收于1038.95美元,贝佐斯个人财富也因此增长11亿美元,这意味着他与全球首富比尔·盖茨(Bill Gates)的差距仅为20亿美元。《福布斯》估计,星期一美国股市收盘时贝佐斯个人财富为882亿美元,盖茨则以901亿美元居首。




 百度地图升级,数据能力向交通物流领域输出,新增AR模式


7月25日下午消息,百度地图推出V10.0新版本,在功能体验和场景智能化方面进行升级。技术输出层面,百度地图开放平台为北京、成都、宁波等地的城市交通、城市规划提供数据支持。


继搜狗地图之后,百度地图也迅速推出了多轮对话交互的驾驶导航模式,提升产品在车载导航场景的竞争力。


场景功能方面,新增实时AR景区识别等伴游功能,加入室内地图、BD地图等数据。在AR步导模式中,“度秘”模拟成卡通导游的角色,通过图文、语音播报等方式进行解说。



 工信部:上半年工业机器人产量增长52.3%


国务院新闻办公室7月25日举行新闻发布会,请工业和信息化部新闻发言人、总工程师张峰介绍2017年上半年工业通信业发展情况,工信部表示,上半年工业机器人、集成电路的产量都分别增长了52.3%和23.8%。宁夏、云南、青海等地区工业增速都快于全国的平均增速,辽宁工业增速降幅同比收窄了3.4个百分点,新疆等省份均实现利润由去年同期大幅度下降转为快速提升。




 潘建伟团队再突破:下一代量子通信卫星不再怕光,能白天上岗


升空数月内,“墨子号”量子科学实验卫星就已完成了世界首次星地量子通信实验。不过,要真正实现实用化的覆盖全球的量子通信网络,仅靠单颗“墨子号”还不够,科学家们还要解决一些重要的问题:比如解决“墨子号”怕光问题、构建卫星星座网络,扩展通信时间等。


“墨子号”十分“怕光”,目前的量子通信实验,都是在晴朗的夜晚中完成的。从三个方面发展关键技术,中国科学技术大学潘建伟团队在青海湖实现了白天远距离(53公里)自由空间里的量子密钥分发,令下一代量子通信卫星有望克服“怕光”的弱点,实现白天上岗。


相关论文发表在7月24日的英国《自然·光子学》期刊(Nature Photonics)上。


现在,“墨子号”大约有68%的时间暴露在阳光下,也就是说,只有不到一半的时间能够工作。而轨道越高的卫星如在地球同步轨道的通信卫星,能“躲”在地球阴影里的时间不到1%。




 四大国产手机占据69%中国手机市场 苹果三星被越甩越远


一份最新的研究报告显示,在2017年第二季度,中国国产手机品牌雄霸中国手机市场将近69%的市场份额。


根据市场研究公司Counterpoint Research的最新报告显示,华为和Vivo是中国发展速度最快的手机品牌,其次是Oppo和小米。它们继续雄霸前四名的位置,进一步拉大了苹果和三星与它们之间的距离。


苹果的表现继续呈现出季节性的特点,而三星在Oppo和Vivo的夹击中已落败。




 

新型穿戴设备用“光”随心所欲造梦

可穿戴设备已经侵入梦的世界。有四家公司表示,他们的清明梦产品即将上市。所谓的清明梦就是,睡眠者知道自己在做梦,有时候甚至能主动控制自己的梦境。


绝大多数清明梦发生在快速眼动期,所以四家公司开发的设备都是利用传感器测量人类大脑在这一时期的脑电波模式。之后,这些设备提供某种刺激,如光,声或者电流,从而试图去诱导清明梦。


 迪士尼研发AI观察人类表情,收集观影反馈


迪士尼正利用神经网络来了解人们观影的反应。


在观察电影观众几分钟之后,人工智能便能从观众的面部表情来预测人们对电影剩余部分的态度。这项智能系统能自动识别观众是微笑还是哈哈大笑。


迪士尼的研究部门研发了神经网络,比如在观看电影超能陆战队、奇幻森林和星球大战时,可以通过查看观众的面部表情来对他们的观影反应进行评估。


这种测试的新方法可以称为——分解多种自动编码或简称FVAEs,它是一种初步的测验方法,研究人员已经证实这种新测验方法确实比传统的要好。




 全球机器人和人工智能ETF今年增长了30%,道指仅上涨9%


机器人、人工智能基金今年上涨达道琼斯工业平均指数的3倍,。The Global X Robotics and Artificial Intelligence ETF (BOTZ)今年上涨30%,道琼斯工业平均指数只上涨了9%。全球对机器人和人工智能的投资热度帮助了这一专业ETF的上涨。




 李克强深耕“双创生态系统”:中国正成全球创客天堂

越来越多海外“创客”和劳伦斯一样选择来到中国,吸引他们的正是中国总理所倡导的“大众创业、万众创新”。


《去中国创业!》,注意到这一现象的英国《金融时报》网站以此为标题进行了报道。《经济学人》杂志也称:“山寨商走了,创新者来了!”报道以深圳为例指出,这里正吸引着全球试图以新方式制造出新产品的各类企业家。发明和创新正把整个珠三角转变成先进的制造业集群。


《金融时报》网站在那篇呼吁到中国创业的文章中写道,在中国成功创业的海外创业者,为有志创业的年轻人指出了一条新路。


正如李克强总理所言:“我们的创业创新是开放的,要总结经验,吸引更多国家的企业带着资金来、带着技术来、带着人才来,在合作中实现共赢。”




 Facebook被曝正开发智能音箱 明年第一季度发布


据台湾媒体报道,Facebook正开发智能音箱,并将由台湾和硕科技制造,明年第一季度发布。


知情人士称,Facebook的智能音箱将更加注重视觉画面的交互,将配置15英寸的触摸屏。


屏幕将由LG显示器公司提供。 据悉,和硕已经小批量生产Facebook智能音箱的样品。

解密哈萨比斯投资的IPU,他们要分英伟达一杯羹

几个月前注意到Graphcore这个公司,是因为他们的IPU处理器:Intelligence Processing Unit。但除了看到他们一系列非常漂亮的DNN Graph(比如上面这个对于ResNet Conv1的可视化处理)之外,一直没有更详细的信息。在最近的RAAIS会议上,Graphcore的CTO,Simon Knowles做了一个介绍,让我们可以一窥IPU设计背后的一些思考。


“We’ve created a completely new processor that’s the first to be specifically designed for machine intelligence workloads – an Intelligence Processing Unit (IPU) that will set a new pace of innovation. ” “The IPU has been optimized to work efficiently on the extremely complex high-dimensional models needed for machine intelligence workloads. It emphasizes massively parallel, low-precision floating-point compute and provides much higher compute density than other solutions.” - Graphcore




从目前看到的信息,可以看到Graphcore IPU的一些关键Feature:


1. 同时支持Training和Inference,对于这一点,Graphcore有自己的一些独特的看法。


2. 采用同构多核(many-core)架构,超过1000个独立的处理器。每个处理器核的处理能力和具体支持的操作还不清楚。支持all-to-all的核间通信,采用Bulk Synchronous Parallel的同步计算模型(又是上个世纪80年代提出的)。


3. 采用大量片上memory,不直接连接DRAM。这可能是他们的架构中最激进的一个选择。


其它一些feature,如下


1. Training or Inference


Graphcore’s machine intelligence processors support both training and inference. If you’re thinking about it in terms of training and inference, though, you’re probably thinking about hardware for machine learning in the wrong way.


可以看出,当被问及他们的IPU是用于Training还是Inference的(这是对各种PU最常见的一个问题)时候,Graphcore试图从另一个角度去解答,即这种分类本身就是不对的(是目前某些厂商提出的不合适的说法)。总的来说,他们认为先做Training然后做Inference的机制,未来一定会被Learning取代。也就是未来理想的机器智能应该能够在部署之后还能保持持续的学习和进化。对于这个问题,Graphcore专门有一篇Blog做了说明,大家可以参考我在知乎上给出的翻译(https://zhuanlan.zhihu.com/p/28053630)。


另一方面,他们认为,从计算上来说,Inference和Training也有类似的特征。因此,他们的模型是下图这样,其中并没有Training的模块。



我的看法:

机器智能努力的方向之一就是Continuous Learning。如果在一个架构上能够同时很好的支持Training和Inference当然非常理想。不过从目前的实践来看,Deep Learning中的Training和Inference还是有较大的差异的,运算量的巨大差别,精度要求不同,算法差别,部署的Constraints等等。Graphcore最终推出的IPU能否很好的解决这些问题,还有待观察。


2.  What Shall we bet is fundamental to MI workload



IPU的设计的基础是Graphcore对于机器智能的Workload的理解。“在所有形式的机器智能计算中,我们试图从数据中推断知识模型,然后使用这些学习的模型从其他数据推断出新的结果。所以在很大程度上,工作量是由知识模型的性质来定义的”。“知识模型和对它们执行推理所需的算法最自然地表示为图形(Graph)”。因此,他们用Graph来作为机器智能的基础表示方法。这种表示既适用于神经网络,也适用于贝叶斯网络和马尔科夫场,包括未来可能出现的新的模型和算法。


这些Graph的第一个特征,是它们规模很大,通常包括数千到数百万个顶点。这也意味着巨大的并行性。第二个特征是它们是稀疏的,大多数顶点只连接到其他一小部分顶点。因此,必须在架构上适应这种稀疏性,因为它对处理器之间的存储器访问模式和通信模式有重大影响。第三个基本特征是数据的统计近似值。从处理器设计的观点来看,这有利于低精度浮点运算。这可能是低精度数据的高性能计算的第一个主要应用,和传统的高性能计算(HPC)是非常不同的(或者说完全相反的?)。另一个特征是模型参数的重用性。简单来说,卷积是空间重用,而回归是时间重用。这种重用可以获取数据中的空间或时间不变性。同时,如果重用参数,则会将其作用于给更多的数据,从而更快地学习。最后一个基本特征是,图形结构可以被视为静态的 - 至少在很长一段时间内。这对于构建高效的并行计算至关重要,因为使得编译器可以在将程序映射到多核并行处理器时的三个NP hard任务有可能实现:1)平衡跨处理器核的计算任务;2)分区和分配内存;3)处理器之间的消息调度。


对于稀疏性,还可以更进一步的说明一下。当我们把图模型存储到物理可实现的存储器中的时候,存储器访问的有效稀疏度进一步增加了。例如,一个图中的顶点可能连接到同样接近的100个相邻顶点。但是,如果我将该顶点的状态存储在具有线性地址的存储器中,则它只能有两个直接邻居。在低维存储器中存储高维Graph的效果是使邻域分散在存储器中。这对于非常宽的向量机(如GPU)来说是一个潜在的问题。图处理有利于更细粒度的机器,从而有效地分散和收集(scatter and gather)数据。这就是为什么IPU拥有比GPU更多的处理器每个处理器都设计用于处理较窄的向量。


基于上述对机器智能的Workload的理解,Graphcore提出了IPU的设计。


和CPU (scalar workload),GPU (low-dimensional workload)相比,IPU是为了high-dimensional graph workload而设计的。下面我们就看他们的一些比较有参考价值的设计上的考虑。


3.  架构设计的考虑


首先,他们也给出了一些会限制MI处理器的性能的因素,比如:1) Rate of arithmetic 2) Bandwidth or latency of data access (parameters, activitions, samples) 3) Rate of address calculation (high-dimensional models) 4) Rate of generation of random numbers (stochastic models)。但最后给出了最重要的限制因素,power



上图最左边说明一些功耗限制因素;中间对比了不同的浮点运算单元大体的面积和功耗;最后说明,如果给定功耗的面积的限制,芯片运行在1.5GHz,则芯片中只能有1/3的面积能够作为fpu(float point unit)运行。除非降低时钟频率,否则芯片中的很大一部分将无法工作(dark silicon)。



另外一个重要问题是存储。对于机器智能任务,GPU和CPU的性能受到其对外部存储器的带宽的限制。传统的外部DRAM系统(如DDR4或GDDR5)带宽太低,而且没有伸缩性。HBM在具有非常高的布线密度的硅衬底上使用垂直堆叠的DRAM die,其物理上非常接近处理器die。但它的生成困难,目前只用在最先进的芯片之中。此外,它把DRAM带入处理器的thermal envelope之中,因此处理器只能以较低速度运行。HBM2虽然能够提供更多的带宽(目标是1TByte/s),但仍然存在上述问题。最后一种类型的memory片上的存储SRAM,虽然相对性能好很多(访问速度快,功耗低,功耗密度相对逻辑电路也比较低),但是由于芯片面积主要用于逻辑运算,一般不会在芯片上使用太多SRAM。


但是,和常见的芯片架构不同,IPU采用了大量分布式片上memory的设计。这非常激进的方法,其目标是把所有的model都能够放在片上memory当中,如下图所示。具体来讲,IPU把大量的面积用于SRAM,所谓memory-centric chip,而适当减少运算单元fpu的面积,最终实现对power的充分利用。而GPU主要使用片外的memory,片上的面积中只有40%用于Machine Learning(fpu),而其它的50%的面积用于其它应用(Grahics,HPC)。由于GPU本身是面向多种应用的,这种设计也是很合理的。



当然,即使在IPU上集成尽可能多的SRAM,容量也很难和GPU连接片外的DRAM相比。但是,对于很多模型来说,这个容量已经够用。而SRAM可以以100倍的带宽和1/100的延迟来访问,这种优势是非常明显的。技术模型的规模太大无法放到片上的memory中,还可以通过多个IPU互连来及解决问题。IPU采用的同构多核的方式,也让这种扩展比较简单。


另外,Graphcore看起来并不是非常担心内存容量的问题。他们的依据包括:


1. 目前对于减少机器智能的内存占用已经有不少好的方法,也有很大潜力。


2.  IPU不需要用一些数学变换将卷积转换成矩阵乘法(貌似可以直接做卷积)。这些变换往往会增加存储的需求。另外,IPU不需要很大的Batch来提高并行的效率。


3. 可以通过重新计算来节省内存。例如,在GPU的DNN训练期间使用的大部分内存是存储正向传递中activitions,以便我们可以在反向传播期间使用它们。一个有效的替代方法是只保存定期快照(Sanpshot),然后在需要时从最近的快照重新计算这些activitions。这种方法可以减少一个数量级的存储,而计算只增加了25%。


我的看法:

之前和朋友讨论过在片上采用大量memory来保存所有模型参数的方法,不是很看好。Graphcore竟然采用了更激进的架构,甚至不直接外接DDR,还是比较出乎意料的。不过Graphcore给出的说明基本是可以支持他们这个架构选择的,也同时给了我们一个很不错的思路。希望后面能有更多细节和数据供我们分析。


4.  Serialise computation and communication


Graphcore提出,“Silicon efficiency is the full use of available power”。因此,他们还提出一些更进一步优化效率的方法。其中比较有意思的是运算和通信的串行执行。这个提法听起来比较奇怪。我们一般都是希望运算和通信并行化,最好是能在Computation的过程中完成下一次communication,这也是很多架构优化的一个方向。但是,如果是在一个功耗受限的系统中,情况可能就不是这样了。



上图的上半部分是传统的方法。我们希望处理器间通信与计算重叠,因此可以根据预期的工作负载来分配这两者之间的功率预算。但是,在实际运行的时候,应用程序具有不同的平衡,结果往往是程序在一定时间内完成,但是消耗了较少的能力。这是因为通信或者计算部分在一定时刻可能成为瓶颈,而另一个则不能充分使用它的功率预算。


换一种思路,我们假定计算和通信串行执行,并不重叠,都充分使用最大的能量运行。那么,无论实际工作量如何平衡,该程序都有可能在最短的时间内完成。因此,这也是一种效率更高的方式。


5.  多核通信方式



前面简单介绍了IPU采用了同构多核的方式,分布式的本地存储(没有共享存储)。另外,也介绍了它的“运算和通信的串行执行”的特色。那么在这种架构下,如何实现多个内核间的通信和同步呢?Bulk Synchronous Parallel的同步计算模型。



这又是一个上世纪80年代提出的技术。它的基本操作可以分为三个:1) 本地计算阶段, 每个处理器只对存储本地内存中的数据进行本地计算。2) 全局通信阶段, 对任何非本地数据进行操作,包括核间数据的交换。3) 栅栏同步阶段, 等待所有通信行为的结束。可以看出,这实际上和上一节介绍的 “运算和通信的串行执行”是一致的,也和IPU的多核local memory架构很一致。


6.  工具


Graphcore提供的工具叫Porlar,题图的图像就是这个工具生成的。



对于工具也不想多说了,一般大家承诺都不错,都是参照CUDA的配置,但实际效果。。。也只能试用了再评判。不过Graphcore目前只有50名员工,工具能否成熟还是有疑问的。


总结:

总的来说,从目前公布的信息来看,Graphcore的IPU在架构设计上还是有很多想法的, 非常值得讨论。不过,感觉上IPU这种同构多核架构在Cloud端应用应该更合适一些。虽然他们认为IPU的架构有很好的伸缩性,放到Edge 和Embedded应用也没问题,但我个人感觉是,这种架构顶多支持到自动驾驶,对于功耗成本要求更严苛的需求,还是更专用的架构(异构架构)更合适一些。

DeepMind最新ICML论文:价值分布方法超越所有传统强化学习

设想一位每天乘坐列车通勤的人。大多数早晨,她的列车都能准时发车,她能轻松有备地赶上早会。但她清楚一旦有一点点意外发生:机械故障,信号失灵,甚至仅仅是碰到雨天,都可能扰乱她的模式,造成她迟到或慌乱。

随机性(randomness)是我们每天都可能遇到的,深深影响着我们对世界的体验。强化学习(RL)应用程序中也是这样。强化学习是通过试错法学习的系统。通常,一个RL算法从一个任务的多次尝试中预测能获得的平均奖励,并使用这个预测来决定采取何种行动。但是,环境中的随机扰动(random perturbation)可以通过改变系统收到的确切的奖励来改变它的行为。


DeepMind在他们的ICML 2017论文《强化学习的一个分布视角》(A Distributional Perspective on Reinforcement Learning)中,提出不仅可以对奖励的平均值进行建模,还可以对奖励的所有变化进行建模,即价值分布(value distribution)。相比以前的模型,这种方法能让RL系统更准确,训练更快,更重要的是,它可能启发我们重新思考强化学习。

回到通勤的例子,假设这个旅程是3段5分钟的路程,其中每周会有一次列车发生故障,时间需要再增加15分钟。平均通勤时间可以计算为:(3×5)+ 15/5 = 18分钟。

DeepMind最新ICML论文:价值分布方法超越所有传统强化学习

在强化学习中,我们使用贝尔曼方程来预测平均通勤时间。具体来说,贝尔曼方程将当前的平均预测与即将要做的平均预测联系起来。从第一站开始,我们预测平均旅程是18分钟(总的平均时间);从第二站开始,我们预测平均旅程是13分钟(减去第一段距离的平均时间);最后,假设列车没有遇到故障,从第三站到到达目的地,我们预测通勤还需要的时间是8分钟(13分钟减去5分钟)。贝尔曼方程式连续地分别进行预测,并根据新的信息更新预测结果。


关于贝尔曼方程,有一点违反直觉的是,我们并没有实际观察到这些预测的平均值:通勤时间要么是15分钟(5天中的4天),要么是30分钟——从来不会出现18分钟!从纯粹数学的角度看,这不是一个问题,因为决策理论(decision theory)认为,我们只需要用平均值就能做出最好的选择。结果,这个问题在实践中大都被忽略了。但是,有大量实证证据表明,预测平均值是非常复杂的。

在我们的新论文中,我们提出贝尔曼方程的一个变体实际上可以预测所有可能的结果,而不用对它们进行平均。在我们的例子中,我们在每个站保持两个预测——一个分布:假如旅程顺利,那么时间分别是15分钟,10分钟,5分钟。但如果火车发生故障,那么时间分别是30分钟,25分钟,以及最后一段是20分钟。


在这个新角度下,所有的强化学习都可以重新解释,其应用已经带来一些惊人的理论成果。预测结果的分布也启发了各种算法的可能性,例如:

  • 解除随机性的来源:一旦观察到通勤时间呈现双峰形,即采取两个可能的值,那么我们可以针对这些信息采取行动,例如在离家之前检查火车时刻表是否有更新;


  • 将安全和有风险两种选择分开:当两个选择的平均结果相同(例如,步行或乘火车所需时间相同)时,我们可能倾向于风险小的选择(步行);


  • 自然辅助预测:预测多个结果,例如通勤时间的分布,已经被证明有利于更快地训练深度网络。

我们在DQN(Deep Q-Network)智能体实施我们的新想法,并以51个可能值的分布代替单一的平均奖励。另一个变化是新的学习规则,反映了从贝尔曼(平均)方程到它对应的分布式方程的转变。结果证明,从平均值转变为分布的方法超越了其他所有类似方法的表现,并且是大幅度的超越。下图显示,我们的方法只用25%的时间获得了已训练好的DQN的75%的性能,并且其性能远超人类表现。

DeepMind最新ICML论文:价值分布方法超越所有传统强化学习

一个令人惊讶的结果是,我们观察到在Atari 2600 游戏中有一些随机性,尽管底层游戏模拟器Stella本身是完全可预测的。这种随机性的出现部分是由于“部分可观察性”(partial observability):由于模拟器的内部编程,智能体在玩乒乒球游戏时无法预测得分的准确时间。通过可视化智能体对连续帧的预测(如下图),我们观察到两个单独的结果(低和高),反映了可能的时间。虽然这种内在的随机性并没有直接影响性能,但我们的结果突出了智能体在理解上的局限性。

随机性的出现是由于智能体自己的行为不确定。在“太空侵略者”(Space Invader)游戏中,智能体学习预测未来可能会发生失误并输掉游戏的可能性(零奖励)。

就像火车旅行那个例子一样,对这些不同的结果分别进行预测是有意义的,而不是将它们总计为一个不现实的平均值。实际上,我们认为这一改进的结果很大程度上是由于智能体自身具有对随机性建模的能力。

我们的实证结果表明,分布视角能带来更好、更稳定的强化学习。由于每个强化学习概念都可能有一个对应的分布式方法,这可能是这一方法的开端。