• 项目
首页>>文章列表 >>文化教育
文章列表

【AI TOP 10】百度阿波罗计划多为挂名,实质合作少

美国五科技巨头财报PK:苹果最赚钱,谷歌倒数第二

根据财报数据显示,在该季度中五大科技巨头的营收均有稳定增长,且势头良好。苹果并没有受到新款机型即将发布的影响,营收比去年同期的423.58亿美元增长7%,依然具有领先优势。


虽然苹果一直处于领先地位,但是这并不是苹果最辉煌的时候。根据2016年第一季度财报数据显示,苹果的营收甚至大于亚马逊、谷歌和微软三家营收之和。如今其他几大科技公司迎头而上,由此可见,苹果要想一直保住第一的宝座还是不能掉以轻心。




 科大讯飞刷新LUNA医学影像国际权威评测世界记录,召回率92.3%


近日,科大讯飞人工智能研究再获突破:在国际医学影像领域的权威评测LUNA上获得平均召回率92.3%的检测效果,以显著优势获得该项评测的第一名并刷新世界记录。


LUNA (LUng Nodule Analysis) 评测是肺结节检测领域最权威的国际评测,也是医学影像领域最具代表性、最受关注的评测任务之一。其采用的数据来自美国多家医疗机构,并且由多名专家医生共同标注完成。该评测从2016年开始,吸引了大批国内外学术界和产业界团队的参与,包括香港中文大学、北京大学、浙江大学、奈梅亨大学、阿里巴巴、Mevis以及诸多新兴创业公司。



 华南理工PK掉哈工大夺取RoboMaster2017机甲大师赛总冠军


第十六届全国大学生机器人大赛Robomaster总决赛在深圳举行。华南理工大学代表队——华南虎队以3:1的比分战胜山东科技大学,一举拿下全国总冠军。


华南理工大学代表队于5月份以南部赛区冠军的身份晋级全国赛。在全国赛打响后,一路势不可挡,先后战胜西安电子科技大学、中国石油大学(华东)、哈尔滨工业大学等高校队伍,以不败的骄人战绩闯入总决赛。 


总决赛上,华南理工大学发挥出强大的技术实力,基地、步兵机器人、工程机器人、空中机器人配合默契,战术强势,最后以3:1的绝对优势获得胜利,拿下“机甲大师”年度总冠军。



  

PyTorch趁ICML之际发布新版0.2.0,高阶梯度,分布式PyTorch,广播,高级索引,新层等



这次发布了用户期待已久的功能,如广播,高级索引,高阶梯度,以及分布式PyTorch。由于引入了广播,某些可广播情况的代码行为与0.1.12中的行为不同。 这可能会导致您现有代码中的无声错误。 我们提供了在“重要破损和解决方法”部分中轻松识别此模糊代码的方法。



 

10亿人用的美图成了这群人的“提款机”,30多天拿走60亿


美图公司2016年财报显示,目前美图在全球拥有超过11亿个独立用户,媲美互联网巨头,2017年1月的活跃用户总数达到了5.2亿,创历史新高。


从2013年7月到美图公司2016年12月15日在香港上市之前,美图总计对外融资超过31亿元,为它慷慨解囊的是一众明星投资者:IDG资本、华夏基金、老虎基金等。根据港交所披露易披露的数据统计发现,一些曾经给美图提供过资金的人,开始纷纷减持美图的股票套现了。


6月19日,李开复的创新工场出售了0.66亿股美图股票,每股8.5港元,一共套现5.61亿港元。7月3日,全球对冲基金排名第二的老虎环球基金减持4亿股,套现34亿港元。7月7日,美图主要股东之一的启明创投减持2.12亿股,套现18.02亿港元。7月25日,IDG资本减持美图5000万股,套现4.25亿港元。仅仅37天,上述四大机构就从美图公司股票中套现了61.88亿港元。



 密歇根大学终身教授刘向宏加盟滴滴 任智慧交通首席科学家


8月4日消息,滴滴出行今日宣布,密歇根大学终身教授刘向宏(Henry Liu)已加盟滴滴,出任智慧交通首席科学家。刘向宏将全面领导滴滴智慧信号灯研发团队,并进行智慧交通多项产品与技术服务的深度探索。


刘向宏是智慧交通领域的先行者和领军人物,任密歇根大学智能网联交通研究中心主任、土木和环境工程学院终身教授,以及交通研究所(UMTRI)研究员等,主要研究领域为交通网络监控、建模和控制,包括交通流建模与仿真、交通信号控制、交通网络分配和智能网联交通。作为一位深受信赖的导师和教授,他培养了数十位智慧交通领域的专家。此外,他拥有多项专利并发表过80多篇SCI/SSCI检索论文,同时担任多个智能交通期刊的副主编与编委。



 近万个家庭摄像头被入侵 隐私视频被倒卖,专挑对准床的


随着社会的发展,智能摄像头已成为越来越多家庭的“标配”,连上WiFi,即便出门在外也可以时时监控家里的情况。然而,最近就有别有用心的不法分子盯上了家用智能摄像头的安全漏洞。


近日,浙江丽水景宁县公安局成功打掉一个网上传播家庭摄像头破解入侵软件的犯罪团伙,抓获嫌疑人王某,查扣电脑3台,手机5只,查获被破解入侵家庭摄像头IP近万个,涉及浙江、云南、江西等多个省份。


警方侦查发现,被入侵的IP地址分布于全国各地,而每个IP对应的就是一个家庭摄像头,有的家庭可能还装了多个摄像头。家庭摄像头一旦被破解,入侵者就可以控制住摄像头进行拍摄。



 百度阿波罗计划打折 虽挂名 但与百度暂无实质合作

7月初,百度董事李彦宏违规乘坐无人驾驶汽车出现在北京五环,百度高调宣布其“阿波罗计划”正式启动,称将联合50家企业,在AI领域“All In”,并期望能在中国自动驾驶领域扮演举足轻重的角色,甚至起到决定自动驾驶航向的作用。


缀满“阿波罗计划”发布会现场背景墙的50余家初始合作者名单在7月曾轰动业界,这里面包括15家整车企业,其中有2家跨国汽车生产商。然而,提及使用百度的共享平台,并将数据交给百度者寥寥无几。“虽然挂名了,但与百度暂时并没有实质性的合作。”一位不愿透露姓名的整车企业自动驾驶领域负责人告诉经济观察报记者。而这种情况并非仅在一家企业中出现。


另外一家自主品牌汽车企业的自动驾驶领域负责人更是直称“挂名借百度名气蹭热度”。就算在50家“合作企业”齐聚的百度“阿波罗”大会上,除了奇瑞汽车、一汽为“阿波罗”实际站台,其他企业并没有发出声音。即便如此,在L3级别的无人驾驶产业化中,奇瑞暂时并没有打算使用百度无人驾驶软件平台。



 美军内部备忘录曝光:要求停用大疆无人机


8月5日消息,专业无人机网站SUAS News日前公布了美国陆军(US Army)一份内部备忘录,要求各部门停用大疆无人机。


备忘录称,由于“网络安全漏洞”(cyber vulnerabilities)问题,要求停用大疆无人机,卸载所有大疆应用,卸掉电池等。此前,在美国陆军,共有300多件大疆产品在军中服役。


对此,大疆公关经理Michael Perry对SUAS News表示,对于美国陆军的禁令,我们感到震惊也感到失望。



 福布斯实时财富榜:马化腾刚刚成中国首富,361亿美元身家超马云的356亿美元




 MegaBots公布最新巨大战斗型机器人,高5米重达12吨,可发射漆弹还能喷火

9月将举办的日美机器人决斗,美国方面的MegaBots公开了他们的最新巨大战斗型机器人「Eagle Prime」,造价250万美元,高5米重达12吨,可以发射漆弹还能喷火。


还在为论文发愁?ACL组委会手把手教你论文投稿小技巧

虽然今年几个大会议的投稿已经结束,但是还有未来更多会议的deadline在等着呀。在投稿的截止日期之前写出一篇完美的论文是众多研究者的心愿,deadline之前的一个礼拜时间虽短,但是仍能够将一篇文章从最初充满错误的草稿变为一篇漂亮的论文。同时投稿也有很多技巧和注意事项,还有谁比审稿人自己更了解什么样的论文比较讨人喜欢呢?下面来我们就来看看ACL组委会的审稿人对deadline还有一周时的写作建议,以及通用的完美论文小技巧。


编译如下:

Claire Cardie(Cornell University) 

我对提交论文前一周的建议是:在这个时间点,一定要提前写好论文,用这一周的时间尽可能多的得到资深审稿人的意见,针对意见对论文进行修改。事实上,没有人能够提前很久就将论文写的完美无缺。从实际角度来看,我认为在论文提交的deadline之前有两点工作是最重要的。

(1)论文的Introduction部分一定要说服读者,让读者觉得你做了一个非常重要的工作,解决了一个重要问题,并且得到了很好的很吸引人的结果,同时也要解释清楚这项工作做出了哪些新颖的贡献;需要让读者能够清晰的知道这篇文章所讲述的“故事”。文章的其余部分则要按照简介所说的,进行详细的解释,但是如果简介写得不好,你的文章就已经失去了很多读者的阅读兴趣了。所以一定要保证文章的简介是无懈可击的。

(2)自己查找或者找人帮忙查找工作中或目前文章中的最可能使得读者“Kill”掉这篇文章的点。尽可能去修改这些问题。在deadline之前尽可能重复的进行发现问题-修改问题这个过程。文章中总有一些东西需要去改进。  

Chris Dyer(Google DeepMind/Carnegie Mellon University) 

当你想要完成论文的时候,你的最重要的考虑应该是这篇文章是否足够清晰和容易理解。每年都有众多的论文拥有吸引人的重要结果,但是因为它们很难理解,而导致被拒绝或者没有得到应有的影响力。审稿人错过了新颖点,而普通读者在挫败中放弃了阅读。尽管文章语言流利用词优雅很难能可贵,但这些都只是细节,不影响整体,这对于non-native的研究者来说是个好消息。而文章的清晰性是最重要的,这取决于你的文章的内在连贯性,以及论据的展开是否有逻辑。在这方面很有帮助的一个方法是,从不同的粒度来阅读和编辑论文,也可以称之为“从粗到细的阅读”。首先,只阅读摘要和介绍。你能从中了解到该文章的论点是什么,以及关键结果是什么吗?接下来,再一次阅读摘要和每个部分的第一句话。你在这些地方都使用了同样的论点吗?最后,阅读每个自然段的第一句话。从中你应该很清晰地了解到你所要讲的“故事”的框架。 如果在你“粗略”地阅读了这篇文章之后,你仍然能够理解它的论点,那么你就得到了一篇组织良好的文章,你的审稿人也会理解这篇文章的。如果不能的话,再优美的语言也不能够解决文章的问题。  

Hal Daume III (University of Maryland) 

我首先给出的建议就是:尽量留出充足的时间来写论文,这样就不会把所有工作拖到最后一分钟才做完。导师和学生之间应该有时间多次修改论文,也应该有时间从那些不熟悉你的方法的人那获得建议。如果你的导师相当熟悉你的工作,在研究过程中一直在听取你的汇报,那让一个从来没有听说过你工作的一个人来提供建议将非常有帮助(不过最好是相同研究领域的人)。确保留下了足够的时间,这样当你获得反馈意见的时候,你可以认真对待。我能想到的其他建议还有:自我反思,我是否积极地完成这项工作?我是否准确的引用了其他人的相似研究?(注意:准确是十分重要的。作为一个审稿人,如果作者没有认真地阅读他所引用的其他文章,会给我带来很负面的影响。)我是否在前几段明确了我做的贡献?如果你使用的是非母语的语言进行写作,一定要找一位native speaker阅读语法和选词。使用拼写检查器确保没有拼写错误。在内容方面,进行错误分析或者对结果讨论的章节是十分有用的。这样会使得论文变的更有吸引力,而不是仅仅列出了冷冰冰的数字。  

Ray Mooney (University of Texas, Austin) 

我给予学生的唯一一个建议是,看一看项目委员会,根据你的主题确定谁可能会审你的稿,确保你的文章引用了他所写过的相关论文,这样就能够避免由于你没有引用审稿人的相关论文而导致的负面影响。尽管这个建议有点讽刺,但是还是很有用的。

Philip Resnik(University of Maryland)

确保你没有落入“知识诅咒(curse of knowledge)”的陷阱中,也就是不能假设你的读者已经拥有了你的知识背景和隐含假设。这意味着,你首先应该让读者清楚的知道为什么他们应该关心这项工作。仅仅提高某些任务X%的性能是不够的;要清楚这个任务有什么意义是最重要的。这意味着你应该将你的论文集中在逻辑性上,而不是技术细节:论文的叙述应该按照逻辑组织,而不是时间顺序;关于模型和算法的重点应该放在文本正文中,同时应该用最平实的语言进行解释,而不需要详细的解析方程或者算法图;衍生或这实现细节应该写在文档中,如果对于会议读者非常有必要的话,将它们放在附录中。  


在实验方面,要明确地分离训练数据和测试数据,并解释为什么选择了这个参数。比如你为LDA使用了50个主题,为什么不使用20或者100?如果这个问题的答案不是“我事先选择的这个参数”,或者“我根据保留的数据调整出来的”,而是“我只是使用了测试结果中最好的那个参数”,那你就进行了一个无用的实验。你可以通过列举你所有尝试的其他值来弥补,但是你需要准备好接下来审稿人的问题:为什么要相信你选择的值会在下一个未知的数据集中取得最好的结果。如果其他的参数都导致失败的实验,那你应该参考以前的文献,并使用其中的参数,称之为“先前工作中典型的参数”,并引用那篇文章。


最后,英文写作的质量很重要。并不需要花哨或者诗意的文字,但需要条理清晰,语法正确,拼写正确,逻辑清晰。否则你的审稿人难以理解你的观点。如果你的母语不是英语,那么最好找一个英语母语的人阅读并修改你的论文。

腾讯AI Lab独家解析ACL 2017,聚焦三大研究领域

腾讯AI Lab去年四月成立,今年是首次参展ACL,共计三篇文章被录取,位居国内企业前列。此次团队由实验室主任张潼博士与副主任俞栋博士共同带领到现场交流学习。

上图:腾讯AI Lab主任张潼博士现场演讲座无虚席

下左图:参与ACL的团队;下右图:现场论文展示


从研究领域和前沿思考出发,我们重点关注了三大领域的前沿研究,以下为重点论文评述。




问答系统

Question Answering System

随着人工智能的发展,图灵测试受到越来越多的挑战,问答系统(QA)就是其中一个尝试:试图让机器用准确、简洁的语言回答用户提出的自然语言问题。近年来,基于神经网络的问答系统已成主流。在本届ACL,知识问答系统(KBQA)及检索式问答系统(IRQA)也继续在神经网络模型基础之上有新突破:一方面在知识问答系统中,在解决问题表示以及答案生成任务时,基于端到端神经网络模型被进一步优化;另一方面,检索式问答系统中,针对小规模文档精确检索以及针对大规模文档快速检索,有了新尝试和突破。


一、知识问答系统


1、Generating Natural Answers by Incorporating Copying and Retrieving Mechanisms in Sequence-to-Sequence Learning

如何让知识问答系统生成自然语言形式的答案目前仍是一大挑战,中科院发表的这篇文章给出了一种可融入外部知识库的端到端神经网络模型。为给出一个自然的答案,此模型使用了端到端的语言模型。同时为引入外部知识库,而引入了检索机制。针对需要结合多个事实回答的复杂问句,模型用三种不同模式获取词汇并进行选取:用拷贝方式取得问句中的实体、用预测方式产生让答案更自然的连接词、用检索方式获取相关事实并结合多个相关事实产生复杂问句的自然形式的答案。论文分别在模拟数据集和真实数据集上进行了模型检验,在自动评估和人工评估上都证实了其模型超出其他传统端到端模型。


2、An End-to-End Model for Question Answering over Knowledge Base with Cross-Attention Combining Global Knowledge

基于神经网络的知识问答系统已取得瞩目成绩,然而传统神经网络方法在进行问句表示的同时,并没有考虑答案对其影响。这篇中科院与企业合作完成的文章中,作者提出了一种基于端到端的神经网络模型,特别地利用交叉注意力机制对问句和答案进行互相关注。一方面利用答案信息动态地进行问句表示,使得问句表示更加灵活充分;另外一方面也根据问题对答案不同方面的不同关注,对问句答案得分进行不同权重表示。此外,知识库全局知识被进一步引入用来训练Embedding并扩展词表,从而充分捕捉到知识库的全局结构信息,并缓解了传统模型中的词表溢出问题。在公开的数据集WebQuestions上,实验证明该方法能有效提升端到端模型实验性能。


二、检索式问答系统


1、Gated Self-Matching Networks for Reading Comprehension and Question Answering

检索式问答系统试图从文档中获取问题的答案。一般步骤是先从一众文档中检索相关文档,然后再进一步检索出相关篇章。由北大和微软合作发表的这篇文章重点解决后面一步,即阅读理解式的问答系统。文章基于端到端的多层神经网络模型从篇章中获取答案。


模型分为四部分:一是使用多层双向神经网络编码问题和篇章的语义向量表示;二是使用门注意力机制得到问题感知的篇章的语义向量表示;三是通过Self-Matching注意力机制提炼篇章的语义向量表示,从全部篇章中编码最终语义向量表示;四是利用Pointer-network来预测答案边界,从而得到最终答案。在Stanford发布的机器阅读理解比赛数据集SQuAD上,本文提出的模型的单模型和集成模型结果都分别排名第一。

2、Coarse-to-Fine Question Answering for Long Documents

大规模文档中检索答案在时间有效性上目前仍是一大挑战,由华盛顿大学和谷歌等多家机构联合发表的这篇文章中,针对大规模文档检索提出了一种高效检索并保持甚至提高目前最先进模型性能的架构 - 模型分层对文档检索。首先使用快速模型从大规模文档中选择问题相关的少量句子:使用三种不同句子简单表示方式处理大规模文档,然后利用Hard或Soft注意力机制得到文档的一个摘要表示,并使用三种不同方式选择少量候选句子,然后才用相对慢速的端到端神经网络模型从候选句子中产生最终结果。在WIKIREADING部分数据集上,实验结果显示此框架可以比基础模型检索速度高出3.5到6.7倍。

机器翻译

Machine Translation


粗略统计,本届ACL有27篇机器翻译相关的论文(15篇长文+12篇短文)。我们重点关注其中三个较有代表性方向的相关研究工作,并总结了相关趋势。


一、基于句法的翻译模型

本次会议中,有关如何在神经网络翻译模型中引入句法信息的工作共有8篇,是本届会议中机器翻译领域的一个重要方向。受过去统计机器翻译发展脉落(从基于字符串的翻译模型到基于句法树的翻译模型)的启发,来自不同单位的研究者探讨了各种引入句法信息的方式,包括引入源端句法树或目标端句法树,使用成分句法树或依存句法树及至浅层组块结构。

腾讯AI Lab研究员参与的两个研究[1-2]分别探索了从源端和目标端引入句法信息的可能性。第一个工作通过使用一种简单有效的方式将句法树转化为句法标签序列,在不更改序列到序列模型框架的条件下将源端句法信息引入神经网络翻译系统中。第二个工作则是在解码器端引入一个额外的组块层,通过限定每个组块短语中的所有词共用一个组块层状态及源端上下文向量,不仅引入了目标端的句法信息,同时以一种比较巧妙的方式引入“短语”翻译。


* [1] Modeling Source Syntax for Neural Machine Translation; [2]Chunk-Based Bi-Scale Decoder for Neural Machine Translation


二、神经网络的理解和可视化

神经网络机器翻译模型自2014年被提出以来,一个主要问题是神经网络结构及运行过程的不可解释性,让研究者无法根据翻译出现的问题对网络结构进行针对性改进设计,从而引发一个重要问题 - 当前神经网络模型无法保证将源端语义内容无损传递至目标端,让生成的译文流畅度较好但忠实度不足,比如遗漏翻译或过度翻译错误。

本次会议有两篇论文尝试理解及可视化神经网络模型,其中一篇ACL Outstanding Paper来自清华大学NLP组[1],他们提出了一种新的可视化方法,通过计算神经网络中任意两个神经元之间的相关性,为分析、理解和调试神经网络机器翻译提供了可能性。

[1] Visualizing and Understanding Neural Machine Translation

另一篇论文[2]则通过外在词性和形态标注任务来评判通过不同粒度方法训练得到的词语表示,分析神经网络翻译模型对词语的理解能力。

[2]What do Neural Machine Translation Models Learn about Morphology?


三、神经网络结构的改进

本次会议同样有多篇工作尝试对当前神经网络结构进行改进,其中三篇工作比较有代表性:

1、A Convolutional Encoder Model for Neural Machine Translation

在编码器端使用卷积神经网络(CNN)代替主流的递归神经网络(RNN),在效果相当的前提下速度提升近2倍。

2、Deep Neural Machine Translation with Linear Associative Unit

为当前主流的非线性Gating RNN(比如LSTM或GRU)提供了一种线性的可能替代(Linear Associative Unit),在深层神经网络中取得了较好效果。


3、Neural Machine Translation via Binary Code Prediction

通过将时间消耗最大的词汇表归一化过程(Softmax)替换为高效的二进制预测(Binary Code Prediction)问题,可极大提高翻译模型的训练和解码速度以及内存消耗。



四、三大趋势总结


趋势一:神经网络机器翻译的进一步可视化,建立起神经网络内部向量数字和自然语言结构的关联,为神经网络翻译模型提供更有效的理解和调试工具。


趋势二、神经网络机器翻译模型框架的优化。最近的工作表明递归神经网络并不是神经网络机器翻译模型的惟一选择,Facebook最近的工作使用CNN全面替代RNN,Google更进一步只用前向神经网络+注意力机制,均取得了速度和翻译效果上的进步。如果找到一种在效果和可解释性上更优的模型框架,是未来的一个重要研究方向。


趋势三、解决更通用的翻译问题。虽然当前神经网络机器翻译方法和过去的统计机器翻译方法差异很大,但很多翻译问题是相通的,所以解决通用的翻译问题也是未来的一个研究趋势。比如如何在资源匮乏领域构建好的翻译模型,如何进行篇章级翻译,以及如何在当前词级别的神经网络翻译模型中进行短语的翻译?腾讯AI Lab最近接收的两篇EMNLP 2017论文对后两个问题进行了初步探索。


信息抽取

Information Extraction


信息抽取主要是指从文本中自动抽取特定目标信息的技术。本次ACL大会有关信息抽取论文共计20多篇,涵盖实体识别、事件抽取、关系抽取、三元组抽取等多个具体任务,其中模型大部分还是以神经网络为主,但方法各有特点。我们从几个领域里分别选取了一篇代表性文章进行解读:


1、Deep Pyramid Convolutional Neural Networks for Text Categorization

该篇论文由腾讯AI Lab和RJ Research Consulting合作完成,主要介绍了一种轻量级的词级别深度卷积网络。该模型能有效捕捉文本的全局语义信息,并能在神经网络层数增加的前提下保证计算量不变。该模型在六个分本分类(主题分类和情感分类)的公开数据集中取得目前最优的结果。

2、Joint Extraction of Entities and Relations Based on a Novel Tagging Scheme

该论文是腾讯AI Lab研究员在中科院自动化所读博期间发表的三元组抽取工作,入选ACL了2017 Outstanding Papers。该论文提出了一种新型的标记策略,通过设计特殊标签可有效关联词语与三元组之间的关系。因此,基于此标记策略,成功地把三元组抽取问题转换为序列标注问题,提出了一种端对端的序列标注模型用于三元组抽取。

3、Exploiting Argument Information to Improve Event Detection via Supervised Attention Mechanisms

该论文是腾讯AI Lab研究员在中科院自动化所读博期间研究的事件抽取工作,提出了一种直接应用角色信息做事件识别的方法,基本思想是在事件识别过程中重点关注事件的角色词。作者为此提出了一个基于神经网络的事件识别模型,并通过有监督的关注机制实现上述目标。

4、A Local Detection Approach for Named Entity Recognition and Mention Detection

该论文针对命名实体识别任务提出了一种新颖的解决方式,并入选ACL 2017 Outstanding Papers。传统的命名实体识别方法是将该任务转换为一个序列标注的问题,本文不再从序列标注的角度出发,而是采用一种对输入文本中的文本片段分类的方式识别实体。该论文通过固定窗口的方式获得输入文本中的各片段,然后利用片段的上下文背景信息及片段本身信息对片段进行实体分类。该方法在几个公开的实体识别数据中获得了最优结果。此外,相比于序列标注的方式,该方法可以有效解决重叠实体的问题。



关于腾讯AI Lab NLP团队


自然语言处理(Natural Language Processing,简称NLP)赋予计算机通过自然语言文本与外界交互的能力。NLP中心使命是追踪和研究最前沿的自然语言文本理解和生成技术,并孵化下一代自然语言处理技术与商业应用场景。目前团队有10位基础研究科学家,其中大多拥有国内外知名院校的博士学位,在学界或工业界科研经历丰富。同时在应用探索上,NLP中心与腾讯多个应用工程师团队及国内外高校及实验室紧密合作。


前沿研究上,NLP中心正致力于打造一个文本理解引擎,实现基于语义分析、知识推理和统计机器学习相结合的深度文本理解。开放域人机对话是NLP领域目前最艰巨的任务之一,NLP中心正在打造一个开放域人机对话引擎(Open-Domain Conversation Engine),通过深度理解自然语言提升回复质量,并允许用户定制不同性别和语言风格的聊天机器人。研究人员结合深度学习技术和NLP研究热点,取得了诸多创造性的成果,研究成果被近期多个相关顶级会议和刊物录用,包括ACL会议论文3篇,EMNLP会议论文7篇,及TASLP期刊论文1篇。


应用探索上,NLP中心特别注重研究与具体产品间的交互。其文本理解、文本生成、对话和翻译等技术应用到了公司诸多产品中,提升产品智能化以更好服务用户。研究人员还积极从产品实际需求中发现新的NLP问题,为学术界提供更丰富的研究课题和场景。


训练一个AI给颜值打分,公平公正!

机器学习是不是很无聊,用来用去都是识别字体。而FaceRank 基于 TensorFlow CNN 模型,提供了一些图片处理的工具集,后续还会提供训练好的模型。给 FaceRank 一个妹子,他给你个分数。


隐私

因为隐私问题,训练图片集并不提供,但是提供了人脸抽取,图片大小归一化工具,稍微可能会放一些卡通图片。


数据集

130 张 128*128 张网络图片,图片名:1-3.jpg 表示 分值为 1 的第 3 张图。 你可以把符合这个格式的图片放在 resize_images 来训练模型。

find_faces_in_picture.py 

find_and_save_face 基于 face_recognition 从图片中找到人脸的坐标,并保存为新图片。

然后再用 resize 统一为 128×128 大小,为模型训练做准备。


模型

人脸打分基于 TensorFlow 的 CNN 模型 代码参考 : TensorFlow-Examples

卷积神经网络部分代码,网络结构说明:卷积层,池化层,卷积层,池化层,全链接层。


运行

安装好 TensorFlow 之后,直接运行 train_model.py .

  • 训练模型

  • 保存模型到 model 文件夹


测试

运行完 train_model.py 之后, 直接运行 run_model.py 来测试.


下载

训练好的模型可以在以下网址下载:  http://www.tensorflownews.com/


模型效果

  • 训练过程 你可以看训练过程:Train_Result.md , 这里有损失函数和准确率变化过程。

  • 测试结果 结果并不非常好,但是增加数据集之后有所改善。

(?, 128, 128, 24)
(?, 64, 64, 24)
(?, 64, 64, 96)
(?, 32, 32, 96)

[‘1-1.jpg’, ‘1-2.jpg’, ‘10-1.jpg’, ‘10-2.jpg’, ‘2-1.jpg’, ‘2-2.jpg’, ‘3-1.jpg’, ‘3-2.jpg’, ‘4-1.jpg’, ‘4-2.jpg’, ‘5-1.jpg’, ‘5-2.jpg’, ‘6-1.jpg’, ‘6-2.jpg’, ‘7-1.jpg’, ‘7-2.jpg’, ‘8-1.jpg’, ‘8-2.jpg’, ‘9-1.jpg’, ‘9-2.jpg’]
20
(10, 128, 128, 3)
[3 2 8 6 5 8 0 4 7 7]
(10, 128, 128, 3)
[2 6 6 6 5 8 7 8 7 5]
Test Finished!


支持

  • 提交 issue

【AI TOP 10】华为首款AI芯片或为麒麟970

 146家国家高新区园区生产总值超过8万亿元

近日,科技部发布《国家高新区创新发展统计分析》(以下简称“分析”),从高新区的经济规模和质量、高新区企业创新投入和创新能力、高新区的“双创”生态环境、高新区的高技术产业和服务以及高新区环境与社会效益等多个方面对2015年国家高新区园区的创新发展进行了统计分析。


分析统计,2015年,146家国家高新区园区生产总值超过8万亿元,占全国GDP比重近12%。国家高新区共有82712家企业纳入统计,实现营业总收入25.4万亿元,比上年提高6.4%;上缴税额1.4万亿元,占全国税收收入比重达11.4%。企业技术收入达2.4万亿元,同比增长24.3%。高新区劳动生产率达到30.2万元/人,近4倍于全国水平。

 

分析表明,高新区企业R&D经费内部支出4521.6亿元,实现同比增长10.9%;企业研发经费投入强度5.6%,是全国水平的2.7倍。企业高新技术产品出口总额为2411亿美元,占全国高新技术产品出口的36.8%,比上年提升了2.3个百分点。



 华为发预热海报 首款人工智能芯片或为麒麟970


7月31日消息,华为在Twitter、Facebook等多个海外社交平台的官方账号推送了一张海报,内容为:“AI不止语音助手。”进一步暗示华为的人工智能手机即将来临。


华为这次放出的这张海报,让人不得不想到在上半年业绩发布会上,华为消费者业务CEO余承东所透露的,华为将在今年秋天推出人工智能芯片。他当时表示,华为将是第一家推出搭载AI芯片手机的厂商。


“未来的智能手机将叫做智慧手机。”余承东作了预测,到2025年超过90%的智能终端用户将从个性化、智慧化的智能个人助理服务中获益。而华为未来将从芯、端、云战略构建差异化AI优势,引领未来智慧时代。


有猜测指出,余承东所透露今年秋天发布的这款人工智能芯片,将会是华为最新一代的麒麟970。




 中国标准被采纳物联网终端的一致性认证将扩大范围


在7月26日刚刚结束的GCF CAG第51次会议上,中国信通院泰尔终端实验室提交的NB-IoT全球首例无线资源管理测试验证被采纳,物联网终端的一致性认证将进入更全面的认证范围。


根据介绍,继2017年1月实验室在GCF成功提交全球首批NB-IoT测试系统验证报告以来,实验室一直和产业链各方通力合作,着力进行物联网终端综合测试能力的研发建设。




 阿里和腾讯的市值什么时候能超过一万亿美元?

1999年微软的市值达到有史以来最巅峰,六千六百多亿美元(而1999年12月30日1998-2003年的峰值出现日:最高价:59.969),根据最高价算出的微软市值峰值为:6616亿。


根据收盘价算出的微软市值峰值为:6488亿,考虑到全球平均通胀和购买力的因素,彼时的市值大约相当于现在的万亿美元,2017年7月22号苹果的市值7984亿美元,近八千亿美元,全球第一市值,所以微软是全球第一家市值曾经接近破万亿美元的公司(以今天币值来看)。



问题一:腾讯&阿里巴巴的股票有机会超过一万亿美金吗?问题二:什么时候阿里巴巴和腾讯的股票会超过一万亿美金?


问题一:我的观点是一定有机会。理由如下:按照当前的规模,也就是在复制两个阿里巴巴或者腾讯,在具体点 就是再一个微信,或者一个蚂蚁金服,或者是个王者荣耀,之类的,以目前对AT的毫无限制,甚至是越大越鼓励,这就不是有无可能的事,而是能有多快的事情?


问题二,能有多快?按照我的算法会在美国首家市值过万亿美元的公司出现后的18个月左右,我计算的方案主要是按照市值加速曲线来估计的,具体的算法我们可以当面讨论。



 微软正式将AI列为其首要任务之一取代了移动

微软刚刚正式将人工智能当成最高优先级。截至6月30日的公司2017财年年度报告,其中包括6项提及人工智能的报告,高于上一年度报告的零。


该公司在年度报告中写道:“我们的战略愿景是通过为智能云建立一流的平台和生产力服务,以及注入AI的智能边缘谋求竞争和发展。


而去年的版本是:“我们的战略愿景是竞争和成长为移动优先和云端第一世界的生产力和平台公司。”




  2024年会有40%的人类工作被机器人取代

人工智能将在何时超越人类?本文认为人工智能超越人类智能的奇点在2024年,到时会有40%的人类工作被机器人取代,当机器人超越人类后,其政治权利如投票权如何?本文对此进行了讨论。




 硅谷见闻:AI创业方兴未艾,智能家居和无人驾驶引领浪潮

人工智能创业潮方兴未艾:在硅谷的几天我们看到专注于金融,医疗等垂直行业应用,以及云计算相关软硬件,芯片,人工智能算法等核心技术的创业公司不断涌现。这和我们在中国看到的情况非常类似。


由于对数据所有权和个人隐私等监管环境的不同,我们相信中国在安防等某些领域可能已经走在世界前列。不过在医疗等领域仍然有较大差距。



 传美团点评新一轮融资快完成 距上一轮融资已过1年半

今天,八姐听说,美团终于开始新一轮融资了,而这一轮融资距上一轮33亿美元的融资,已经过去了1年半。


有八卦消息人士称,美团此轮融资投前估值约为250亿美元,较上一轮融资时的180亿美元估值高出近40%。至于融资规模,有消息称约为10亿美元左右。另有线人称,IDG将领投美团此轮融资,老虎基金也将参与投资。

 



 大疆收购零度智控垄断全球无人机市场

《财经》记者获悉,全球最大的无人机公司大疆已经收购其竞争对手零度智控,目前具体收购信息和细节并未公开。大疆和零度智控双方对《财经》记者的问询未做正面回应。


按截至2016年3季度市场份额,收购零度智控之后的大疆将占据全球无人机市场76.3%的份额。


不仅如此,8月1日,曾是北美最大民用无人机厂商的3D Robotics(以下简称3DR)宣布将与大疆展开合作,将其所掌握的定点扫描软件系统整合进中国的大疆无人机里。


零度智控曾抢占了24.3%的份额,成为大疆在无人机领域最大的竞争对手。但是16年发布的新产品惨淡销量也让零度陷入泥潭。


  


人工智能网球裁判,比鹰眼价格更便宜


随便找一家网球俱乐部,你都有可能看到一些原本稳重的成年人,在争论球过没过线时失去理智。


法国发明家让蒂(GrégoireGentil)设计了一个跟GoPro一样大小的装置,售价200美元,可固定在任何网柱上面,它能被非常精确地监测出球的落点。


以色列公司打造了一套配备6颗摄影镜头的系统,其精确度逊于鹰眼,但每座球场的花费仅为1万美元,另外每月需支付一笔费用,用于收集数据,这些数据可在网上,或通过一款应用查看。该系统还包括一块大萤幕,球员们可在不影响比赛的情况下查看先前每一球的落点及球速。该公司的多数买家都是网球俱乐部以及大学。


ACL 2017最佳论文解读 NLP数据成热点

最佳长论文:概率类型学:元音库深度生成模型


摘要


语言类型学(Linguistic typology)研究的是人类语言中存在的结构范围。该领域的主要目标是发现哪些可能的现象是普遍存在的,而哪些只是频繁而已。例如,所有的语言都有元音,而大多数语言(而不是全部)都有 [u] 的发音。在本文中,我们针对语音类型学中基本的一个问题——什么才算一个自然的元音库?——给出了首个概率性的处理。我们介绍一系列深度随机点过程(deep stochastic point processes),并将其与以前的计算方法和基于模拟的方法进行对比。我们提供了一整套超过 200 种不同语言的实验。



总结


为了分析语音类型学研究的数学基础,我们提出了一系列点过程模型(point process models),用于元音系统库(vowel system inventory)类型学的建模。所有的模型都另外被深度参数化(deep parameterization)来学习与认知科学中知觉空间相似的表示(representation)。此外,我们认为在语言类型学中,我们以前提出的概率建模比计算建模更好,我们认为概率建模是一种更自然的研究范式。此外,我们引入了几个新颖的元音系统研究评估指标,希望这能引发对这一领域更多的兴趣。这些指标的性能经过了 Becker-Kristal 语料库的实证验证,其中包括来自 200 多种语言的数据。


最佳短论文:从计算建模的角度看韵律和语域在词语切分中的作用



摘要


本研究探讨了词语切分任务中语域(speech register)和韵律的作用。由于这两个因素被认为在早期语言习得中具有重要的作用,我们的目标是量化这两者对词语切分任务的贡献。我们研究了一个同时含有婴儿和成人导向言语(infant- and adult-directed speech)的日语语料库,并且在上面应用了 4 种不同的词语切分模型,有拥有韵律边界(prosodic boundaries)知识的,也有不含韵律边界知识的。结果表明,语域(register)之间的差异比以前文献报道过的要小,相比婴儿导向言语,韵律边界信息对成人导向的言语更有帮助。


结论


我们检查了在两种匹配的自发 ADS 和 IDS 语料库,以及一个更正式的 ADS 控制语料库上 4 种不同的词语切分算法的性能,它们都具有和不具有韵律上的停顿(prosodic break)。我们发现,总体而言,sub-lexical 算法的效果不如词法算法(lexical algorithms),IDS 整体上略微简单或者等同于非正式的 ADS,本身比 ADS 简单。此外,在所有算法和语域中,我们观察到韵律有助于进行词语切分。


然而,韵律的影响是不平等的,并且与语域相互作用:韵律对 ADS 的帮助比对 IDS 的更多,当韵律被纳入考虑时,自发的 ADS 和 IDS 产生了类似的得分。


这对语言习得理论有影响,因为 IDS 被认为是为婴儿提供“超级言语” (hyperspeech),也即简化的语言习得的输入。如果我们的观察结果是真实的,就词语切分而言,IDS 比 ADS 更容易切分,至少在婴儿已经获得使用韵律停顿的能力来控制(constrain)词语切分的阶段。当然,我们的观察需要用其他语言和记录过程(recording procedure)来确认和复制(replicate)。


总而言之,我们的研究表明了使用量化工具测试语言习得理论的作用。


最佳资源论文:一个用于视觉推理的自然语言语料库



摘要

 

我们提出了一个新的用于视觉推理的语言数据集,包含92244对对应自然语句的合成图像样本,3962个不同句子。我们描述了众包语言多样性数据的方法,并提供对数据的分析。这些数据包含了视觉和集合推理所需的广泛语言现象。我们用多种模型对数据进行了实验,并提出这些数据可以作为未来研究的强有力挑战。

 

图:我们的语料库中的句子和图像样本。每个图像包含三个不同类型的物体。上方的句子是真值,下方的是假值。


最佳演示论文:Hafez:一个交互式诗歌生成系统



摘要


Hafez 是一个能够自动生成诗歌的系统,该系统结合了递归神经网络(RNN)和有限状态接受器(FSA)。它能够根据给定的任意主题生成十四行诗。此外,Hafez 允许用户通过调整各种风格设置来修改和润色生成的诗歌。实验证明,这样的“润色”机制考虑了用户的意图,能够产生更好的诗歌。在评估部分,我们构建了一个网络界面,用户可以用1到5颗星为每首诗歌的质量进行评分。利用词汇剪枝(vocabulary pruning)和GPU计算,我们将整个系统加快了10倍,从而能够快速收集足够的反馈。基于这些反馈,系统学习并调整其参数来提高生成诗歌的质量。


图1:Hafez 的整体架构


图2:(a)默认设置生成的诗歌;(b)用户调整风格设置生成的诗歌


最佳演示论文提名:OpenNMT:神经机器翻译开源工具包




摘要

 

本论文中,我们描述了神经机器翻译(NMT)的一个开源工具包,该工具包是效率优先、模块化而且可扩展,目的是支持NMT的模型结构、特征表示、和源模式研究,同时保持具有竞争力的性能和合理的训练要求。该工具包包括建模和翻译支持,以及有关底层技术的详细教学文档。

 

 

图:神经机器翻译的示意图。红色框的源词先被映射到词向量,然后馈入一个递归神经网络(RNN)。当看到<eos>符号时,最后一个时间步长初始化一个目标RNN(蓝色)。在每个目标时间步长,attention被应用于源RNN,并与当前隐藏的状态结合,产生下一个词的预测。这个预测接着被馈入目标RNN。

 


终身成就奖:人工智能协同规划与人机交互


会上还同时公布了“终身成就奖”(Lifetime Achivement Award)——哈佛大学的 Barbara J. Grosz 教授上台领奖并发表了获奖感言。


Barbara J. Grosz 教授发表获奖感言

 

计算机科学的一个主要挑战是为易于使用、大规模的信息系统创建其科学和技术基础。人工智能研究的目的是理解使计算机系统的构造能够智能地行动的方式,并构建这样的系统。Grosz 教授的研究关注这两大议题,旨在开发计算机智能系统在长期、不确定、动态的环境中发挥作用所需的能力。Grosz教授的研究项目已经提出构建能够相互合作或与用户一起工作的系统的协同理论和模型。对于构建有用的助理,而不仅仅是工具,协同的能力是至关重要的。更好的人机交互,包括适当地处理中断,是这一挑战的重要部分。


Grosz 教授在自然语言处理、多智能体系统等领域做出了开创性的贡献。她开发了最早的一些人机对话系统,确立了语篇计算建模的研究领域。她在协同模型方面的工作帮助确立了这一研究领域,并提出了几个协同多智能体和人机交互界面的框架。目前,Grosz 教授的研究重点是探讨协同多智能体系统和协同界面改善医患交流的方式。


Grosz 是美国国家工程学院院士,美国哲学学会、爱丁堡皇家学会、美国艺术与科学学院的成员,以及美国人工智能协会(AAAI)、美国计算机协会和美国科学促进协会的会士。Grosz 由于在“自然语言处理研究和多智能体系统的基础性贡献,在人工智能领域的领导作用,以及建设和领导跨学科机构的领导作用”,在2009年获得ACM/ AAAI Allen Newell Award。2015年,她被授予 IJCAI 终身成就奖,以表彰她在“自然语言处理和多智能体系统的理论和应用的开拓性研究”。


Grosz 在跨学科机构方面的领导作用也很杰出,并由于促进女性在科学领域地位的贡献受到广泛尊重。从2007- 2011年,Grosz 教授担任哈佛大学拉德克利夫高等研究院临时院长和院长。

DeepMind眼中的神经科学研究:人工智能进步的另一个重要支点

继神经科学家成为机器学习领域会议的邀请演讲的常客以后,DeepMind AI 博客今天也发出了一篇文章讲述他们对人工智能研究和神经科学研究协作的看法。他们觉得两个领域的协作不仅很有好处,而且现在已经变得紧迫。


论文编译如下:

人工智能近期取得了举世瞩目的成果,在学会玩 Atari 游戏、下围棋、德州扑克以后,它们现在生成的手写文本和对话也几乎跟人类的一样,可以做多种语言的翻译,甚至可以把生活照片变得和梵高的大作一样。这些进步要归功于新的统计方法和计算机不断增加的计算能力等一些原因。不过在一篇近期发表于「神经元」期刊的文章中,DeepMind的研究者们提出了这样的一个观点:来自实验和理论神经科学的想法对人工智能研究也大有帮助,而且往往被忽视了。

心理学和神经科学在 AI 的发展历程中扮演过重要的角色。Donald Hebb、Warren McCulloch、Marvin Minsky、Geoff Hinton 这些奠基人一开始的动力都是想要弄清大脑是如何工作的。然而实际上,从上个世纪晚期以来,在神经网络发展过程中起到重要作用的研究大多数都不是在数学和物理实验室中完成的,而要归功于心理学和神经生理学学科的研究者们。


在充满了挑战的现在,神经科学和人工智能领域携手研究的需求前所未有地强烈。

DeepMind的研究人员们认为,即便这两个领域都在飞速发展,研究者也应当抱有这种远见。他们急切地希望神经科学的研究者们可以和人工智能的研究者们一起找到一种共同的语言,可以让知识在两个领域之间自由地流动,从而推动两个领域内研究的长期共同进步。

DeepMind的研究人员们觉得 AI 研究中一个重要的因素是从神经科学中获得灵感,有两个原因。首先,神经科学可以帮助验证已有的 AI 技术。简单来说,如果研究者们发现的某些算法能够模仿大脑中的某个功能,这很有可能意味着这些研究是想着正确的方向去的。第二条原因是,神经科学可以在构建人造大脑时为新的算法类型和架构提供丰富的启发。以往的 AI 实现方案几乎都是基于逻辑的方法和理论性的数学模型,DeepMind的研究人员们认为神经科学可以发现多种可能对认知功能起到关键作用的生物计算方式,这样就可以对现有的方法和模型做出补充。


举一个近期的例子,经验的离线“回放”就是神经科学界的启发性的发现。生物大脑在活动期间会产生一些神经活动,然后在之后的睡眠或者安静休息的时候,大脑就会“回放”这些活动的短期模式。比如,当老鼠穿过迷宫的时候,跟地点相关的细胞就会在老鼠四处移动的过程中一直活动。等到老鼠休息的时候就可以再次在它的大脑中观察到同样的神经活动序列,仿佛老鼠们正在脑中想象它们当时的行动,然后用它们来优化未来的行为。这种猜测也得到了证实,如果干扰它们的“回放”过程,就会影响它们稍后再次进行同样任务时的表现。

DQN网络是一类通用智能体,它们可以持续地让自己的行为适应新环境,而“回放”就是DQN网络中的关键元素

如果说要造一个需要“睡觉”的智能体,听起来仿佛怪怪的,毕竟它们本来应该在制造它们的人睡觉以后还要能够反复琢磨计算问题才行。不过这种模式是 DeepMind 的 deep-Q 网络的关键部分,这个算法已经学会了搞定各种 Atari 2600游戏,表现远超人类,还仅仅需要原始的显示像素点和游戏分数作为输入就可以做到。这个 DQN 就通过存储一部分训练数据然后“离线”重看的方式模仿了“经验回放”,让它能够再次从以往的成功或失败中学习。


类似这样的成功的验证成果让DeepMind的研究人员们有了很多信心,神经科学已然成为了他们的 AI 研究思路的重要来源。但是如果着眼未来,在他们需要帮忙解决高效学习、现实世界理解、想象等未解问题的时候,神经科学将会变得不可或缺。

想象力是人类和动物具有的一种非常重要的能力,让我们无需行动就可以对未来情境做出规划,避免了不少成本付出。举个简单的例子,比如规划假期,我们就要运用我们对世界的知识(脑内的“模型”),然后靠它对未来会发生什么做出预测,评估未来的状况,这样我们就可以决定要选哪条路、或者要装哪些晴朗的天气里穿的衣服。最前沿的人类神经科学研究已经开始能够揭露这种思考方式背后的计算和系统机制,但是真正应用到人工智能模型中的这些新理解还非常少。

神经科学和人工智能之间的历史故事悠久缠绵

另一件现代 AI 研究中的重要挑战是迁移学习,为了能够高效地应对新的状况,人造智能体们需要这种在现有知识基础上做出合理决定的能力。这方面人类已经很擅长了,随便一个会开车、会用电脑、能主持会议的人在面对不熟悉的汽车、不熟悉的操作系统、不熟悉的社交状况的时候都能够对付得来。

为了研究把这种能力赋予人造系统的可能性,研究者们已经开始着手做初步的尝试。比如一类称作“渐进网络”的新的网络架构就可以学会一个电脑游戏以后,根据这些知识学会玩另一个游戏。同样的架构也可以用来把从模拟机器人手臂上学到的知识迁移到真实的机器手臂上,极大地减少了训练时间。有意思的是,这些网络跟人类的序列学习模型有一些共同点。这些诱人的联系表明了未来的 AI 研究会有很多从神经科学的研究中学习的机会。


不过DeepMind的研究人员们认为知识的交换不应该是单向的,神经科学也可以从 AI 研究中获益。比如强化学习这一现代 AI 研究的主要方法之一,最开始来自于心理学领域的动物学习理论,然后被机器学习的研究者们发扬光大。这些想法后来也反哺回了神经科学研究中,帮助我们理解一些神经生理学现象,比如哺乳动物基底神经节中多巴胺神经元的激活特性。

这种来回交流对两个领域借助对方的见解不停发展至关重要,从而构建了一个正向的循环,其中 AI 研究者运用神经科学的想法构建新的技术,神经科学家可以从人造智能体的行为中更好地学习如何阐释生物大脑。确实,这样的循环能够得到加速,近期的技术发展功不可没,比如光遗传学就可以让我们精确地测量和控制大脑活动,从中获取的大量数据还可以用机器学习领域的工具进行分析。


所以DeepMind的研究人员们认为把智慧转化为算法,然后把算法和人类大脑相比较,已经成为当前至关重要的事情。他们希望 AI 可以成为创造新知识、推进科技探索前沿的工具,那么这样的做法不仅可以支持对 AI 的研究,更可以让大家更加理解自己的大脑中都发生了什么。这有可能照亮神经科学中最难解的神秘问题,比如创造力和梦的本质,甚至有一天可以解释意识是怎么回事。面对着这么多难题,让神经科学和人工智能联手向前已经变得前所未有地紧迫。