• 项目
首页>>文章列表 >>文化教育
文章列表

自然语言处理终极方向:深度学习用于自然语言处理的5大优势

在自然语言处理领域,深度学习的承诺是:给新模型带来更好的性能,这些新模型可能需要更多数据,但不再需要那么多的语言学专业知识。

 

关于深度学习方法有很多炒作和大话,但除了炒作之外,深度学习方法正在为挑战性问题取得最先进的结果,特别是在自然语言处理领域。

 

在这篇文章中,您将看到深度学习方法应对自然语言处理问题的具体前景。看完这篇文章后,你会知道:

 

1. 自然语言处理深度学习的承诺。

2. 深度学习从业人员和研究科学家对自然语言处理深度学习的承诺有什么说法。

3. 自然语言处理的重要深度学习方法和应用。

 

让我们开始吧。



深度学习的承诺

深度学习的方法很受欢迎,主要是因为它们兑现了当初的承诺。

 

这并不是说在技术上没有任何炒作,而是说,这种炒作是基于非常真实的成果。这些成果正在从计算机视觉和自然语言处理的一系列极具挑战性的人工智能问题中得到证实。

 

深度学习力量的第一次大型展现,就是在自然语言处理领域,特别是在语音识别方面。 最近的进展则是在机器翻译方面。

 

在这篇文章中,我们将看到,自然语言处理领域的深度学习方法的五个具体承诺。这些承诺是这个领域的研究人员和从业人者最近所强调的,而这些人面对这些承诺的态度比一般的新闻报道要克制得多。

 

总而言之,这些承诺是:

  1. 深度学习插入替换现有模型 。深度学习方法可以插入现有的自然语言系统,由此产生的新模型可以实现同等或更好的性能。

  2. 新NLP模型 。深度学习方法提供了新的建模方法以挑战自然语言问题(如序列-序列预测)。

  3. 特征学习 。深度学习方法可以从模型所需的自然语言中学习特征,而不需要专家指定、提取特征。、

  4. 持续改进。自然语言处理中的深度学习的表现是基于真实世界的结果,并且所带来的改进正在持续,还可能加速。

  5. 端对端模型 。大型端对端深度学习模型可以适应自然语言问题,提供更一般和更好的方法。

 

我们现在将仔细看看这些承诺中的每一个。其实自然语言处理深度学习还有一些其他承诺;,这些只是我从中选择的最突出的五个。

 


深度学习插入替换现有模型

自然语言处理中的深度学习的第一个承诺是,能够用具有更好性能的模型替代现有的线性模型,能够学习和利用非线性关系。

 

Yoav Goldberg在他的《NLP研究人员神经网络入门》中强调,深度学习方法取得了令人印象深刻的成果,他说在此文中说:“最近,神经网络模型也开始应用于文本自然语言信号,并再次带来了非常有希望的结果。”

 

他还继续强调,这些方法易于使用,有时可用于批量地替代现有的线性方法。他说:“最近,该领域在从稀疏输入的线性模型切换到稠密数据的非线性神经网络模型方面取得了一些成功。大多数神经网络技术都很容易应用,有时候几乎可以替代旧的线性分类器;不过,在许多情况下仍存在着使用神经网络的障碍。”

 


新NLP模型

另一个承诺是,深度学习方法有助于开发全新的模型。

 

一个很好的例子是,使用能够学习和判断超长序列输出的循环神经网络。 这种方法与从前的完全不同,因为它们允许NLP从业者摆脱传统的建模假设,并实现最先进的结果。

 

Yoav Goldberg在其NLP深度学习的专著《自然语言处理的神经网络方法》第xvii页指出,像循环神经网络这样复杂神经网络模型可以带来全新的NLP建模机会。他说,“在2014年左右,该领域已经开始看到,在从稀疏输入的线性模型到稠密输入的非线性神经网络模型的转换方面,已取得了一些成功。 .……其他的变化更高级,需要研究者改变思维,并能带来新的建模机会。特别是,基于循环神经网络(RNNs)的一系列方法减轻了对序列模型中普遍存在的马尔可夫假设的依赖,允许以任意长序列为条件,并产生了有效的特征提取器。 这些进步导致了语言建模、自动机器翻译和其他应用的突破。”

 


特征学习

深度学习方法具有学习特征表示的能力,不必要求专家从自然语言中人工指定和提取特征。

 

NLP研究员Chris Manning在自然语言处理深度学习课程的第一次讲座中突出了这方面的观点。

 

他描述了人工定义输入特征的局限性:按照这种方法,在之前的应用中,机器学习只是在统计NLP中证明人类事先定义的特征,并且计算机几乎没有学习。

 

Chris 认为,深度学习方法带来的承诺是自动特征学习。 他强调,特征学习是自动的,而不是人工;它易于适应,不脆弱,并可以不断自动地改善。

 

Chris Mining 在2017年的《自然语言处理与深度学习》讲座第一讲幻灯片中说,“一般来说,我们人工设计的特征往往被过度地指定,它们不完整,需要很长时间才能设计和验证,会让你忙活一天后只能达到有限的性能水平。而深度学习到的特征易于适应,能快速训练,它们可以持续学习,以便达到以前未能实现的、更好的性能水平。

 


持续改进

NLP的深度学习的另一个承诺是,在挑战性问题上持续快速改进。

 

在《自然语言处理与深度学习》讲座第一讲中,Chris Manning表示,深度学习的方法很受欢迎,因为它们很管用。他说,“深度学习对大多数人来说如此令人兴奋的真正原因是,它确实管用。“

 

他强调,深度学习的初步结果令人印象深刻。深度学习在语音领域的表现比过去30年中任何其他方法的表现都更好。

 

Chris 提到,深度学习带来的不仅是最先进的成果,而且是不断改进的进步速度。他说,”……在过去的六七年中,非常令人惊叹的是,深度学习方法一直在不断改进,并以惊人的速度变得更好。 我其实想说,这是前所未有的,我看到这个领域飞速地进展,每个月都会推出更好的方法。“

 


端对端模型的承诺

深度学习的最终承诺是,开发和训练自然语言问题的端对端模型能力,而不是为专门模型开发流程。

 

端对端模型不仅能改进模型的性能,也能带来更好的开发速度和简洁性。

 

神经机器翻译(简称NMT)是指,尝试学习将一种语言翻译成另一种语言的大型神经网络。 传统上,这是由一系列手工调整的模型组成的流程来处理的,而流程中的每个模型都需要专业语言知识。

 

Chris Manning 在斯坦福大学NLP深度学习课程第十讲《神经机器翻译和注意模型》中描述了这一点。他说:”神经机器翻译是指,我们想要做的是构建一个大型神经网络,在这个网络中我们可以对训练整个端到端机器翻译过程并进行优化。……这种远离人工定制模型、朝向端到端、序列到序列预测模型的趋势,一直是语音识别的趋势。 这样做的系统被称为NMT (神经机器翻译)系统。

 

设计端到端模型,而非为专门系统设计流程,这也是语音识别的一个趋势。

 

在斯坦福NLP课程第十二讲《语音处理的端到端模型》中,目前就职于Nvidia的 NLP研究员Navdeep Jaitly强调,语音识别的每个组成部分都可以用神经网络来代替。自动语音识别流程中的几大组块是语音处理,声学模型,发音模型和语言模型。问题是,每个组块的属性和错误类型是不同的。这激发了开发一个神经网络来端到端地学习整个问题的需要。

 

他说,“随着时间的推移,人们开始注意到,如果我们使用神经网络,这些组件中的每一个都可以做得更好。 ……但是,仍然有一个问题。 每个组件都有各自的神经网络,但是每个组件中的错误都是不同的,所以它们可能无法很好地协同工作。 所以这让我们拥有动机,尝试去把整个语音识别当作一个大模型来训练。”

 


自然语言处理深度学习网络的类型

深度学习是一个很大的学习领域,并不是它的所有内容都与自然语言处理相关。

 

哪些类型的深度学习模型能提升性能?学习者在具体优化方法上很容易陷入泥沼。

 

从较高层次看,深度学习中有5种方法在自然语言处理中应用最为广泛。

 

他们是:

  • 嵌入图层

  • 多层感知器(MLP)

  • 卷积神经网络(CNN)

  • 循环神经网络(RNNs)

  • 递归神经网络(ReNNs)

 


NLP中的问题类型

深度学习不会彻底解决自然语言处理问题或人工智能问题。

 

迄今为止,在自然语言处理的一系列广泛问题中,已经对深度学习方法进行了评估,并在其中一些问题上取得了成功。这些成功表明,使用深度学习能获得高于以往的表现或能力。

 

重要的是,深度学习方法取得最大成功的领域,恰恰是一些更加面对终端用户、更具挑战性也更有趣的问题。

 

深度学习取得成功的5个例子包括 

  • 词表示和词含义

  • 文本分类

  • 语言建模

  • 机器翻译

  • 语音识别

 

进一步阅读

如果您想深入学习,下面是更多的相关资源:

  • A Primer on Neural Network Models for Natural Language Processing, 2015.

  • Neural Network Methods in Natural Language Processing, 2017.

  • Stanford CS224n: Natural Language Processing with Deep Learning, 2017

 

效果超过SGD和Adam,谷歌大脑的「神经网络优化器搜索」自动找到更好的训练优化器

谷歌大脑近期放出了一篇论文「Neural Optimizer Search with Reinforcement Learning」(强化学习的神经网络优化器搜索),用强化学习的方法为神经网络(尤其是深度学习)找到最佳的优化算法/权重更新规则。论文并没有重新制造轮子,但也取得了不错的效果,而且也引起了一定的关注。 AI 科技评论把论文内容简介如下。

要成功训练一个深度学习模型,选择一个适当的优化方法是非常重要的。虽然随机梯度下降法(SGD)通常可以一上手就发挥出不错的效果,不过 Adam 和 Adagrad 这样更先进的方法可以运行得更快,尤其是在训练非常深的网络时。然而,为深度学习设计优化方法是一件非常困难的事情,因为优化问题的本质是非凸问题。

在这篇论文中,谷歌大脑的研究员们讨论了一种方案,它可以自动设计优化方法中的权重更新规则,尤其是对于深度学习架构。这个方案的重点是使用了一个RNN结构的控制器,这个控制器可以给优化器生成权重更新方程。这个RNN结构的控制器是通过强化学习的方式训练的,一个具体的网络结构用它生成的更新规则进行同样次数的训练后,可以把模型准确率最大化。这个过程如下图。

神经网络优化器搜索的总体架构

训练神经网络很慢、很困难,之前有许多人设计了各种各样的方法。近期的优化方法结合了随机方法和批量方法的特点,比如用mini-batch,跟SGD类似,但是实现了更多的启发式方法来估计二阶对角信息,就和无黑塞方法(Hessian-free)或者L-BFGS类似。这样吸收了两种方法优点的方案通常在实际问题中有更快的收敛速度,比如 Adam 就是一个深度学习中常用的优化器,实现了简单的启发式方法来估计梯度的均值和变化幅度,从而能够在训练中更加稳定地更新权重。

之前的许多权重更新规则都借鉴了凸函数分析中的想法,虽然神经网络中的优化问题是非凸的。近期通过非单调学习速率的启发式方法得到的经验结果表明,在神经网络的训练方面我们仍然知之甚少,还有许多非凸优化的方法可以用来改进训练过程。


谷歌大脑的研究员们的研究目标是在人们已经熟悉的领域内为神经网络训练找到更好的更新规则。换句话说,他们没打算靠自己重新建立一套全新的更新规则,而是用机器学习算法在现有的更新规则中找到比较好用的。最近也有研究人员提出类似的方法,用模型学习生成更新数值。这里的关键区别是,谷歌大脑的这项研究是为权重更新生成数学形式的方程,而不是直接生成数值。生成一个方程的主要好处是可以轻松地迁移到更大的任务中,而无需为新的优化问题额外训练别的神经网络。而且,虽然他们设计这个方法的目的不是为了优化更新规则的内存占用的,不过还是能够在得到与 Adam 或者 RMSProp 等同的更新规则的情况下占用更少的内存。

论文中的方法受到了近期用强化学习做模型探索的研究的启发,尤其是在神经网络结构搜索上,其中用了一个 RNN 生成神经网络架构的设置文本。除了把这些关键思想用在不同的应用中,论文中的方法还展现出了一种全新的模式,把原有的输入以灵活得多的方法组合起来,从而让搜索新型的优化器变得可能。


控制器 RNN的总体结构。控制器会迭代选择长度为5的子序列。它首先选择前两个操作数和两个一元函数来应用操作数,然后用一个二进制函数合并两个一元函数的输出。获得的结果b就可以被下一轮子序列选中作为预测,或者成为更新规则。每次的预测都是由一个softmax分类器执行的,最后成为下一轮迭代的输入。

根据论文中的实验结果,在用 CIFAR-10 训练一个小型的卷积网络中,他们的方法比 Adam、RMSProp、带或者不带 Momentum 的 SGD 找到了许多条更好的更新规则,而且这些生成的更新公式中很多都可以轻松地迁移到新的模型架构或者数据集中使用。比如,在小型卷积网络训练中发现的权重更新规则在Wide ResNet 的训练中取得了比 Adam、RMSProp、带或者不带 Momentum 的 SGD 更好的结果。 对于 ImageNet 数据集,他们新找到的更新规则在目前最先进的移动设备级别模型的 top-1 和 top-5 正确率基础上继续提升了最高 0.4%。同样的更新规则在谷歌的神经机器翻译系统上也取得了不错的成果,在WMT 2014 英文到德文的翻译任务中最高能带来0.7BLEU的提升。

Tesla与AMD合作自驾车AI芯片,是深度合作还是炒作?

近日CNBC在报道中推测,特斯拉正在与AMD合作,为自驾车开发自己的AI芯片。特斯拉如果与AMD合作改进其新的AI芯片,将会减少对Nvidia的依赖。通过建立自己的芯片,能让Tesla推动内部垂直整合。Tesla有自己的智能芯片设计团队,不过 Tesla没有完全靠自己进行芯片开发,而是将搭载AMD知识产权。据说Tesla已经收到了芯片样品,现在正在进行测试。

周三,为AMD提供晶圆、从AMD分拆出的芯片制造商GlobalFoundries的首席执行官Sanjay Jha说,特斯拉是与芯片制造商紧密合作的企业之一。这被媒体解读为,暗示Telsa已与AMD系企业有了芯片合作关系。


图:Sanjay Jha


Tesla现有的芯片研发团队也与AMD有着难舍难分的联系。Tesla的芯片构架师 Jim Keller 就曾为AMD工作。此后,Tesla 还招聘了多名来自AMD的高级工程人员,包括总监Ganesh Venkataramanan,首席硬件工程师 Bill McGee和系统电路设计主管Dan Bailey等。

此前Tesla的主要芯片合作商是 Nvidia。Tesla与AMD的合作传闻,直接影响了AMD与 Nvidia的股价。该消息传出后,AMD股价狂飙 5%,并持续上涨。而Nvidia股价则在周四上午应声下落 4.7%。

图:Tesla 内饰


从Tesla的方面看, Tesla 车辆目前使用 Nvidia GPU作为自驾车辆的自驾硬件部分。更早的时候,Tesla 曾使用Mobileye的芯片,但去年在Mobileye驱动的特斯拉汽车发生事故后,两家公司就分手了。Nvidia的GPU能用于范围广泛的任务,但尚未针对像自驾车这样的狭窄专业领域做出定制芯片。Tesla如果从 Nvidia GPU转为与AMD合作生产定制硬件,也将减少对 Nvidia所主导的价格的依赖。

从 AMD的方面看,AMD有什么优势能让 Tesla选择与它合作呢?Rosenblatt 证券公司的Hans Mosesmann 称,“AMD是世界上唯一可以同时提供x86 CPU和强大GPU IP的厂商。Tesla选择AMD,说明Tesla认可了 AMD的CPU+GPU 发展路线图,哪怕之前没有人认为这在自驾车领域是可行的。因此,特斯拉/ AMD的合作对数十亿美元的自主驾驶市场将具有颠覆性影响。”


图:自驾车GPU芯片:AMD还是 Nvidia?


过去的12个月中,AMD的股票上涨了118%,而标准普尔500指数涨幅仅为16%。 根据FactSet的数据,AMD股票表现在整个标准普尔500指数排名中高居第二。这也说明了AMD近来迅猛的发展势头。

不过,对这则AMD/Tesla 合作消息的否定、质疑的声音也不绝于耳。该报道发布后,相关各方的回应如下:AMD拒绝发表任何评论。 Tesla 表示,它不会对谣言和猜测作任何回应。GlobalFoundries的新闻发言人也表示,该公司并未对任何客户或潜在客户发表过评论,否认Tesla 与自己有任何芯片合作关系。

RBC Capital Markets的Mitch Steves在研究报告中表示,即使AMD与Tesla合作的报道是真的,Nvidia GPU仍然更有可能成为AI平台的主要动力,而AMD的产品更可能被用于其他计算需求,而非用于AI计算。Global Equities 的分析师 Trip Chowdhry 则说得更直白,他说,AMD在机器学习和其他AI领域一直乏善可陈,AMD想要进入自驾车AI芯片领域的努从一开始就是“死路一条”。

AMD肯定很想抓住这个合作机会:若能与 Tesla合作,将是AMD打入AI芯片市场的绝佳契机。然而,Tesla到底是打算与 AMD进行自驾车芯片的长期深度合作呢,还是只想在舆论上虚张声势,借此吓唬吓唬老伙伴Nvidia? 这一切尚有待观察。

马云在彭博全球商业论坛:力挺AI,第三次世界大战不是人和AI之战

在彭博全球商业论坛上,蒂姆·库克、马云等全球领袖表示:合作、优秀的领导者、包容、人工智能将是塑造未来的关键四点。



1. 伙伴关系,而非孤立主义,是未来的发展方向。

迈克尔·布隆伯格主持会议,出席的论坛有50国政要,包括第四十二届美国总统比尔·克林顿,加拿大总理贾斯廷·特鲁多,法国总统埃马纽埃尔·马克龙,国际货币基金组织总裁克里斯蒂娜·拉加德。也有250的全球首席执行官,包括苹果的蒂姆·库克,微软的比尔·盖茨,阿里巴巴董事局主席马云,百事可乐的总裁卢英德。有超过70家公开上市的公司代表出席,市场总市值4.4万亿美元。


以上向受众传递的信息似乎是显而易见的:现在是企业、政府和慈善机构共同努力解决影响我们所有人的重大问题的时候了。诸如社会和经济进步、贸易和全球投资的未来以及全球化和其他性质的变化等问题。


就我个人而言,我发现这条信息特别重要,尤其Affectiva刚刚上周举办了第一次情感AI峰会,我们召集了30人发言,还有来自不同行业关注AI未来发展的300人。



2. 领袖的重要作用

领袖在组织中发挥着重要作用。


迈克尔·布隆伯格强调了领导者的重要作用,他表示,领导人为一个组织奠定基调,这会影响该组织中的所有人。这个道理对很多组织都适用,无论是创业公司、商业巨头还是一个国家。


在这次论坛中,通过观察很多政商界领袖,我发现迈克尔·布隆伯格说的很对。马云对未来充满信心,他认为科技和人工智能将给社会带来繁荣和更多工作机会。


马克龙总统富有远见,在推动教育、劳工改革和人工智能。相比之下,土耳其总统埃尔多安过于谨慎,缺乏远见。



3.包容,是正确且聪明的做法

一个关于全球经济性别平等的圆桌讨论上讨论就业和教育两个议题。


有人认为,为了缩小性别差距,企业必须更加透明化,公布更多的数据。英国将改善育儿环境作为减少收入差距的关键政策之一。虽然圆桌讨论重点关于性别平权,但它传递出更多的信息,那就是包容、多样化是正确并且明智的选择。



4. 人工智能将是本世纪经济增长的重要引擎

论坛上,马云强烈支持人工智能。他说,“在过去的200年中,制造业已经带来了就业机会,但今天,由于人工智能,由于机器人的出现,所以制造不再是创造就业机会的主要动力。”他说,很多小公司使用互联网和人工智能,推动经济发展。


“谈到制造业,我们不应该说中国制造,美国制造,”马云说: “而将会是‘互联网制造’”。


马云不认为人工智能会对人类造成威胁,他提醒大家,在历史长河中,人类一直利用技术进步来解决问题和推动社会发展。人工智能和机器人没有差别。机器人有智商和情商,但没有爱商。“人类有爱商,有灵魂、信念和价值观“来解决问题。而机器无法做到这一点。


他说:“这些新技术会摧毁很多工作,但也会创造很多工作。” “问题是我们是否准备好,我们是否有资格获得这些新工作。”


“人类应该有自信,”他说。 “人类有智慧,机器没有智慧。”


马云在演讲中表示,我们正在经历第四代技术革命。“技术革命造成了前两次世界大战,而第三次世界大战应该向贫困、环境恶化和疾病宣战,而不是限制科技的发展。人们对人工智能和科技的发展也无需恐慌,人类社会有智慧应对科技带来的变化。”马云指出,世界正在从IT(信息科技)时代转型到DT(数据科技)时代。


马云也一如既往地力挺中小企业,他说,过去金融机构主要关注和帮助20%的大公司来获取80%的利润,而今后应该关注80%的小企业、年轻人和发展中国家。“世界不只需要20国集团,我们还需要200国集团。


CASIL开发代码移植系统,CTRL+C/V快速编程不再是梦想

对于码农来说,有哪些可以提高开发效率的技巧?

Ctrl+C、Ctrl+V。


近日,麻省理工学院计算机科学与人工智能实验室(Computer Science and Artificial Intelligence Laboratory,CASIL)的一项新技术或将成为千百万码农的福音。他们开发了一个叫CodeCarbonCopy的系统,让码农可以将所需要的代码直接移植到新的程序中。具体来说,程序员可以从第一个程序中选择所需要的代码,然后在第二个程序中选择插入的位置,系统将会自动对代码进行修改——例如,变量名等,使得代码可以上下一致。

很厉害吧?这还没完。更碉堡的是,该系统可以在不同程序的不同文件格式和数据结构中进行转换。举个栗子,不同的图像处理程序可能会需要处理不同的文件格式,例如jpg、tiff或png等,在这个系统内部,它将会用单一的标准化方案表示这些图像格式,尽管不同的程序可能会使用不同的方案,但这个系统会自动进行转换,使得代码真正实现“无缝对接”。

CASIL的研究者在ACM软件工程基金会的研讨会上展示了这一系统。他们使用CodeCarbonCopy在六个流行的开源图像处理程序之间移植代码,总共进行了八次这样的代码移植实验,其中七次均取得了成功。

(在不同数据结构中找到对应关系,AI科技评论摘自相关论文)

使用CodeCarbonCopy将代码从一个程序移植到另一个程序的第一步是,将这两个程序都提供给相同的输入文件。然后系统比较两个程序如何处理该文件并自动推断出这些变量在各自的程序中扮演着相同的角色,一旦它确定了变量之间的对应关系,CodeCarbonCopy即可进行相应的处理。如果在两个程序代码中找不到某些变量的匹配项或者这些变量的初始定义,用户可以将这些变量进行标记,同时CodeCarbonCopy将自动从代码移植中消除使用这些变量的操作。

CodeCarbonCopy适用于不同文件格式(例如图像和数据存储)。在图像处理器中,这些程序基本上具备相同大小的存储单元,而在下一步工作中,研究人员正在考虑将文件格式的方法概括为一种,使得程序可以更灵活的组织数据和使用除数组之外的数据结构(如树或链表等)。


小结

让AI来自己编写是近年来人工智能的一个研究方向。如Deepmind开发的DeepCoder就会自己编程,但目前Deepcoder只能解决数行的代码问题,而且在自动拟合的程序中可能会出现很多缺乏逻辑性的代码,但CodeCarbonCopy这种可以大规模移植已有代码的工具的出现,在减轻了码农的负担的同时或许也给他们带来一丝担忧:如果AI也学会用Ctrl+C和Ctrl+V编程,未来还真的是码农们的对手呢。

推想科技完成1.2亿元B轮融资,创医学影像人工智能行业单笔最大融资额

9月21日,国际领先的医学影像人工智能企业推想科技宣布完成1.2亿元B轮融资,由启明创投领投,元生资本、红杉中国联合投资,泰合资本担任独家财务顾问这是国际医学影像人工智能行业内最大规模的单笔融资。据了解,此轮融资将主要用于人工智能技术在医疗行业的商业化落地、临床应用延伸以及国际市场拓展。


推想科技CEO陈宽表示,2014年创业以来,推想科技非常幸运受到资本的青睐,也非常感恩医院、专家们与医生的一路支持。未来,推想科技产品一方面将在广度上不断拓展,脑部AI临床解决方案,骨折AI辅助筛查,心脏AI辅助筛查,乳腺AI辅助筛查,腹部人工智能辅助筛查等都将陆续问世。另一方面,推想科技产品在深度上将不断向临床延伸。通过精确定位与描述病灶,辅助临床科室完成快速、个性化的干预决策。最终将中国的领先医疗AI技术输出国门,帮助全世界的医患。

推想科技CEO陈宽


启明合伙人叶冠泰说,启明在医疗行业和人工智能领域已经做了很多年的投资和布局。今天人工智能技术在医疗行业的应用还比较初期,但我们认为这个市场的发展前景是巨大的。这种技术可以大大的提高医生和医院的诊疗效率,并且配合医生来提供患者更精准和优质的服务。推想的团队,技术水平,和商业化能力的结合属于第一梯队。我们感到很荣幸能够和推想合作并且帮助这个产业往前推进。


元生资本管理合伙人彭志坚表示,信息技术提升效率是元生资本的重要投资主题。影像作为医疗领域的主要检测手段之一,在中国面临服务供给不足、资源分布不均等问题,同时,影像科医师每天需要大量阅片,超负荷的工作状态也会导致一定的漏诊和误诊。我们认为AI在医疗影像领域的应用会较快成熟,且有机会发挥巨大价值,最终释放影像医师的精力到有更大价值的专业诊断上,提升医疗影像服务的整体供给能力。元生资本非常认可推想团队的战略愿景和执行力,为有机会一同推动医疗影像领域的效率提升感到兴奋。


红杉资本中国基金合伙人计越表示,推想科技作为中国医疗人工智能行业的领衔企业,在海量医疗数据产生和医疗需求爆发的今天,智能化的手段来提升医疗服务质量越来越重要,红杉中国非常高兴能够继续支持推想科技这样有理想有技术的新一代中国AI团队,在各个行业里边继续深耕发展。


推想科技CEO陈宽表示,一方面他认为医疗AI得到资本的认可有助于推动医疗AI的发展和落地,但另一方面他也对医疗人工智能行业中目前存在的一些乱象表示忧虑。



乱象1: 病人数据泄露出境与数据安全


随着医学人工智能越来越火,医院数据成为了人工智能公司的必争之地,很多不规范的行为屡见不鲜。数据脱敏工作的不完善埋下病人隐私外泄的风险;不少在境外团队和国外公司在医院不知情的情况下,将健康数据传向境外,不顾政策红线,为国家数据安全问题造成隐患。


乱象2: 过度夸大AI功能


如今AI大火,许多人工智能的应用能力被无限夸大。有些AI团队为了满足客户的需求,过度承诺和宣传AI能够实现的效果。医院信息系统之复杂就决定了人工智能深入医疗路径的挑战重重;医学临床场景之复杂决定了人工智能仅仅能从单个或者几个病种突破,离全科全能的医生还有很大的差距。




乱象3: 不顾模型的鲁棒性和稳定性


统计学的本质是通过样本来分析整个人群,即便是当下的大数据人工智能也脱离不了这个统计学本质。只有确保了样本足够大,且样本本身的统计学特点能够充分体现疾病的分布特点,才能够保证学习完样本的人工智能能够应对不同的病例。


如今,各种人工智能大赛风行,如LUNA、Kaggle等等。对岸数据科学大赛打得火热,这边临床医生们却非常冷静地看待这些比赛。“有的大赛自己的标注数据就有问题,也就是比赛的标准答案就不对”,某大型三甲医院主任表示。医学是一个非常复杂的问题,光体检、门诊、住院的人群就非常不一样,区区几千例病例训练出的人工智能模型,哪怕在竞赛小数据集上获得再好的效果,想要有10多亿人口的普适性,纯属天方夜谭。一家人工智能公司只有在不同医疗场景、不同地区、不同级别医院的实践中证明自己,才能说自己拥有一个人工智能“产品”,不然也仅仅是一个“模型”。


陈宽表示,医学不应该是一个野蛮生长的行业。推想科技坚持“从临床中来,到临床中去”的产品开发原则,始终抱着一颗敬畏医疗的心,扎根医院,与医生一起开发具有临床价值的产品。希望通过推想科技的做与不做,来帮助整个行业更加健康和合理地发展。

游戏PC销量借现象级游戏重振雄风

“大吉大利,晚上吃鸡!”

继腾讯借助移动端游戏《王者荣耀》火遍大江南北之后,今年第二款现象级游戏《绝地求生:大逃杀 (Playerunknown's Battlegrounds) 》荣登各大社交直播平台榜首,一时间上面这句话也成了网络流行语。


最令人惊异的是,《绝地求生》目前是在PC (个人电脑) 端的独占游戏。在往年受到游戏主机(如Xbox One、PS4、Nintendo Switch)和手机移动端在游戏市场份额上的不断挤压之后,PC游戏产业正迎来一轮得来不易的复苏。

电子竞技为大众所接受、PC硬件配置的高度定制化和新晋现象级游戏越来越多,都为PC游戏产业重振雄风提供了机遇。


“今晚你吃鸡了吗?”

在《绝地求生》这款“活到最后就是胜利”的沙盒生存游戏里,最终幸存的玩家屏幕上会出现一行字:“Winner Winner,Chicken Dinner”。

这句话出自美国电影《决胜21点》,影片中一个赌徒每次赌钱之前都要说这句话,然后就总能赢钱。而《绝地求生》汉化版本中,将这句话直白地翻译为“大吉大利,晚上吃鸡”。

在《绝地求生》的玩家看来,“今晚吃鸡吗”就如同地下党对暗号一样,意同“开黑”。而没有接触过这款游戏的玩家在看到这句话时,也会心生好奇,等于为《绝地求生》做了推广。


“大吉大利,晚上吃鸡!”

今年3月23日开发商蓝洞将《绝地求生》加入Steam数字发行平台的Early Access项目之后,仅16天销量就已突破100万份,目前总销量逾1000万份,日活峰值达到130万人同时在线,一跃成为Steam平台上最受欢迎的游戏,而在这当中有35%的玩家来自中国。

《绝地求生》的中国玩家占比大幅飙升


PC对传统游戏主机的换代和内容优势

目前占据Steam销量榜第一的《绝地求生》,在玩家群体当中的热度已经超越《我的世界》和《反恐精英》,在海外直播第一平台Twitch上的观看人数甚至一度超越《英雄联盟》。

本周举行的东京电玩展上,还在主舞台专设了《绝地求生》的现场锦标赛,这在传统而言被PS4、Nintendo Switch等游戏主机所垄断的日本游戏市场来说,可谓史无前例。

近年来电子竞技越发为大众所接受,《刀塔2》、《反恐精英》等电子竞技类的PC游戏登堂入室,带动了整个产业的蓬勃发展。撼动主机游戏的传统受众,恐怕只是时间问题。

主机游戏虽然往往是大部分非硬核玩家的入门首选,但主机换代周期和新游戏研发周期极长。索尼出品的PS4和微软出品的Xbox One自发布以来已进入第五个年头,而任天堂出品的Switch虽然潜力十足,但在今年圣诞季新独占游戏发布之前,处于平台内容非常匮乏的状态。

相比之下,游戏PC可以根据用户需求进行硬件配置升级,不论是从英伟达最新发布的高端游戏显卡,还是从按需增加的内存运算量上来讲,都远超老迈的游戏主机。Steam Early Access这样“先睹为快”的游戏开发模式,则让游戏开发者提前将仍在开发完善但可玩性相对完整的游戏提前呈现在玩家面前,比主机端游戏正式发布的时间往往要快出数个月甚至数年。


英伟达开发的GTX1080系列显卡打响了高端游戏显卡降价的“第一炮”


PC游戏崛起 助推游戏专用PC销量

为了获得更为流畅的游戏体验,有些玩家甚至为了《绝地求生》专门购置一台新的个人电脑,这种现象过去仅存在于拥有独占游戏的PS4、Xbox One等平台上。

根据研究机构Gartner Inc的数据,虽然到2020年底个人电脑总销售规模每年将缩水3.8%,但满足游戏配置需求的专用PC销量却将迎来年化6.6%的增长。PC游戏产业营收将以年化3-4%的速度稳定增长,而游戏主机产业的销售所得将持平。


多年来因为配置成本过高、装配过于复杂、体积过于庞大等原因被市场所冷落的游戏专用PC,或将就此迎来“第二春”,并对游戏主机产业的未来造成严重威胁。

面对游戏PC的再次崛起,游戏主机厂商也不会坐以待毙。微软今年6月宣布将赶在年底前将《绝地求生》移植到Xbox One平台上。虽然索尼还未表态是否会将该游戏移植到PS4平台,但过去仅在PS4生态发布专属游戏的开发商,已经开始“用脚投票”:Square Enix将推出新游戏《Left Alive》,计划于2018年在PC和PS4上同步发布;而Konami预计于明年发布的《合金装备:生存》,也将同步发售PC和PS4两个版本。