• 项目
首页>>文章列表
文章列表

长安汽车先行先试企业微信,探索制造业数字化转型

2017年5月,当长安汽车决定使用企业微信时,同行以为这个方案的提议者、长安汽车总裁助理胡朝晖“疯了”。


长安汽车是最早开启使用企业微信的企业之一。这个决策伴随着争议:长安汽车是一家员工数量近10万名的企业,这对企业微信的各项能力都是一种考验。但一年多的实鉴证明,企业微信的运行较平稳,长安汽车的沟通、决策、组织和执行效率得到大幅提升。除了公司员工,长安汽车目前也推广到经销商,下一步将把范围拓展至上游供应商。



卢青伟企业微信产品部总经理


几乎为零的学习成本


“微信普及以后,大家不自觉地用微信办公,生活和工作7*24小时被绑定在一起,我们亟需一种产品让工作和生活得到分离,产品需求是比较旺盛的。”胡朝晖称。在当时,使用第三方办公软件是一个饱含不确定性的决策。但长安汽车的逻辑很简单,专业的事情交给专业公司做,“腾讯在这方面的能力肯定比我们强,我们没必要再去花钱做,我们擅长的是对汽车客户的理解。”


彼时市场上有大量企业办公软件,为什么选择了企业微信?


“对于我们来说,大家已经习惯了用微信沟通,用企业微信能直接上手,不用再进行培训,产生额外的学习成本。”胡朝晖称。


接入企业微信的第二天,长安汽车就完成了数万人从微信到企业微信的迁移。企业微信也成了提高办公效率的重要推手,当初面临的质疑迎刃而解。胡朝晖称,受益于企业微信,长安汽车沟通效率、决策效率和执行效率得到大幅提升。


此前长安汽车决策靠流程驱动,通过OA一层层往上申请或向下传导。接入企业微信后这些流程被压缩,能够快速审批、决策,参与者也可通过自建应用「微信圈」讨论细节。


“以前我们说最大的问题解决时长不能超过3天,可经常不知道执行到哪儿了,这样很可怕。现在是每个层级一个微信圈,问题停留时限超过1天,到时会自动升级到更高一级甚至到副总及总经理。总裁可以看到问题的解决进度,到了哪里谁在处理。完全透明。”胡朝晖称。


企业微信的引入使得管理更加扁平化,每个人都能通过企业微信对话高管。


一个例子是,企业微信开通的第一天,工厂一名女员工通过企业微信写邮件给董事长,问能不能多设几个母婴室,彼时该工厂多了几位新生儿,女员工觉得母婴室偏少。董事长将这封邮件截图发到微信圈,工会马上去了工厂调研,最后为该工厂多开设了母婴室。


长安汽车企业微信目前总用户数为35626,日活跃用户数量约为2.6万,这里面既有长安汽车内部员工也有经销商。使用企业微信以前,长安汽车经销商反馈的问题由区域人员收集,通过OA上报解决;现在经销商可以通过企业微信上报问题,问题解决平均时长由以前的2.13日缩减到0.13日,效率提升了1538%。


长安汽车是企业微信的先行者,为了提高用户体验和效率,企业微信也在不断对功能进行改进和完善。


“去年的转发功能有个小问题,每次只能转发给一个人或一个群,但很多时候一条通知要转发给几十个群,一条条操作很麻烦,我们就把需求提给了企业微信的负责人,他们通宵做出了这个功能,第二天早上跟我说了进展,上线时间比约定的日期还提前了三五天,这种合作大家是很开心的。”胡朝晖称。


除了经销商,长安汽车下一步计划引入供应链至企业微信,来完善对上游供应商的管理。


企业微信生态能力


长安汽车此前曾自主开发移动办公软件,员工可以在移动端发起OA流程,但这款软件沟通功能有所欠缺。企业微信弥补了这些问题。


与此同时,公司可在企业微信的开放环境下接入更多定制化应用。目前长安汽车企业微信总应用数为72个,其中自建应用45个,第三方应用23个。


长安云店是长安汽车在企业微信上应用的一个案例。通过长安云店,客户可以看车、选车和预约试驾,想对一款车增进了解时点击车辆旁边按纽即可咨询销售顾问。销售顾问会在企业微信收到客户问题并第一时间解答,带来转化率和销量的提高。而在此前,客户对一款车有疑问时需要自主上网去查,或打电话给经销商或长安汽车400电话,甚至是找不到沟通入口,这会带来潜在客户的流失。


与此同时,销售顾问使用企业微信与客户沟通,可以将客户信息沉淀在公司里,也避免了销售顾问离职带来的客户流失问题。


据悉,下一步,长安汽车的主要方向是探索企业微信+小程序的模式,通过小程序实现更多更深的应用,对于各个环节进行优化。



新能源车船税继续免征,行业高景气仍将持续

财政部7月31日发布关于节能新能源车船享受车船税优惠政策的通知。减半征收车船税的节能乘用车应同时符合以下标准:获得许可在中国境内销售的排量为1.6升以下(含1.6升)的燃用汽油、柴油的乘用车(含非插电式混合动力、双燃料和两用燃料乘用车)。免征车船税的新能源汽车是指纯电动商用车、插电式(含增程式)混合动力汽车、燃料电池商用车。纯电动乘用车和燃料电池乘用车不属于车船税征税范围,对其不征车船税。


中汽协发布的6月份汽车产销数据显示:1-6月,新能源汽车累计产销分别完成41.3万辆和41.2万辆,同比去年分别增长94.9%和111.5%。中汽协会秘书长助理许海东表示,今年上半年新能源汽车产销情况远远好于往年同期,预计下半年仍会保持较好的发展态势,全年产销规模将超100万辆。


并且从目前来看,尽管补贴幅度在逐渐降低,但政府层面的扶持政策和支持决心不变,而且随着双积分交易的正式启动,车企加快这一领域的布局,新能源汽车将继续保持较快增长。


而从更长维度来看,全球禁售燃油车是未来确定性趋势。机动车污染已成为我国空气污染的重要来源,未来我国新能源汽车替代己成趋势。我国工信部也已经启动了禁售燃油车时间表的相关研究。7月4日,发改委起草了《汽车产业投资管理规定(征求意见稿)》,政策要求严格控制新增传统燃油汽车产能,积极推动新能源汽车健康有序发展,着力构建智能汽车创新发展体系。建议关注产业链上下游龙头:华友钴业(603799.SH)、当升科技(300073.SZ)、杉杉股份(600884.SH)和上汽集团(600104.SH)等。

图解百度Q2财报:营收利润符合预期 AI语音交互数据亮眼

百度周二美股盘后公布了截至6月30日的2018年Q2财报,业绩符合预期,百度盘后一度涨超3%,截至收盘上涨1.67%。


财报数据显示,公司该季度营收为人民币259.7亿元,同比增长32%,接近上季度公司给出的指引区间 [249.1亿,261.9亿]的上限,也接近彭博分析师综合意见预测值区间[247.71亿,262.00亿]的上限。


图:百度营业收入和业绩指引(亿元)


2018年Q3净利润为人民币64亿元,同比增长45%;非通用会计准则(Non-GAAP)下,净利润为人民币74亿元,同比增长57%。


公司预计Q3营业收入介于人民币[273.7亿,287.7亿],同比2017年Q3增速区间为23%到30%。该收入指引超出彭博分析师综合意见预测值区间[247.71亿,262.00亿]。


整体来看,Q2百度业绩稳健,同时AI战略中的DuerOS业务进展成为重要亮点。DuerOS不断拓宽零售、酒店、汽车等商业使用场景,6月份DuerOS 智能设备激活量达到9000万台,相比年初增长80%。


一、收入概况:百度核心业务收入同比增速提高


百度收入可以按业务类型、部门两个分类进行分析。


1)按照业务类型分类,百度目前的收入来源有两块:一个是网络营销服务(搜索+信息流+爱奇艺等广告服务),一个是其他业务(主要包括爱奇艺会员费和金融业务等)。


2018年Q2公司网络营销服务实现收入210.65亿元,同比增长17.8%,较上个季度的16.5%略有提高,主要是由于公司广告客户数量增速较高;该业务收入占营收比例进一步降低至81.1%。


其他收入为49.07亿元,同比增长64%,依然维持较高的增速,主要由于爱奇艺会员收入和其他收入的强劲增长。该业务占营业收入比进一步提升至18.9%。


图:百度各项业务收入占比和同比增速



2)按部门分类,百度的收入来源可分为两块:百度核心业务和爱奇艺。百度核心业务包括广告(搜索+信息流)、AI、金融服务等除爱奇艺以外的所有相关收入。爱奇艺业务,包括爱奇艺相关的广告、会员、版权收入等。


图:百度各部门收入同比增速(亿元)



2018年Q2,百度核心业务收入200亿元,同比增长28%,增速较上个季度的26%进一步提高;来自爱奇艺收入为62亿元,同比增速达到51%,相比上一季度的57%,增速有所降低。


3)目前百度已完成从PC端到移动端的过渡,并一直单独披露来自移动端的收入情况,百度移动端主要由百度APP、百度地图、百度贴吧、百度浏览器等产品矩阵组成。


2018年第二季度,百度来自移动端的收入占营收比例为77%,高于去年同期的72%,但略低于上个季度的78%。


图:百度移动端收入占比



4)虽然陆奇已经离职,但是百度目前依然将信息流和AI作为主航道,此次百度也公布了信息流和AI方面的最新进展。


关于搜索和信息流,百度在财报中披露,百度App在六月份DAU(日活用户)达到1.48亿,较去年同比增长17%。而根据上个季度财报披露,3月份百度App的DAU为1.37亿,同比增长18%。百度继续将AI技术运用于广告监控系统。


关于AI技术,百度表示在Q2成功召开了百度开发者大会。百度推出的小度智能音箱系列及相关产品倍受好评,在2018年6月DuerOS语音唤醒超过4亿次,几乎是三个月前的两倍。DuerOS生态系统迅速扩张,6月份DuerOS 智能设备激活量达到9000万台,相比年初增长80%。


在Apollo业务上,百度与金龙汽车和新石器合作,分别推出了两款商用L4级自动驾驶车。这些强劲的业务进展都表明百度在“夯实移动基础,决胜AI时代”战略下专注且推进顺利。


二、运营数据:广告业务数据有喜有忧


广告业务作为百度的现金牛业务,2018年Q2广告客户和客户平均收入数据喜忧参半。


Q2公司活跃广告客户数量为51.1万,同比增速为9%,较上个季度的5.3%进一步提高,并且连续三个季度保持同比正增长。


图:百度广告客户数量(万人)



Q2单客户平均收入为4.12万,同比增速为16%,而上个季度为19%,下滑了3%;环比增速达到14%,而上个季度为-18%,有所改善。


图:百度单广告客户平均收入(万元)



从Q2来看,虽然单客户平均收入同比增速不佳,但是综合来看,广告运营数据整体继续改善,为百度广告业务收入稳定扩张提供了基础。


三、成本大幅提高,经营利润率保持稳定


百度成本费用主要为三项:营收成本、销售行政及一般费用、研发成本。2018年Q2公司成本与费用为205亿元,同比增长23%,上个季度为9.8%,增速提高较快。不过从各项成本占营收比例情况看,基本保持稳定。


Q2营收成本为120.12亿元,同比增速13.5%,较上个季度的7.3%大幅提高。不过该成本占收入比例46.2%,保持稳定。


Q2销售行政及一般费用为45.04亿元,同比增长53.5%,较上个季度的11.5%大幅提高;研发成本为40.33亿元,同比增长28.1%。


虽然整体成本费用增长较快,但公司运营利润率保持稳定。Q2运营利润为人民币54亿元,比去年同期增长29%,运营利润率为20.9%,相较于去年同期的21.8%降低1.1%。


图:百度营业利润率和成本构成



图:百度各项成本同比增速



作为成本费用中占比最大的营收成本,可以进一步拆分为内容成本、流量获取成本、带宽成本、其他费用。


Q2公司内容成本同比增速为67.1%,进一步扩张。主要是爱奇艺的内容成本增长,此外,还有在信息流业务方面的投入。


Q2流量获取成本同比增速为8.9%,相较于上个季度的3.2%,增长速度加快。度宽带成本同比增速为12.2%,较上个季度的也有提高。其他费用同比增速较上个季度有所下降。


图:百度营收成本构成



图:百度各项营收成本同比增速



自2017年Q2以来,百度一直在强化经营成本控制,成果显著,但是从2018年Q2数据来看,经营成本又有开始扩张的趋势,只是并未引起营业利润率的大幅下降。


四、净利润


2018年Q2,百度Non-GAAP下归属于百度的净利润为74亿元,较上年同期增长57%。


图:百度净利润概况(亿元)



表:百度净利润调整(Non-GAAP,亿元)


需要指出的是,2015年第四季度,百度因去哪儿和携程换股事项,导致净利润水平对经营成果反应失真,将该季度数据做剔除。


五、估值:百度目前市盈率低于可比公司


整体上看,百度2018年Q2略超出市场预期,尤其是广告客户数量同比增速有较大幅度,保证了广告收入的稳定;成本费用有进一步扩张的趋势,不过对营业利润率影响不大。从估值角度看,百度目前市盈率低于可比公司。


表:百度可比公司概况


2018年中日韩青年文化节达成人工智能与青年责任宣言

弘扬中华文化初心 《中餐厅》走红中外赢各方点赞

去年,湖南卫视推出的“慢综三部曲”,成为新节目中的最大亮点,这三档一反综艺制作流行趋势、以慢节奏表达返璞求真的节目的试水成功,不仅成就了又一批品牌综艺,更在行业内掀起了新的风尚潮流。


其中,暑期推出的《中餐厅》是慢综艺中一个特别的存在,既最大限度地贯彻慢综艺还原生活本真面貌的理念,讲述清新文艺的治愈系故事,又拓展了慢综艺的题材疆域,融入经营体验的元素,记录明星在异国他乡从零开始经营中餐厅的励志过程。


即便慢综已成为当下综艺领域的一大重要品类、竞品层出不穷,已形成独特标签和气质的《中餐厅》,在这一类型综艺中依然差异化突出,在业界和观众心中的领跑地位难以撼动。


也因此,第二季在筹备阶段就备受瞩目,选角、选址都牵动着不少观众的心。


第二季首播后,不少观众反映还是熟悉的味道,美人+美食+美景依旧,而全新的嘉宾阵容、团队分工和角色定位,又产生了与第一季截然不同的火花,制作上保持质感的同时又有一定升级。


收视表现、观众口碑,也在印证第二季对这一慢综品牌的品质延续和创新突破。连续两周,《中餐厅》第二季都高居全国网所有频道收视第一,多个话题登陆微博热搜前列,在豆瓣更拿下7分的高分。第二季不仅保持住了市场反响上的高水准,更完成从新生黑马到王牌综艺的进阶。


目前,《中餐厅》第二季已在马来西亚、文莱、新加坡等国家以及港澳台地区发行,并获得了较好口碑,使得节目在文化输出方面也取得了突破。


人物之间自带关系,又生发出更多关系线


嘉宾选择,是慢综艺创作的第一步,也被业内视作分量最重的一个关键环节,对于这样一档不设任务和游戏、完全依赖嘉宾真实表现的节目,完成了合适的嘉宾选择和具备更多可能的组合搭配,可以说就已成功了一大半。


第一季节目,店长赵薇领衔的五人组就为人津津乐道,不仅有有着二十年同学情的赵薇和黄晓明再聚首,而且,每个嘉宾的职责和个性都十分鲜明。选人的恰到好处,一定程度上中和了慢综艺细水长流式平缓叙事的弱点,使得整季节目看点不断。


而第二季,导演组在选角上更为用心,最终形成的赵薇、舒淇、苏有朋、王俊凯、白举纲五人组令人惊喜,人物之间的互动关系更为紧密、多元,搭配起来颇显巧思。


节目开播时发布的“美味关系”海报,曾揭秘第二季嘉宾之间的各类关系。


赵薇与舒淇是曾共同出演一部电影的“天使姐妹”,生活中也是知心知底的好闺蜜;赵薇和苏有朋是曾合作《还珠格格》等一系列经典剧的荧屏情侣,更是友情延续了十余年的知己老友;


赵薇和王俊凯是在工作和生活中都有颇多交集的同门师姐弟;同时,这个组合里还有另一对姐弟关系,舒淇和白举纲曾在某节目中共事数月,关系也十分亲近。


除了美食、经营、慢综艺等鲜明标签外,《中餐厅》的另一大特质就在于对好友关系的关照,节目中的明星嘉宾都定位为“餐厅合伙人”,而节目希望展现的也是有着共同兴趣和一致目标的老友,在二十天内如何同时兼顾友谊升华和餐厅经营的故事。


第一季赵薇和黄晓明之间的同学情,就颇为打动观众,而到了第二季,节目更为注重嘉宾之间本身的关系基础,邀请来拥有更多交集的明星好友,接受考验。


节目选择嘉宾的思路和方向十分清晰,制片人王恬在接受采访时曾表示,相比嘉宾的咖位,“彼此熟悉,能够形成良性互动”更为重要。尤其是对于外部力量干预接近于零的慢综艺来说,明星嘉宾“自带紧密的关系”,为趣味性故事的推进提供了动力,也更能反映出不同关系下人们的相处之道。


在这样蕴含多元人物关系的阵容搭配下,明星嘉宾的相处的确更为自然,相互熟悉和磨合的过程几乎跳过,从第一期节目起,嘉宾之间就已传递出彼此熟悉的老友之间相处的特有感觉。


嘉宾之间的关系线,也带来了更为丰富、看点十足的故事,从前两期节目来看,不仅是这些本身便已存在的好友关系愈加清晰,五人之间还碰撞出了更多火花。


如赵薇、舒淇、苏有朋三位前辈,自然组成了“福禄寿”组合,坐镇后厨、给年轻艺人以指导与安全感,且三位前辈毫无包袱,互动中笑料不断;


而王俊凯、白举纲两位新生代歌手,也因年龄相仿、拥有共同爱好,迅速打得火热,本周节目中这个年轻人的故事线已经渐趋清晰,两人不仅偷偷摸摸地吐槽舒淇,还就如何煮粉各执一词、互不相让,将活泼调皮又执着的少年感传递得淋漓尽致。


不同的分工尝试,强化角色定位和个性塑造


不同于第一季中每个嘉宾在餐厅经营中的功能和角色定位,从开篇就已基本确立并延续全程,第二季中,除赵薇继续担任店长、统筹中餐厅经营外,五人组的职责似乎并未进行明确划分,就连关键性的主厨一职也没有专设一人担当。


实际上,少了张亮这样烹饪技能异常突出的艺人,节目开播前,就已有不少观众对“谁是大厨”好奇并担忧起来。


而从前两期节目来看,似乎有意规避了明确的职责分配,尝试了全新的分工方式。五人在开张筹备、试菜的过程中,未对各自的职能进行界定,决策更加民主,每人都承担力所能及的事务,并尝试制作并敲定了自己的拿手菜。


正式开业后,依旧沿用了这一方式,客人点单后,每人负责制作自己的主厨菜品,其他工作则随机而定,由其他人配合完成。


全新分工模式的尝试,使得每个明星嘉宾都不再局限于单一角色和职责,实际上,这也有效避免了嘉宾表现和故事的单调。在这样看似随意却有章可循的安排下,每个嘉宾都有机会体验各个工种,从后厨料理到服务顾客,均有所涉足,而这也利于他们展现自己更为多元的特长和性格。


取消明确职责与个人的全程深度绑定后,嘉宾们将发挥出更多样化和立体化的功能,这在一定程度上也缓解了慢综艺常见的人物和故事线平淡、戏剧性持续力较弱的问题。


上周播出的节目中,王俊凯便通过厨艺的展示、与顾客的沟通等不同工作,令人刮目相看,圈了不少粉。


他的干贝蛋白炒饭成为首日最受欢迎的菜品之一,而在忙完后厨工作后,王俊凯又尝试迈出服务员的第一步,用英文为顾客推荐菜目、成功解锁点单技能,提供从前到后的全方位优质服务,堪称中餐厅新一届小能手。


而虽然五位合伙人没有从开业阶段进行明确分工,但从第二期节目来看,他们的配合愈加流畅、默契值愈来愈高。


从一开始的手忙脚乱、不知所措,经过一天的磨合,整个流程便已理顺清晰,配合起来有条不紊,从点单到上菜的时间持续缩短,效率明显提升。而伴随着后续五人的磨合过程,每个人物的成长也将刻画、传递出来。


同时,职责界限的模糊,并不意味着嘉宾个人形象和定位的不尽明确。播出的两期节目,已经将五人的形象塑造得十分到位。这些鲜少在真人秀中露面的嘉宾,都释放出了更为本真的自我,展现出了大众所不熟知的一面。


赵薇依然是中餐厅的主心骨,掌控全局气场十足,舒淇的女神外表下还有点二,耿直、爱演、爱撒娇,是中餐厅人见人爱的“驻店之宝”;不老男神苏有朋竟然也是梗王,除了为三人取名“福禄寿”,他还贡献了不少金句和笑点,是气氛调节的担当;


王俊凯则出人意料地全能,有着一手好厨艺,还善解人意;白举纲看上去大大咧咧、直率得过分,但也有暖心的一面,是“福禄寿”的好帮手。


这个横跨不同年龄段、将各个年代的偶像一网打尽的新鲜组合中,每个人都成为不可或缺的一部分,五人将各自优势和特质有机结合,形成了中餐厅的“黄金搭档”。

挑战与品质升级之下,坚守真实记录、推广中华美食的初心


选择法国科尔马小镇作为第二季的拍摄地,节目的制作难度和内容都面临着不小程度的升级。首期节目就已经交代了在法国开中餐厅所要接受的语言交流、经营标准、卫生标准等多方面的挑战,而嘉宾们在克服这些难题中的种种表现,也带来了更多戏剧性的故事。


在慢综艺的制作中,导演的不干预、忠实记录全程,是基本法则,然而,本就缺乏明确环节划定和任务推动的慢综艺,在不做人为设计的情况下,如何讲述出跌宕起伏的精彩故事,一直是此类节目创作者面临的一大考验。连续两年,《中餐厅》团队也在持续探索中。


而在第二季中,主创团队遵循的依旧是真实性高于一切的原则,在21天里进行无台本、不间断的记录,所有意外状况都由嘉宾自行处理、解决,节目组只负责客观记录。


第一期节目中苏有朋发现行李无人帮忙搬运、只能自己寻找时,大呼“太真实了吧”,就已从侧面反映了这档真人秀对真实记录的恪守。


而在录制过程中的全程跟踪记录外,导演组的工作大多做到了前面。例如,颇为重要的嘉宾选择,以及情境的建构。


实际上,主打治愈系慢综艺的《中餐厅》的叙事性并不弱,餐厅的经营成果如何、合伙人能否从容应对各种突发状况,都成为节目的悬念所在,从每期节目甚至到每个版块,都有其相对完整的叙事结构和重心。第二期,就由开业首日的营业状况和嘉宾表现构成了整期节目的悬念。


素人,是《中餐厅》的重要组成,第二季,顾客的来源有所不同,明星嘉宾不再需要主动拉人,而是采用订餐制。在节目录制前,法国当地最大的报纸公布了订餐电话,来自世界各地的游客都可进行预定。


这也得益于法国政府相关部门和主流媒体的支持和协助。据悉,在法国媒体的关注和推广之下,法国当地市民、包括华人在内的外地游客都纷纷预定成功,中餐厅生意火爆,造成一席难求的局面。


而节目中,大多数中外顾客都对明星合伙人烹饪的美食赞不绝口。合伙人身体力行做中华美食文化的传播者,让法国人更加了解中国、爱上东方味道的诉求,也有所实现。


近日,法国旅游发展署还发布微博,为《中餐厅》第二季促进两国文化交流点赞,法国驻华大使馆也随后转发了该条微博。从顾客和官方的反馈来看,《中餐厅》第二季的确在推广中华美食文化、促进中法两国文化交流方面发挥了重要作用。


制作上,第二季在编剧、摄像、后期等方面均实现了一定突破。为了将21天内发生的故事更有效地传递给观众,技术手段上进行了全新升级,据介绍,第二季的摄像机位达到了66个,比上一季增加了三分之一,每集素材量就超过16T,更丰富的录制素材,使得节目在后期叙事中更得心应手。


后期方面,《中餐厅》第一季的质感得了延续并再度提升。无论是精准解读嘉宾状态和心理的花字和动画,还是与《哈尔的移动城堡》巧妙融合的惊艳特效,都提供了精致、唯美的视觉体验。

金准人工智能 机器翻译研究报告

前言

随着计算机科学技术的发展,机器翻译作为自然语言处理研究的重要组成部分越发受到人们关注。经过了几十年的努力,以机器翻译为代表的自然语言处理工作取得了巨大的进展,并且在未来有着广阔的发展空间,为了梳理机器翻译领域的研究概括,金准人工智能专家总结如下:

机器翻译概论。首先对机器翻译进行了定义,接着对机器翻译的发展历程进行了梳理,对我国机器翻译现状进行了介绍。

机器翻译技术原理。机器翻译的技术原理可以概括为基于理性主义的方法和基于经验主义的方法两种,分别对两种方法下的基于规则的翻译方法、基于实例的翻译方法、基于统计的翻译方法以及基于深度学习的翻译方法进行介绍。机器翻译领域专家介绍。利用金准数据对机器翻译领域专家进行深入挖掘,选取国内外有代表性的专家进行介绍。

机器翻译的应用及趋势预测。机器翻译在现实生活中应用广泛,在文本翻译、语音翻译、图像翻译和视频、VR翻译等领域均有了不同的进展,在此基础上,对机器翻译未来的发展趋势做出相应的预测。

1. 概念篇

1.1机器翻译简介

机器翻译(Machine Translation)是指运用机器,通过特定的计算机程序将一种书写形式或声音形式的自然语言,翻译成另一种书写形式或声音形式的自然语言。机器翻译是一门交叉学科(边缘学科),组成它的三门子学科分别是计算机语言学、人工智能和数理逻辑,各自建立在语言学、计算机科学和数学的基础之上。

机器翻译可以实现世界上不同国家不同语言间的低成本交流,其主要优点体现为:

① 成本低。相对于人工翻译来说,机器翻译的成本要低很多。机器翻译需要人工参与的程序其实很少,基本上由计算机自动完成翻译,大大降低了翻译成本。

② 易把控。机器翻译的流程简单快捷,在翻译时间的把控上也能进行较为精准的估算。

③ 速度快。计算机程序的运行速度非常快,其速度是人工翻译速度不可比拟的。

由于这些优点,机器翻译在这几十年来得到了快速的发展。在具体应用上一般分为三种,分别是:词典翻译软件、计算机辅助翻译软件和机器翻译软件。

第一种是最基本的网络查词翻译,查询对象一般为单个的字词、简单的词组或者是固定结构。

第二种为计算机辅助翻译,英文简称CAT(Computer Aided Translation),其原理为利用计算机的记忆功能将译者之前翻译的资料进行整理,以便为之后出现的类似翻译提供便利条件。CAT软件产业已经比较成熟,例如Google Translator Toolkit、Microsoft Loc Studio等,Trados(塔多思)占有国际计算机辅助翻译软件产业绝大多数的市场份额,微软、西门子等国际大公司都是它的用户。

第三种是机器翻译软件,也叫做计算机翻译,即MT(Machine Translation)。其原理为应用计算机按照一定规则把一种自然语言转换为另一种目标自然语言。此过程一般指自然语言之间句子和段落等的翻译,大部分见诸于世的翻译软件,如谷歌翻译、金山词霸和有道翻译等均属于机器翻译软件。

1.2机器翻译发展历程

机器翻译思想正式提出于1949年,Warren Weaver发表《翻译》备忘录,在那以后至今的时间里,机器翻译研究经历了一个曲折的发展过程。

第一台数字电子计算机诞生于1946年,从那以后,人们就开始思索如何运用计算机代替人从事翻译工作的问题,甚至在此之前,图灵就已经开始思考计算机是否能够进行思维这一问题。1949年,信息论先驱Warren Weaver发表了有关机器翻译的备忘录,提出了机器翻译的可计算性,他提出两个主要观点:第一,他认为翻译类似于解读密码的过程;第二,他认为原文与译文“说的是同样的事情”,因此,当把语言A翻译为语言B时,就意味着从语言A出发,经过某一“通用语言”或“中间语言”,可以假定是全人类共通的。这是机器翻译发展初始阶段的第一件标志性事件;1954年美国乔治敦大学(Georgetown)在IBM的协同下进行的英俄翻译实验开始了,在翻译自动化方面的尝试是机器翻译发展初始阶段的第二件标志性事件。

总体来说,这一阶段人们头脑中已经形成了机器翻译的概念,并且已经意识到可以利用语法规则的转换和字典来实现翻译目的。人们乐观地认为只要扩大词汇量和语法规则,在不久的将来,机器翻译问题会比较完美地得以解决。所以在此之后的很长一段时间,全球各国大力支持机器翻译项目,一个机器翻译研究的高潮就此形成。

好景不长,1966年11月,美国语言自动处理咨询委员会(ALPAC)从机器翻译的速度、质量、花费以及当时人们对机器翻译的需求等几个角度,对当时的各个翻译系统进行了一次评估,公布了著名的APLAC报告,给机器翻译研究工作浇了一盆凉水。报告提出,机器翻译的译文质量明显远低于人工翻译,难以克服的“语义障碍”是当时机器翻译遇到的问题,这份报告全面否定了机器翻译的可行性,建议各大机构停止对机器翻译的投资和研究。尽管报告的结论过于仓促、武断,但是这一阶段关于机器翻译的研究的确没有解决许多至关重要的问题,并没有对语言进行深入的分析。此后在世界范围内,机器翻译出现了空前的萧条局面。

20世纪80年代末,由于微处理器的出现,计算机能力获得了突飞猛进的发展,机器翻译这一学科有着极大的开发潜力和经济利益,被重新提起。许多大公司开始投入资金和人力进行研究,使得机器翻译得到了复苏和重新发展的机会。这一时期,计算机和语言学的一些基础工作,比如许多重要的算法的研究已经到达了一个比较深入的阶段,对语法和语义的研究也已经有了一些比较重大的成果,词法分析、句法分析的算法相继得到开发,并且加强了软件资源,例如电子词典的建设。翻译方法以转换方法为代表,开始普遍采用以分析为主,辅以语义分析的基于规则方法来进行翻译,采用抽象转换表示的分层实现策略,如图1。语法与算法的分开是这一时期机器翻译的另一个特点。所谓语法与算法分开,就是指把语言分析和程序设计分开来成为两部分操作,程序设计工作者提出规则描述的方法,而语言学工作者使用这种方法来描述语言的规则。

 

现在,机器翻译已经成为世界自然语言处理研究的热门。原因之一是网络化和国际化对翻译的需求日益增大,翻译软件商业化的趋势也非常明显。这一时期的翻译方法我们一般称之为基于经验主义的翻译方法,主要是基于实例和基于统计的方法,特点是注重大规模语料库的建设,开始了针对大规模的真实文本处理。同时,这一阶段的研究工作开始解决一个比文本翻译更加复杂和艰难的问题——语音翻译。而且由于Internet上的机器翻译系统具有巨大的潜在市场和商业利益,此时网上翻译机器系统也进入了实用领域的新突破阶段。

 

机器翻译功能越来越强大,从最初只能进行简单的单词翻译,到之后可以翻译出基本符合语法的句子,慢慢可以翻译具有一定逻辑性的句子,现在部分软件已经可以自主联系上下文进行翻译,翻译结果的准确性与可读性都已经取得了非常大的进步。

近年来,加入了“深度学习技术”等人工智能的机器翻译已经不止于简单的将一个个单词翻译成另一种语言,而是可以像人工翻译一样,不断向前回顾理解结构复杂的句子,同时联系上下文进行翻译。最为明显的是现在的部分机器翻译软件已经可以理解每一个代词具体指代谁,这在许多年前是不可想象的。

实现这种功能的关键,分别依赖于两种神经网络架构,一个是循环神经网络(RNN,Recurrent Neural Networks),另一个是卷积神经网络(CNN,Convolutional Neural Network),目前关于两种网路架构哪种更适用于机器翻译的争论还有很多。

循环神经网络

循环神经网络的关键在于“循环”二字,计算机系统会“记住”上一次输出的内容,并以此来决定下一次输出。有了上一次和下一次的概念,神经网络就不会把输入和输出的信息看作是独立的,而是看作相互关联的时间序列。这样可以通过以往的序列关联猜测到下一个序列会出现的词。在翻译时,神经循环网络把源语言当作输入序列,把翻译语言当作输出序列,由于每次的输出都会参考上一次输出的结果,所以机器翻译更具有整体性,可读性和准确性更高,而不是简单地翻译单词。目前,循环神经网络运用最为熟练的应该是谷歌翻译,谷歌曾提出利用神经网络系统进行机器翻译,据称汉译英的错误率最高下降了85%。

卷积神经网络

卷积神经网络可以同时处理多个语言片段,并且具有信息分层处理能力。将文本序列化、单词向量化,经过分层处理后再输出结果。在分层过程中,还会不断回顾源文本来确定下一个输出序列。首先应用这种技术的是Facebook和最近的机器翻译新秀DeepL。2017年上半年,Facebook宣布推出了基于卷积神经网络开发的语言翻译模型,据说比基于循环神经网络开发的语言翻译模型速度可以快9倍,而且准确率更高。在测试上,Facebook翻译系统在英语-德语、英语-法语的测试上都比循环神经网络更接近人工翻译。

不管是哪种系统,都不是机器翻译的终点,比如谷歌近期提到的不再基于卷积神经网络的注意力机制,以及多层神经网络、深度神经网络等,都是解决机器翻译问题的探索,在速度、计算机资源消耗、情感理解等多种维度上各有不同的表现。

1.3我国机器翻译现状

中国的机器翻译研究始于20世纪50年代,但是由于国际环境和电脑发展水平的束缚,国内真正对机器翻译的研究是在20世纪80年代晚期。具有重要意义的标志性成果是著名的“863智能英-汉翻译系统”。20世纪90年代,随着电脑技术的发展和对外交流的扩大,机器翻译的使用变得日趋频繁;机器翻译不仅是必要的,而且随着机器翻译软件发展到了前所未有的新高度,机器翻译也成为可能。机器翻译研究形成了独立研究机构和政府研究组织共存的良好面貌。国内成功的机器翻译的开发也呈现出前所未有的繁荣景象。

第一阶段的开发期是在1957年,中科院语言研究所、电脑科技研究所与中俄机器翻译合作,成功译出了九类复杂的句式。作为世界上的两种重要语言,英汉互译是国内外诸多学者所关心的。

第二阶段由于政治原因和机器翻译固有的困难而停滞。在此阶段,汉英机器翻译研究几乎止步不前。

第三阶段是大发展阶段,始于1975年。国内的机器翻译列入了“六五”“七五”“863”等主要研究计划。研究者集中精力进行了多个科研院所的协作研究,开展了与国际研究机构的合作和沟通,不仅培养了大批人才,积累了资源,而且把我国机器翻译带入了繁荣期。

上世纪90年代以来,我国相继推出了一系列机器翻译软件,例如“译星”“通译”等。随着市场需求的扩大,机器翻译成为一种新兴产业,走向了专业化和市场化。

近几年国内机器翻译发展很快,各大IT公司都相继推出自己的机器翻译系统,而且神经翻译技术和深度学习技术作为一种新的机器翻译范式,在诸多语种及应用场景中的翻译质量已经超越了统计机器翻译技术,并成为目前学术界和工业界研究的热点,以下对各大IT公司机器翻译进展逐一介绍。

2010年初,百度组建了机器翻译核心研发团队,2011年6月30日,百度机器翻译服务正式上线,目前,百度翻译支持全球28种语言互译、756个翻译方向,每日响应过亿次的翻译请求。此外,百度翻译还开放了API接口,目前已有超过2万个第三方应用接入。华为、OPPO、中兴、三星等手机厂商,金山词霸、灵格斯词霸、敦煌网等众多产品均接入了百度翻译API。百度还将基于神经网络的机器翻译引入机器翻译中,这一应用比谷歌翻译要早一年,在海量翻译知识获取、翻译模型、多语种翻译技术等方面取得重大突破,实时准确地响应互联网海量、复杂的翻译请求。其所研发的深度学习与多种主流翻译模型相融合的在线翻译系统以及基于“枢轴语言”等技术,处于业内领先水平,在国际上获得了广泛认可。

科大讯飞成立之时就开始在语言和翻译领域布局项目。基于深度神经网络算法上的创新和突破,科大讯飞在2014年国际口语翻译大赛IWSLT上获得中英和英中两个翻译方向的全球第一名;在2015年又在由美国国家标准技术研究院组织的机器翻译大赛中取得全球第一的成绩。2017年科大讯飞还推出了多款硬件翻译产品,其中晓译翻译机1.0plus将世界上最先进的神经网络翻译系统,从在线系统优化成一个离线系统。它可以在没有网络的情况下提供基本的翻译服务。

阿里巴巴2015年收购了国内最大的众包翻译平台——365翻译,开始涉入机器翻译领域。2016年10月起正式开始自主研发NMT模型,2016年11月首次将NMT系统的输出结果应用在中英消息通讯场景下的外部测评中,并取得了不错的成绩2017年初阿里正式上线了自主开发的神经网络翻译系统,为阿里经济体复杂多样的国际化需求提供可靠的技术支撑。

阿里机器翻译是基于阿里巴巴海量电商数据并结合机器学习、自然语言处理技术,实现多语言语种识别与自动翻译功能,为跨境电商信息本地化与跨语言沟通上提供精准、快捷、可靠的在线翻译服务,其宗旨是“让商业没有语言障碍”。

2016年初,腾讯开始研发AI翻译产品,并正式推出机器人翻译——翻译君,支持中英日韩法德意土等15种语言和80个语种的对翻译。2017年宣布翻译君上线“同声传译”新功能,用户边说边翻的需求得到满足,语音识别+NMT等技术的应用保证了边说边翻的速度与精准性。腾讯机器翻译基于腾讯领先的底层算法、丰富的中文知识图谱和先进的NLP引擎能力,结合了神经网络机器翻译和统计机器翻译的优点,对源语言文本进行深入理解,使翻译效果更为准确,同时支持语音翻译、图片翻译、语种识别等多种场景,大大减轻传统文本翻译的读写成本。

机器翻译是搜狗人工智能战略中的重要一环,一方面可以满足用户在搜索过程中大量的机器翻译需求,一方面还可以通过搜索和机器翻译技术的结合,帮助中文用户打破语言障碍,搜索并浏览全世界外语信息。2016年5月19日,搜狗正式上线英文搜索。搜狗英文搜索提供跨语言检索功能,可自动将中文翻译成英文进行查询,再生成英文查询结果。对于不擅长英文的用户,可以节省很多“先翻后搜”的搜索时间2017年11月的乌镇世界互联网大会上,搜狗展示了机器同传技术,可将演讲者的中文同步翻译成英文并实时上屏12月21日,搜狗英文搜索正式升级为搜狗海外搜索频道,并同步上线了搜狗翻译频道。2018年3月,搜狗上线定位旅游用的翻译机——翻译宝开始了在机器翻译领域硬件的探索。目前,搜狗已经上线了基于神经网络的机器翻译频道,并发布了跨语言搜索系统,为用户提供高质量的英文网页搜索服务,并同时能够将搜索结果翻译为中文帮助用户理解。

网易2011年创立网易感知与智能中心,拥有自建分布式深度学习平台,其自主研发的图像处理、语音识别、智能问答等AI技术,已经在有道翻译中得到了应用和推广。2017年5月网易有道在GMIC未来创新峰会上公布:由网易公司自主研发的神经网络翻译技术正式上线。此次在有道上线的YNMT技术,由网易有道与网易杭州研究院历时两年合力研发,让以中文为中心的、根据中文用户使用习惯定制的神经翻译系统服务于6亿有道用户,服务于有道词典、有道翻译官、有道翻译网页版、有道e读等产品。

除了BAT这类大型的IT公司,一些机器翻译的创业公司如火如荼的发展起来。例如“小牛”翻译,由东北大学计算机科学与工程学院自主研发的机器翻译系统NiuTrans,荣获钱伟长中文信息处理科学技术一等奖,这是国内中文信息处理领域的最高科学技术奖项。小牛翻译团队于2012年5月创立了沈阳雅译网络技术有限公司,聚焦机器翻译的产学研一体化发展,提供企业级机器翻译服务解决方案。小牛翻译是目前国际上功能最强的两个开源统计机器翻译之一,目前有70多个国家的2000多个高校和企业研究机构下载使用。小牛翻译除了有统计机器翻译开源系统之外,还有商用的机器翻译系统。目前小牛翻译已经支持,以中文为核心,与其他64种语言机器翻译,在技术上已经转换为最新的神经机器翻译模型。由微软亚洲研究院和微软搜索技术中心的资深技术专家创立的爱特曼科技(Atman)是一家人工智能创业公司,创立仅三个月产品还没上线便获得千万级的天使轮投资。该公司聚焦于世界领先机器翻译技术的研发和应用,核心技术有机器翻译、语音识别、机器写作、知识图谱等,提供的产品和服务包括:领先机器翻译技术结合译后编辑重构高质量语言转换服务、外媒内容全链条生产平台,包括外媒选材、机器翻译、在线编辑、自动分发等。

总而言之,机器翻译在我国从无到有,现如今其发展更是有着新的广度和深度,深刻的时代意义和现实价值。

2.技术篇

机器翻译的过程包括三个阶段,原文分析、原文译文转换和译文生成。

根据不同的翻译目的和翻译需求,在某一具体的机器翻译系统中,可以将原文分析和原文译文转换相结合,独立出译文生成,建立相关分析独立的生成系统。在这一翻译过程当中,机器翻译在进行原文分析时要考虑文本的结构特点,而在译语生成时则不考虑源语的结构特点。也可以结合原文译文转换与译文生成,把原文分析独立出来,建立独立分析相关生成系统。此时,文本分析时不考虑译语的结构特点,而在译语生成时要考虑源语的结构特点。还可以让原文分析、原文译文转换与译文生成分别独立,建立独立分析独立生成系统。在这样的系统中,分析源语时不考虑译语的特点,生成译语时也不考虑源语的特点,通过原文译文转换解决源语译语之间的异同。

 

自机器翻译诞生以来,其研究围绕理性主义方法和经验主义方法两种思潮进行了两次转变。

所谓“理性主义”的翻译方法,是指由人类专家通过编撰规则的方式,将不同自然语言之间的转换规律生成算法,计算机通过这种规则进行翻译。这种方法理论上能够把握语言间深层次的转换规律,然而理性主义方法对专家的要求极高,不仅要求了解源语言和目标语言,还要具备一定的语言学知识和翻译知识,更要熟练掌握计算机的相关操作技能。这些因素都使得研制系统的成本高、周期长,面向小语种更是人才匮乏非常困难。因此,翻译知识和语言学知识的获取成为基于理性的机器翻译方法所面临的主要问题。

所谓“经验主义”的翻译方法,指的是以数据驱动为基础,主张计算机自动从大规模数据中学习自然语言之间的转换规律。由于互联网文本数据不断增长,计算机运算能力也不断加强,以数据驱动为基础的统计翻译方法逐渐成为机器翻译的主流技术。但是同时统计机器翻译也面临诸如数据稀疏、难以设计特征等问题,而深度学习能够较好的环节统计机器翻译所面临的挑战,基于深度学习的机器翻译现在正获得迅速发展,成为当前机器翻译领域的热点。

2.1理性主义方法

基于规则的机器翻译方法(Rule-based System)的基本思想认为,一种语言无限的句子可以由有限的规则推导出来。依据语言规则对文本进行分析,再借助计算机程序进行翻译,这是多数商用机器翻译系统采用的方法。

基于规则的方法比较直观,能够直接表达语言学家的知识。规则的颗粒具有很大的可收缩性,大颗粒度的规则具有很强的概括能力,而且有比较好的系统适应性,不依赖于具体的训练语料;小颗粒度的规则具有精细的描述能力,这种方法便于处理复杂的结构和进行深层次的理解,如解决长距离依赖等问题。

但是,基于规则的翻译方法中规则主观因素比较重,有时与客观事实有一定差距;规则的覆盖性比较差,特别是细颗粒度的规则很难总结得比较全面;规则之间的冲突没有好的解决办法;规则库的调试是一个漫长枯燥的过程;规则一般只局限于某一个具体的系统,规则库开发成本太高。

 

基于规则的机器翻译系统中,主要包括词法、句法、短语规则和转换生成语法规则,通过三个连续的阶段实现分析、转换、生成,根据三个阶段的复杂性可以分为直接翻译、结构转换翻译和中间语翻译。

2.1.1直接翻译

直接翻译是指把源语中的单词或句子直接替换成相应的目的语的单词,必要时可以对词序进行适当的调整。这是机器翻译最初构想的体现,从目的语中寻找与源语词汇相对应的单词,但并不是电子词典word-to-word的形式,而是翻译句子中的所有词汇,再通过词语翻译、插入、删除和局部的词序调整来实现翻译,不进行深层次的句法和语义的分析,直接翻译应用的后期也加入了一些简单的句法或者是语义规则,对替换后的词语进行重新排序,生成最终的目的语文本,也可以采用一些统计方法对词语和词类序列进行分析。直接翻译是早期机器翻译系统常用的方法,后来IBM提出的统计机器翻译模型也可以认为是采用了这一范式,著名的机器翻译系统Systran早期也是采用这种方法,后来逐步引入了一些句法和语义分析。

由于目的语和源语在句子语法结构等方面的差别很大,所以使用直接翻译法翻译出来的句子可读性和准确性都比较低,但它是机器翻译最实质性的一步,是机器翻译变成现实的一次迈步。

 

2.1.2结构转换翻译

结构转换翻译是在直接翻译系统上出现的,相比较于直接翻译,它更多的从句子层面来分析处理源语与目的语,译文的可读性和准确性更高。结构转换翻译通常包括分析、转换和生成三个阶段。分析要对源语言句子和源语言深层结构进行分析,其中相关分析在分析时要考虑目标语言的特点,而独立分析在分析过程中则与目标语言无关。从源语深层结构向目标语言的深层结构转换是关键部分,生成则是由目标语言深层结构生成目标语言句子,相关生成要考虑语言的特点,独立生成则与源语言无关。这种方法被认为是模拟人类翻译活动最恰当的机制。不同的语言具有相同或者相似的深层结构,就像是一座桥梁,把人类不同的语言连接起来,使得两种语言间可以实现翻译交流。目前绝大部分商品化机器翻译系统采用转换式机器翻译方法。

理想的转换方法应该做到独立分析和独立生成,这样在进行多语言翻译的时候可以大大减少分析和生成的工作量,转换放大根据深层结构所处的层面可分为句法层转换和语义层转换,分别对应句法信息和语义信息,分析的深层次越深,歧义排除也就越充分,但同时,错误率也会相对越高。

 

人类自然语言中很多单词不止有一个意思,比如中文的“意思”二字就有很多不同的意思,容易产生歧义。在机器翻译中,为了简化比较复杂的表达结构,避免翻译过程中出现有歧义的语言现象,能够独立于各种自然语言,同时还能够清晰准确的表达各种自然语言的人造计算机语言便应运而生,这种作为翻译中介的人造计算机语言被称作中间语。它常见的形式有语义网络(Semantic Network)、框架(Frame)和逻辑(Logic),以某种知识表示形式作为中间语言的机器翻译方法有时候也称为基于知识的机器翻译方法。

2.1.3中间语言转换翻译

中间语言转换的机器翻译原理其实是在不同的语言之间建立一个通用的语义-句法表达式。整个翻译过程分为“分析”和“生成”两个阶段,由源语言到中间语言的生成,由中间语言到目标语言的生成环节。分析过程只与源语言有关,与目标语言无关,生成过程只与目标语言有关,与源语言无关。

中间语言方法的优点在于进行多语种翻译的时候,只需要对每种语言分别开发一个分析模块和一个生成模块,模块总数为2*n,相比之下,如果采用转换方法就需要对每两种语言之间都开发一个转换模块,模块总数为n*(n-1)。

 

中间语言方法一般用于多语言的机器翻译系统中,从实践看,采用某种人工定义的知识表示形式作为中间语言进行多语言机器翻译都不太成功,如日本主持的亚洲五国语言机器翻译系统,总体上是失败的。在CSTAR多国机器翻译系统中,曾经采用了一种中间语言方法,其中间语言是一种带话语信息的语义表示形式,由于语音翻译都限制在非常狭窄的领域中(如旅游领域或机票预定),语义描述可以做到比较精确,因此采用中间语言方法有一定的合理性,但该方法最终也不成功。

实际上,领域特别窄的场合可以采用中间语言方法,一个适合于中间语言方法的例子是数词的翻译,采用阿拉伯数字作为中间语言显然是比较合理的。

 

2.2经验主义方法

20世纪80年代末至90年代初,随着计算机技术的快速发展,大规模双语语料库的构建以及机器学习方法的兴起,机器翻译方法逐渐由基于理性主义思维的规则方法转向基于经验主义思维的语料库方法。基于语料库的机器翻译方法又可以进一步划分为基于实例的翻译方法和基于统计模型的翻译方法。基于语料库的方法使用语料库作为翻译知识的来源,无需人工编写规则,系统开发成本低,速度快;而且从语料库中学习到的知识比较客观,覆盖性也比较好。但是这种系统性能严重依赖于语料库,有着严重的数据稀疏问题,也不容易获得大颗粒度的高概括性知识。

2.2.1基于统计的机器翻译

统计机器翻译(Statistics-based machine translation)的基本思想是充分利用机器学习技术,通过对大量的平行语料进行统计分析进行翻译。通俗来讲,源语到目的语的翻译过程是一个概率统计的问题,任何一个目的语句子都有可能是任何一个源语的译文,只是概率不同,机器翻译的任务就是找到概率最大的那个句子。

20世纪90年代初期,IBM的研究人员提出了基于信源信道思想的统计机器翻译模型,并在实验中获得了初步的成功,正式标志着统计机器翻译时代的到来。不过由于当时计算机能力等方面限制,真正展开机器翻译方法研究的人并不多,统计机器翻译方法是否有效还受到人们的普遍怀疑,随着越来越多的人员投入到统计机器翻译中并取得成功,统计方法已经逐渐成为国际上机器翻译研究的主流方法之一。

最初IBM研究人员提出的是基于词的机器翻译模型,但是,由于这种机器翻译模型复杂度较高,翻译质量也不尽人意,因此逐渐被一些更加有效的翻译模型所替代。下图是当前机器翻译中一些典型的翻译模型。

 

统计机器翻译也是基于语料库的机器翻译方法,不需要人工撰写规则,而是从语料库中获取翻译知识,这一点与基于实例的方法相同。为翻译建立统计模型,把翻译问题理解为搜索问题,即从所有可能的译文中选择概率最大的译文,基于实例的机器翻译则无需建立统计模型,二者的区别还在于,基于实例的机器翻译中,语言知识表现为实例本身,而统计机器翻译中,翻译知识表现为模型参数。

统计机器翻译是以严格的数学理论做基础的。所有的翻译知识都是以概率的形式呈现,表现为某种参数。训练的过程就是为了得到这些参数,解码的过程则是利用这些参数去搜索匹配最好的译文,只要使用这些参数就不需要去搜索原始的语料库。在整个过程中,机器翻译并不需要人工构造的翻译知识,所有的语言知识都是从语料库中自动获取。统计机器翻译的成功在于采用了一种新的研究范式,这种研究范式已在语音识别等领域中被证明是一种成功的翻译,但在机器翻译中是首次使用。这种范式的明显特点是,公开的大规模的训练数据、周期性的公开测评和研讨以及开放源码工具。

目前,统计机器翻译所使用的语料库是双语句子对齐的语料库,规模通常在几万句对到几百万句对不等。统计机器翻译的过程被看作是一个最优解搜索的过程,系统从巨大的可能译文中搜索最优的译文,搜索所使用的算法则采用人工智能中的一些成熟算法。

统计翻译模型的发展,迄今为止经历了三个阶段。分别是基于词的模型,基于短语的模型和基于句子的模型。基于短语的模型中的“短语”表示连续的词串,该模型的基本思想是:

首先从双语句子对齐的平行语料库中抽取短语到短语的翻译规则,在翻译时将源语言句子切分为短语序列,利用翻译规则得到目标语言的短语序列,然后借助调序模型对目标语言短语序列进行排序,最终获得最佳的目标译文。其中,短语调序模型,尤其是长距离的短语调序,一直是短语翻译模型的关键问题。目前,基于短语的模型是最为成熟的模型,而基于句子的模型是当前研究的热点。统计机器翻译的模型可以表现为一个金字塔的形式,如图10。

 

在这个金字塔上,越往塔尖的方向走,对语言的分析也越深入。理论上来说,对语言的分析越深入,所具有的排歧能力就应该越强,译文的质量也应该越高。但实际上,分析语言本身就是一个很难的问题,分析的深度越深,往往引入的错误也越多,反而会导致翻译质量的下降。因此,如何通过引入更深层的语言分析来提高模型的排歧能力,同时又要避免分析导致的错误,就成了统计翻译模型要解决的主要问题。

统计机器翻译为自然语言翻译过程建立概率模型并利用平行语料库训练模型参数,无需人工编写规则,利用语料库直接训练得到机器翻译系统,人工成本低、开发周期短,只要有语料库就很容易适应新的领域或者语种,成为Google、微软、百度等国内外公司在线翻译系统的核心技术。

尽管如此,统计机器翻译仍然面临着一些严峻的挑战。例如统计机器翻译依赖人类专家通过特征来表示各种翻译知识源,由于语言之间的结构转换非常复杂,人工设计特征难以保证覆盖所有的语言现象;统计机器翻译中的原规则结构复杂,对语料库的依赖性强,引入复杂的语言知识比较困难,即使现在可以用大规模语料库训练数据,但仍然面临着严重的数据稀疏问题。

2.2.2基于实例的机器翻译

基于实例的翻译方法(Example-based Machine Translation)由日本翻译专家长尾真(Makoko Nagao)提出,他在1984年发表了《采用类比原则进行日-英机器翻译的一个框架》一文,探讨日本人初学英语时翻译句子的基本过程,长尾真认为,日本人初学英语时总是记住一些最基本的英语句子以及一些相对应的日语句子,他们要对比不同的英语句子和相对应的日语句子,并由此推论出句子的结构。参照这个学习过程,在机器翻译中,如果我们给出一些英语句子的实例以及相对应的日语句子,机器翻译系统可以通过识别和比较这些实例以及译文的相似之处和相差之处,从而挑选出正确的译文。

在基于实例的机器翻译系统中,系统的主要知识源是双语对照的翻译实例库,实例库主要有两个字段,一个字段保存源语言句子,另一个字段保存与之对应的译文,每输入一个源语言的句子时,系统把这个句子同实例库中的源语言句子字段进行比较,找出与这个句子最为相似的句子,并模拟与之相对应的译文,最后输出译文,这是一种由实例引导推理的机器翻译方法,整个翻译过程其实是查找和复现类似的例子,不需要对源语言进行任何分析,只需要通过类比,发现和记起特定的源语言表达或以前的翻译实例作为主要知识源来对新的句子进行翻译。

 

基于实例的机器翻译系统中,翻译知识以实例和语义类词典的形式表示,易于增加或删除,系统的维护简单易行,且利用了较大的翻译实例库并进行精确地对比,有可能产生高质量译文,而且避免了基于规则的那些传统的机器翻译方法必须进行深层语言学分析的难点,在翻译策略上很有吸引力的。

基于实例的机器翻译直接使用对齐的语料库作为知识表示形式,知识库的扩充非常简单,而且不需要进行深层次的语言分析,也可以产生高质量的译文。

但是基于实例的机器翻译系统的翻译质量取决于翻译记忆库的规模和覆盖率,至少要百万句对以上,因此如何构建大规模翻译记忆库成为影响基于实例的机器翻译研究的关键。现阶段,由于缺少大规模的双语对齐语料库,基于实例的机器翻译系统匹配率其实并不高,往往只有限定在特定的专业领域时,翻译效果才能达到使用要求。如果基于实例机器翻译匹配成功,可以获得相对较高质量的译文,因此基于实例的机器翻译一般和基于规则的机器翻译

相结合使用,会产生比较好的翻译结构。对于匹配率过低的问题,可以试着做到短语级别的双语对齐,以提高匹配命中率,通过短语级别的局部匹配,结合相应的目标句子的框架,完成句子的翻译。

2.2.3基于深度学习的机器翻译

从最初的基于规则的机器翻译到最新的依靠数据驱动进行的机器翻译,其总体发展趋势是要让计算机更加自主的学习如何翻译。利用平行语料库进行数据的训练,是提高机器翻译准确性和可读性的关键,深度学习的引入则成了当前热点。

深度学习发展脉络

以下是金准人工智能专家通过四个脉络对深度学习发展脉络进行了梳理。

 

脉络一cv/tensor

1943年卡洛可和皮茨提出了抽象的神经元模型MP,该模型可以看作深度学习的雏形。1957年Frank Rosenblatt发明了感知机,是当时首个可以学习的人工神经网络。1969年Marvin Minksy和Seymour Papert用详细的数学证明了感知机的弱点,神经网络研究进入冰河期。1984年福岛邦彦提出了卷积神经网络的原始模型神经感知机,产生了卷积和池化的思想。1986年Hinton等人提出一般Delta法则,并用反向传播训练MLP。1998年以Yann LeCun为首的研究人员实现了5层的卷积神经网络——LeNet-5,以识别手写数字。LeNet-5标志着CNN(卷积神经网络)的真正面世,LeNet-5的提出把CNN推上了一个小高潮。

之后SVM兴起。2012年AlexNet在ImageNet上夺冠,掀起了深度学习的热潮。AlexNet可以算是LeNet的一种更深更宽的版本,并加上了relu、dropout等技巧。这条思路被后人发展,出现了VGG,GoogLeNet等网络。2016年何恺明在层次之间加入跳跃连接,Resnet极大增加了网络深度,效果有很大提升。Cvpr best paper densenet也是沿着这条思路发展的。

除此之外,cv领域的特定任务还出现了各种各样的模型(Mask-RCNN等),这里不一一介绍。2017年Hinton认为反省传播和传统神经网络有缺陷,继而提出了CapsuleNet。但是目前在cifar等数据集上效果一般,这条思路还需要继续验证和发展。

脉络二 生成模型

传统的生成模型是要预测联合概率分布P(x,y)。RBM其实1986年的时候就存在,只是2006年重新作为一个生成模型,并且堆叠成为deep belief network,使用逐层贪婪或者wake-sleep的方法训练,Hinton等人从此开始使用深度学习重新包装神经网络。

Auto-Encoder提出于上世纪80年代,现在随着计算能力的进步重新登上舞台。2008年,Bengio等人又提出denoise Auto-Encoder。MaxWelling等人使用神经网络训练Variational auto-encoder。此模型可以通过隐变量的分布采样,经过后面的decoder网络直接生成样本。

GAN(生成对抗网络)于2014年提出。它是一个生成模型,通过判别器D和生成器G的对抗训练,直接使用神经网络G隐式建模样本整体的概率分布。每次运行便相当于从分布中采样。DCGAN是较好的卷积神经网络实现,而WGAN则是通过维尔斯特拉斯距离替换原来的JS散度来度量分布之间的相似性的工作,训练更稳定。PGGAN则逐层增大网络,生成极其逼真的人脸。

脉络三 Sequence Learning

1982年出现的Hopfield Network有了递归网络的思想。1997年Schmidhuber发明LSTM,并做了一系列的工作。但是更有影响力的还是2013年由Hinton组使用RNN做的语音识别工作。

文本方面,Bengio提出了一种基于神经网络的语言模型,后来Google提出word2vec也包含了一些反向传播的思想。在机器翻译等任务上,逐渐出现了以RNN为基础的seq2seq模型,模型通过编码器把一句话的语义信息压成向量再通过解码器输出,更多的还要和注意力模型结合。之后以字符为单位的CNN模型在很多语言任务也表现不俗,而且时空消耗更少。LSTM/RNN模型中的注意力机制是用于克服传统编码器-解码器结构存在的问题的。其中,自注意力机制实际上就是采取一种结构令其同时考虑同一序列局部和全局的信息。

脉络四Deepreinforcement Learning该领域最出名的是DeepMind,这里列出的David Silver则是一直研究reinforcement learning(rl,强化学习)的高管。

q-learning是很有名的传统rl算法,deepq-learning则是将原来的q值表用神经网络代替。之后David Silver等人又利用其测试了许多游戏,发在了Nature上。增强学习在double duel的进展,主要是q-learning的权重更新时序。DeepMind的其他工作诸如DDPG、A3C也非常有名,它们是基于policy gradient和神经网络结合的变种。

可以说基于深度预习的机器翻译,显著地提升了机器翻译的质量,接近普通人的水平,是当前机器翻译领域的热点。大致可以分为两种情况,一是领用深度学习改进统计机器翻译中的相关模块;二是直接利用神经网络实现源语言到目标语言的映射,即端到端的神经机器翻译。

利用深度学习改进统计机器翻译

利用深度学习改进统计机器翻译是指利用深度学习改进统计机器翻译中的相关模块,如语言模型、翻译模型等。上文也提到统计机器翻译有着不可避免的缺点,其中较为严重的是数据稀疏问题,而深度学习可以帮助统计翻译模型较好的解决这一问题。机器翻译的核心是语言模型,语言模型对译文的流利度和质量都有着至关重要的作用,通过深度学习可以改进语言模型。n-gram是传统的语言模型所采用的方法,模型参数是通过极大似然估计训练所得,采用离散表示(每个词都是独立的符号),但是因为大多数n-gram在语料库中只出现一次,无法准确估计模型参数,所以极大似然估计面临着严重的数据稀疏问题。因此传统的统计机器翻译基本会使用平滑和回退等策略来缓解数据稀疏问题,但即使采用平滑和回退策略,统计机器翻译还是因为数据稀疏无法获得更多历史信息,通常仅能使用4-gram或者5-gram语言模型。

深度学习著名代表学者Yoshua Bengio教授2003年提出基于神经网络的语言模型,这一模型中的数据稀疏问题由于分布式表示的存在得到了有效缓解;2014年美国BBN公司的研究人员进一步提出神经网络联合模型(Neural Network Joint Models)。他们提出,对于决定当前词来说,不仅仅是目标语言端的历史信息有着重要的作用,源语言端的相关部分也起着很重要的作用。这种观点是对传统的语言模型的一种颠覆,因为传统的语言模型往往只考虑目标语言端的前n-1个词,而不会探索更多。使用分布式表示能够缓解数据稀疏问题,再加上神经网络联合模型能够使用丰富的上下文信息,融入了深度学习的翻译方法相对应传统的翻译方法有了一个质的进步。

使用神经网络对机器翻译来说,还有一个更为显著的好处,即能够解决特征难以涉及的问题。例如调序模型。基于短语的统计机器翻译的重要调序方法之一是基于反向转录文法的调序模型。这种模型将调序视作一个二元分类问题,即两个相邻源语言词串的译文顺序有顺序拼接和逆序拼接两种处理方法。传统方法通常使用最大熵分类器,但是这一方法面临着一个重要难点,即如何设计能够捕获调序规律的特征。要从众多的词语集合中选出能够对调序决策起到关键作用的词语是非常困难的,而且词串的长度一般都非常长,更是为此增加了难度。所以,基于反向转录文法的调序模型由于无法把握基于词串的特征设计问题,从而无法充分利用整个词串的信息,造成了信息的白白流失。利用神经网络能够较好的缓解特征设计的问题,首先词串的分布式表示可以利用递归自动编码器生成,然后神经网络分类器可以基于四个词串的分布式表示来建立。因此,基于神经网络的调序模型不需要人工参与设计特征就能够自主利用整个词串的信息,调序分类准确率和翻译质量显著提高。实际上,深度学习不仅停留在为机器翻译生成新的特征这一步,更能够将现有的特征集合转化生成新的特征集合,翻译模型的表达能力有了显著提升。

端到端神经机器翻译

端到端神经机器翻译(End-to-End Neural Machine Translation)是一种全新的机器翻译方法,于2013年兴起。这种翻译方法通过神经网络直接将源语言文本映射成目标语言文本。这种方法仅通过非线性的神经网络便能直接实现自然语言文本的转换,不再需要由人工设计词语对齐、短语切分、句法树等隐结构,也不需要人工设计特征。

2013年,英国牛津大学的Nal Kalchbrenner和Phil Blunsom提出了端到端的神经机器翻译,他们提出了一个新框架,即“编码-解码”的框架。对于一个源语言句子,首先将它映射为一个连续、稠密的向量,这一过程是通过编码器实现的,然后再将这个向量转化为目标语言的句子,这一过程通过解码器实现。Kalchbrenner和Blunsom在论文中使用的编码器是卷积神经网络(Convolutional Neural Network),解码器是递归神经网络(Recurrent Neural Network)。能够捕获全部历史信息和处理变长字符串是递归神经网络的优点。这种新的架构,统计机器翻译的线性模型被非线性模型取代,隐结构流水线被单个复杂的神经网络取代,语义等价性通过连接编码器和解码器的向量来描述,同时,递归神经网络可以捕获无限长的历史信息。理论上,端到端的神经机器翻译能够捕获无限长的历史信息,可以取得理想的翻译效果,但是在真正处理长距离的依赖关系时还是有困难的。

为此,2014年,长短期记忆(Longshort-TermMemory)被美国Google公司引入端到端的神经机器翻译。通过设置门开关的方法长短期记忆能够较好的捕获长距离依赖。由于递归神经网络无论在编码器还是解码器里的使用,都使得端到端神经机器翻译性能得到了提升,取得了与传统机器翻译相当甚至更好地翻译效果。但是,要想实现准确的编码和源语言句子,编码器都需要将它映射为一个维度固定的向量,这是一个极大的挑战。

Yoshua Bengio研究组针对这一问题提出了基于注意力(Attention)的端到端神经网络翻译。其基本思想就是,在解码器生成单个的目标语言,有相关性的其实仅仅是小部分的源语言词,绝大多数源语言词都是无关的,这样就不需要使用整个源语言句子的向量,只要使用每个目标语言词相关的源语言端的上下文向量即可。为此,他们提出了一整套基于内容的注意力计算方法,这套方法能够更好地处理长距离依赖,同时提升端到端神经机器翻译的准确率和质量。

虽然端到端的神经机器翻译近年来发展迅速,但仍然存在很大的提升空间。首先是可解释性差。有别于传统的机器翻译在设计模型时根据语言学知识进行架构,神经网络内部全部使用向量表示,从语言学的角度看可解释性很差,在设计新结构时如何融入语言学知识成为新的挑战。其次训练复杂度高,端到端神经机器翻译的训练复杂度是传统统计机器翻译不可比的,对于计算资源的依赖程度和要求也更高,想要获得较理想的实验周期必须使用较大规模的GPU,因此计算资源成为端到端神经机器翻译的一个重要问题。

3.人才篇

机器翻译经历了几十年的发展,无数学者投身于其中,国内国外的研究学者甚多,本报告基于AMiner大数据,对该领域内的学者就行挖掘,并根据各学者在AMiner数据中的H-index排序选取其中几位进行简要介绍。

 

上图是以“machine translation”为关键词,在AMiner数据库中得到的全球机器翻译领域人才分布图。由图可以看到,美国在这一领域人才最多且最为集中,欧洲和中国对机器翻译的研究紧跟其后,南美洲、非洲和大洋洲则人才相对比较匮乏。这与国家整体经济发展水平、教育水平、计算机水平有着密不可分的关系。

 

金准人工智能专家以“machine translation”为关键字在AMiner数据库中对国内机器翻译领域人才进行挖掘,得到了国内机器翻译领域人才分布图。可以看出,机器翻译研究主要集中在北京,这与北京高校众多、教育先进不无关系。

3.1领军人物

Yoshua Bengio

Yoshua Bengio是加拿大蒙特利尔大学计算机科学与运筹学系的教授,机器学习实验室(MILA)的负责人。他的许多研究被广泛引用,其经典作品《Learning Deep Architectures for AI》非常适合对深度学习感兴趣的读者作为入门读物。

Bengio的主要贡献在于他对RNN的一系列推动,包括经典的neural languagemodel,gradientvanishing的细致讨论,word2vec的雏形,以及现在的machinetranslation;他也是神经网络复兴的主要的三个发起人之一。

Yoshua Bengio是《Journal of Machine Learning Research》、《Neural Computation》和《Foundations and Trendsin Machine Learning》的编辑。自1999年以来,一直与YannLeCun共同组织学习研讨会,并与他一起创建了国际代表性学习会议(ICLR)。

Kevin Knight

Kevin Knight在卡内基梅隆大学计算机科学获得博士学位,目前是南加州大学信息科学研究所的一名教授,机器翻译界公认的领袖,他是统计机器翻译的主要倡导者之一,在统计机器翻译方面做了一系列的研究和推广工作,培养了一批知名学者,例如Philipp Koehn等,同时也是JHU的统计机器翻译夏季研讨班的主要组织者之一。

Kevin Knight的研究兴趣包括自然语言生成器、自然语言处理、机

研究机构:华为取代苹果成全球第二大手机生产商

尽管最新财报表明苹果公司(Apple)二季度业绩强劲,但多家研究机构的分析显示,这家巨头丧失了全球第二大手机制造商的地位。


取而代之的是中国华为。这是市场研究机构IDC、Counterpoint Research、IHS Markit和Canalys共同得出的结论。这种结论是根据苹果和华为截至6月30日的智能手机出货量计算出来的。


根据IDC的初步测算数据,华为在二季度发货量约5420万部,同比增幅达40.9%。同期,苹果财报显示,其二季度手机发货量4130万部,低于此前市场预期的4179万部,同比仅微增0.7%。


据此推算,华为在全球智能手机市场的占有率约为15.8%,而苹果为12.1%。



IDC指出,这是苹果自2010第二季度以来首次在市场份额方面没有成为第一或第二位智能手机公司。


研究公司CysRs将华为的出色业绩表现归因于旗舰级产品P20的强劲销售,以及其荣耀品牌(Honor)的成功。华为在中国以外的市场销售了400万部荣耀手机,同比暴增150%。


CNBC援引Canalys驻上海分析师Mo Jia的分析称,尽管今年早些时候未能成功与美国AT&T建立合作伙伴关系,但华为迅速调转方向,与盈利能力相比,他们转为更加关注低端品牌的销量增长。荣耀在中国市场一直是个主要品牌,但海外市场份额一直不高,现在却在集团战略中起到了关键作用。


截至目前,韩国三星仍在全球智能手机市场占据最大份额。IDC数据显示,三星手机二季度出货量为7150万部,市占率20.9%。



不过,正如华尔街见闻昨日所提及,三星的智能手机业务正在不断下滑,其手机出货量年化降幅达10.4%。未来几个季度可能继续处于困境。


昨日公布的财报显示,三星二季度净利润跌至10.98万亿韩元(约合98亿美元),低于此前市场预期的11.6万亿韩元。其中,移动部门利润同比锐减34%,拖累业绩表现。而芯片业务成了公司的最大利润来源,同比大增45%。


如果按照二季度出货量增速来排名,小米集团以48.8%的同比增速排在首位,华为和OPPO分别以40.9%、5.1%位列第二和第三位。苹果位居第四。三星及其他手机品牌当季同比负增长。