• 项目
首页>>文章列表 >>行业研究 >>金准产业研究 达摩院报告分享 2020十大科技趋势

金准产业研究 达摩院报告分享 2020十大科技趋势

发布日期:2020-01-30

前言

2019年,各大公司的AI、云计算、大数据走向下沉市场,空中博弈进入到地面作战,技术的商业化成为生意成败的重要考量。其间,产业与场景成为大漏斗,好的技术得以被筛选重用。 

回首相望,过去的365天,产业AI与产业互联网成为AI落地的关键词,AI芯片规模化应用,专用芯片起势,机器学习、深度学习在工业、能源等各个场景进行实战;云计算成为百行千业数字化转型的核心纽带,云一跃成为巨头的核心赛道;5G2019年迎来正式商用,牌照相继发放,5G也在带动物联网、车联网的爆发,城市的数字化、孪生化成为共识;此外,区块链在2019年褪去热火,进行理性时代,并上升至国家战略,想象空间巨大。

这些,也刚好在此前阿里达摩院发布的《2019十大科技趋势》中被言中。 

但是,在2019这一整年,科技发展形势“一片大好”的背后,我们也试图追索那些深藏在暗处的隐忧,并为之提出更好的应对之策,对未来尽责。 

2020年1月2日,一元初始、万象更新的时刻,阿里达摩院又再度重磅向业界发布《2020十大科技趋势》,对AI、芯片、云计算、区块链、量子计算以及工业互联网等科技领域的未来发展做了重要预测。 

一、什么在掣肘技术的发展? 

阿里达摩院(Alibaba DAMO Academy for Discovery, Adventure, Momentum and Outlook)作为致力于探索科技未知,以人类愿景为驱动力的,立足于基础科学、创新性技术和应用技术的研究院,从诞生第一天起,就有3个重要使命:“活得要比阿里巴巴长”、“服务全世界至少20亿人口”、“必须面向未来、用科技解决未来的问题”。 

2年多的科研经历中,达摩院在机器智能、数据计算、机器人、金融科技等领域进行了诸多前沿的探索,并在此期间引进技术大牛,建立了完善的多学科人才基础,在技术前瞻性上,达摩院走在业界前列。 

达摩院也注意到,AI领域在取得不错成绩的今天,“拦路虎”依然众多。 

比如,AI的感知智能虽然超越人类水准,但是认知智能天花板依然存在,须从认知心理学、脑科学以及人类社会的发展历史中汲取更多的灵感,并结合跨领域知识图谱、因果推理、持续学习等研究领域的发展进行突破,以推动下一代具有自主意识的AI系统的建设。 

再比如,存储和计算中的冯·诺伊曼“瓶颈”(或“内存墙”)问题依然严峻,越往后,AI运算中数据搬运更加频繁,需要存储和处理的数据量远远大于之前常见的应用,AI要有突破,须对设计模式、计算架构维度做出创新。 

芯片是计算的核心,受到成本和市场压力的驱使,半导体产业在积极寻找新的芯片开发模式,来满足低成本、快速的需求。特别是随着芯片制程从10nm缩减到7nm,接下来还要进一步缩减到5nm,每一次制程缩减所需要的成本和开发时间都在大幅提升,但模块化将是个好思路。此外,随着摩尔定律逐渐失效,以硅为主体的经典晶体管缩放已经越来越难以维持,这对芯片材料提出挑战。 

在目前,工业互联网发展迅猛,甚至推动第四次工业革命的到来,但其依然面临制造企业内部的IT软件系统与OT设备系统须打通、厂外上下游产业链须优化组合、产品的设计和产品生命周期须优化管理等问题。 

当然,今天的芯片、数据库、网络、物联网等技术都无法离开云。 

随着传统IT接口开始逐渐被云端接口取代,软件技术和硬件技术之间的依赖程度被大幅度降低,云平台、技术开源、云用户三者形成驱动技术创新的新三角。全面上云时代,应用复杂、算力要求极高,算法、软件和硬件的隔阂造成巨大算力的浪费,已经无法满足在超大规模计算场景下提升IT计算效率、降低计算成本的诉求。 

此外,区块链技术应用已延伸到数字金融、数字政府、智能制造、供应链管理等多个领域,主流厂商纷纷进入区块链领域推动技术突破和商业化场景落地。区块链将正式面对海量用户场景的考验,这将对系统处理量提出了更高的要求,并加剧参与节点在信息存储、同步等方面的负担。 

二、2020十大科技趋势

技术发展有瓶颈,但不应成为止步不前的理由。面对科技向前的浪潮,总有人在理性思考,明灯指路。 

此次达摩院2020十大科技趋势报告,就是对以上掣肘技术发展问题的最好回答。回答中,还将诸多前沿性技术进行解构、彼此串联,以找到牵引产业创新的最新逻辑,金准产业研究团队认为值得详读。  

2.1人工智能从感知智能向认知智能演进

人工智已经在“听、说、看”等感知智能领域已经达到或超越了人类水准,但在需要外部知识、逻辑推理或者领域迁移的认知智能领域还处于初级阶段。认知智能将从认知心理学、脑科学及人类社会历史中汲取灵感,并结合跨领域知识图谱、因果推理、持续学习等技术,建立稳定获取和表达知识的有效机制,让知识能够被机器理解和运用,实现从感知智能到认知智能的关键突破。 

相较于感知能能这一人工智能1.0,人工智能2.0将更多基于数据,自动将非结构化的数据转变为结构化的知识,做到真正意义上的认知智能。探索如何保持大数据智能优势的同时,赋予机器尝试和因果逻辑推理能力,实现认知智能,成为当下人工智能研究的核心。

认知智能的机制设计非常重要,包括如何建立有效的机制来稳定获取和表达知识,如何让知识能够被所以模型理解和运用。这需要从认知心理学、脑科学以及人类社会的发展历史中汲取更多的灵感,并结合跨领域知识图谱、因果逻辑、持续学习等研究领域的发展进行突破。

认知智能将结合人脑的推理过程,解决复杂的阅读理解问题和少样本的知识图谱推理问题,协同结构化的推理过程和非结构化的语义理解。它也需要解决多模态预训练问题,帮助机器获得多模感知能力,赋能海量任务。

大规模图神经被认为是推动认知智能发展强有力的推理方法。图神经网络将深度神经网络从处理传统非结构化数据(如图像、语音和文本序列等)推广到更高层次的结构化数据(如图结构等)。大规模的图数据可以表达丰富并蕴含逻辑关系的人类常识和专家规则,图节点定义了可理解的符号化知识,不规则图拓扑结构表达了图节点之间的依赖、从属、逻辑规则等推理关系。以保险和金融风险评估为例,一个完备的AI系统需要分析个人的履历、行为习惯、健康程度等,还需要通过其父母、亲友、同事、同学之家的来往数据和相互评价进一步进行信用评估和推断。基于图结构的学习系统能够利用用户之间、用户与产品之间的交互,做出非常准确的因果和关联推理。

未来人工智能热潮能否进一步打开天花板,形成更大的产业规模,认知智能的突破是关键。认知智能可以帮助机器跨越模态理解数据,学习到最接近人脑认知的“一般表达”,获得类似于人脑的多模感知能力,有望带来颠覆性的产业价值。认知智能的出现使得AI系统主动了解事物发展的背后规律和因果关系,而不再只是加单的统计拟合,从而进一步推动实现下一代具有认知能力的AI系统。

2.2计算存储一体化突破AI算力瓶颈

冯诺伊曼架构的存储和计算分离,已经不适合数据驱动的人工智能应用需求。频繁的数据搬运导致的算力瓶颈以及功耗瓶颈已经成为对更先进算法探索的限制因素。类似于脑神经结构的存内计算架构将数据存储单元和计算单元融合为一体,能显著减少数据搬运,极大提高计算并行度和能效。计算存储一体化在硬件架构方面的革新,将突破AI算力瓶颈。 

经典的冯洛伊曼计算机架构中,存储单元和计算单元泾渭分明。运算时,需要将数据从存储单元赌球到计算单元,运算后会把结果写回存储单元。在大数据驱动的人工智能时代,AI运算中数据搬运更加频繁,需要存储和处理的数据量远远大于之前常见的应用。当运算能力达到一定程度,由于访问存储器的速度无法跟上运算部件消耗数据的速度,即使再增加运算部件也无法充分利用,从而形成所谓的冯诺依曼“瓶颈”,或“内存墙”问题。这就好比一台马力强劲的发动机,却因为输油管的狭小而无法产生应有的动力。

计算机瓶颈以及功耗瓶颈已经对更先进、复杂度更多的AI模型研究产生了限制。例如,最先进的自然语言处理模型XLNet有约4亿模型参数,每次训练需要数百个深度学习加速器运算三天。而据估算人脑中细胞间互联轴突个数更是高达百万亿到千万亿数量级。显然AI 在认知问题上离我们追求的所谓通用人工智能还有巨大差距,未来计算能力和计算系统的效率需要比现在至少提高几个数量及。因此人工智能要进一步突破,必须采取新的计算架构,解决存储单元和计算单元分离带来的算力瓶颈。

计算存储一体化,类似于人脑,将数据存储单元和计算单元融合融合为一体,大幅减少数据搬运,极大提高计算并行度和能效。计算存储一体化的研究无法一蹴而就,对于广义上计算存储一体化架构的发展,近期策略的关键在于通过芯片设计、集成、封装,拉近存储单元与计算单元对的距离,增加宽带,降低数据搬运的代价,缓解由于数据搬运产生的瓶颈。中期规划,通过架构方面的创新,设存储器于计算单元中或者置计算单元存储模块内,实现计算和存储你中有我,我中有你。远期展望,通过器件层面的创新,实现器件既是存储单元也是计算单元,不分彼此,融合一体,成为真正的计算存储一体化。近年来,一些新型非易失存储器,如阻变内存,显示了一定的计算机存储融合的潜力。

计算存储一体化正在助力、推动算法升级,成为下一代AI 系统的入场券。它提供的大规模更高效的算力,使得算法设计有更充分的想象力,从而将硬件上的先进性,升级为系统性的领先优势,最终加速孵化新业务。

更进一步,计算存储一体化是一个game=changer,开辟了一条新赛道。它的出现将重构当前处理器和存储器相对垄断的产业格局。再次过程中,可以帮助芯片行业中更多中小企业获得发展。

2.3工业互联网的超融合

5G、IoT设备、云计算、边缘计算的迅速发展将推动工业互联网的超融合,实现工控系统、通信系统和信息化系统的智能化融合。制造企业将实现设备自动化、搬送自动化和排产自动化,进而实现柔性制造,同时工厂上下游制造产线能实时调整和协同。这将大幅提升工厂的生产效率及企业的盈利能力。对产值数十万亿乃至数百万亿的工业产业而言,提高5%-10%的效率,就会产生数万亿人民币的价值。 

由于工厂环境复杂,现有工业系统之间的通信布线成为痛点。工厂的搬送机器人或一个工矿的掘机需要在一个大范围内频繁移动,wifi难以较好覆盖,而4G/Lora/NB的数据传输速率和延时达不到机器人想用的要求。随着5G技术的成熟,可以满足工业系统对于高可靠低时延的需求,DTU(无线传输设备)无论在部署上还是在运维上,较原本的有限方案都有着明显优势和极高性价比。可以预见的是,工业系统的互联将随着5G的建设而得到快速普及。

工业互联网主要解决三个问题:一是打通制造企业内部的IT软件系统与OT设备系统,进行自动派单,从而实现柔性制造;二是在工厂外实现上下游产业链的优化组合;三是更好的管理产品的设计和产品生命周期。

随着IoT PaaS的成熟,云端已经兼容了WiFi、BLE、Zigbee、Modbus、OpcUA、RS232等网络和链接协议。这些协议可以通过5G的模组非常方便的帮助原有的IT系统与云端打通。APS(自动排产软件)和MES(制造执行系统)可以从云端或边缘服务器直接下发工艺包和生产计划至每一个机台,从而实现IT(信息化)与OT(工控软件)的融合和工厂内部垂直集成。通过轻松把设备数据连到云上,将设备作业的数据连到业务系统(云上的IT系统)里面,可实现派工自动化,从而实现生产的实时调整,满足个性化需求定制。

每个企业处于核心技术保密受限于使用的生产系统软硬件不统一等原因,无法构成紧密的价值网络,导致价值网络整体的竞争力难以提升。利用分布式账本等技术,解决信任问题后,可以突破单个工厂的限制,将价值网络中的上下游企业工厂的制造系统连接起来,进而可以实现上下游制造产线的实时调整和协同,上游的流水线变慢,下游的流水线也可以速度放缓,从而使整个价值网络的竞争力得以提升。

现有生产模式中,产品价值链由产品设计、上产规划、生产工程、生产执行、服务等多个环节所构成,各环节数据来源不同,异构性强,难以互通,整个价值链的信息无法全透明。但是,基于工业互联网和数字孪生技术,在产品的设计阶段使用CAD软件设计产品的解析模型;在产品的使用阶段,利用5G和IoT PaaS采集关键参数,并且输入至云端的模型解析软件里,偏可以在该产品额全生命周期中很好地跟踪产品的性能和设计指标之间的差异变化。进一步,这些使用过程的信息便成为下一次产品迭代的重要的数据来源,如此周而复始,推动产品不断迭代进步。

工业系统通过工业互联网得以互联,工业互联网第一次让人类拥有并掌握了一个具备实时调整工业系统能力的工具,从而大幅度促进了生产效率、降低了库存、提高了质量。对于产值规模达到数十万亿乃至数百万亿的工业产业而言,即使效率仅仅只提高5%-10%的效率,也会增加数万亿人民币的价值。

2.4机器间大规模协作成为可能

传统单体智能无法满足大规模智能设备的实时感知、决策。物联网协同感知技术、5G通信技术的发展将实现多个智能体之间的协同——机器彼此合作、相互竞争共同完成目标任务。多智能体协同带来的群体智能将进一步放大智能系统的价值:大规模智能交通灯调度将实现动态实时调整,仓储机器人协作完成货物分拣的高效协作,无人驾驶车可以感知全局路况,群体无人机协同将高效打通最后一公里配送。 

随着人工智能发展迎来又一次浪潮,越来越多的智能设备参与到人类日常生产活动中,影响着人们生活的方方面面。随着“万物互联”概念的提出,大量的智能设备被连接起来,形成一个智能设备网络,实现信息共享、统一控制。

在大规模智能设备网络中,机器与机器之间的交流与写作将十分重要。这种协作奖优化整体的长期目标,涌现群智,从而进一步将智能系统的价值规模化放大。以城市级别的交通灯控制任务为例,它关注长期城市交通的车辆通行顺畅度。现实环境中,一个城市级别的交通灯控制规模巨大,不同时期又有不同的控制策略,每个路口红绿灯的控制策略取决于实时车流信息及邻近范围内其它路口的交通控制策略。这种要求动态实时调整的大规模智能网略,使用原有的基于规则的方法很难实现,而基于多智能体强化学习的大规模交通控制技术可以解决这一难题。

未来5年,多智能体协作在城市生活的方方面面落地发展,仓储机器人的高效协作完成货物的快速分拣,提升物流效率,降低存储和运输成本;道路上的无人车能够决定并道时是否让其它车先行,提升无人驾驶的安全性和交通效率;交通灯根据当前路口和邻近路口的实时交通情况来决定调度信号,真正盘活猪呢个股城市高峰时期的交通;网约车平台会根据城市不同地点各个时间的打车需求来优化给每辆车的派单,降低用户等车时间,提升司机收入。

多智能体协同及群体智能这样全新的人工智能范式的发挥在那和普及将会带来整个经济社会的升级,让人工智能不再只是单个的工具,而是协调整个人类工作网络的核心系统。

2.5模块化降低芯片设计门槛

传统芯片设计模式无法高效应对快速迭代、定制化与碎片化的芯片需求。以RISC-V为代表的开放指令集及其相应的开源SoC芯片设计、高级抽象硬件描述语言和基于IP的模板化芯片设计方法,推动了芯片敏捷设计方法与开源芯片生态的快速发展。此外,基于芯粒(chiplet)的模块化设计方法用先进封装的方式将不同功能“芯片模块”封装在一起,可以跳过流片快速定制出一个符合应用需求的芯片,进一步加快了芯片的交付。 

AIoT时代世间万物足部走向在线化、数据化、智能化,不仅将带来芯片需求的爆发式增长,形成巨大的市场空间,同时其碎片化和定制化的特点,也对芯片设计模式提出了新的要求。芯片行业传统的比投资、比品牌、比工艺的“大鱼吃小鱼”格局,正逐渐被比市场灵敏度、比需求适配、比速度和价格的“快鱼吃慢鱼”格局所取代。在应用驱动的趋势下,谁能快速推出专用芯片,就能抢占市场先机。越来越多的胸和应用服务公司在推出专用芯片,例如苹果、谷歌、阿里巴巴、亚马逊、特斯拉等应用企业开始进入芯片设计领域,自研或联合开发芯片产品。

现有的芯片设计模式存在研发成本高、周期长等问题,开发一款中档芯片,往往需要数百人年、数千万甚至上亿美元的研发投入,严重阻碍了芯片创新速度。特别是随着芯片制程从10nm缩减到7nm,接下来还要进一步缩减到5nm,每一次制程缩减所需要的成本和开发时间都在大幅提升。受到成本和市场压力的驱使,半导体产业在积极寻找新的芯片开发模式,来满足低成本、快速的需求。基于IP的可重用的设计方法学,解决了芯片功能模块重复设计的问题,使得芯片可以以模块化的方式进行设计,不同功能的IP模块可以在不同的芯片中被重用,这种方法推动了系统芯片对的普及。

近年来,以RISC-V为代表的开放指令集及其相应的开源SoC芯片设计、以Chisel为代表的高级抽象硬件描述语言和基于IP的模块化的芯片设计方法,推动了芯片敏捷设计方法,推动了芯片敏捷设计方法与开源芯片生态的快速发展,越来越多芯片企业开始尝试开源硬件架构进行设计。

面向未来,一种“小芯片”的模块化设计方法正在成为新的行业趋势。这种方法通过对复杂哦功能进行分解,开发出多种具有单一特定功能的“小芯片”,如实现数据存储、计算、信号处理数据流管理扥功能。把这些不同功能的小芯片进行模块化组装,将不同的计算机原件集成在一块硅片上,来实现更小更紧凑的计算机系统结构。当前的芯片设计模式,需要从不同的IP供应商购买IP,包括软核IP或硬核IP,再结合自家研发的模块,集合成一个SoC,然后在某个制造工艺节点上完成芯片设计和生产的完整流程。未来计算机的系统结构,可能不是由单独封装的芯片制造的,而是在一块较大的硅片互联成芯片网络的Chiplets制造的模块化的芯片技术最终可以实现像搭积木一样组装芯片。

模块化的设计模式可能带给从上游EDA工具、IC设计到制造工业、现金封测等产业链环节颠覆式的创新革命,重塑芯片的产业格局。由此带来的芯片设计门槛的降低可以让设计者以更低的成本和更高的效率定制领域专用芯片,引发一场芯片设计模式发展,释放市场创新活力,繁荣芯片产业。

2.6规模化生产级区块链应用将走入大众

区块链BaaS(Blockchain as a Service)服务将进一步降低企业应用区块链技术的门槛,专为区块链设计的端、云、链各类固化核心算法的硬件芯片等也将应运而生,实现物理世界资产与链上资产的锚定,进一步拓展价值互联网的边界、实现万链互联。未来将涌现大批创新区块链应用场景以及跨行业、跨生态的多维协作,日活千万以上的规模化生产级区块链应用将会走入大众。 

2019年是区块链历程白的一年,区块链技术正式被定位为国家战略,为区块链产业的发展打开额巨大的想象空间。区块链连技术应用已延伸到数字金融、数据局政府、智能制造、供应链管理等多个领域,主流厂商纷纷进入区块链领域推动技术突破和商业化场景落地。以JP Morgan Coin和Facebook Libra为代表的企业稳定币与国家主权数字货币正在试图重构全球金融基础设施网络。区块链将正式面对海量用户场景的考验,这将对系统处理量提出更高要求,并加剧参与节点在信息存储、同步等方面的负担,在现有技术环境下会导致系统性能和运行效率的下降。

区块链的路线之争逐步清晰,从颠覆到补充,从去中心到去中介,联盟链架构成为行业主流技术路线。聚焦研发高吞吐、低延时大规模共识网络,各行业内提升多方协作效率的价值链接局域网逐步呈现。在传统物理世界中,链外到链上锚定过程中的信息真实性保障一直是全行业技术攻关的重点。目前各个行业中正在逐步形成的局域网,通过更好地实现数据共享,帮助价值网络的无障碍流动,有望形成真正的价值互联网络。在商用网络中,区块链保证所有信息数字化并实时共享,使得离散程度高、链路长、涉及环节多的多方主体仍能有效合作,但与此同时,也带来了存储成本、秘钥安全、数据隐私等方面的压力。

展望2020年,区块链BaaS服务将进一步降低企业应用区块链技术的门槛。在商业应用大规模落地的同时,区块链玩过的“局域网”和“数据孤岛”问题将被新型的通用跨链技术所解决。自主可控的安全与隐私保护算法及固化硬件芯片将会成为区块链核心技术的热点领域,保障基础设施的性能和安全。以端、云、链的软硬件产品为基础的一站式解决方案,进一步加速企业上链与商业网络搭建的进程。区块链通过于AIoT技术融合实现物理世界资产与链上资产的锚定,进一步拓展价值互联网的边界实现万链互联。这也将进一步夯实区块链在数字经济时代数据和资产可信流转的基础设施地位。

在电气时代,用电量是衡量经济水平的核心指标;在4G时代,互联网上的活跃用户数是繁荣的标志;在数字经济时代,面对即将到来的海量用户场景,我们相信很快将会井喷式地涌现大批创新区块链应用场景以及跨行业、跨生态的多维协作。与此而来的,一批日活千万的区块链规模化生产级应用将会走入大众。以区块链为基础的分布式账本,将在数字经济中进一步推动产业数字化形成的价值有效传递,从而构建新一代价值互联网和契约社会。

2.7量子计算进入攻坚期

2019年,“量子霸权”之争让量子计算在再次成为世界科技焦点。超导量子计算芯片的成果,增强了行业对超导路线及对大规模量子计算实现步伐的乐观预期。2020年量子计算领域将会经历投入进一步增大、竞争激化、产业化加速和生态更加丰富的阶段。作为两个最关键的技术里程碑,容错量子计算和演示实用量子优势将是量子计算实用化的转折点。未来几年内,真正达到其中任何一个都将是十分艰巨的任务,量子计算将进入技术攻坚期。 

通过利用量子力学中非经典的性质,量子计算有望颠覆当前的计算技术,给经济和社会带来变革性的进步。目前量子计算正处于从实验室走进实际应用的转变之中。2019年谷歌宣称达到“量子霸权”的里程碑,即其量子计算器件可执行一个任何景点计算机都无法完成的任务。另一领军团队IBM当即反驳,称该任务仍在景点算力之内。且不论争论的是非,谷歌在硬件上的进展大大增强了行业对超导路线以及对大规模量子计算实现步伐的乐观预期。2020年的量子计算将蓬勃发展,主要特点是技术上进入攻坚和产业化的加速阶段。

技术方面,超导量子计算仍将继续占据中心舞台,并对其他硬件路线造成严峻的压力。因为谷歌在超导方向上的成果皆为已知技术,多个追赶者将按图索骥,在2020年或作出令人钦佩的复制性结果,或陷入高度复杂的工程噩梦。而领先团队的目标依然锁定在比“量子霸权”更重要且毫无争议的梁哥里程碑:容错量子计算和演示实用量子优势。前者指的是如何通过量子纠错,避免硬件错误的累积,技术上需要同时在“高精度”和“大规模哦”两个维度上突破。后者指有力地证明量子计算机可以用超越经典计算的性能解决一个有实际意义的问题。至于演示实用量子优势是否能绕过纠错,还有待历史证明,因为实际问题要求的规模可能如此之大,导致对精度的要求不低于纠错的要求。早2020年,乃至未来几年,毫无争议地达到这两个目标中任何一个都非常艰巨,故而量子计算将进入技术攻坚时期。

产业和生态方面,政府、企业和学术机构的规则和投入将升级、扩大。竞争将在多个维度激化:领军团队规模扩充的同时透明性下架;认为设障的风险上升。产业分工将进一步细化:制冷、微波、低温电子控制、设计自动化、制备代工等领域在资本推动、政策扶植和生态滋养下蓬勃发展。各行龙头企业家里探索应用,助力算法和软件。

国际上工业界-学界-开放性平台和服务三方将相互赋能。工业界的工程复杂度任何纯学术团队无法企及;学界将探索颠覆性的方向;开放性平台和服务将降低研究和创业的时间和资本,加速整个领域的迭代和创新速度。这一生态依赖于人才的自由流动,深厚的基础研究能力,和强大的企业执行力;并将得益于大面积且高效的政府投入,及以降低门槛、激励创新、带动民间投入为目标的政策引领。

预期和现实总在上下交替的舞蹈中螺旋上升。过去两年硬件的进展为量子计算赢得了未来一段时间攻坚作战的粮草。2020年的技术进展将主要是基础技术的突破。虽然不一定为大众津津乐道,但将助推量子计算未来的又一个高潮。

2.8新材料推动半导体器件革新

在摩尔定律放缓以及算力和存储需求爆发的双重压力下,以硅为主体的经典晶体管很难维持半导体产业的持续发展,各大半导体厂商对于3纳米以下的芯片走向都没有明确的答案。新材料将通过全新物理机制实现全新的逻辑、存储及互联概念和器件,推动半导体产业的革新。例如,拓扑绝缘体、二维超导材料等能够实现无损耗的电子和自旋输运,可以成为全新的高性能逻辑和互联器件的基础;新型磁性材料和新型阻变材料能够带来高性能磁性存储器如SOT-MRAM和阻变存储器。

半个世纪以来半导体产业都在竭力遵循摩尔定律,在取得巨大经济效益的同时也从根本上改变了人类社会的发展进程。人工智能及大数据兴起为云端及终端装置带来更多创新的同时也使得半导体产业的发展面临着摩尔定律放缓导致的产品升级困难以及大数据导致的算力和存储需求爆发的双重压力。以硅为主体的经典晶体管缩放已经越来越难以维持,从而难以实现半导体产业的持续发展。

从近期来看,新材料可能会代替传统的硅作为晶体管的同道材料以提升晶体管的速度。新的介电材料可能会导致超陡的亚阈值坡度以降低晶体管的能耗。新的金属材料可能会替代钨和铜作互联导线以增强稳定性和减缓信号延迟。二维材料或外延生长的纳米层材料可能会导致3D堆集的架构以增加芯片的密度。这些器件的物理机制答题清楚,但是大规模应用还需要半导体厂商来解决工艺实现、工程配套等方面的挑战。

从更长远的角度来看,更具挑战性的材料及全新的物理机制将是半导体产业能够保持加速指数式的增长额关键。新物理机制是全新的高性能的逻辑和互联器件的基础,比如基于量子效应的强关联材料和拓扑绝缘体、新发现的二维材料中魔幻角度下的超导现象等会导致无损耗的电子和自旋输运。利用新的磁性材料的自旋-轨道耦合现象可以制备全新的高性能磁性存储器如SOT-MRAM,而利用新的阻变现象使得全新的高密度、高稳定性的阻变存储器(RRAM)成为可能。虽然这些全新的工作机制还处在早期的探索中,但他们能从根本上解决传统器件在物理原理层面所受到的限制,实现对摩尔定律的突破。

新材料和新机制将会对传统的半导体产业进行全面洗牌,包括材料的生长、器件的制备以及电路的工作原理都会发生根本性的变化。这对设备厂商,晶圆厂及电路设计公司都会带来历史性的挑战和基于,也会为新兴的公司及产业提供振奋人心的发展机会。

2.9保护数据隐私的AI技术将加速落地

数据流通所产生的合规成本越来越高。使用AI技术保护数据隐私正在成为新的技术热点,其能够在保证各方数据安全和隐私的同时,联合使用方实现特定计算,解决数据孤岛以及数据共享可信程度低的问题,实现数据的价值。 

数字经济时代,数据成为社会经济发展的新生产要素,数据流动价值也越来越受到人们的重视。然而在企业数字化建设过程中,由于规划、设计、管理等方面存在的问题,导致业务系统在功能上不关联互动、信息不共享互换,在各个系统之间容易形成孤岛问题,进一步制约数据共享所带来的流动价值。

在越来越多对数据隐私的担忧声中,政府开始行动制定数据使用合规法案,大量的数据因为需要依法保护而无法被联合在一起计算。针对“数据孤岛”现象,目前大部分数据共享平台本质上都是基于中心化的数据交换机制,存在过程复杂、通信成本高、效率低、所有权模糊化、数据泄露风险大的缺点,而且无法保护用户的个人隐私。保护隐私的AI 安全技术能够在保证各方数据安全和隐私的同时,联合使用各方数据来达到特定的训练与使用AI 的目的,从而充分发挥数据的价值,解决数据孤岛以及数据共享可信程度低的问题。

保护数据隐私的I 安全技术拓展传统分布式计算以及信息安全范畴,为网络协作计算提供一种新的计算模式。它可通过多方计算、差分隐私、同态加密、混淆电路、加密搜索与计算、可信软硬件等;也可利用人工智能保障模型鲁棒与安全性,如模型加固、数据毒化防御、对抗性样本防御等。基于隐私保护技术为核心构建数据安全体系,必将成为发展大数据、云计算和物联网的基石。

一直以来,平衡发展效率和安全风险四大数据产业的核心问题,拥有海量数据的政府企事业等组织一方面对数据的隐私负有重要额保护责任,另一方面也享有数据的使用价值;作为终端用户的个体在法律法规的保护下可以控制个人数据的访问权,也能参与价值分配。而在AI 安全技术的保障下,组织或个人不必转让数据的拥有权,而是通过出租数据的使用权参与价值分配。以联邦学习为代表的安全多方计算应用,能解决行业大数据聚合过程遇到的挑战,例如购物平台和银行等金融机构的产品推荐所面临的数据属性维度不足,以及医疗诊断和语音助手行业的数据用户量不足等问题,并促使公共政务数据得以开放惠民新业。

2.10云成为IT技术创新的中心

随着云技术的深入发展,云已经远远超过IT基础设施的范畴,渐渐演变成所有IT技术创新的中心。云已经贯穿新型芯片、新型数据库、自驱动自适应的网络、大数据、AI、物联网、区块链、量子计算整个IT技术链路,同时又衍生了无服务器计算、云原生软件架构、软硬一体化设计、智能自动化运维等全新的技术模式,云正在重新定义IT的一切。广义的云,正在源源不断地将新的IT技术变成触手可及的服务,成为整个数字经济的基础设施。

在传统IT时代,随着计算机技术的发展,业界为计算机定义了标准的软硬件接口,让软件技术和硬件技术之间的依赖程度大幅度降低,可以分离演进,并行发展。在全面上云的云计算时代,传统的软硬件分离迭代的模式逐步显现出局限性,现今的应用越来越复杂,对算力的要求越来越高,而算法、软件和硬件的隔阂造成算力的巨大浪费,已经无法满足在超大规模计算场景下提升IT计算效率、降低计算成本的诉求。同时随着大多数企业开始全面拥抱云计算,如何最大化发挥“云”的价值实现应用的快速上线和高效运行、业务的秒级启动等是企业从容地应对市场快速变化的关键。

在软硬件核心技术领域,通过自主可控的技术重新设计软硬件之间的系统接口,使算法、软件和硬件设计的沟通更加紧密,让现有硬件的算力发挥到极致,打造适合云基础设施的新型计算机。一方面通过大幅提升计算效率,有望突破传统IT时代摩尔定律的计算力增长曲线,凸显云计算的整体优势。在过去的几年中,用于机器学习加速的AI芯片以及新一代虚拟化专用芯片等都是充分利用软硬件协同设计模式带来计算效率提升的典范。另一方面,软硬件协同设计有利于加强对底层技术的控制能力,提升云的可靠性和易用性。

在云资源交付方式上,云原生让云计算变得越来越标准化。基于无服务器计算的应用开发和交付方式进一步解放云计算能力。Serverless通过更高层次的抽象,由云平台来负责计算资源的分配、管理和伸缩,让开发者只需关注自己的业务逻辑,而无需显示地保有计算资源,免去资源管理、系统运维等工作,按需付费的计费方式也可以帮助开发者实现成本优化。无服务器计算进一步简化微服务应用架构,用户只需书写事件驱动的函数实现即可,及大地降低构建云应用的难度。同时无服务器计算进一步推动事件驱动应用架构的发展,有效解耦事件源和事件处理者,为企业提供一个灵活的系统,能够快速适应变化并实时做出决策。

未来的软件一定是生长于云上的,云原生和无服务器计算正在重塑整个软件生命周期,从软件需求设计、研发、发布、构建分发到运维等。在ALL-in-Cloud的时代,基于软硬一体化重新设计的云计算基础设施以及通过云原生的崭新资源交付方式在提高计算效率、易用性的同时降低计算和运维成本,进一步巩固成为数字经济时代基础设施。