• 项目
首页>>文章列表
文章列表

Uber承认秘密使用“反钓鱼”程序 以躲避调查举证

优步公司近来负面新闻不断:被控窃取谷歌的无人驾驶技术、长期对职场性骚扰投诉置之不理、总裁向一名司机爆粗口……


3日,媒体又曝出,在与监管部门的“猫鼠游戏”中,优步秘密使用反“钓鱼”程序,躲避交通监管部门的调查举证。优步随后承认了该程序的存在。


【反“钓鱼”】


美国《纽约时报》3日以4名优步前任和现任雇员为消息源报道,优步有一个绰号为“灰球”的秘密程序。它可以依照优步平日积累的大量数据,对叫车者是否为“钓鱼”执法者作出判断,并“取消”被其认定为“钓鱼”者的用车请求。


报道说,“灰球”的使用获得优步法务部门认可,优步在包括美国波士顿和拉斯维加斯、法国巴黎、澳大利亚、意大利、中国和韩国等许多城市和国家“偷偷地”使用这一程序。


优步当天即承认了“灰球”的存在。但按照优步的说法,“灰球”的用处在于保护司机,“很少”用于躲避执法检查。


优步称,这款程序“拒绝违反我们服务条款的诈骗者的用车要求”,包括“企图对司机进行人身伤害的、竞争对手想要扰乱我们业务的、或是对手与政府人员共谋诱骗司机上当的”行为。


优步拒绝公开在哪些城市使用了这一反“钓鱼”程序,只说在一些城市使用“灰球”,并且是当地政府部门没有禁止优步运营的城市。


【争议不断】


作为“分享经济”概念的知名企业之一,优步市值估计已达到680亿美元。但许多国家和地区尚未出台规范私家车搭载乘客行为的法规。一些城市明令禁止优步运营,全球各地的出租车行业更是抵制优步对市场的“入侵”,一些地区甚至因此发生暴力事件。


最近一段时间,优步公司被控告剽窃技术,被指管理不当、风气不佳,形象一再受损。


2月中旬,去年底从优步离职的工程师苏珊·福勒在社交媒体上指责优步管理层无视女性员工对性骚扰的投诉,并且存在性别歧视风气。优步联合创始人兼首席执行官特拉维斯·卡兰尼克随后致歉。

马斯克:超级智能或将很快出现

人工智能领域的几位领导者认为,随着人工智能的发展,高于人类智能的超级智能或将很快出现。


牛津大学人类未来研究所(Future of Humanity Institute)本周在YouTube上发布了一段视频,内容是SpaceX创始人伊隆·马斯克(Elon Musk)、DeepMind首席执行官丹米斯·哈撒比斯(Demis Hassabis)、牛津大学哲学家尼克·博斯特罗姆(Nick Bostrom)、Skype联合创始人扬·塔里安(Jaan Tallinn)和未来学家拉依·库茨魏尔(Ray Kurzweil)等数位专家学者关于人工智能未来发展的谈话。


马斯克和其他几位专家被问到:当人工智能发展到与人的智力水平相当的时候,还需要多久才会出现超级智能?


“一旦人工智能发展到相当于人类智能的水平时,还需要多久才能产生飞跃?”麻省理工学院教授马克斯·泰格马克(Max Tegmark)问道。泰格马克提到了“智力爆炸”。他还补充说:“有些人说只需要几天或几小时,有人认为可能需要几千年或至少几十年。


马斯克回答说:“我认为,如果人工智能达到一个临界值,即达到相当于人类中最聪明、最富有创造力的人的智力水平时,那么它就真的可能会在很短的时间内超过人类智力的总和。”


其他几位专家预测,更可能的情况是,人工智能在达到临界值之后需要几年时间才能成为超级智能,但没有人认为需要超过100年的时间。


“我认为这部分取决于人工智能的架构。”哈撒比斯说。


哲学家博斯特罗姆回答说:“我认为需要几年,但也可以更短许多。”


泰格马克继续说:“如果事情发生的速度超过社会的反应速度,那么就很难控制,所以你不得不希望人类提前做好准备。”


然后泰格马克问其他几位专家,他们是否希望看到超级智能的到来缓慢一点,以便人类社会能够适应。


“慢比快好。”塔里安回答。


去年10月,博斯特罗姆曾经表示,DeepMind在人工智能开发竞赛中已经领先。去年,DeepMind开发的人工智能系统在围棋比赛中击败了世界冠军李世石。不仅如此,DeepMind开发的其他领域(包括医疗保健和能源管理)的人工智能系统也很先进。

韦特大脑的区块链与人工智能结合

近年,从围棋到人类水平的语音识别,人工智能(AI)研究者终于在他们几十年一直努力探索的领域取得了突破。


取得突破进展的关键一点是研究者们可以收集巨量的数据并「学习」这些数据,从而将错误率降低到可接受范围以内。区块链技术同样能够变革人工智能——当然以它自己的特定方式进行。部分将区块链用于人工智能方式目前还很单一,比如在人工智能模型上进行审计跟踪(audit trail)。有些应用几乎是难以置信的,比如拥有自己的人工智能——人工智能去中心化自治组织(AI DAO)。这些都是发展的机会。



金准数据深度学习研究中心专家表示我们,可以将区块链视为「蓝海」数据库,根据传统的数据库标准,传统的区块链(如比特币)是糟糕的:低吞吐量、低容量、高延迟、糟糕的查询支持等。但在蓝海思维中,这是可以接受的,因为区块链引入了三个新特性:去中心化/共享控制、不变性/审计跟踪和本地资产/交换。受比特币启发的人们乐于忽视传统的以数据库为主的缺点。



下面给出对应的例子:

服务于人与企业的:“韦特大脑”使用区块链技术来合并来自不同区域办公室的数据,“韦特大脑”服务于“人与企业,以及企业与企业之间的关系,通过区块链,人工智能的方式来进行匹配,同时建立企业和个人的信誉。”在获取企业的网络招聘数据、企业的基本信息数据、企业的新闻和推广数据后,韦特大脑在这些数据上进行人工智能分析,可以得出多种分析成果。这将大大节省调查成本和时间。因为它能降低企业审核自己数据的成本,随着新的数据到位,企业可以建立人工智能模型。



生态系统内:竞争对手,过去永远不会分享他们的数据。有了“韦特大脑”经过深度学习,结合大数据数据,对供应链中更早地数据使用人工智能,可以更好地确定在供应链中导致失败的根本原因。



大规模的区块链技术解锁了其在人工智能应用上的潜力。从区块链的三点好处开始,金准数据深度学习研究中心专家表示我们来探讨一下这些潜力。这些区块链的好处为人工智能实践者带来了,很多机会例如,带来更多的数据,带来新的定性数据,允许共享控制人工智能的训练数据和模型。



我们通过训练好的人工智能算法,产生更大的增值价值,这也是为什么人工智能吸引了这么多的科研人员和企业,如何把握好人工智能的应用,跟怎么能够驾驭这个数据的洪流非常有关系。金准数据深度学习研究中心认为,这里面的关键是怎么搞好大数据深度学习,深度学习目前来讲非常火,他火的原因是什么?因为最近这几年,我们首先有大量的数据,计算的能力也大幅提升,我们知道摩尔定律在过去这些年给我们提升更多的计算能力,存储能力也大幅度提升。过去二十年来,我们的计算能力提升了上百倍都不止。

人工智能和区块链可以如何辅助人工智能。二者结合一处即发!区块链技术——尤其是行星尺度的——可以帮助实现人工智能和数据团体长期以来的一些梦想。


金准数据 关于张量方法加速深度神经网络模型的研究报告

前言

现代的机器学习涵盖了大量的数据以及变量,构成了高维数据问题。张量方法在处理这种高维数据的机器学习方法中十分有效,而且已经应用到诸如社交网络分析、文档分类、基因学的诸多领域中,未来还会涉猎对人脑神经元行为理解这一问题。

用张量进行概率隐含变量的机器学习训练

当多个设备或者传感器在收集数据的时候,我们能不能设计出有效率的通信和路由机制,使得在“网络内部”已经开始数据整合,减少传输的数据量,同时又能为处理特定问题(比如工作状态异常)提供信息?金准数据从统计角度进行了该类问题的调研,整合了一些概率图模型,设计了一些显著减少数据通信需求的算法。

现代的机器学习问题经常发生于高维世界,在时间轴上产生了大量的多元数据,这其中也包含了很多数据噪声。从噪声里发现有用的信息有时就像大海捞针,是极具挑战性的。

工作的第一个步骤就是对隐藏信息和观测数据之间的关系进行建模。在一个推荐系统中,隐藏的信息就是用户对于商品的潜在兴趣,而观测数据包含了他们已经购买的商品。如果某个用户近期购买了自行车,说明她对骑车/户外运动感兴趣,而且很可能会在近期购买自行车配件。我们能够通过她的购买模式推断出隐含变量,从而对她的兴趣进行建模。然而问题在于,我们需要从大量用户的行为中获得大量购物模式的观测数据,于是这就变成了一个大数据问题。


图1:亚马逊推荐系统会告诉你推荐原因


现在的工作着力于如何高效地在大数据集上有效训练这种隐含变量模型。在这种无监督学习的方法中,算法能够自动发现潜在的、对解释观测数据有意义的变量。大体上而言,机器学习研究者们都同意这种算法能够解决本领域中一类悬而未决的挑战。

金准数据认为,一种新颖的算法能够去处理这个挑战性的难题,并展示了在没有监督数据的情况下,张量代数如何能够发现隐藏的结构性规律。张量是矩阵的高维推广。就像矩阵能够展示事物的两两关系一样,张量能够表现更高阶的关系(后面关于这一点会详述)。金准数据研究发现,对高阶张量进行操作可以有效地进行一大类概率隐含变量的机器学习训练。


图2:张量方法是矩阵方法的扩展

张量算法如何真正帮助我们解决机器学习问题呢?第一眼看过去,我们可能会认为张量跟这些机器学习任务没什么关系。把这二者联系起来需要一个额外的概念,就是高阶关系(或者高阶矩)。正如之前提到的,我们能够用张量表征变量之间的高阶矩关系。通过考察这些关系,我们对隐含变量模型就能进行更有效的训练。


张量算法应用场景

我们把算法应用于很多场景上。比如,在不知道主题先验分布的情况下,对文本文档进行分类。在这个场景下,主题本身就构成了一组隐含变量,必须把它们从观测数据中提炼出来。一种可能的解决方式可能会是从词频里训练出主题,但这种简单的处理方式无法合理解决在不同上下文中出现同一个单词的问题(注:语义消除歧义问题)。

考虑一下,如果我们不考虑单个词的词频而考虑二元词组的出现频率,将会导致一个更稳健的结果。但是我们为什么要止步于二元词组?我们为什么不检查一下三元词组乃至多元词组这种高维问题呢?这些高维关系又能揭示出哪些有意义的信息呢?金准数据认为,使用流行的潜变量狄利克雷分配(Latent Dirichlet Allocation,LDA)算法需要三元关系,仅有二元关系是不够的。

图3:社交网络

我们可以更进一步的扩展隐含变量模型的概念。这种方法更适合应用于一类问题,包括对种族进化树的建模,或者理解人类疾病产生的层级结构。在这里的例子中,我们的目标是通过给定的数据,学习出隐含变量的层级结构,训练出能够量化隐含变量影响的一组参数。

最终学习出来的的结构,揭示了位于叶子节点上的观测变量的层次聚类结果,以及量化的聚类强度参数。然后我们把问题简化为找到某种层级性的张量分解,针对这个问题我们已经构造出有效的算法了。


场景应用中张量的重要性

金准数据认为,这些张量算法绝不仅仅是理论上的研究兴趣,而是具有可信的证据,它们不仅能够对算法进行加速,还能提高计算结果的精度。Rutgers大学的Kevin Chen在最近的NIPS工坊中进行了一次非常有说服力的演讲,其内容是关于在基因组学中张量算法的优越性:这种算法能够提供更好的生物学解释,相对于传统的期望-最大化算法(Expectation-Maximization,EM算法)而言,产生了100倍的计算加速。张量方法是如此有效,就是因为他们的算法利用已经高度优化过的线性代数计算库,跑在了时下流行的大规模计算集群上。总而言之,张量方法现在具备出人意料的可并行性,因此易于在异构硬件平台上进行大规模训练。

 

图4:Spark是一种基于内存的分布式机器学习工具



 

图5:LDA是一种自然语言处理(NLP)常见的算法


以上的直觉能够应用在更广泛的领域。就拿网络来说吧。你可能希望通过观察个体之间的互动来发现潜在的群体,像社交网络中的朋友关系推荐系统中的购买行为,以及大脑内神经元之间的彼此连接都是一些直接的例子。金准数据相关研究揭示了研究朋友的朋友或者类似的高阶关系对于社群发现的必要性。尽管这些函数之前已经被广泛地研究过了,但是我们开创性地展现了这种关系所蕴含的信息量,以及如何提高计算这些指标的效率。

张量对一类更丰富的数据进行建模,使我们能够掌控多元关系的数据。这些数据同时具有空间特性和时间特性。张量中的不同方向表示着不同类型的数据。

 

图6:张量类似矩阵,是可分解的


张量能够用比矩阵更丰富的代数结构来对信息进行编码,这就是它的核心所在。如前文所述,考虑一个通过行和列来表达的矩阵——或者叫二维数组。张量把这个概念延拓到了高维数组。

一个矩阵的意义远比仅仅是行和列要多。你可以通过线性操作对矩阵进行重塑,这就是我们常说的线性代数张量建立在一种更具有延展性的形式上,因此操作它们的学问也被扩展了,术语上叫做多线性代数

在拥有这种有效的数学结构之后,我们如何压缩它们以获取信息?我们能够对张量操作算法进行设计和分析吗?为了解决这些问题,我们需要一组关于解决非凸优化问题的证明技巧。


基于低秩张量分解方法

基于低秩张量分解方法,用于在现有的深度学习模型中进行分层并使其更紧凑。加上裁剪(pruning),张量分解是加快现有深度神经网络的实用工具

裁剪(pruning)技术能够减少模型中的参数数量。在一个数据集上正向传递(有时是反向传递)裁剪(pruning),然后根据网络中激活的一些标准对神经元进行排序。

完全不同的是,张量分解的办法只用到层的权重,假设网络层是参数化的,它的权重能够用一个矩阵或者是一个低秩的张量来表示。这意味这个它们在参数化的网络下效果最佳。像VGG神经网络设计为完全参数化的。另外一个关于参数化模型的例子是使用更少的类别对网络进行微调以实现更简单的任务。和裁剪(pruning)相似,分解之后通过模型需要微调来恢复准确性。

在我们会深入讨论细节之前,最后一件要说明的事是,虽然这些方法是实用的,并给出了很好的结果,但它们有一些缺点:

它们能够在一个线性权重上执行(比如一个卷积或者一个全连接的层),忽略了任何非线性的内容它们是贪婪,自认为聪明地分解层,忽略了不同层之间的相互作用目前还要试图解决这些问题,而且它仍然是一个活跃的研究领域。


1. 截断SVD用于分解完全连接的层

SVD概况

奇异值分解使我们能够分解任何具有n行和m列的矩阵AS是一个对角矩阵,其对角线上有非负值(奇异值),并且通常被构造成奇异值按降序排列的U和V是正交矩阵如果我们取最大的奇异值并将其余的归零,我们得到A的近似值具有作为Frobenius范数最接近于A的秩t矩阵的性质,所以如果t足够大,是A的良好近似。

在全连接层上的SVD

一个全连接层通常是做了矩阵乘法,输入一个矩阵A然后增加一个偏差b我们可以取A的SVD,只保留第一个奇异值这不是一个完全连接的层,而是指导我们如何实现它作为两个较小的第一个将有一个mxt的形状,将没有偏差,其权重将取自第二个将有一个txn的形状,将有一个等于b的偏差,其权重将取自。权重总数从nxm下降到t(n + m)。

在卷积层上张量分解

二维卷积层是一个多维矩阵(后面用-张量),有四个维度:

cols x rows x input_channels x output_channels.

遵循SVD的例子,我们想要以某种方式将张量分解成几个更小的张量。卷积层转换为几个较小近似的卷积层。为此,我们将使用两种流行的(至少在Tensor算法的世界中)张量分解:CP分解和Tucker分解(也称为高阶SVD或其他名称)。

2. 1412.6553 使用微调CP分解加速卷积神经网络

如果CP分解能够用于卷积层的加速,正如我们会看到的,这将卷积层纳入类似移动网络的东西。他们使用它来加速网络的速度,而不会明显降低精度。在实验中,这个在基于VGG16的网络上获得x2加速,而不会降低准确度。使用这种方法需要非常仔细地选择学习率,微调以使其工作,学习率通常应该非常小(大约)。

一个秩R矩阵可以被视为R秩和1矩阵的和,每个秩1矩阵是一个列向量乘以一个行向量SVD为我们提供了使用SVD中的U和V列来写矩阵和的方法如果我们选择一个小于矩阵满秩的R,那么这个和就是一个近似值,就像截断SVD的情况一样。CP分解让我们推广了张量。使用CP分解,我们的卷积核,一个四维张量公式,可以近似为一个选定的R我们希望R对于有效的分解是小的,但是对保持近似高精度是足够大的。

CP分解的卷积正向传递

为了传递图层,我们使用输入进行卷积这给了我们一个办法来解决这个问题:

首先做一个wise(1x1xS)与卷积。这减少了从S到R输入通道的数量。下一步将在较少数量的通道上完成卷积,使其更快。

其次,用在空间维度上执行分离的卷积。就像在移动网络中一样,卷积是深度可分的,分别在每个通道中完成。与mobilenets不同,卷积在空间维度上也是可分的

再次,做另一个逐点卷积来改变从R到T的通道数量如果原始卷积层有一个偏差,在这一点上加上它。

注意像在移动网中的逐点和深度卷积的组合。在使用mobilenets的时候,你必须从头开始训练一个网络来获得这个结构,在这里我们可以把现有的图层分解成这种形式。与移动网络一样,为了获得最快的速度,需要一个有效实现深度可分离卷积的平台。

PyTorch和Tensorly卷积层CP分解

图7:用PyTorch和Tensorly卷积层CP分解

3. 1511.06530 用于快速和低功率移动应用的深度卷积神经网络的压缩

Tucker分解也称为高阶奇异值分解(HOSVD)或者其他名称,是对张量进行奇异值分解的一种推广。

它认为SVD的推广的原因是

的分量通常是正交的,但这对于我们的目的并不重要

被称为核心矩阵,并定义不同的轴如何相互作用

在上面描述的CP分解中,沿着空间维度

的分解导致空间上可分离的卷积。无论如何,过滤器是非常小的,通常是3x3或5x5,所以可分离的卷积并不节省我们大量的计算,而且是一个积极的近似。

Trucker分解有用的性质是,它不必沿着所有的轴(模式)分解。我们可以沿着输入和输出通道进行分解(模式2分解):

卷积正向传递与Tucker分解

CP分解一样,写一下卷积公式并插入内核分解:

图8:卷积公式内核分解

这给了我们以下用Tucker分解进行卷积的配方:

1.与进行点对点卷积,信道从S减少到的数量。

2.用进行正则(不可分)卷积。这个卷积代替了原始层的S输入通道和T输出通道,具有输入通道和输出通道。如果这些等级小于S和T,这就是减少的原因。

3.用进行点对点卷积以回到原始卷积的T个输出通道。由于这是最后一次卷积,所以在这一点上,如果有偏差就加上偏差。

我们如何选择分解行列

一种方法是尝试不同的值并检查准确性。尝试后的启发是,效果很好。

理想情况下,选择行列应该是自动的。

使用变分贝叶斯矩阵分解(VBMF)(Nakajima等,2013)作为估计等级的方法。

VBMF很复杂,不在本文的讨论范围内,但是在一个非常高层次的总结中,他们所做的是将矩阵近似为低秩矩阵和高斯噪声之和。在找到A和B之后,H是等级的上限。为了将其用于Tucker分解,我们可以展开原始权重张量的s和t分量来创建矩阵。然后我们可以使用VBMF估计和作为矩阵的秩。我用这个在Python上实现的VBMF,相信它可以工作。VBMF通常返回的秩,非常接近我之前,仔细和乏味的手动调整得到的结果。这也可以用于估计完全连接层的截断SVD加速的等级。

PyTorch和Tensorly卷积层Tucker分解


 

图9:用PyTorch和Tensorly卷积层Tucker分解

总结

本文中,我们讨论了几个张量分解的方法来加速深度神经网络。截断的SVD可用于加速完全连接的层。CP分解将卷积层分解成类似移动网络的东西,尽管它更具侵略性,因为它在空间维度上也是可分的。Tucker分解减少了二维卷积层操作的输入和输出通道的数量,并且使用逐点卷积来切换2D卷积之前和之后的通道数量。

同时,也明确了我们能够用张量方法训练相当一大批隐含变量模型,比如文档的主题模型,网络中的社群模型,高斯混合模型,混合排序模型等等。这些模型表面上看起来毫无联系,然而他们通过把类似于条件无关这种统计学属性转化为张量上的代数约束之后,就达到了形式上的统一。在所有这些模型中,分解合适的高阶矩张量(往往是三阶或四阶的统计相关性)就能够稳定地估计模型参数。我们更进一步地证明了,这种算法只需要很小的样本量以及计算量就能工作得很好了。(这里很小的样本量,精确来说,是和样本点特征数量的低阶多项式同阶)

比特币安全性再被质疑 本周累跌15%

美超微以全新25G以太网服务器和存储产品为100G网络升级打开通道

凭借2.5倍的速度、提升一倍的性价比、向后兼容和以不会过时的方式升级到100G网络,全新25G系统帮助当今的敏捷数据中心降低总体拥有成本。


加州圣何塞2018年3月8日电 /美通社/ -- 企业计算、存储和网络解决方案以及绿色计算技术全球领导者美超微电脑股份有限公司 (Super Micro Computer, Inc.) (NASDAQ: SMCI)推出一系列强大的网卡(NIC)和架顶式(ToR)交换机解决方案,推动服务器和存储行业迅速过渡到25G以太网联网技术。


随着内存、处理器和存储性能的提升,对网络扩容的需求也随之提高。系统性能提升后,25G以太网可帮助企业以更快的速度将新产品和服务推向市场。由于单通道网络速度比10G技术高出了2.5倍,这些创新有助于让机器更智能并掌握和处理更大数量的数据。


美超微总裁兼首席执行官梁见后(Charles Liang)表示:“现在是时候从10G转到25G网络了,而且过渡地非常快!自动驾驶汽车、人工智能、机器学习,大数据和NVMe-over-Fabric (NVMe-oF)正在将系统性能推向极限,同时也推动了对更大网络带宽的需求。更高性能、更良好的可扩展性,以及轻松升级到十万兆位(100 Gigabit)以太网的方法,帮助客户开始将自己的网络升级到25G,从而提高网络吞吐量,让一些应用程序能够得到更大带宽。”


美超微提供各类25G网卡,帮助客户将25G以太网联网技术部署到美超微不会过时的系统上。该公司所有的25G产品都是双速的,同时支持10G和25G的运行环境。这为刚开始从10G升级到25G网络基础设施的公司提供了最大的投资保障。客户现在就可以安装这些系统,并与现有的基础设施相连。当准备升级到25G时,只需更新配置即可,不必进行有破坏性的、成本较大的变动。


对于那些已经准备好要将架顶式交换机升级到25G的公司,美超微提供100G旗舰交换机和新的25G独立式交换机。SSE-C3632S是一款100G交换机,可与32个端口配置使用,端口分成四组,在25G的运行环境下,支持最多128个连接。此外,新的SSE-F3548S也是一个非常节省成本的选择,有48个25G的端口,还有6个100G的上行链路。上行链路可分成四组,支持25G环境下的72个连接。


美超微还提供采用X11 SuperBlade®的25G交换机(SBM-25G-100)。这款交换机可与8U SuperBlade机箱(SBE-820J)或6U SuperBlade机箱(SBE-610J)搭配使用,有20个25G下行链路连接和4个QSFP28端口,每个端口可配置成40G或100G上行链路连接。使用分离线缆后,40G端口可以分成4个10G端口,或者100G端口分成4个25G端口。和标准25G架顶式交换机一样,该刀片交换机可自动适应并与10G网络兼容,帮助客户轻松将现有的数据中心基础设施升级到25G。熟悉MBM-GEM-004刀片网络管理接口的客户会受益于类似的GUI/CLI接口和全新的25G交换机。此外,它还支持当今数据中心和云端基础设施环境所需的最新联网协议。与刀片服务器相连的25G夹层卡支持RDMA/RoCE、DPDK、数据包同步,数据流引导和以太网卸载。


25G以太网提升了很多不同应用的生产力。举例来说,以网页为中心或电子商务经营模式常常会推动对更大网络带宽的需求。同样地,高性能计算、分布式应用和集群式数据库也需要快速的网络。NVMe-oF大大推动了对网卡和主干网络更快速度的需求。美超微的很多25G解决方案会有效支持这些应用。



远景科技携手设计大师乔治亚罗,开创物联网定义智能电动汽车时代

日内瓦2018年3月8日电 /美通社/ -- 当地时间2018年3月6日,全球数字能源领军企业远景科技(Envision)携手汽车设计大师乔盖托·乔治亚罗(Giorgetto Giugiaro),在日内瓦国际车展期间发布了全新概念电动汽车“Sibylla”,开创了“物联网定义智能电动汽车”时代 。通过物联网平台接入的5000万个智能终端,从楼宇储能到卫星气象,从光伏电站到电桩负荷,赋予了电动汽车丰富的场景感知智能,同时让汽车成为每个人的“智能绿色移动电站”,不仅能解决电动汽车大规模接入对电网的挑战,更让每位驾驶者有机会改变能源色彩,创造美好能源世界。


作为一款具备前瞻性设计的智能电动汽车,Sibylla秉承了乔治亚罗一贯的创新设计理念,突破性的去掉了A柱和后视镜设计,使得汽车的轮廓线更加简洁、连贯与协调。概念车的设计同时强调功能性,利用人体工程学技术,通过内部空间提升和全球首个滑动式挡风玻璃设计,让驾乘体验更加舒适。


除了物理设计上的突破,亮点更在于智能物联网对于汽车的改变:远景EnOS智能物联网平台及开放生态,赋予了电动汽车更多的能力:汽车将不再是简单的交通工具,而是成为“个人绿色移动电站”。 通过物联技术,电动汽车与EnOS平台管理的全球100GW能源终端融合协同,不仅实现电动出行的完全清洁化,还解决了电动车大规模接入的电网挑战, 让电动汽车与其他车辆、住宅和建筑物实现能源共享,催生更为灵活、智能与清洁的未来能源系统。


对于和远景的合作,GFG Style认为:远景的创新技术让能源世界实现美好谐奏,这赋予了本次概念车设计无限灵感。 此外,GFG Style和远景有着共同的愿景:我们重视设计创新,而远景在科技创新领域有着强大的原创能力。我们认为汽车的设计应该尊崇简洁雅致,而远景通过物联网平台,让清洁能源的使用更加简单美好。“远景作为一家设计驱动的科技公司,充分理解并尊重我们的设计,这给 Sibylla 的创作提供了更大的创新空间 ”,乔治亚罗说。


远景科技创始人兼CEO张雷认为,未来将有千百万辆电动汽车融入电力系统,不仅是当今汽车行业,更是电网、能源企业与大众面临的重大挑战。


“全球汽车和能源体系需要基于物联融合形成一个完整的生态系统,才能真正解决这个挑战。这也是我们选择和乔治亚罗一起,打造物联网定义的智能电动汽车的原因。只有当绿色能源成为能源系统的主要构成,并同千百万辆电动汽车实现智能互动,可持续的智能出行和能源转型才能成为现实。 ”张雷说。