• 项目
首页>>文章列表 >>文化教育
文章列表

【Movidius发布最新一代VPU】集成DNN加速器,每秒超过1万亿次运算

英特尔周一宣布推出其新一代Movidius视觉处理单元(VPU),可为边缘设备(如无人机,VR耳机,智能相机,可穿戴设备和机器人)提供更好的处理能力。


Movidius是芯片巨头英特尔的子公司,专注开发视觉芯片,为机器和PC增强视觉功能。Movidius最新的这款VPU是Myriad X系统级芯片,配备了专门的神经计算引擎,能够支持边缘设备的深度学习推理(inferences)。


Myriad X专为高速和低功耗运行深度神经网络而设计。英特尔方面表示,这款深度神经网络加速器可以让DNN推理实现每秒超过1万亿次运算。


英特尔VP Remi El-Ouazzane说:“我们正处于计算机视觉和深度学习的风口浪尖,数十亿台日常设备都把计算机视觉和深度学习能力作为标配。启用具有人性化视觉智能的设备,代表着计算的下一个跨越式发展。”


因其微小的外形尺寸和板上处理能力,英特尔正致力于将Myriad X打造为自主设备平台的理想VPU。除了神经计算引擎外,Myriad X还配备128位VLIW矢量处理器,增加可配置的MIPI通道,增强视觉加速器,以及2.5 MB同质片上存储器。


英特尔表示,Myriad X VPU附带了一个SDK,其中包含一个神经网络编译器和“具有开发应用程序管道的插件方法的专用FLIC框架”。



在今年的CVPR上,Movidius发布了一款售价79美元的USB设备,Movidius Neural Computer Stick,即插即用,将深度学习和AI能力带给现有硬件。


Movidius的目标一直是将这种基于图像的深度学习能力从云端转移到边缘。Movidius的Myriad 2 VPU广泛用于安全摄像头、无人机、AR耳机等各种产品。现在Myriad X则是Movidius VPU的又一次升级。


在技术快速发展的背景下,AI硬件市场尤其是芯片开始走向创新。如今的AI芯片组市场由GPU和CPU引领,但在未来的几年内,其他芯片组类型将会扩大其应用范围,包括ASIC(专用集成电路),FPGA(现场可编程门阵列)和其他新兴的芯片组。


到目前为止,尤其是深度学习,还主要是软件方面的活动。但学术界意识到到硬件加速的需要,AI应用需要更高的性能和更低的功耗。世界顶级的半导体公司以及一些初创公司已经开始争相满足这些需求。市场调研公司Tractica预测,深度学习芯片组市场收入将从2016年的5.13亿美元增长到2025年的122亿美元,复合年增长率(CAGR)为42.2%。

UC伯克利大学AI实验室用一张单色图像生成高质量3D几何结构

用图像来重建3D数字几何结构是计算机视觉领域一个非常核心的问题。这种技术在许多领域都有广泛的应用,例如电影制作、视频游戏的内容生成、虚拟现实和增强现实、3D打印等等。伯克利人工智能研究中心的Christian Häne等人近日发表一篇论文「Hierarchical Surface Prediction for 3D Object Reconstruction」,论文中他们讨论如何从单张色彩图像重建出高质量的3D几何结构,就像下面这幅图所显示的。AI 科技评论编译如下。


对于我们人类来说,即使只看到一张图像,我们也能毫不费力地对物体和场景的形状进行理解。请注意,我们眼睛的双目效果允许我们感知深度,我们不需要了解物体3D几何结构。所以即使我们只是看到一个实体的照片,我们也能对它的形状有很好的感知。不仅如此,我们还能理解物体看不见的部分(例如背面),这对抓取物体这样的动作来说是非常重要的。于是问题就来了,我们人类是如何从单张图像推出物体的几何结构的呢?在人工智能这个方面,我们怎么才能教会机器掌握这个能力呢? 


一、形状空间

由任意的输入图像来重建其3D几何结构,基本的原理就是:物体形状不是任意的,因此有些形状是可能的,而有些是不可能的。一般来说,物体的表面往往是光滑的,尤其是人造物体,常常就是由几个分段的平面构成。对于预测物体,我们可以使用同样的规则。例如,飞机通常具有机身,两侧附接两个主翼,后侧会安装有垂直稳定翼。人类能通过眼睛观察世界,并用手来与世界进行互动,然后获得这样的知识。在计算机视觉中,“形状不是任意的”这个事实允许我们通过收集大量的示例形状,来将一个对象类或者多个对象类的所有可能形状描述成低维形状空间。



使用CNN来预测体素(Voxel Prediction)

最近ChoyGirdhar等人发表了他们关于3D重建的论文,在他们的工作中他们的“输出”是一个3D体积空间,这个3D体积被细分成体积元素(称为体素,voxel),每个体素会有一个分配(被占据或自由空间),而物体形状的预测则表示为由体素组成的3D占据体积。在他们的模型中“输入”通常为一个描述物体的单色图像,然后他们用卷积网络神经(CNN)的上卷积解码器架构来预测这个占据体积。该网络由端对端进行训练,并且由已知的ground truth占据体积(通过合成CAD模型数据集获得)来进行监督学习。通过这种3D表示(体素)以及CNN,这种模型就可以学习,且能够适应各种对象类。



二、层进表面预测

上述方法(使用CNN预测占据体积)有一个很大的缺点,由于其输出空间是三维的,于是相对增加的分辨率就会以立方的形式增长。这个问题使得这种方法难以预测高质量的几何形状,且限于比较粗糙的分辨率体素网格,例如上面32^3的结果。在Christian Häne等人的工作中,他们认为这是一个不必要的限制,因为表面实际上只是二维的。于是他们通过层进的方式利用表面的二维性质来预测精细分辨率体素,此时只需要对表面进行高分辨率的预测即可。其基本思想和八叉树表示的思想关系很近,八叉树表示通常是用于多视图立体声和深度图融合等领域来表示高分辨率的几何结构。 


方法

在这个3D预测模型(称为层进表面预测(Hierarchical Surface Prediction, HSP))中,首先我们输入一张单色图像,用卷积编码器将其编码为低维表示。然后,将该低维表示解码成3D占用体积。其主要思想是通过预测低分辨率体素开始解码。关键之处在于,不同于标准的方法将体素分为占据/自由空间,HSP会将体素分为三类:自由空间占据空间边界。使用这种方法,“输出”的分辨率可以很低,只要保证在那些有迹象表明它包含“边界”的部分有较高的分辨率即可。通过迭代,我们可以层进地预测出高分辨率的体素网格。模型更多的细节可以参看论文,这里就不再详解。

实验

模型的实验主要利用了合成的ShapeNet数据集进行训练。作者将结果与两个基线模型——硬低分辨率模型(low resolution hard,LR hard)和软低分辨率模型(low resolution soft,LR soft))——进行了对比。这两个基线模型都是以32^3粗分辨率进行预测,只是训练数据的生成方式不同。LR hard对体素使用双分法进行分配,即如果在相应的高分辨率体素中至少一个被占用,则所有体素将被标记为被占用。LR soft则使用分数法进行分配,每一个体素将反映出在相关的高分辨率体素中占有的百分比。HSP方法则以256^3的分辨率进行预测。下面的结果显示,HSP方法与基线方法相比,在表面质量和高分辨率预测的完整性方面表现更好。

卫报评马斯克等116名AI专家呼吁禁止“杀手机器人”

关于116名人工智能和机器人领域的专家发布公开信,要求禁止“杀手机器人”(killer robots),一个回应是:你们难道不应该早点想到吗?


特斯拉 CEO 马斯克(Elon Musk)是呼吁禁止杀手机器人的专家之一。“我们没有太多时间准备了”,公开信中说,“一旦这个潘多拉的魔盒被打开,就很难再次关上。”但是,这样的系统可以说早已存在了,例如BAE等开发的Taranis“无人作战飞机”(UAV, Unmanned Aerial Vehicle ),三星制造的 SGR-A1 哨戒炮,已经部署在韩国国界。无人坦克也已经正在研发中,而人类对致命性无人机的控制只是何种程度的问题。


然而,杀手机器人一直在精神上与我们同在,只不过是以机器人的形式。Karel Čapek 1920年在科幻舞台剧“RUR”(Rossum’s Universal Robots,罗梭的万能工人)中创造了“robot”这个词(在捷克语中的意思是“劳动者”)。他创造的类人机器人,由与剧名同名的一家工厂制造,他们反叛人类,并最终灭亡人类。从 Cybermen 到终结者(Terminator),此类的故事层出不穷。


没有机器人启示录正在逼近的背景,甚至很难去思考马斯克等人签署的公开信所提出的问题。即使人类的灭亡不是处在生死攸关,我们知道的是这些机器可能导致失控,其结果是《机械战警》中OCP公司的机器人警察。


这样的暗示似乎总是引出一些有关致命武器的严肃话题。好吧,所以一个机器人世界末日大决战可能并不完全是空想的,但这些故事,以及它们造成的深刻的人类的恐惧,最终都是娱乐性质的。尽管如此,类似这样的辩论,将科幻电影描述的技术的好和坏两极化,伴随带来的意义在于,只要我们避免真正坏的那些技术,剩下的都是好的。


法律专家对这个问题的认识无疑更加复杂。一方面,他们关心机器人伦理方面的更广泛、而且越来越紧迫的问题;另一方面,这些问题关乎现代战争的性质,以及其商品化。


我们可以怎样令自主技术系统更加安全,更符合道德规范?避免机器人对人类造成伤害是Isaac Asimov的《我,机器人》(I, Robot)这部作品所探讨的问题,这是一部短篇故事集。这部作品对后世造成如此深远的影响,其中提出的阿西莫夫“机器人三定律”现在仍经常被讨论,其认识度几乎像牛顿的运动三定律一般。具有讽刺意味的是,阿西莫夫写的故事主要是关于这么动机正确的定律如何被环境破坏。


无论如何,道德问题很难有一刀切的原则。 历史学家Yuval Noah Harari指出,自动驾驶汽车需要有一些原则来规定它们在面临不可避免、并且可能导致死亡的事故时应该怎样采取行动:机器应该试图保护什么?Harari 说,也许我们会被提供两种模式:利己主义(优先保护驾驶员)和利他主义(优先保护其他人)。


在2012年人权观察组织一份有关杀人机器人(killer robots)的报告中,包含一些科幻小说般的预想。报告写道:“要区分恐惧的平民和具有威胁性的敌人,需要有一名士兵去了解人类行动背后的意图,这是机器人做不到的事情。”报告还写道:“机器人不会受到人类情感和人类同情心的约束,而这些是避免滥杀平民的重要制约因素。”但第一个论断不够令人信服——机器人可以使用生物识别技术,其判断力或许比用肉眼判断的战战兢兢的士兵更准确。对于第二个,或许某些时候是正确的。但其他时候呢,人类在战争中会强奸和屠杀平民。


我不是要反对这份报告中对自主机器人士兵的恐惧,因为我也是这样。相反,这使我们回到关键的问题,不是关乎技术,而是关乎战争。


我们对战争伦理问题的敏感是非常任意的。人权观察组织的报告说:“完全自主的武器的使用提出了有关责任的问题,这将削弱另一个已确立的保护平民的工具。”这是一个公平的观点,但不可能放到任何一个已达成一致的伦理框架内,核武器在国际上就是合法的。此外,无人机战争,士兵强化技术和法律之间是一个连续统一体,无法分解为“人和机器”。


自动化军事技术的问题与战争本身性质的不断变化密切相关,在恐怖主义和叛乱状态,战争并没有开始和结束的时间点,也没有战场或军队:美国战略分析师 Anthony Cordesman认为:“现代战争的教训之一是战争不再被称为战争。”不管我们怎么处理,都不会再有像诺曼底登陆那样的。


战争一直在使用最先进的技术;“杀手机器人”也同样是。潘多拉的魔盒在钢铁冶炼被发明时就已打开,如果不是更早的话(而且打开魔盒的从来不是女性)。你可以确定的是,肯定有人从中获利。


无论如何,让我们试着遏制住“化玉帛为干戈”的最糟糕的冲动,但劝说国际武器贸易不要制造杀人机器人,无异于劝说软饮料制造商不要生产橙汁。

【2017编程语言排行榜第一名】Python爆红的六大原因

无论你是否清楚这个事实,Python实际上已经不是一门年轻的编程语言了。虽然它也不如其它一些语言那么年长,但它仍然比大部分人所想的要更老一些。它第一次发布的时间是在1991年,虽然这些年它也经历了相当大的改变,但它现在的用处跟当时并没有什么差别。


实际上,这只是它最近这些年变得流行的原因之一:它是一个面向企业和第一流项目的、基于生产的语言,而且它有着长久的历史。它可以被用做几乎任何事情,这也是它被认为是“多功能”的原因。你既可以创建一个树莓派应用,又可以用Python来写桌面程序的脚本,还可以通过Python来配置服务器,但Python能做的绝不仅限于此。


使用Python,是不受任何限制的。


究竟是什么使得Python如此特别?


Python是一门通用的语言,有时甚至可以说是功利主义,因为它被设计得非常容易读和写。重点就是:它并非一门复杂的语言。设计者很少强调传统的语法,使得它及时对于非程序员或者开发人员来说都很容易使用。


此外,由于它被认为是真正通用的、可满足多种开发需求的语言,所以它也为程序员提供了各式各样的选择(https://www.python.org/about/success/)。如果他们使用Python作为一份工作或者一项事业的开端,他们很容易就能跳到另一份工作去,即使这两份工作之间并无关联。Python可以被用作系统操作、Web开发、服务器和管理工具、部署、科学建模等。


但令人惊讶的是,许多开发人员并没有把Python作为他们的第一语言。因为它是如此容易使用和学习,所以他们选择它作为第二语言或第三语言。这可能是它在开发人员中如此流行的另一个原因。


而且,世界上最大的科技公司之一——谷歌——也使用Python来开发他们的一部分应用。他们甚至有一个专门的Python开发人员门户(https://developers.google.com/edu/python/),提供包含视频、讲座等等的免费课程。值得一提的是,网络开发中,Django框架的崛起以及PHP的普及度降低也促成了Python的成功。最终这将会是一场“完美风暴”,开发者、官方支持以及需求都会回归到合适的水平。


以下是近年来Python变得非常流行的、不太明显的原因:


1.Python拥有一个健康、活跃、支持度高的社区


很明显,缺少文档和开发人员支持的编程语言发展都不太顺畅。Python没有这些问题。它已经存在了相当长的一段时间,有大量的文档、指南、教程等等。


另外,开发者社区非常活跃。也就是说,任何人需要帮助或支持时,都能及时得到帮助。这个活跃的社区有助于确保所有水平的开发人员(https://www.fullstackpython.com/python-community.html)——从新手到专家——都能获得帮助。而且,正如任何有经验的程序员或开发人员所知道的,当你在关键时刻遇到开发问题时,来自他人的帮助要么会使你成功,要么会使你崩溃。


2.Python有一些很棒的公司赞助商


公司赞助对编程语言的发展很有帮助。C #有微软,Java有Sun,Facebook使用PHP。谷歌在2006年期间大量使用Python,将它应用在多个平台和应用中。


这为什么重要?因为像谷歌这样的公司希望他们的团队和未来的开发人员使用他们的系统和应用程序,他们就需要提供资源。在这个例子中,谷歌编写了大量的Python指南和教程。


它提供越来越多的文档和支持工具,同时也为Python免费打了广告,至少在开发世界中是这样。


3.Python拥有大数据


大数据和云计算方案在企业世界中的应用也是Python扶摇直上的原因。它是数据科学中最流行的语言之一(https://dzone.com/articles/which-are-the-popular-languages-for-data-science),仅次于R语言。它也被用于机器学习和人工智能系统以及各种现代技术。


当然,这使得Python非常容易就能用于分析和组织成可用的数据。


4.Python有着令人惊异的库


当你在从事更庞大的项目时,库可以帮助你节省时间,以及缩短最初的开发周期。Python有着非常优秀的一系列库,从科学计算的NumPy和SciPy到网络开发的Django。


有一些库有着更明确的核心,像是机器学习应用的scikit-learn和自然语言处理的nltk。


另外,像Encoding.com这样的超大型云媒体服务商使之能与C语言系属(C-family languages)兼容(https://www.encoding.com/blog/2013/11/26/like-json-api-now-supports-json/)。换句话说,这些库能够提供跨平台的支持,这是绝佳的便利。


5.Python可靠高效


询问任何Python开发人员——或者任何曾经使用过这门语言的人——他们都会同意它是快速、可靠和高效的。你可以在几乎所有的环境中使用和部署Python应用程序,并且不会随平台变化而产生多少性能损失。


同样,因为它是通用的,这也意味着你可以跨多个领域工作,包括但不限于Web开发、桌面应用程序、移动应用程序、硬件等等。


你不必被绑定到单一的平台或者领域,Python在任何地方都能够提供相同的体验。


6.Python是容易理解的


对于新手和初学者来说,Python是非常容易学习和使用的。事实上,它是最容易理解的编程语言之一。部分原因是(在设计的时候)简化了语法和强调了自然语言,你也就能够更快地编写Python代码并执行它。


不管怎样,对初学者来说这是很好的语言,许多新开发人员都开始使用它了。更重要的是,经验丰富的开发人员也并没有半途而废,因为使用Python还有那么多可做的事情。

盘点40+公司的深度学习处理器

Nvidia

GPU

  • 英伟达最新的 GPU NVIDIA TESLA V100 单精度浮点性能达到15 TFlops,在新的 Tensor core 架构达到 120 TFlops,是FP16乘法或FP32累加,或适应ML。

  • 英伟达将8个board包装在他们的 DGX-1 for 960 Tensor TFlops

  • Nvidia Volta - 架构看点 这篇文章对 Volta 架构做了一些分析


SoC

英伟达提供 NVIDIA DRIVE™PX,这是用于自动驾驶汽车的AI车载计算机和JETSON TX1 / TX2模块,一个“自动驾驶应用的嵌入式平台”



英伟达的开源DLA

英伟达在GTC2017上宣布 XAVIER DLA 开源。虽然我们现在仍没有看到有早期的可访问版本,希望如期在9月份发布。从Nvidia开源深度学习加速器说起这篇文章有更多分析。



AMD

GPU

即将推出的 AMD Radeon Instinct MI25 宣称 SP16 达到12.3 TFlop,或 FP16 达到 16.6 TFlops。如果你的计算适用Nvidia 的 Tensors,那么 AMD 可能无法与之抗衡。与 AMD 的 484 GB/s相比,Nvidia的带宽为900GB/s。



Intel

Nervana

英特尔收购的 Nervana Systems 除了 Nervana Engine ASIC 外还开发 GPU/software 方法。可比性能现在还不清楚。英特尔也计划通过 Knights Crest 项目整合到Phi平台。NextPlatform 的一篇文章指出Nervana 2017年在28nm上的目标可能是55 TOPS/s。英特尔计划在12月有一个NervanaCon,所以到时也许会公布第一批成果。


Mobileye EyeQ

Mobileye 目前正在开发第五代SoCEyeQ®5,作为视觉中央计算机执行完全自动驾驶(Level 5)车辆的传感器,将在2020年上路。为了满足功耗和性能目标,EyeQ®SoC的设计是最先进的VLSI处理技术,第5代降低到7nm FinFET。


Movidius

Movidius VPU 是一个向量处理器阵列。


FPGA

Intel FPGA OpenCL 以及解决方案。



Google TPU

谷歌的TPU在性能上领先GPU,是驱动DeepMind的AlphaGo在围棋比赛中赢了人类冠军的硬件。原来的700MHz TPU具有用于8位计算的95 TFlop或16位计算的23TFlop,而仅需40W。这比GPU快得多,但现在比英伟达的V100慢,但不是以每W为基础比较。新的TPU2被宣称具有四芯片的TPU,并且可以实现约180 TFlop。每个芯片的性能都翻了一番,达到16位的45 TFlops。你可以看到英伟达的V100正在缩小这一差距。TPU或TPU2都不是开放出售。谷歌正在使其在云端可用,TPU pod包含64个设备,最高可达11.5 PetaFlop的性能。


其他参考文章:

Google TPU 揭密

Google的神经网络处理器专利

脉动阵列 - 因Google TPU获得新生


Xilinx

Xilinx提供“从边缘到云”的机器学习推理解决方案,并在他们的白皮书中声称自己的FPGA最适用于INT8。

虽然FPGA的性能令人印象深刻,但是供应商的较大芯片长期以来价格较高。找到价格和性能之间的平衡是FPGA的主要挑战。



微软FPGA

微软将赌注放在FPGA,可以看这篇文章:“Microsoft Goes All in for FPGAs to Build Out AI Cloud”。


关于微软FPGA,《连线》发了一篇很好的特写:“Microsoft Bets Its Future on a Reprogrammable Computer Chip


关于 FPGA in cloud,有另一篇挺好的参考文章:Inside the Microsoft FPGA-based configurable cloud



Qualcomm

高通公司围绕ML已经有一段时间,发布了Zeroth SDK和Snapdragon神经处理引擎。高通在Hexagon DSP使用NPE是非常合理的。



Apple

彭博社的报道称苹果要做专用芯片,但没有透露更多细节。不管芯片是不是被苹果作为一个重要领域,这有助于苹果与高通竞争。

Core ML是苹果目前的机器学习应用程序。


ARM

DynamIQ是ARM给予AI时代的答案,虽然它可能不是革命性的设计,但确实是重要的。

ARM还提供了一个开源的Compute Library,其中包含为Arm Cortex-A系列CPU处理器和Arm Mali系列GPU实现软件函数的综合集成。



IBM TrueNorth

TrueNorth 是与 DARPA SyNAPSE 程序一起开发的 IBM 的 Neuromorphic CMOS ASIC。


HiSilicon(华为海思

华为CEO余承东最近在2017年中国互联网大会上宣布,华为正在开发AI芯片。


麒麟 for 智能手机

麒麟970可能具有一个嵌入式深度学习加速器。


Mobile Camera SoC

根据 Hi3559A V100ESultra-HD Mobile Camera SoC的简要数据表,它具有双核CNN@700 MHz神经网络加速引擎



Cambricon(寒武纪)

寒武纪致力于IP License,芯片服务,Smart Card和智能平台。



Horizon Robotics(地平线机器人)

地平线机器人已公布一个嵌入式人工智能处理器架构 Brain Processing Unit(BPU)。



Deephi(深鉴科技)

DeePhi Tech在deep compression,编译工具链,深度学习处理单元(DPU)设计,FPGA开发和系统级的优化等方面拥有前沿技术。



Bitmain(比特大陆)

比特大陆正在为AI开发处理器。



Wave Computing

Wave Computing 的Compute Appliance可以在3RU设备上以2.9 PetaOPS/秒的速度运行TensorFlow。



Graphcore

Graphcore在去年年底获得3000万美元投资,以支持他们的智能处理单单元(Intelligence Processing Unit,IPU)。



PEZY Computing K.K.

Pezy-SC 和 Pezy-SC2 分别是 Pezy 开发的1024核和2048核处理器。



KnuEdge’s KnuPath

自2006年6月以来,该公司的产品页面消失了。不知道他们投入1亿美元的MIMD架构现在如何。当时该架构被描述为每个ASIC具有256个小型DSP或tDSP核,以及适用于35W envelope 的稀疏矩阵处理的ARM控制器。

神经网络绘制大脑神经回路精度达到人类水平

就像绘制1000亿个房子

几十年来,人们一直在努力加深对大脑神经回路的了解,但其庞大和复杂性是一大挑战。这项研究的主管研究员、WSU电气工程和计算机科学学院副教授姬水旺(Shuiwang Ji)说,这就像拥有一张地球的卫星图像,我们要尝试绘制出地球上的1000亿个房子,以及将所有房子连接起来的街道和每个人的目的地。


图:左边的2个图是一小部分大脑组织的原始电子显微镜图像;右边的两个图是计算机生成的彩色脑图,其中不同的颜色代表不同的神经元。


实际上,研究人员花了十多年的时间才完整绘制出一个动物的大脑神经回路——一只只有302个神经元的线虫。但是,人类的大脑拥有大约1000亿个神经元,完全了解其回路所需的数据量是1000艾字节(exabytes),这相当于目前世界上所有的数据。


绘制神经元

为了绘制神经元,研究人员当前使用的方法是用电子显微镜拍照——每张图像通常只包含很少量的神经元。然后,研究人员要研究每个神经元的形状、大小,以及它与附近神经元的数以千计的连接,目的是了解该神经元在行为学获生物学中的作用。


姬水旺说:“我们对大脑如何工作的了解非常少。”


对大脑回路的了解如此少,这限制了研究人员了解严重脑疾病(例如阿尔茨海默病,精神分裂症,孤独症或帕金森症病)发病原因的能力。这些疾病目前必须依靠反复试验和错误实验来寻找治疗方法。美国国家工程院已将理解人类大脑列为21世纪的巨大挑战之一。



达到人类水平的准确度


2013年,麻省理工学院(MIT)发起一场比赛,呼吁研究人员开发能够加速图像分析,解码和理解大脑回路图的算法。作为比赛的一部分,算法的工作会被与真正的神经科学家团队的工作进行比较。假如计算机能够达到人类水平的准确度,那么它们也能够比人类更快、更便宜地做这类计算。


WSU的研究团队开发了第一个能够达到人类水平准确度的计算模型。


正如人类通过眼睛接收信息,然后经过多个阶段对这些信息进行分析。WSU的团队开发的计算模型是将图像作为输入,然后在一个多层的网络中对其进行处理,最后得出决策。在他们的算法中,研究人员开发了一种模拟人类复杂的生物神经网络的人工神经网络。


虽然WSU研究团队的算法在MIT的挑战赛中达到了人类研究团队水平的准确度,但是使用计算机绘制完整、准确的神经回路图,仍有许多工作要做。姬先生说,计算机在绘制时仍然出现了大量的错误,而且比较人工结果和计算机的结果也没有一个确定的标准。但姬先生也补充说,尽管自动化的方法在短期内完全取代人工可能不现实,但计算方法的进步肯定能够减少手工绘制的工作量。


论文:DeepEM3D:接近人类水平的3D各向异性EM图像分割



摘要


研究动机:3D电子显微镜(EM)成像的进展很大地促进了高通量数据采集中的神经科学研究。相应地,高通量自动化图像分析方法是跟上数据产生的速度的工作所必需的。一个例子是用于神经元轴突重建的自动化EM图像分割。但是,当前的方法在效率和可靠性上都仍然不及人工水平。


研究结果:本研究中,我们提出DeepEM3D算法,这是一种用于分割3D各向异性(anisotropic)脑电镜图像的深度学习方法。在这种方法中,深度学习模型可以结合大量的多尺度语境信息来有效构建特征表示。我们提出采用一种新的边界图生成方法,以及优化的模型集合来解决分割各向异性图像任务的挑战。我们通过参与EM图像神经元突触3D分割(SNEMI3D)挑战赛来评估我们的方法。截至20161015日,我们的提交在目前的排行榜中排名第一。更重要的是,我们的结果与作为评估指标的人类研究团队的水平表现非常接近,即 Rand error 0.06015,人类的表现是0.05998


图1:DeepEM3D的架构


图2:产生3D分割的流程


图3:在对齐良好的图像堆栈中预测边界的示例


图4:在不对齐的图像堆栈中预测边界的示例


人生是什么?不就是能看见一朵花。读透一本书吗

如果你热爱鲜花与花艺,应该对MENG FLORA这个名字不陌生。2017年5月底,由孟昭然创立的MENG FLORA三周岁了。这位主理人生于成都,从小习艺,留学法国。2010年回国从事公关工作,2014年创立综合性鲜花服务公司MENG,现任CEO兼品牌总监。孟昭然擅长通过独特的视觉美学设计风格鲜明的花艺产品,利用公关创意能力树立与众不同的品牌文化,借助理性加感性的宏观思维规划企业发展之路。他相信通过自己和团队的努力,可以提升中国市民对生活美学的认识和追求,让生活变得更美好。

最近,孟昭然带着创业几年的种种趣事、对花艺行业的思考和丰富的实操案例推出《见花则喜》。这本书适合所有爱花,抑或梦想开一间花店的人。孟昭然相信,开一家花店不仅需要感性的创意,更需要理性的商业逻辑。

孟昭然新书《见花则喜》

不试一试,你永远不知道修剪花枝、熨衬衫、换新床品、给绿植松土浇水……对内心有多大的抚慰作用。其实,生活需要的就是一点点条理带来的可控感、一点点专注带来的成就感、一点点新鲜带来的生机感。

这本书是一个少年用鲜花对世界示爱的一种方式,也是搭载你梦想的不系之舟。这本书从美学和商业两方面,介绍如何开一家花店的纪实类花店开店书籍,兼具可操作性、真实性和可读性,所有案例和故事都是作者亲生经历和原创。

MENG FLORA在成立的第一年,营业额超过500万元;迄今为止服务了CHANEL、Issey Miyake、Mont Blanc等300多家国际顶尖品牌。为国内一线明星如范冰冰、黄晓明和王菲私人订制花艺,与北京顶级西餐厅、画廊艺术展览合作。

2015年10月 TRB餐厅空间花艺设计

2016年 FOREVERMARK年会花艺设计

2016年,MENG FLORA创立国内顶尖线上花卉交易平台MENG MART,为国内最具创造力、年轻的花艺艺术家提供花材供应服务。他们用专业的态度在全球精选花植原材,经过严格的质检和包装后将其安全的送到客户手中,这种体验全方位提高中国传统花材供应商的标准。

MENG MART操作间

孟昭然认为,在中国鲜花市场2000亿人民币市场潜力号召下,创业的冲动,鲜花本身蕴含的情感与情怀,让许多人跃跃欲试。但情怀与赚钱,哪个更重要?花艺师与经营者,哪个更重要?开一家花店需要做哪些准备工作?开店的钱从哪里来?国际上最牛的花店是什么样的?花艺师如何不断自我学习?鲜花产业链的内幕和热钱是如何流动的?开店后如何宣传和运营才能使花店实现盈利?

这本书从都市年轻人开花店的情怀到鲜花产品的属性,从美学修养到商业模式;从设计的尊严到员工培训,从设计领域的去中心化到审美价值的坚守;毫不隐瞒的告诉读者一个有关花、有关美、有关如何开一家花店一年能赚到500万的关键。其中特别提到微信营销对当今花店的口碑影响。同时它在告诉这个世界,一把鲜花能造就怎样的创业故事,用花做公益怎样给需要的人带来勇气和温暖。