• 项目
首页>>文章列表
文章列表

棱角 不生活 宝格丽

BVLGARI宝格丽Octo系列腕表,是经典、革新和极致的完美组合。于今年全新推出Octo Finissimo Automatic和Octo Roma腕表,只为那些拒绝平庸、追求自我与刚毅自信的男性设计,赞扬他们活出不一样的生活状态,展现极致人生。

无棱角,不生活

宝格丽Octo系列标志性的八角形设计拥有硬朗的棱角,强烈而醒目,简约而充满力量,传递出极具个性、坚定果敢的阳刚之气。拥有100余或50余个刻面的棱角设计宣扬着不妥协的人生态度,只有坚持自我,保持应有的态度和风范,才能活出属于自己的生活。Octo系列腕表演绎出“无棱角,不生活”的人生态度,是男性魅力与个性的极致之选。不拘泥于教条,不禁锢于思维,不畏缩于言论——宝格丽Octo系列始终倡导独具一格的生活方式,它延续经典、塑造棱角,于现代腕表领域脱颖而出,打造腕表又一代经典之作。


无超越,不极致

宝格丽全新Octo Finissimo Automatic腕表,同时打破两项世界纪录,拥有目前市场上直径仅为40毫米的最薄自动上链机芯,同时也是最薄的自动上链机芯腕表,总体厚度不过5.15毫米。极致超薄的设计传递出高度复杂的“去繁从简”思想,通过强大的设计来生动地渲染简约主义。


超薄的设计取决于腕表体积和外形方面的精熟工艺,同时也离不开这一领域所需的细腻技艺。每一枚零部件,甚至是最细小的元件,都必须为打造这枚超凡腕表整体的纤薄感而从零开始构思和设计。同时,这款复杂的设计也展现了对材质和外形的高超掌控,钛金属打造的表壳与磨砂表面带来极为轻盈质感与现代手感。


全新Octo Roma进一步诠释了其强烈而新颖的设计,理想的41毫米直径表壳在腕上显得极为时尚,而精心设计的尺寸非常便于佩戴。典型的表壳经过巧妙的再设计,在保留固有优点的同时,升级了舒适性和便捷性。


Octo Roma共推出五个款式,白色、黑色或棕色三款表盘颜色,配以精钢、精钢间金以及全金材质表壳。与此同时,表带也带来全新的便捷功能,23.5毫米的无缝隙皮表带或精钢表链佩戴在腕间倍感柔滑,极为适合日常佩戴。


无明星,不时尚

全新Octo系列获得众多时尚男明星的青睐。宝格丽品牌代言人吴亦凡佩戴两款全新Octo腕表出席今年巴塞尔宝格丽新品发布会,他创新、多面却永不丧失的个性,敢于表达自我,展现出有棱角、不平庸的人生态度,这也正是与宝格丽Octo的契合之处。


袁弘佩戴的是Octo Roma精钢腕表,他的执着与Octo拒绝妥协的精神不谋而合,尽显阳刚之气。


在今年的上海电影节上,盛一伦与段奕宏分别佩戴Octo Roma与Octo FinissimoAutomatic腕表亮相红毯,将帅气个性与熟男魅力两种不同的风格展现得淋漓尽致。


不拘传统,拒绝妥协,追求完美,带有宝格丽独树一帜的纯粹与极致,Octo系列腕表传递出“无棱角,不生活”的人生态度,是当之无愧的新经典之作,值得献给对生活有态度的你。

金准数据 深度学习与数学原理关系研究报告

在今年5月底,Alphago又战胜了围棋世界冠军柯洁,AI再次呈现燎原之势席卷科技行业,吸引了众多架构师对这个领域技术发展的持续关注和学习。思考AI如何做工程化,如何把我们系统的应用架构、中间件分布式架构、大数据架构跟AI相结合,面向什么样的应用场景落地,对未来做好技术上的规划和布局。

为了彻底理解深度学习,我们到底需要掌握哪些数学知识?微积分、线性代数、概率论、复变函数、数值计算等等,这些数学知识有相关性,但实际上这是一个最大化的知识范围,学习成本会非常久。金准数据归纳了理解深度学习所需要的数学知识并对他们的关系进行梳理。


一、数学原理在深度学习中的应用

1、最小二乘法

最小二乘法最初是由法国数学家勒让德(Adrien-Marie Legendre)提出的,他曾因参与标准米的制定而闻名。勒让德痴迷于预测彗星的位置,基于彗星曾出现过的几处位置,百折不挠的计算彗星的轨道,在经历无数的测试后,他终于想出了一种方法平衡计算误差,随后在其1805年的著作《计算慧星轨道的新方法》中发表了这一思想,也就是著名的最小二乘法。

勒让德将最小二乘法运用于计算彗星轨道,首先是猜测彗星将来出现的位置,然后计算这一猜测值的平方误差,最后通过修正猜测值来减少平方误差的总和,这就是线性回归思想的源头。 Jupyter notebook上执行上图的代码。 m是系数,b是预测常数,XY坐标表示彗星的位置,因此函数的目标是找到某一特定m和b的组合,使得误差尽可能地小。

这也是深度学习的核心思想:给定输入和期望输出,寻找两者之间的关联性。


2、梯度下降

勒让德的方法是在误差函数中寻找特定组合的m和b,确定误差的最小值,但这一方法需要人工调节参数,这种手动调参来降低错误率的方法是非常耗时的。在一个世纪后,荷兰诺贝尔奖得主彼得·德比(Peter Debye)对勒让德的方法进行了改良。

假设勒让德需要修正一个参数X,Y轴表示不同X值的误差。勒让德希望找到这样一个X,使得误差Y最小。如下图,我们可以看出,当X=1.1时,误差Y的值最小。

如上图,德比注意到,最小值左边的斜率都是负数,最小值右边的斜率都是正数。因此,如果你知道任意点X值所处的斜率,就能判断最小的Y值在这一点的左边还是右边,所以接下来你会尽可能往接近最小值的方向去选择X值。

这就引入了梯度下降的概念,几乎所有深度学习的模型都会运用到梯度下降。

假设误差函数 Error = X5- 2X3- 2

求导来计算斜率:

下图的python代码解释了德比的数学方法:

上图代码最值得注意的是学习率 learning_rate,通过向斜率的反方向前进,慢慢接近最小值。当越接近最小值时,斜率会变得越来越小,慢慢逼近于0,这就是最小值处。


举一个神经网络被用来期望在当前游戏状态下每种可能的动作所得到反馈的例子。下图给出了文章中所提到的神经网络。这个网络能够回答一个问题,比如“如果这么做会变得怎么样?”。网络的输入部分由最新的四幅游戏屏幕图像组成,这样这个网络不仅仅能够看到最后的部分,而且能够看到一些这个游戏是如何变化的。输入被经过三个后继的隐藏层,最终到输出层。

输出层对每个可能的动作都有一个节点,并且这些节点包含了所有动作可能得到的反馈。在其中,会得到最高期望分数的反馈会被用来执行下一步动作。

确切地说,在定义了网络的结构之后,剩下唯一会变化的就只有一件事:连接之间的强弱程度。调整这些方式地权重,从而使得通过这个网络的训练样例获得好的反馈,可以选择通过将梯度下降与激励学习方法结合的方式。

这个网络不仅仅需要最大化当前的反馈,还需要考虑到将来的动作。这一点可以通过预测估计下一步的屏幕并且分析解决。用另一种方式讲,可以使用(当前反馈减去预测反馈)作为梯度下降的误差,同时会考虑下一幅图像的预测反馈。


3、线性回归

线性回归算法结合了最小二乘法和梯度下降。在二十世纪五六十年代,一组经济学家在早期计算机上实现了线性回归的早期思想。他们使用穿孔纸带来编程,这是非常早期的计算机编程方法,通过在纸带上打上一系列有规律的孔点,光电扫描输入电脑。经济学家们花了好几天来打孔,在早期计算机上运行一次线性回归需要24小时以上。

下图是Python实现的线性回归。

梯度下降和线性回归都不是什么新算法,但是两者的结合效果还是令人惊叹。


4、感知机

感知机最早由康奈尔航空实验室的心理学家弗兰克·罗森布拉特(Frank Rosenblatt)提出,罗森布拉特除了研究大脑学习能力,还爱好天文学,他能白天解剖蝙蝠研究学习迁移能力,夜晚还跑到自家屋后山顶建起天文台研究外太空生命。1958年,罗森布拉特模拟神经元发明感知机,以一篇《New Navy Device Learns By Doing》登上纽约时报头条。

罗森布拉特这台机器很快吸引了大众视线,给这台机器看50组图片(每组由一张标识向左和一张标识向右的图片组成),在没有预先设定编程命令的情况下,机器可以识别出图片的标识方向。

每一次的训练过程都是以左边的输入神经元开始,给每个输入神经元都赋上随机权重,然后计算所有加权输入的总和,如果总和是负数,则标记预测结果为0,否则标记预测结果为1。

如果预测是正确的,不需要修改权重;如果预测是错误的,用学习率(learning_rate)乘以误差来对应地调整权重。


下面我们来看看感知机如何解决传统的或逻辑(OR)。


Python实现感知机:

等人们对感知机的兴奋劲头过后,马文·明斯基(Marvin Minsky)和西摩·帕普特(Seymour Papert) 打破了人们对这一思想的崇拜。当时明斯基和帕普特都在MIT的AI实验室工作,他们写了一本书证明感知机只能解决线性问题,指出了感知机无法解决异或问题(XOR)的缺陷。

在明斯基和帕普特提出这一点的一年后,一位芬兰的硕士学生找到了解决非线性问题的多层感知机算法。当时因为对感知机的批判思想占主流,AI领域的投资已经干枯几十年了,这就是著名的第一次AI寒冬。

明斯基和帕普特批判感知机无法解决异或问题(XOR,要求1&1返回0):

对于左图的OR逻辑,我们可以通过一条线分开0和1的情形,但是对于右边的XOR逻辑,无法用一条线来划分。


5、人工神经网络

到了1986年,鲁梅尔哈特(David Everett Rumelhart)、杰弗里·辛顿(Geoffrey Hinton)等人提出反向传播算法,证明了神经网络是可以解决复杂的非线性问题的。当这种理论提出来时,计算机相比之前已经快了1000倍。

为了理解这篇论文的核心,我们实现了DeepMind大神Andrew Trask的代码,这并不是随机选择的代码,这段代码被Andrew Karpathy斯坦福的深度学习课程、Siraj Raval在Udacity的课程中采用。更为重要的是,这段代码体现的思想解决了XOR问题,融化了AI的第一个冬季。

在我们继续深入之前,读者可以试试这个模拟器,花上一两个小时来熟悉核心概念,然后再读Trask的博客,接下来多熟悉代码。注意在X_XOR数据中增加的参数是偏置神经元(bias neurons),类似于线性函数中的常量。

先注重去看背后的逻辑,不要想着一下子就能完全参透全部。

6、深度神经网络

深度神经网络指的是除了输入层和输出层,中间还存在多层网络的神经网络模型,这一概念首先由加利福尼亚大学计算机系认知系统实验室的Rina Dechter提出,可参考其论文《Learning While Searching in Constraint-Satisfaction-Problems》,但深度神经网络的概念在2012年才得到主流的关注,不久后IBM IBM Watson在美国智力游戏危险边缘(eopardy)取得胜利,谷歌推出了猫脸识别。

深层神经网络的核心结构仍保持不变,但现在开始被应用在不同的问题上, 正规化也有很大的提升。一组最初应用于简化噪音数据的数学函数,现在被用于神经网络,提高神经网络的泛化能力。

深度学习的创新很大一部分要归功于计算能力的飞速提升,这一点改进了研究者的创新周期,那些原本需要一个八十年代中期的超级计算机计算一年的任务,今天用GPU只需要半秒钟就可以完成。

计算方面的成本降低以及深度学习越来越丰富的库资源,使得大众也可以走进这一行。我们来看一个普通的深层学习堆栈的例子,从底层开始:

GPU > Nvidia Tesla K80。通常用于图像处理,对比CPU,他们在深度学习任务的速度快了50-200倍。

CUDA > GPU的底层编程语言。

CuDNN > Nvidia优化CUDA的库

Tensorflow > Google的深度学习框架

TFlearn > Tensorflow的前端框架


举一个数字分类的例子(MNIST数据集),这是一个入门级的例子,深度学习界的“hello world”。

TFlearn中实现:


二、数学原理可能是深度学习神经网络的数据瓶颈

像大脑一样,深度神经网络有层层神经元(只不过是用数据节点模拟的)。当数据节点被激发时,它会发送信号到它上层中连接的其它数据节点。在深度学习期间,节点网络中的连接会根据被激发的频率被扩展加强或缩小减弱,如同人类的神经网络一般。

比如输入的数据如果是一张狗的照片,每个像素可以看作是激发最底层的数据节点的信号,这些信号通过了数据节点网络不断向上层发射,最终获得了一个结论。而大量的狗的照片被输入以后,这些结论就会在高层数据节点上有一个相近的区域,而我们可以手动的把这个区域定为“狗”。从此,只要是狗的照片,经过了这个数据节点网络以后,就会在很大的概率上落入这个区域。这就是数据神经网络最基础的原理。但是这种能够产生和人类智慧类似(或者本质上一样)的数学原理究竟是什么呢?这是人工智能界的专家很想了解的,甚至我们也可以从中学会人类的大脑是用什么方式来理解现实。

人类的大脑是如何从我们日常的感官中筛选信号并将其提升到自我意识水平的谜团驱使了数据学的先驱者对深度学习神经网络的兴趣,他们希望模仿大脑的设计来逆向学习它的运行规则。然而今天人工智能从业者已经不是很关心这个最初的愿望,而是更关心如何应用这个没有被完全解释的(甚至是根本没有被解释的)现象。现在人类已经有建立超越人脑神经元的数据节点的能力,并且在不断追求更快更大的数字神经网络,但是这是否符合自然生物学上的合理性呢? 我们是否应该在深度神经网络进一步发展前花更大的精力去探索一下它的原理呢?

很明显的,人类的学习能力和深度学习数据神经网络并不完全一样。比如,一个刚刚开始学习识字的儿童并不需要看过成千上万个同样的字才能理解它和其它字之间的区别。很多情况下,人类只需要看过一次,就能领会这个字和其它文字的区别。

同样的,你不需要看见人数百次才能区分这个是人,你甚至可以看一次就知道他或她是人,而且你还可以把他或她从其它人直接区分出来。当然了,这对深度学习网络来说不是完全不可能的。一种方式是将事物进行降级分解,比如把人的五官从面部分类出来,比对其和其它五官的吻合度,然后再对整体的结构和比例进行匹配。这可以大幅降低深度学习网络的训练时间。但是即便如此,也难以做到类似人类的判断能力。


三、总结

深度学习的主要思想仍然很像多年前罗森布拉特提出的感知机,但已经不再使用二进制赫维赛德阶跃函数(Heaviside step function),今天的神经网络大多使用Relu激活函数。在卷积神经网络的最后一层,损失设置为多分类的对数损失函数categorical_crossentropy,这是对勒让德最小二乘法的一大改良,使用逻辑回归来解决多类别问题。另外优化算法Adam则起源于德比的梯度下降思想。此外, Tikhonov的正则化思想被广泛地应用于Dropout层和L1 / L2层的正则化函数。

未来优秀的人工智能学家必然是能够在人脑科学和数字科学这两个学界往来的学者。有科学家认为,深度学习网络最适合解决在输入的信号中消除噪音的问题,解决模拟自然视觉,语音识别等问题,这些也正是我们的大脑擅长应付的。

同时,人类的神经网络和人造数字神经网络都会遇到结论不确定的情况,从而使微小的差异无法消除。例如,对一个变量的变化非常敏感的逻辑问题并不适合深度学习来解决,比如离散问题和加密问题等。据一个例子,我觉得深度学习不会更像很多电影或者小说里说的那样成为超级人工智能黑客。破解密码和寻找系统漏洞并不是深度学习擅长做的事情(也不是人类擅长做的事情)。

马云投资的Magic Leap最新融到了10亿美元,估值70亿美金

根据TechCrunch的报道,Magic Leap可能已经获得了最多10亿美元的投资。


CB Insights 向TechCrunch提供的一份日期为周三(10月11日)的文件显示,这家神秘的初创企业登记了一笔数额为10亿美元的新融资。该备案授权超过3700万股D轮优先股,每股27美元。目前还没有关于投资者的细节。


使用这个和以前的文件,Equidate 计算认为,新一轮融资结束后,Magic Leap的投后估值为70亿美元。而Pitchbook预计,该数字接近65亿美元。


Magic Leap的发言人表示不会对这一消息进行证实。

到目前为止,关于这家位于佛罗里达的增强现实初创企业最引人注目的细节便是数额巨大的投资和其背后大名鼎鼎的投资人。


除去本轮融资,该公司已经公开宣布了近14亿美元的资金来源,投资者包括Google,阿里巴巴和Andreessen Horowitz等著名投资机构和个人。


下图:Magic Leap的融资轮次和融资额


下图:Magic Leap目前为止的投资机构和个人列表


这些数额巨大资金使得“Magic Leap”成为大众关注的焦点,但是在公司的消费级产品策略上,官方唯一透露的信息就是申请的专利,Magic Leap的高管曾经隐晦地提到,将要发布一个设备,暂时被称为“Magic Leap One”。


彭博上个月的一篇报道表明,这家AR创业公司可能会在未来六个月开始将这一设备提供给“小群体用户”,价格可能高达2,000美元。在过去几个星期,公司已经开始了一个新的营销推广,其中包括一个品牌改造与一个新的标志,新的网站和一个新的促销视频,承诺“整个故事即将到来”。


Magic Leap 迄今为止公开的东西列表:


  1. 一些看起来很酷的眼镜的专利

  2. 一系列Demo视频

  3. 眼追踪交互界面的描述

  4. PR负责人Andy Fouché离职

  5. 一份歧视诉讼

秋季登高 这二十座山就在城市近处(五)

腕上花开月正圆 HUBLOT宇舶表

宽松款西装带来不同的时髦感

全国首套房平均利率年内第九次上涨

经济参考报10月13日——融360最新数据显示,9月,全国首套平均房贷利率升至5.22%,年内第9次上涨。但值得注意的是,与此前几个月不同,房贷利率涨幅呈放缓趋势。

数据显示,从全国首套房贷款平均利率走势来看,9月全国首套房平均利率为5.22%,相当于基准利率的1.06倍,环比8月上升了2.01%,上涨速度呈放缓趋势;同比去年9月的4.44%,上升了17.66%。全国首套房平均利率最低的城市前十名分别为上海4.89%、厦门4.99%、大连5.03%、东莞5.06%、西安5.08%、昆明5.10%、乌鲁木齐5.11%、沈阳5.13%、成都5.15%、太原5.15%。

具体来看,在全国35个城市533家银行中,有137家银行首套房利率上升,占比25.70%;房贷利率下降的有13家银行,占比2.44%;与上月持平的有367家银行,占比68.86%。此外,有36家银行分(支)行因额度等原因暂停受理房贷业务。



二套房贷方面,9月二套房平均利率5.60%,较上月保持平稳上升,去年同期为5.39%。533家银行中,除36家停贷的银行分(支)行外,二套房贷执行基准利率的银行有2家;278家银行执行基准利率上浮10%,较上月减少62家;执行基准利率上浮15%的有44家;上浮20%的有149家,较上月增加33家;16家银行执行基准利率上浮30%,较上月新增5家。

融360分析师李万赋表示,自从2014年降息以来,银行一直进行资产重新定价的工作。期间,受到资产荒和坏账风险暴露的影响,也进行资产结构的调整,结合房地产去库存,住房贷款成为大量银行优先配置的资产,提供了较多利率折扣,房贷供给显著扩大。但随着流动性收缩、银行负债成本上升,资产收益下行,导致银行的收入及利润承压。在这样的情况下,再加上信贷额度的限制,逐步减弱房贷折扣、提高房贷利率就成为银行的必然选择。

但值得注意的是,融360分析师李唯一表示,9月平均利率涨幅已有降低,一线城市中,除上海有提供优惠利率的银行外,北京、广州、深圳平均利率破5.15%,已无优惠利率。一线城市利率变化速度快,时效性强,经历前几次的调整变化后,9月未出现大面积变动。

因此,李唯一认为,就目前来看,一二线城市已大体完成利率上浮的调整,出现再次大幅变动的可能性较小,总体会处于微调状态,峰值或将临近。



此外,因银行额度受限,房贷放款时间或再度延长。融360监测数据显示,超过90%以上的银行表示,目前均面临额度不充裕的问题,放款时间由以往的15至60天延长到60至180天不等,部分银行房贷业务受额度影响已进入排队等候办理状态,少数银行分支行暂停新增房贷业务受理。

在放款时间方面,以北京为例,23家开展房贷业务的银行中,仅大华银行、民生银行15日放款,兴业、渣打、农行、建行、中信等执行30日放款,中行、汇丰银行、华夏银行、渤海银行等则延至60日。上海的24家银行中,已没有银行15日放款,兴业、农行等13家银行执行30日放款,工行、浦发等45日放款,招行、交行、光大等则60日放款。

李唯一表示,进入四季度后额度问题将会更加明显,银行严格控制房贷增量,预期明年额度问题不会得到大幅度缓解。真正有效缓解额度问题的关键还在于保障居住需求,市场通过扩大供给保障类房、租房等,分批解决住房问题,避免短时间内购房需求过度集中。

最后,李唯一指出,政策调控使得房屋回归居住属性后,投资用途的交易会大幅度降低;银行对于购房贷款审核以及额度把控将会更加严格,其他途径的贷款使用范围也将受到监管,总体流入房贷市场的资金会受到限制。因此,无论是购房市场还是中介市场,都将迎来一定的变革。