人工智能(AI )很热,但很多时候我们觉得人工智能还不够“智能”,比如说苹果手机,一家公司的创始人杨静前一段时间就把 Siri 卸载了,因为它不够智能,有时候还会添乱,一按它就跳出来,使得人工智能似乎变成了“人工智障”,感觉还不如不出现的好。
这就说明在人工智能技术的研发及应用方面遇到了一些技术挑战,很多专家都在自己深耕的领域对AI技术进行着自己的探索,很多探索是很超前的,那么,我们怎样才能跨越这样的艰难险阻,达到AI的一种新境界呢?
火爆下的隐忧
AI这么火,一切的根源在于数据,庞大的数据洪流。我们身处在智能万物互联的时代,一切东西都联在网上,而且越来越智能,都在收集数据、分析数据。所以人工智能这个技术的关键性就在于怎么更好的把收集的数据挖掘、分析,然后利用起来,实现增值,从而带来增值的业务,这是大家如此关注人工智能的一个重要原因。
目前,人工智能还处在发展的初期。随着计算机时代的发展变得愈加成熟,很多技术的部署变得非常困难,因为很多技术都是在整个人工智能的框架之下的,但是在整个AI相关的领域当中,只有 7%的应用才是符合 AI的具体要求的。为了更好地实现人工智能,需要非常强大的计算能力才能够处理如此大型的数据。预计到 2020年,用于人工智能的计算循环将会增长 12倍之多。
英特尔的执着
大概在一年之前,英特尔收购了人工智能公司Saffron Technology。 Saffron是 AI领域平台服务的佼佼者,他们特别关注在基于技术的逻辑和推理的处理能力,非常关注数据的分析,同时也希望能够加入大家对于数据的理解,比如说对于欺诈的分析及其在银行业当中的具体应用,很多成功的案例都是在 Saffron Technology的推动下得以完成的。近期,该行业巨头又收购了 Nervana Systems。
对于这次并购,英特尔公司副总裁,数据中心事业部数据中心解决方案部门总经理Jason Waxman 表示, 在这次Nervana Systems 的收购中最激动人心的一点是,我们认为这家公司是符合我们的战略思路的,尤其在解决方案的初期一直到整个软件基础设施的构架,同时可以增加我们的数据库,并助力我们半导体的优化。因此,我们通过这么大量的 IP 的收购,最后将整个产品组合买下。这个收购结束完之后,我觉得在前 90 天我们就已经把这种非常好的技术进行了破壁式的发展,我想这也是增加了英特尔的处理和战略的能力。
与此同时,英特尔还并购了Movidius,这项收购案尚未完全完成,但是完成之后这项收购对于推动智能设备的发展将会非常关键。Movidius在嵌入式计算机领域是非常关键的,英特尔将会在智能照相机和图象识别,以及物联网领域都使用Movidius技术。因此将会持续扩大其在这个领域的投资。
Jason Waxman 表示, 构建基于英特尔架构的涵盖至强处理器、至强融核处理器、Nervana 平台和 FPGA 、 Omni-Path 网络、 3D XPoint 存储等技术的硬件平台,结合英特尔针对深度学习 / 机器学习而优化的英特尔数学函数库( Intel® MKL )、数据分析加速库 Intel® DAAL )等,和致力于为多节点架构提供卓越性能的开源软件框架,如 Spark 、 Caffe 、 Theano 以及 Neon 等,及可推动前后端协同人工智能发展布局的 Saffron 、 TAP 、 Nervana 系统、 Movidius 等工具和平台,以上这些产品组合可帮助企业更方便地获取、开发和部署人工智能应用,将人工智能潜能在各个领域充分释放,如智能工厂、无人驾驶汽车、体育、欺诈检测、生命科学等。
技术的创新机遇
现在技术的发展日新月异,我们看到大量的创新和新的改革。有些技术其实已经存在有几年了,现在正是开拓新市场机遇的时机。
机器学习
机器学习有不同的理念和观点,通常就是指从数据当中学习的方法,它能够构建这些数据,并且通过数据改进自己的性能,包括如何从数据当中进行系统化和架构的学习,这是非常宽泛的一个定义,并且这个概念在学术界已经存在很久了。直到最近,生活和工作当中能够产生更多的数据,因此就推动了机器学习的需要。
机器学习有三种不同类型,Nervana Systems公司的前CEO、人工智能专家Naveen Rao表示,对此,我不能说只有这三种类型,但是这可以让大家稍微了解一下机器学习的世界。我们在最近的许多新闻当中可以看到一个叫做监督学习的概念。比如说我有一些图片、标识,这个标识是贴在我的数据上的,例如一个人的面部识别,这个数据的标识就代表他的名字,这个名字可以联到计算机当中,计算机就能够学习,或者将这种输入的数据,将它的名字和图片连在一起。非监督学习则处于我们的技术前沿,很难去真正找到具有潜在的、可使用的一种数据架构,而且前提是你一开始还不了解这个架构的详情。
如果你想学一种语言,你先要听它,了解它的发音,了解语音语调,至少要形成一个语言的框架之后才能开始真正学习这个语言。事实上,我们很难赋予机器学习这项能力,但是我们还在不断推动这方面的研究。
接下来 讲一下强化学习。就像培训你自己家的宠物一样,你希望它有一个正面、你想要的反映,如果它给了负面的、你不想要的反映,你就要惩罚它,这就是强化学习的概念。我想真正的AI 不仅仅是这三种类型。而事实上,让我们的生活、我们的世界更加好也就是机器学习和人工智能的最终目标。
举一个例子,是非常传统经典的机器学习。这里可以给大家看一些图片。大家可以看到这是我们其中的一个创始人,我们如何教会机器能够识别人的面孔,也就是说,让机器将名字和面孔连接在一起。按照传统方法来说,我要看一下他面部的特点,也就是眼睛和眉毛的宽度和鼻子的长度,这些都是非常重要的辨识特点,通过软件进行辨识,把它变成一种图像的关键点,我们把它叫做面部识别特点的函数。
最后我们通过不同的分类器,和一些集成的方法,最终能够辨别出他的名字。我想人类或者是动物能够更好的辨别这个面孔,但是机器需要很多的学习,因为它们没有办法直接提取出这些特点。传统的经典机器学习就是以这种方式进行面部识别的。
机器能力向人类看齐
未来,要想让机器具备像人一样的能力,这个能力体现哪几方面呢?英特尔中国研究院院长宋继强先生将其概括为四大能力:首先是感知外界环境的能力;二是根据感知来的能力进行推理;三是推理形成一些决策触动机器做反馈,这个反馈可以是动的,也可以是不动的,比如说视觉的反馈、声音的反馈;最后一个更重要的是能适应环境,要能根据环境的变化,交互的人的变化去相应的做适应,这个非常重要,要不然就会变成一个死的程序。
这里面有一条横线很重要,“记忆”,记忆是一个非常突出的重点。Jeff Hawkins,就是Numenta的创始人,他写了一本书叫《人工智能的未来》,就是专门讲人工智能或者说智能怎么去看待他,其实就表现在能够利用记忆去进行预测,如果能做到这一点,这个机器就真的有智能了。所以记忆这个能力非常重要,我们现在看到很多做人工智能的厂商也都把这个加入到系统方案里面。
深度学习
深度学习的好处是深层的,这样可以在很多不同的抽象层提取特征,而这个特征不是人去定义的,以前很多做人工智能和机器学习的人是去找Future,所以有Future engineer的工作,但现在可以不需要了,它可以让特征是自己从数据中发现,并且通过越来越多的数据提升系统的性能,而不是靠一两个Future engineer。
同时,深度学习也越来越具备强大的表示能力,从原来只能表示静态的图像和简单的语句,到现在有能力去表示连续的图像,也就是视频,甚至加上多模态这种方式。深度学习是一种突破性的技术,它的突破表现在在数据足够大的情况下,已经可以在某些层面超过人的能力,比如说在做人脸识别方面,在ImageNet上面已经超过了人的能力。在语音方面,语音识别、机器翻译也都达到了让人满意的水平。所以,随着计算量和数据量的增加,深度学习方面已经看到了巨大的突破。
我们期望性能随着数据增多而提升,同样数据多了训练时间也变长,当训练时间变长,一种情况下可以通过增加处理器的数量去扩展它的性能,让它仍然保持在一两天内可以把这个模型训练出来,如果处理器数量达到了一定程度,这个时候它的瓶颈不再是计算能力了,而变成了I/O能力,就是处理器和处理器之间通讯,或者是处理器访问内存的I/O变成了瓶颈,这个时候你再增加处理器的数量也看不到性能的增长,还是要那么多时间才能训练出来。Nervana技术就可以更高效的去定义内存的访问带宽和计算的密度,让它很好的去匹配现在的数据量增大的需求。同时可以让多个节点并行支持这种大模型的训练,所以我们可以看到近乎一种线性的性能扩展。
下图是一个基于张量运算的架构,张量运算是一个多于二维块状的运算,矩阵运算都属于张量运算。里面这些绿色的部分都是专门针对矩阵运算的处理单元。同时我们还用了一种叫Flexpoint技术,这个技术既不是定点的,也不是双精度浮点的,它其实是基于这两者之间可以变化的技术,所以在这个里面它可以提供前所未有的并行化的水平,计算密度非常高,是目前最好的一种硬件加速水平的10倍。
同时,由于计算单元是专门针对张量运算所设计的,所以它的功耗非常低。同时我们看到旁边有黄色的4块,这个是高带宽内存,专门通过专用的内存访问接口连接到主芯片上,中间灰色大区域可以把它看作是一个芯片。这些内存是直接由软件管理的,所以整个计算里面不会存在Cache,不会存在不可预测的Cache miss,完全由程序去控制去哪里读数据,什么时候数据好了,我放回去。
你会想到这一个芯片可能处理不了所有的深度学习训练任务,那我用多个芯片。多个芯片之间的互联就是靠RCL,我们专门定制了一种Interchip Link,它的速度比传统的PCIE要快20倍,而且是双向的数据带宽通道,有这样技术以后,我可以把一个芯片最多可以跟12个芯片连在一起,这样可以组成一个很大的超网格做训练。
软件/ 算法对 AI 发展的重要性
同时,有了硬件之后,我们不能放松对软件AI算法的研究,因为硬件提供了一个基础,如果你用设计得很差的算法去运行,实际上也是浪费它的资源。所以在英特尔研究院以及软件部门也在一起进行AI算法的各种研究,其中包括这4大类,第一大类是怎样让训练做得更快,让它需要更少的数据和人的监督。因为现在做训练通常还需要大量的数据,需要label好的数据,但是我们很多非人工智能领域的人就问了,小孩子去识别哪需要这么多图片,给两三张图片看看就懂了,也不需要那么长时间,所以这里面应该还有更多的技术点可以去钻研。怎么样去增强现在的深度神经网络,因为这只是其中一个工具,未必是最终的工具。
深度神经网络+X,加什么呢?另外再加上一些记忆,或许这里面就有更好的适合于去学习产生知识并且进行推理的模型能够出来。另外,我们知道大的模型训练出来以后是很稀疏的,它里面很多参数是0,对于这些0传输它或者存储它甚至做运算都是毫无价值的,所以我们就要想办法让模型更稀疏,让它存储起来更压缩,同时我们可以在模型里面做裁剪,裁剪的时候一些0的地方就不运算了,所以运算量也会减少。
另外一个维度是计算的精度下降,这也是目前很热的一个研究点,原来我们用16位去计算,现在我们看看用8位、4位、2位甚至到1位,是否也能够完成这个模型的运算,同时我来保证性能、准确度不会下降太多,这也是目前我们在研究的一个重点。同时还看怎么样能够让它去扩展,采用更大的BachSize和High-order方法去做深度学习的训练。
AI 何时飞入寻常百姓家
今年,从AlphaGo开始,AI就成为社会焦点议题了,现在AI虽然炒得很热,但是它的应用仍局限在一些比较窄的专业领域,比如图象识别、语音识别,或者是无人驾驶、智能驾驶,神经语言学等,那么,AI在大众生活方面有没有相关的应用呢?
处在婴儿期的深度学习应用
对于AI在百姓生活中的应用情况,英特尔数据中心事业部首席工程师兼人工智能解决方案架构师张彤表示,现在深度学习的应用还处在婴儿阶段,我们预计在未来几年时间里面,在各个领域会有更深入、更广泛的应用。目前英特尔主要是在图像、语音或者自然语言处理等,特别是跟我们的云的提供商(Cloud Provider)它们之间的合作比较多。
下一步我们会更多的深入到行业应用当中去,比如说医疗领域的应用,这个跟我们大家的生活是息息相关的,比如医学影像的识别,现在很多时候机器判断癌症,我就看到国内有的教授在这方面研究做得非常好,就是用机器学习来判断癌症,比一般的医生判断得都要准确。
商汤科技让AI 落地
商汤科技主要做人工智能落地的产品,比如说直播领域,对此,该公司异构并行计算部门工程总监刘文志表示,女主播是否漂亮是非常重要的,商汤的人脸识别技术可以精准美化女主播的颜值,这是实际中已经在大范围使用的,当然也借了今年直播的风口。
另外,我们在一些人脸闸机,用于通关,如果我们自己掏出身份证或者其他设备,相对来说是比较复杂的,如果靠着我们自己的一张脸就可以畅通无阻的话,包括在某种情况下自己的家门都不用带钥匙了。还有一些和图像相关的,当然商汤科技也能提供很好的解决方案。比如说Pikazo。
京东的AI 谋略
京东集团AI/VR/AR实验室人工智能方向研发总监陈宇表示,作为一个技术的研发从业者,我感觉这个事情分两层看,首先从感知角度,感知本身就是人工智能领域的一个非常重要的方向,比如说视觉、听觉,我们对事物的分析,也就是说图象识别、语音识别,我们京东都有在落地。
举个例子,我们的图象识别不只是大家看到的一些人脸识别或者文字识别,或者是图像的一些简单识别,我们甚至可以帮助我们的仓储系统进行货品的审核和分拣,这些东西都是具体落地场景。同时除了感知之外,我们京东也有很多其他的应用,举一个例子,京东有吉米机器人,它可以替代人工进行Q&A的服务,可以节省大量的人工,这些不只是感知,同时也是做了智能信息的处理,这些都是人工智能在京东实际的落地场景,也是大家能够直接体会到的东西。
来自中科院的声音
中国科学院计算技术研究所研究员,博士生导师,计算机体系结构国家重点实验室副主任冯晓兵博士表示,因为我是做研究的,所以在具体的应用上,我只能说一些别人的例子,像我们现在用的智能手机,手写体识别、语音的输入,这后面都是有人工智能的支持,包括像京东也好,国内很多电商网站,商品推荐,其背后多少都是有人工智能的帮忙,让它做得更精准。包括有些旅游、简单的问答系统、客服等等,我相信后面都是有人工智能支持的。
但是我想,未来可能我们在新的制造业、工业的升级上面应该也会有它的作用。
冯晓兵表示,我觉得人工智能继续发展会有两大趋势,第一是怎么让更多的应用,从人工智能本身的理论、方法,能处理更多的应用,现在主要是基于学习的方法比较成功,除了学习方法之外,我们还有没有别的可以让它往前走的,但这个可能跟我们关系不大。我们可能跟英特尔比较类似,因为计算所都是做系统的,所以说第二个大方面的问题是我们怎么做一个更合理的系统,使得已经有的人工智能的应用,让它在一个可接受的代价的前提下得到更广泛的应用,
像芯片、系统软件,包括编程框架的支持,像这些方面可能都面临很多挑战。不管是计算所在做的,还是企业界提到的,都是在尝试怎么做一个更好的系统,使得我们可以用更小的功耗、更低的程序开发代价,获得更好的性能,可以做更大的数据规模的处理。另一方面,因为有很多不同的种类,我们有没有一些基础的技术,使得一些系统可以在不同的应用种类上面获得更好的适应性,而不需要太多的程序员或者系统工程师深度的介入,这将来都会面临很大的挑战。
对未来的期待
2020年快来了,人工智能在哪个领域会出现更新的、更引人注目的突破呢?
对此,冯晓兵表示,我最希望的一点还是在医疗方面,因为医疗确实有很多新闻事件,对于每一个家庭来说都是非常重要的事情,通过人工智能,能够作为医疗的辅助和管理系统,可能没办法完全替代医生,但是我们可以通过人工智能的辅助,使得我们平均的医生水准,以及每个人受到的医疗服务的水准得到比较好的改善,能够让大家更安心的、花更少的钱得到更好的服务,这是我的期望。
【关于转载】:转载仅限全文转载并完整保留文章标题及内容,不得删改、添加内容绕开原创保护,且文章开头必须注明:转自“半导体行业观察icbank”微信公众号。谢谢合作!
【关于投稿】:欢迎半导体精英投稿,一经录用将署名刊登,红包重谢!来稿邮件请在标题标明“投稿”,并在稿件中注明姓名、电话、单位和职务。欢迎添加我的个人微信号MooreRen001或发邮件到 jyzhang@moore.ren
点击阅读原文加入摩尔精英