如约而至,谷歌开发者大会正式开幕,谷歌首席执行官 Sundar Pichai关于将重心从移动互联领域转向人工智能领域的判断几乎渗透了开幕主旨演讲的每一个细节。
据DeepTech深科技5月18日消息,在开幕主旨演讲中,Sundar Pichai正式宣布现已将整体战略从“移动优先”转变为“AI优先”。因此,谷歌搭建了全新的AI优先型数据中心,并在 2016 年发布专门为机器学习定制的TPU(张量处理单元)。TPU与CPU、GPU相比,效率提高了15-30倍,能耗降低了30-80倍。
事实上,TPU已经部署到了几乎所有谷歌的产品中。不论你使用 Google 搜索、还是与 Google Assistant 对话,甚至在AlphaGo与李世石的围棋大战中,TPU也起到了关键作用。
一般而言,机器学习分为两部分:训练(Train)与应用(Inference)。通过训练来建立神经网络,要求很强大的计算能力;应用则是去完成分辨图片上是猫是狗等具体任务。而 TPU 主要是用来优化应用端的,而训练端目前还是需要使用GPU。比如,谷歌目前每个机器翻译模型,都需要 100 个 GPU 上花一周时间去完成 30 亿个词语的训练。
谷歌发布的Cloud TPU则是同时针对训练和应用两方面。全新的Cloud TPU拥有四个处理芯片,每秒可完成180 tflops计算任务。将 64 个 Cloud TPU 相互连接可组成谷歌称之为Pod的超级计算机,Pod将拥有11.5 petaflops的计算能力(1 petaflops为每秒进行1015次浮点运算)——这对AI领域的研究来说将是非常重要的基础性工具。
之所以将其称之为 Cloud TPU 是因为这些全新硬件将加入谷歌云计算平台,并整合进谷歌计算引擎(Google Compute Engine)。谷歌要打造全世界最好的机器学习计算平台,所以也希望为开发者们提供最好、最广泛的硬件选择,从CPU、到 GPU(包括 Nvidia 上周最新发布的 GPU 产品)、再到 TPU。
目前,谷歌已将所有人工智能相关工作全部纳入新建立的Google.ai,目的是集中公司内部所有优势资源与人力来研发真正能造福人类的AI技术。Google.ai将聚焦三个方面:从事最前沿的技术研发、提供最好的软硬件工具、探索AI的实际应用。
此外,谷歌还发布了一个全新版本的TensorFlow,这个专门为移动设备开发的版本名为TensorFlow Lite——这个全新的程序集允许开发者们编写更为简洁的深度学习模型,从而可以在 Android 智能手机等移动设备上运行。
由于谷歌已经开放了众多在 Android 平台上运行的 AI 相关服务,也确实有必要开发一个更为精简、高效的全新架构来满足在移动设备上运行的需要。谷歌将开源 TensorFlow Lite,并在今年晚些时间开放 API 端口。
最新评论