从新一代TPU到Google.ai,详解GoogleI-O首

  • 编辑时间: 2020-06-17
  • 浏览量: 212
  • 作者:
从新一代TPU到Google.ai,详解GoogleI/O首

Google 在山景城开启了今年度的 Google I/O 开发者大会。从大会主题演讲可以看出,Google 人工智慧主要体现在以下五大方面:

  1. AI First 的整体战略;
  2. TPU 的升级与云服务;
  3. 集研究、工具、应用于一体的 Google.ai ;
  4. 人工智慧技术的产品落地;
  5. 基于 Android 和 TensorFlow 的行动开发者生态。
重申 AI First

去年 10 月的 Google 新品发布会期间,Google 执行长 Sundar Pichai 曾撰文解读 Google 从 Mobile First 向 AI First 的战略转变。他认为在接下来 10 年中,Google 将转向建立 AI First 的世界。

Pichai 在本届大会上再次强调了 AI First 战略的重要性。他表示,机器学习已经在 Google 的诸多产品中得到了广泛应用,其中包括搜寻排序、街景、图片搜寻、智慧回覆、YouTube 推荐等。

在具体技术方面,Pichai 说:「声音和视觉是一种新的计算形式。我们正在见证电脑视觉和语音领域的许多伟大进步。」

Google 的语音辨识技术的错误率逐年下降,仅从去年 7 月到现在就实现了 8.5% 到 4.9% 的极大改进;而且即使在有噪音存在的情况下也能表现良好。在 Google Home 刚发布时,原本需要 8 个麦克风才能準确定位周围的说话人,「藉助深度学习,我们最后能够推出仅有 2 个麦克风的产品,而且达到了同样品质。」现在 Google Home 已经能辨识 6 个不同的说话人并为他们设定客製化体验。

在处理某些任务时,图像辨识的準确度也超过了人类水準,并且应用到了 Pixel 系列手机的相机 App 中,来自动清除图像中的噪点,实现高品质的夜间成像效果;不久之后甚至还可以自动移除照片上的遮挡物,比如挡在相机前的棒球场围网。

在这些电脑视觉技术的基础上,Google 又发布了 Google Lens 。这个功能将首先出现在 Google Assistant 和

从新一代TPU到Google.ai,详解GoogleI/O首
TPU 云服务

AI First 的战略需要 AI First 的资料中心,为此 Google 打造了为机器学习订製的硬体 TPU 。去年发布时,TPU 的速度比当时 CPU 和 GPU 的速度快 15 到 30 倍,功耗效率高 30 到 80 倍。如今的 TPU 已经在为 Google 的各种机器学习应用提供支援,包括之前战胜李世乭的 AlphaGo 。

Pichai 介绍道,深度学习分为两个阶段:训练和推理。其中训练阶段是非常计算密集型的。例如,Google 的一个机器翻译模型每週就要处理至少 30 亿词的训练资料,需要数百个 GPU,去年的 TPU 就是专门为推理阶段优化的;而在今年的 I/O 大会上,Pichai 宣布了下一代 TPU——Cloud TPU——其既为推理阶段进行了优化,也为训练阶段进行了优化。在现场展示的一块 Cloud TPU 板图片上有 4 块晶片,其处理速度可达 180 teraflops。

从新一代TPU到Google.ai,详解GoogleI/O首

此外,Cloud TPU 还可以轻鬆实现集成组合,你可以将 64 块 TPU 组合成一个「超级电脑」,即一个 pod ,每个 pod 的速度可达 11.5 petaflops;另外,Pichai 还宣布将 Cloud TPU 应用到了 Google Compute Engine 中。
从新一代TPU到Google.ai,详解GoogleI/O首
一个 Cloud TPU Pod 示意图,包含 64 块 Cloud TPU

正如 Pichai 所言,「我们希望 Google Cloud 是最好的机器学习云,并为用户提供 CPU 、GPU 和 TPU 等更广泛的硬体支持。」

在下午的开发者 Keynote 中,Google Cloud 机器学习与人工智慧首席科学家李飞飞也表示,每个人都可通过 Google 的云平台使用云 TPU,不久之后将会开放租借。

从新一代TPU到Google.ai,详解GoogleI/O首
李飞飞在下午的开发者 Keynote 演讲
Google.ai 与 AutoML

为推动使用人工智慧解决实际问题,Pichai 宣布将 Google 人工智慧方面的工作综合到 Google.ai 下。总体而言,Google.ai 将专注于三个领域:研究、工具和应用。

从新一代TPU到Google.ai,详解GoogleI/O首

在研究方面,深度学习模型方面的进步令人振奋,但设计和开发却很耗费时间,只有少量工程师和科学家愿意去研究它们。为了让更多开发者使用机器学习,Google 提出了 AutoML——让神经网路来设计神经网路。

从新一代TPU到Google.ai,详解GoogleI/O首

AutoML 是一种「learning to learn」的方法。在此方法中,一种控制器神经网路能够提议一个「子」模型架构,然后针对特定任务进行训练与质量评估;而回馈给控制器的资讯则会被用来改进下一轮的提议。Google 在技术部落格中表示,他们已经将此过程重複了上千次,从而来生成新架构,然后经过测试和回馈,让控制器进行学习。最终,控制器将学会为好的架构分配高的概率。
从新一代TPU到Google.ai,详解GoogleI/O首
AutoML 流程图

AutoML 会产生什幺样的神经网路?以循环架构为例,如下图所示:

从新一代TPU到Google.ai,详解GoogleI/O首

左边为人类专家设计的神经网路,右边为 AutoML 方法创造的循环架构,两个架构有着共同的设计特徵。

Pichai 认为,AutoML 具有很大的潜力。并且,Google 已经在图像辨识基準资料集 CIFAR-10 上取得了顶尖成果。虽然过程很难,但云 TPU 的存在使这种方法成为了可能。

有了这些前沿的研究,接下来就是应用的问题。Pichai 列举了 Google 应用机器学习的几个案例:例如在医疗领域诊断癌症的应用和在基础科学领域的应用。

产品及应用

Google AI First 战略不仅体现在研究上,还表现于众多人工智慧技术的应用上——将 Google 的各项人工智慧技术在产品层面统一起来。Pichai 提到:「电脑仍在不断地进化,从 Mobile First 的世界进化到 AI First 的世界。我们也在重新思考我们所有的产品。」

1. Google Assistant

Google 正将人工智慧应用于所有产品中,Pichai 表示,其中最重要的就是 Google 搜寻和 Google Assistant 。自去年 I/O 大会发布以来,Google Assistant 已经可以在上亿台设备上使用。今天 Google Assistant 工程副总裁 Scott Huffman 又介绍了 Google Assistant 三大进步。

1)更自然的对话

Google Assistant 上 70% 的请求都是通过自然语言的方式进行的,而非键盘输入。而 Google 要做的就是结合语音辨识、自然语言处理以及语境意义方面的技术来解放用户双手,实现更加自然的人机交流。「Google Assistant 可以通过聆听学会区分不同家庭成员的声音。」他说。除了语音辨识和自然语言处理,Google Assistant 还使用了 Google Lens 功能,通过图像资讯来实现更加自然的「对话」。

2)更广泛的应用

Huffman 表示,Google Assistant 正变得更加广泛可用,除了之前的 Android 系统,Google Assistant 已经可以在 iPhone 上使用。而随着 Google Assistant SDK 的发布,任何设备生产商都能简单轻鬆地将 Google Assistant 部署在音响、玩具和机器人等设备上;此外,今年夏天,Google Assistant 也开始将支持法语、德语、葡萄牙语和日语,并将在年底新增意大利语、韩语和西班牙语等语言。

3)更触手可及的服务

用户使用 Google Assistant 不仅仅是搜寻资讯,还希望获取所有服务,比如 Gmail 、Google

Google Assistant 的进步也使得智慧家居产品 Google Home 新增了 50 项新功能——用户可以通过语音去调用各种服务,包括免费电话、免费听音乐,以及在电视上观看影片等。

同时,基于本次大会上多次提及的「语音加图像」的多模态互动,之前缺乏视觉互动的 Google Home 现在也可以藉助手机和电视的萤幕与用户进行更好的互动,比如,用户可以通过语音命令让 Google Home 把你的日程在电视上显示。就像 Nygaard 所说的那样,用户可以 hands-free 的做任何事情。如今 Google Assistant 已经开始支持交易并集成到智慧家居设备中,目前拥有超过 70 家智慧家居合作者。

2. Google

Google

另外,除了 Google Assistant ,Google Lens 也被集成到了 Google

用 TensorFlowLite 构建行动开发者生态

机器学习在行动端的应用至关重要,而在讨论 Android 的未来时,Google 工程副总裁 Dave Burke 宣布了一个为行动端优化的 TensorFlow 版本——TensorFlowLite 。TensorFlowLite 能让更多的开发者建立在 Android 手机上运行的深度学习模型。

而 TensorFlowLite 就是 Google 在行动端部署人工智慧的一个着力点。首先,TensorFlowLite 很小很快,但依然可以使用最先进的技术,包括卷积神经网路、LSTM 等;其次,Dave Burke 还宣布在 Android 上推出了一个新的框架来进行硬体加速,期待看到为神经网路的训练和推理特别定制的 DSP 。这些新能力将促进新一代设备上语音辨识、视觉搜寻和增强现实的发展。

从新一代TPU到Google.ai,详解GoogleI/O首

去年,Facebook 公开了 Caffe2Go ,今年更是开源了可在手机与树莓派电脑上训练和部署神经网路模型的 Caffe2 。在行动端部署机器学习成为了一项新的挑战。但不幸的是,手机上训练神经网路仍是计算密集型任务。即便忽略训练,预训练模型仍旧艰难。但如果能在边缘设备运行模型,就能避免云和网路,在任何环境中有更可靠的表现。

Google 表示他们会开源该项工作,併计划在今年晚些时候发布 API 。

Google 首日 Keynote ,让我们看到了 Google 围绕机器学习研究、开源工具、基础设施和人工智慧应用开发的 AI First 战略。Cloud TPU 是加速人工智慧部署的基础设施;AutoML 代表着机器学习研究层面的前沿方向;TensorFlowLite 将促进人工智慧在行动端的部署;语音和图像的结合代表着对多模态人机交互的探索;而应用了各种人工智慧技术的产品更新则是极大推动了将 AI 真正融入生活的进程。