投递人 itwriter 发布于 2018-05-09 10:44 原文链接 « »

  5 月 9 日凌晨消息,为期三天的 Google I/O开发者大会今日在美国开幕。在刚刚结束的主题演讲上,谷歌 CEO 桑达尔-皮查伊(Sundar Pichai)和各产品线负责人讲解了自家的 AI、Android 系统、谷歌助手等产品的进展。

  今年的主角依然是 AI 人工智能,它已经融入谷歌产品与软件系统中,但这次,谷歌在讲解 AI 或产品功能时候从理解人类和人性的角度举例,把 AI 带到了科技与人文的十字路口上。

  AI:贴近人性并对人类有帮助

  谷歌 CEO 皮查伊用两个卡通图标举例作为开场白,说明谷歌对信息真实的追求。AI 是第一个被提及的话题,皮查伊将之具体到医疗领域,用视网膜扫描诊断疾病的具体案例来解释机器学习的能力,让观众能理解 AI 对人类的作用——“医疗就是 AI 能改变的重要领域”。

AI 帮助判断眼部病情
AI 帮助判断眼部病情

  以往在 Google I/O上大谈代码只有码农们兴奋而旁人无感的状况终于有所改进,皮查伊将每个技术点都具体化,例如谷歌相册中找到朋友的婚礼照片,下面会提示是不是要分享给她;或是一张较昏暗的照片提示用户要不要调整。

AI 应用实例,看到某人照片,手机问要不要分享给她
AI 应用实例,看到某人照片,手机问要不要分享给她

  另外,谷歌公布了自己的人工智能专用芯片 TPU3.0,相比上代,它使用液冷,计算力是去年 TPU2.0 的 8 倍,可以更快更智能解决更多问题。但这部分只有两句,并未过过解释。

支持水冷的智能芯片
支持水冷的智能芯片

  Google Assistant:连声音都更像人类

  Google Assistant(谷歌助手)是本次开发者大会介绍的第二个重要新品,它是谷歌的 AI 智能助手,这次更新带来 6 种新声音,并且发音更贴近人类自然语言,不那么像机器人发出来的声音。

  皮查伊介绍说它的声调、节奏等都更接近人类。他们在录音室里采集了人类的声音,捕捉声音特质,之后分析特征融入 Google Assistant 中。

谷歌助手的语音更自然
谷歌助手的语音更自然

  谷歌宣布了自己的 AI 语音助手发布 2 年后,已经支持 30 种语音,在 80 个国家可用;一些细节改变还有:1)持续性对话,不用每次都喊 Hey Google 唤醒一次才问一个问题,它可以连续回答;2)家庭使用场景,例如孩子跟谷歌助手对话时候,如果他比较礼貌的说“请”字,谷歌助手也会给更 nice 的回答——谷歌希望用这种不为人注意的细节,来告诉用户自己的 AI 助手有多周到。

谷歌助手不仅是个语音助手,还对带屏幕的设备进行了优化
谷歌助手不仅是个语音助手,还对带屏幕的设备进行了优化

  除了声音,谷歌助手在视觉表达方面也有所改进。现场采用中国公司联想的“智能显示器”来展示谷歌助手在视觉方面给人们的反馈,还有手机上的语音搜索展示;在开车时候,如果用声音控制,谷歌助手也会融合在谷歌地图上,给人类声音+视觉展示,把导航这件事做得更好。

  皮查伊演示了两个极为科幻的场景:你要理发,喊谷歌助手预定,它会给理发店打电话,并回答出理发店里店员“几点理发”“预定客人的名字”等信息;或者预定餐馆,如果没位置,它也能学会变通改预定时间——全程是谷歌助手(机器)在和一个人类流畅的对话,它的声音仿佛一个人类,回答方式也是一个人类,没有机械刻板的痕迹。

机器和人类对话约理发,极其科幻的场景
机器和人类对话约理发,极其科幻的场景

  预约理发和餐馆这两个场景非常生活化,这么自然的场景,你手机里的智能助手就独立能完成。谷歌告诉世人,他们真的把自己的额智能助理变成了人,并在自己的发布会上演出了科幻片里的情节。

  虽然我们相信实际生活中不会像舞台演示这么流畅,但谷歌助手已经展示了目前 AI 助手的发展方向,就是朝着人类的方向进化。

  Google News:AI 做新闻

  谷歌自己不是媒体不做新闻,但他们的 Google News 用 AI 介入了人们阅读新闻方式,第一个特征可以粗略理解为高端版“今日头条”,它的有些方式很像关联阅读,你看了条朝鲜韩国领导人见面,它会关联推送其他相关新闻。

学习用户读新闻习惯,自动生成一个专题
学习用户读新闻习惯,自动生成一个专题

  第二个特征,360 度报道,让用户了解整个新闻的来龙去脉。比如某地停电,在新闻前后有这件事本身、人们需要做什么,以前以后相关的相关事件。他们想让用户知道一件事,并在后台绘制出一张脉络图,让用户完整理解这件事——这基本等于机器自己搭建了一个专题。

相关阅读推荐
相关阅读推荐

  第三个特征是让用户订阅自己需要的媒体,目前 Google News 已经进入 127 个国家和地区,在 Android 和 iOS 上都能找到。

  Android P:帮用户戒掉手机瘾

  十年前,谷歌发布了搭载 Android 系统的首款手机 G1,影响了智能手机的变化。如今的 Android 系统没有大幅变化,一切尽在细节中:加入了更多智能体现,例如根据用户习惯判别使用情况来节省电力;根据用户喜好(手机亮度跳到了多高等)来自动判别亮度,让用户大幅降低手动调整亮度的机会,号称准确率到了 60%;应用预测,学习用户习惯和使用情景,来给用户提供有效的 App 建议。

学习用户习惯来省电
学习用户习惯来省电

  在界面方面,Android 系统的界面变得更简单,并加入了更多手势。在这点上,谷歌似乎借鉴了 iPhone X 的手势(或者说他们都借鉴了 webOS),在现场演示的 Pixel 手机上,底部有个小横条,滑动返回桌面,或是切换 App,跟 iPhone X 实现方式接近。

底部滑动条像 iPhone X
底部滑动条像 iPhone X

  谷歌希望 Android P 能帮人了解自己用手机做什么,防止沉迷在数字世界里。比如现在每个 App 都能统计使用时间,看看你究竟用手机做什么;到睡觉时间提醒人类并把手机屏幕调成灰色——帮用户戒掉手机瘾。

  今天 Android P Beta 测试版已经上线,在谷歌提到的适配手机厂商中大半来自中国:一加,小米,ov 与索尼诺基亚等国际厂商放在一起,成为了第一批支持厂商。

第一批适配厂商中大半来自中国
第一批适配厂商中大半来自中国

  Google Maps+Google Lens:兴趣推荐

  谷歌给地图加了更丰富的地点相关概念,利用 AI 和卫星图像技术,可以了解新地址和商家,另外推荐最近的路程和附近最适合你的餐厅。其实类似功能目前高德,百度地图等也有尝试。

地图相关推荐不是新功能了
地图相关推荐不是新功能了

  谷歌地图这次跟手机摄像头结合了,例如你不知道在哪,打开镜头,它会采集街头画面,之后将实景与地图结合,告诉用户该想哪走。

AR 实景导航
AR 实景导航

  这个功能其实 Google Lens 与地图的融合,它是一款基于图像识别和 OCR 技术的人工智能应用,这次被用在地图这种实用场景里;另外 Google Lens 本身也得到了加强,例如拍一张纸,上面的字可以识别并从纸上“粘贴”到手机里。

从现实“粘贴”到电子世界
从现实“粘贴”到电子世界

  无人驾驶:车自己预判路况

  2016 年,谷歌的母公司 Alphabet 宣布将自动驾驶汽车项目分拆为一家单独的公司 Waymo,这次的无人驾驶汽车和部分就由 Waymo 的 CEO John Krafcik 上台讲解,他介绍了 Waymo 无人驾驶汽车的近况:已在亚利桑那州凤凰城上路,AI 的介入让无人驾驶的错误已经减少了 100 多倍,可让无人驾驶汽车更安全。

Waymo 无人驾驶汽车
Waymo 无人驾驶汽车

  目前 Waymo 有 2.5 万辆车每天在路上验证各种路况。Waymo 的讲解人举了个例子来说明神经网络的学习结果:无人车可以自己预测人们或车在横穿马路、闯红灯等行为提前预判,防止在过十字路口时候撞到闯红灯人或车。

AI 预判路上行为
AI 预判路上行为

  总结:给 AI 加上人性 

  这是一场名副其实的开发者大会,没有硬件发布,也似乎没有一种系统是大革命性更新。这其实已经不是第一年这样了——AI 的介入,让每件产品都有了机器学习的属性,更新在了潜移默化中。

  相比之下,UI 界面改头换面这种表层的惊喜少了,所有的改进似乎都是细枝末节。智能化的演进在每分每秒进行,根据用户使用习惯而悄悄变化。

  对比之前,这场主题演讲特殊之处就是无时不忘提到 AI 对人类的帮助,以及 AI 资深的人性化(比如教小朋友说”请“),理工男们用这种方式让外界理解自己打造一个“更美好世界”的梦想,这也是硅谷所有科技公司的态度,所不同的是,这个目的是 AI 帮助人类实现的。

24小时阅读排行

    最新新闻

      相关新闻