投递人 itwriter 发布于 2018-02-14 14:53 [收藏] « »

  文/允中编译

  美国科技媒体 Wired 说:Google 的自动联想功能,至今 Bug 多多。

  比如当你搜索“伊斯兰主义者”时,Google 给出的自动联想是“伊斯兰主义者不是我们的朋友”,或“伊斯兰主义者是邪恶的”。

  对于“黑人是”,Google 给出的自动联想是“黑人不被压迫”。

  更可怕的是“希特勒是”,其中有一条自动化联想是“希特勒是我的英雄”。

  “女权主义者”则能引出“女权主义者是性别歧视”的说法。

  这种政治不正确的例子还能举出更多。比如搜索“白色至上”,自动联想的第一位结果是“白色至上是好的”,而“黑人生命”则出现了“‘黑人生命事件’是一个仇恨组织”的引导,还有“气候变化”,Google 提供的潜在导向均是否定性论调。

  总之,虽然 Google 的“人品”有口皆碑,但这样有图有真相的事实面前,还是引人思考:

  这到底怎么了?

  算法无情

  这种自动化联想填充的建议,当然并非出自 Google 强制编码,这是 Google 对互联网上整个内容世界进行算法扫描的结果,也是对人们日常搜索关键词的具体评估。

  于是有一些搜索自动联想看起来标题党。

  比如“‘黑人生命事件’是一个仇恨组织”,搜索指向的最高结果,是一个贫困法律援助中心的联系网页,其中解释了为啥它不认为“黑人生命”是一个仇恨组织。

  但“希特勒是好人”却并非类似的标题党了,如果你接受自动联想并搜索,真能去到一个介绍“希特勒是好人”的内容网页。

  虽然那啥自由,但这种大是大非问题如果置之不顾,想想就令人后怕。

  Google 也不是没有动作。

  在回应自动联想的声明中,Google 表示将删除上述一些特别违反其政策的搜索提示,但没有指出具体删除了哪些搜索。

  也有其他发言人表示,Google 过去一直在努力提高搜索质量,去年还为用户添加了一种标记自动联想结果的方式,如果你发现自动联想的结果不准确或令人反感,可以直接在列表底部反馈。而且,行之有效的方法似乎也只有发动人民群众了。

  “因为算法不会永远是完美的,Google 自动联想参考了其他用户的搜索数据。”

  这句话来自 Google 新闻副总裁 Richard Gingras,在上周四于华盛顿举行的听证会上,他告诉大家:尽管我们的算法是完美的,但我不相信它们会永远完美。

  最主要的原因,Google 自动联想背后的参考数据库,是一个每天都在变化的语料库。

  人民的汪洋大海太大,大到 Google 的技术也 hold 不住。

  实际上,早在 2016 年 12 月,Google 就官方宣布过一次人为修复搜索联想的事件。当时用户输入“犹太人是”时,Google 自动联想的问题是:“犹太人是邪恶的”?

  所以犹他大学的数据科学伦理方面的教授 Suresh Venkatasubramanian 就表示,如果自动联想是人们搜索情况的一个反映,那它就不会存在道德底线。

  言下之意是:技术没有价值观,会变得非常可怕——毕竟世界大了啥人都有。

  然而通过技术解决问题也并不容易。比如 Google 确实出手对“希特勒”和“犹太人”等搜索的自动联想结果进行了修改限制,但如何能让这种“修改限制”规模化、技术化?

  这就要让技术模型“有思想”或者“有原则”。

  Google 还不够努力?

  目前,Google 的尝试是制定了一揽子方案,比如暴力、仇恨、性暴露或危险的相关联想预测被禁止。但还是被认为标准太过模糊,机器对于一些常识的理解难于登天,比如“希特勒是我的英雄”出自希特勒自己,是当时这位狂人对自我的一种预言,但历史进程告诉我们:这是恶的。

  此外,Google 也确实在遭遇现实挑战。每天都在有新的搜索出现,而且每天都有高达 15% 的全新搜索内容,每一个新问题都可能突破 Google 解决方案的既有设定。

  那么是 Google 还不够努力吗?Wired 认为是。

  Wired 质疑 Google 已经有足够的付出去解决当前面临的挑战,而只是在纠正个别问题。即便这家母公司市值超过 7000 亿美元的企业,宣称有 7 万名以上的全球员工在不断审查评估搜索结果,但随便搜索十几次,就能发现七八个显然不受欢迎的自动联想。

  Wired 不否认自动联想的价值,但需要解决它正在损害公共认知和价值的问题。

  而且自动联想也不止于 Google 搜索本身。在 Google 产品全家桶体系内,都存在这样的问题。

  比如 2015 年奥巴马任职总统期间,如果你在 Google 地图上搜索“in a house”,就会被自动联想引导至白宫。

  去年 11 月,Buzzfeed News 则发现,如果你在 YouTube 上搜索“how to have”时,给出的自动化联想竟然是“如何与你的孩子发生X关系”。

  还有,去年拉斯维加斯大规模射击事件后,Google 搜索的结果中还出现了一个“4chan”页面,一个无辜的人在这个页面里被当做了杀手。

  毫无疑问,类似的自动化系统接下来如何发展,并不单单是 Google 或 Alphabet 面临的问题。比如去年公益调查机构 ProPublica 就发现,Facebook 允许广告商可以定向投放对“犹太人”感兴趣的用户,尽管 Facebook 声称并没有人为创造这个类别——而是智能化工具根据用户信息创造的。

  所以是时候管一管这些算法了吗?

  Wired 最后说:Google 有一系列的价值观来提供公平公正,但对搜索结果缺乏仲裁。

  Wired 认为,算法再好,也不该被授予价值判断的责任。因为算法不知道哪些问题粗俗无理、政治不正确,或者并不知道希特勒是一个种族灭绝的疯子。算法只知道从 Google 搜索的结果中挑选,却让 Google 搜索的算法创造者们反受其限。

  实际上,这样的亏早就吃过了,虽然并不是在英语世界中。

 
来自: 量子位
找优秀程序员,就在博客园 新浪微博 分享至微信
标签: Google

24小时阅读排行

    最新新闻

      相关新闻