投递人 itwriter 发布于 2018-05-15 16:29 原文链接 « »

  如今,对于 Alphabet/Google 管理层来说,如今不得不考虑的一个严重问题是:该如何处理已经与美国国防部在 Project Maven 上达成的合作关系。

  Google 食言了?

  雷锋网曾经报道过,Project Maven 是美国军方在 2017 年 4 月主导创建的一个项目,它也被称为算法战跨职能团队(AWCFT)。Maven 的任务指向是 “加速国防部整合大数据和机器学习技术”。而据该中心的助理研究员 Greg Allen 介绍,该项目的首要任务是帮助军方有效地处理空中无人机每天收集的大量视频片段。

  按照美国国防部的计划,Project Maven 项目成立六个月就可以运行;为了满足该项目的迫切时间要求,国防部依靠自身显然并不足够。于是,它转而寻求与学界和业界的人工智能专家合作,以弥补军方和硅谷之间的技术差距。根据项目总监 John Shanahan 的说法,Maven 项目将为整个国防部点燃【人工智能的火焰前沿】。

  实际上,据外界报道,自 2017 年 12 月以来,该项目已经被部署在与伊斯兰国的对抗中。

  外界普遍认为,作为 TensorFlow 的开发者,Google 参与到了这项合作中去,不仅为国防部提供用于机器学习应用的 TensorFlow API 接口,还动用工程师资源为后者提供帮助。而这一合作在今年早些时候曝光之后,已经了大量的争议,许多 Google 员工表达了对此事的抗议。

  雷锋网了解到,2017 年秋天,还在担任 Alphabet 董事长的 Eric Schmidt 在一次谈话中曾谈到科技圈与军方合作关系的担忧。 “技术社区普遍担心军事和工业结合体,会被作为不正当杀人利器,”同样也是国防创新委员会成员的他补充说,“我不会在军队内部提供 Alphabet 的东西。”

  不过随着 Eric Schmidt 在 2018 年初卸任 Alphabet 董事长,Google 似乎食言了。不少媒体认为,为了获取国防部在云计算业务上的订单,它参与到国防部的 Project Maven 中去;尽管 Google 已经宣称其与军方的合作与战争用途没有关系,但这一问题还是引起了员工和业界的关注。

  随后,这一事件持续发酵。目前关于这一事件的最新动向是:大约有 12 名 Google 员工将要离职,以表达对上述合作的抗议。

  Google 员工的联名信和辞职

  据外媒 Gizmodo 报道,让这些要离职的 Google 员工感到沮丧的,不仅仅是人工智能在战争无人机使用中的伦理问题,还有 Google 的政治选择以及由此带来对用户信任的影响。他们中的许多人已经在一份内部文档中表达了将要离职的决定,而这份文档也在 Google 内部分享。

  不过,究竟这些人的辞职会不会对 Google 管理层造成影响,这是一个值得质疑的问题。

  早在 2018 年 4 月初,大约有 3100 多名 Google 员工签名,面向 Google CEO Sundar Pichai 提交了一封信,要求 Sundar 立即取消参与 Project Maven,并要求 Google 起草并公开一份清晰的政策表明:Google 和它的合作方不会开发用于战争的技术。

  这些员工在信中表示:

Google 在 Project Maven 中的相关参与计划将不可挽回地毁灭 Google 的品牌和它吸纳人才的能力。在越来越多的对于 AI 可能会偏激化和武器化的恐惧中,Google 在获取公众信任方面已经显得力不从心了……这一协议将会使 Google 的声誉面临威胁,并将会使 Google 站在其核心价值观的对立面。

  然而,来自这些员工的痛心疾首的呼吁似乎并没能对 Google 的决定造成什么影响。Gizmodo 报道称,Google 并没有停止其在 Project Maven 中的工作,并且已经被外界认为是美国国防部的起来一个云计算工程——The Joint Enterprise Defense Infrastructure——的竞标者之一。也就是说,Google 之所以坚持参与国防部项目,可能是为了获取在云计算方面的相关利益。

  不过,这一事件的复杂之处在于:Google 此前声明称它只是在为 Project Maven 提供一些开源软件。既然是开源软件,那么即使 Google 不参与其中,国防部照样可以自行下载使用,并将其用于军事用途。

  另外,在 Google 参与 Project Maven 的消息曝光初期,Google 的一位发言人曾表示公司正在起草一份关于机器学习使用的政策和防护安全措施文件,但是据知情人士了解,这份文件的起草还未实施。

  更大的舆论压力

  如果说,来自内部员工的联名信和辞职抗议还不足以让 Google 管理层考虑改变决定的话,Google 在本次事态中还面临着更大的外界舆论压力。

  雷锋网了解到,2018 年 4 月 19 日,就在 Google 员工发出联名信半个月之后,来自 Google、Amazon、Microsoft 和 IBM 等科技公司的员工发布了一封联合请愿信,声明称科技公司不应该参与到与战争有关的商业中去,因此 Google 应该中止与美国国防部的合作。

  不仅如此,这封信还声称,Google、Amazon、IBM 和 Microsoft 等科技公司试图与美国国防部达成的商业协议将打破用户信任,科技公司拥有大量的全球用户敏感数据,它们不应该参与到某个国家的军事活动中去。从这封信的口风来看,虽然并不完全指向 Google,但是考虑到 Google 在人工智能领域的地位以及它已经引起的争议,毫无疑问它还是首当其冲的。

  但这还不够,Google 员工的抗议和上述科技公司员工的情愿又得到了来自人工智能学界、计算机学界和伦理学界专家学者的支持。

  5 月 15 日,国际机器人武器控制委员会(ICRAC)向 Alphabet CEO 拉里·佩奇、Google CEO Pichai 、Google Cloud CEO Diane Greene 以及 Google Cloud 首席科学家李飞飞发出了一封公开信,再次要求 Google 停止其与国防部在 Project Maven 上的合作协议,承诺不去开发军事科技,并保证不将其搜集的个人数据用于军事行动。

  另外,这封信还呼吁 Google 宣誓不会参与或支持自动武器的开发、制造、贸易和使用,并支持对自动武器的禁止。

  到目前为止,已经有 364 名专家学者在公开信上签名,而且签名数量还在不断增加。

  在雷锋网看来,随着内部和外部舆论压力的增加,Google/Alphabet 已经陷入了某种腹背受敌的道德和舆论困境,这可能是一种比失去国防部订单后果更为严重的困境,甚至会引发一场严重的信任危机。可以想见的是,Google 将不得不对这一事态进行回应;但这并不意味着 Google 方面会完全听从舆论的想法,最终停止与美国国防部在 Project Maven 上的合作。

  而至于人工功能作为一项技术在道德和伦理方面所面临的困境,恐怕已经不仅仅是 Google 一家所面临的问题,也不仅仅是 IBM、Amazon、Microsoft 等相关厂商的问题,它将无可避免地成为整个人工智能时代的一个长期性话题。


  以下是公开信全文

  致

  Alphabet CEO 拉里·佩奇

  谷歌 CEO Sundar Pichai

  谷歌云 CEO Diane Greene

  谷歌云首席科学家、副总裁李飞飞:

  作为学习、研究、教授和发展信息技术的学者,我们团结一致地支持 3100 多名谷歌员工以及其他反对谷歌参与 Maven 项目的技术人员。

  我们全力支持他们要求谷歌终止与国防部的合同,并且要求谷歌及其母公司 Alphabet 承诺不开发军事技术、不将收集的个人数据用于军事目的。军事资金对计算机研究和发展的驱动力不应该决定该领域的前进方向。我们还敦促谷歌和 Alphabet 的高管加入其他人工智能和机器人技术研究人员和技术高管的行列,一起呼吁签署一项禁止自主武器系统的国际条约。

  长期以来,谷歌一直致力于组织和提高世界信息的有效性。除了在互联网上提供搜索相关的网页,谷歌还负责编辑我们的电子邮件、视频、日历和照片,并引导我们到到达目的地。和许多其他数字技术公司一样,谷歌收集了大量关于用户行为、活动和兴趣的数据。谷歌不能仅利用这些数据改进自己的技术和扩大业务,还应该造福社会。公司的座右铭是“不作恶”,这是众所周知的责任。

  Maven 是美国的一个军事项目,目的是利用机器学习来分析大量的无人机监控录像,并为人类分析员提供感兴趣的对象。谷歌不仅提供了开源的“深度学习”技术,还提供了工程专业知识和对国防部的帮助。

  据防务周刊报道,联合特种作战部队“在中东”进行了初步试验,使用了一架小型扫描鹰侦察机的视频片段。该项目计划在明年夏天之前扩展到“更大、中等高度的 Predator 和 Reaper 无人机中”,并最终应用到 Gorgon Stare 项目中,这是“一个复杂的高科技系列相机……可以俯瞰整个城镇。”通过 Maven 项目,谷歌与有受争议的、有针对性的杀戮行为有牵连。这包括所谓的“签名罢工”和“生活模式”攻击,目标人群不是基于已知的活动,而是基于从远程监控录像中得出的概率。这些行动的合法性受到国际和美国法律的质疑。同时,这些行动也暴露了在目标识别和罢工分析中,关于种族和性别偏见的重大问题(最臭名昭著的是,将成年男性作为激进分子的笼统分类)。这些问题不能依靠图像分析算法的准确性,只能通过对国际机构的问责和加深对实地地缘政治局势的了解来解决。

  虽然目前关于项目 Maven 的报告强调了人类分析人员的作用,但这些技术将成为自动目标识别和自动武器系统的基础。当军事指挥官们认为目标识别算法是可靠的,它将会削弱甚至消除对这些系统的人类审查和监督。根据国防部的说法,国防部已经计划在无人机上安装图像分析技术,包括武装无人机。因此,我们距离授权自动无人机自主杀戮,而不需要人工监控,只需要一小步。

  如果对科技公司而言,其道德行为需要考虑谁可以从技术中受益,谁可能受到损害,那么我们可以肯定地说,这个话题值得更冷静的反思——没有比目的是在远方瞄准、杀人,而且不受公共问责制约的技术风险更高。

  我们还深切关注谷歌可能将人们日常生活的数据与军事监控数据结合,并将其联合应用于有针对性的杀戮。谷歌已经进入了军事领域,没有在国内或国际上进行公开辩论或审议。虽然谷歌经常在没有民主的公众参与之下决定技术的未来,但它加入军事技术这一行为更加凸显了信息基础设施的隐私控制问题。

  如果谷歌决定将全球互联网用户的个人数据用于军事目的,那么它将侵犯公众的信任,因为它将用户的生命和人权置于危险之中。像谷歌这样跨国公司的责任必须与他们的用户的跨国化相匹配。根据谷歌所考虑的国防部合同,以及微软和亚马逊已经实施的类似合同,这样的做法标志着拥有大量全球敏感私人数据的科技公司与一个国家军队的危险联盟。它们还表明,谷歌未能与全球公民社会和外交机构进行接触,这些机构已经强调这些技术的道德风险。

  我们正处于关键时刻。剑桥分析公司(Cambridge Analytica)的丑闻表明,公众越来越担心科技行业将拥有如此大的权力。这使得信息技术基础设施的风险越来越高,以及当前国家和国际治理框架不足以维护公众的信任。这种情况比从事裁决生命和死亡的系统更为真实。

  因此,我们要求谷歌及其母公司 Alphabet:

  终止与国防部的 Maven 项目合同。

  承诺不开发军事技术,也不允许其收集的个人数据用于军事行动。

  承诺不参与或支持发展、制造、贸易或使用自主武器;并支持禁止自主武器。

 
来自: 雷锋网
找优秀程序员,就在博客园 收藏 新浪微博 分享至微信
标签: Google

24小时阅读排行

    最新新闻

      相关新闻