投递人 itwriter 发布于 2019-03-07 09:28 原文链接 [收藏] « »

  【网易智能讯 3 月 7 日消息】《大西洋月刊》撰文指出,人工智能正在直接或间接地影响诸如爱情、友谊、合作以及教学等人类基本社会能力。

  当人工智能更全面地渗入人类生活时,我们可能还需要一种新的社会契约,一种与机器而不是与他人相处的契约。

  几十年来关于机器人如何改变我们生活,一直是科幻小说的惯常话题。20 世纪 40 年代,当人类和人工智能之间的广泛互动还遥不可及之时,科幻小说作家艾萨克·阿西莫夫(Isaac Asimov)为了防止机器人伤害人类,就提出了著名的机器人三定律。由于清楚机器人可以通过直接互动影响人类,机器人三定律的第一点就是机器人不能伤害人类,也不能在人类受到伤害时袖手旁观。想想经典科幻小说中的那些描述:比如在《星球大战》中,C-3PO 和 R2-D2 与叛军联盟合作挫败帝国;或者《2001 太空漫游》中的 HAL 9000 和《机械姬》中的艾娃密谋杀害表面上的主人。

  但是这些想象并没有集中在人工智能更广泛也更重要的潜在社会影响上:人工智能可以影响我们人类之间的互动方式。

  当然,激进的创新此前已经一再改变了人类共同生活的方式。大约在 5000 到 10000 年前,城市的出现意味着游牧生活的减少和人口密度的增加。无论是人类个体还是集体,都对这种新的生活方式进行了适应。比如说我们可能已经进化出对可能由这些密集新环境造成感染的抵抗力。最近,包括印刷、电话和互联网在内的技术发明彻底改变了我们存储和交流信息的方式。

  然而,尽管这些创新具有重大影响,但它们并没有改变人类社交属性的基本行为:这是我们经过数十万年进化而来的基本社会能力,其中包括爱情、友谊、合作和教学。在世界各地,这些人类行为的基本因素在世界各地保持着惊人的一致性,无论是在城市或者农村,无论人类社会中是否使用现代技术均是如此。

  但在人类社会中间加上人工智能可能更具破坏性。特别是当机器被设计成和我们一样,并深深地渗入我们的生活时,它们可能会改变我们的爱情方式、交友方式或者人性。这一切不仅仅发生在我们与机器的直接互动中,而且发生在我们与他人的互动中。

  耶鲁大学实验室里做的一些实验就是如此。在其中一个实验中,研究人员引导一小群人与人形机器人一起在虚拟世界中铺设铁轨。每个实验组由三个人和一个蓝白相间的小机器人组成,他们围坐在一张方桌旁,通过平板电脑完成任务。这个机器人被设定为偶尔会犯错误,并且会承认错误:“对不起,伙计们,这一轮我犯了错误。”“我知道这可能难以置信,但机器人也会犯错。”

  结果证明,这个会作忏悔的笨拙机器人通过改善人类之间的沟通交流,帮助这些小组表现得更好。他们变得更放松,更健谈,安慰那些容易犯错的小组成员。与机器人只做平淡陈述的对照相比,有忏悔机器人的实验组成员之间合作得更好。

  在另一项虚拟实验中,研究人员将 4000 名受试者分成 20 人左右的小组,并在小组内为每个人分配“朋友”;彼此之间的朋友关系形成了一个社交网络。然后,这些小组被分配了一项任务:每个人必须从三种颜色中选择一种,但是每个人所选择的颜色不能与被分配朋友所选色相同。在受试者不知情的情况下,研究人员为一些小组分配了一些被设定为偶尔会出错的机器人。实验显示,与这些机器人直接相关的人变得更加灵活,并且会避免陷入一个只适用于特定个人,但不适用于整个团队的解决方案。更重要的是,由此产生的灵活性会在整个小组中传播开来,甚至会影响到没有直接与机器进行交互的人。因此,分配有容易出错的智能程序的实验组始终优于那些没有出错智能程序的实验组,在表明,机器人有助于人类相互帮助。

  这两项研究都表明,在所谓的“混合系统”中,也就是人与机器进行社交互动的系统中,合适的人工智能可以改善人与人之间的关系。其他研究结果也证实了这一点。例如人们在网上对他人发出谩骂,后政治学家凯文·芒格(Kevin Munger)指示特定种类的机器人进行干预。他指出,在某些情况下,机器人只是提醒谩骂者他们的目标是一个感情可能会受到伤害的人时,就能使谩骂者在一个多月的时间内不再攻击他人。

  但是在我们的社会环境中加入人工智能也会使我们的行为不再那么有效率和道德。在另一个实验中,研究人员给了几千名受试者钱