人工智能伦理

Article

December 4, 2021

人工智能伦理学是特定于人工智能系统的技术伦理学的一个分支。在机器伦理中,它有时被分为对人类在设计、制造、使用和处理人工智能系统时的道德行为的关注,以及对机器行为的关注。它还包括由于超级智能 AI 可能导致的奇点问题。

伦理领域的方法

机器人伦理

术语“机器人伦理”(有时称为“机器人伦理”)是指人类如何设计、构建、使用和对待机器人的道德。机器人伦理与人工智能伦理相交。机器人是物理机器,而人工智能只能是软件。并非所有机器人都通过 AI 系统运行,也并非所有 AI 系统都是机器人。机器人伦理考虑机器如何被用来伤害或造福人类,它们对个人自主权的影响,以及它们对社会正义的影响。

机器伦理

机器伦理(或机器道德)是一个研究领域,涉及设计人工道德代理(AMA)、机器人或人工智能计算机,其行为符合道德或看似道德。为了解释这些代理的性质,有人建议考虑某些哲学思想,例如与 AMA 概念相关的代理、理性代理、道德代理和人工代理的标准特征。艾萨克·阿西莫夫考虑了这个问题1950 年代在他的《我,机器人》中。在他的编辑 John W. Campbell Jr. 的坚持下,他提出了机器人三定律来管理人工智能系统。然后,他的大部分工作都花在测试他的三个定律的界限上,看看它们会在哪里失效,或者它们会在哪里产生矛盾或意外的行为。他的工作表明,没有一套固定的法律可以充分预测所有可能的情况。最近,学术界和许多政府对人工智能本身可以承担责任的观点提出质疑。英国于 2010 年召集的一个小组修订了阿西莫夫的法律,以澄清人工智能是其制造商或其所有者/运营商的责任。 2009 年,在洛桑联邦理工学院智能系统实验室进行的一项实验中在瑞士,被编程为相互合作(寻找有益资源并避免有毒资源)的机器人最终学会了相互撒谎以试图囤积有益资源。 一些专家和学者质疑使用用于军事战斗的机器人,特别是当这些机器人被赋予一定程度的自主功能时。美国海军资助了一份报告,该报告表明,随着军用机器人变得越来越复杂,应该更加关注其自主决策能力的影响。人工智能促进协会主席已委托一项研究来研究这个问题。他们指出像语言习得设备这样可以模拟人类交互的程序。 Vernor Vinge 认为,某些计算机比人类更聪明的时刻可能会到来。他称之为“奇点”。他认为这对人类来说可能有些危险,或者可能非常危险。一种叫做奇点主义的哲学对此进行了讨论。机器智能研究所提出需要建立“友好的人工智能”,这意味着人工智能已经取得的进步还应该包括努力使人工智能本质上友好和人性化。有关于创建测试以查看人工智能是否能够做出道德决策的讨论。艾伦温菲尔德总结道图灵测试有缺陷,人工智能通过测试的要求太低。提议的替代测试是道德图灵测试,它可以通过让多个法官决定人工智能的决定是道德还是不道德来改进当前的测试。在2009年,学者和技术专家参加了由人工智能促进协会组织的会议,讨论机器人和计算机的潜在影响以及它们能够自给自足并能够做出自己的决定的假设可能性的影响。他们讨论了计算机和机器人能够获得任何程度的自主权的可能性和程度,以及他们可以在多大程度上使用这种能力来构成任何威胁或危害。他们指出,一些机器已经获得了多种形式的半自主性,包括能够自行寻找动力来源,能够自主选择目标进行武器攻击。他们还指出,一些计算机病毒可以逃避淘汰,实现了“蟑螂智能”。他们指出,科幻小说中描述的自我意识可能不太可能,但还有其他潜在的危险和陷阱。然而,特别是有一种技术可以真正将具有道德能力的机器人变为现实。在一篇关于机器人获取道德价值的论文中,Nayef Al-Rodhan 提到了神经形态芯片的案例,该芯片旨在以类似于人类的方式、非线性地处理信息,并使用数百万个相互连接的人工神经元。嵌入神经形态技术的机器人可以以一种独特的类人方式学习和发展知识。不可避免地,这引发了这样一个问题,即此类机器人将在其中了解世界以及它们将继承谁的道德的环境——或者它们是否最终也会发展出人类的“弱点”:自私、支持生存的态度、犹豫等。 在《道德机器:从错误中正确教导机器人》中,温德尔·瓦拉赫 (Wendell Wallach) 和科林·艾伦 (Colin Allen) 得出结论,尝试正确与错误地教导机器人可能会通过激励人类解决现代规范理论中的差距来促进对人类伦理的理解并提供实验研究的平台。作为一个例子,它向规范伦理学家介绍了在机器中使用哪种特定学习算法这一有争议的问题。 Nick Bostrom 和 Eliezer Yudkowsky 认为决策树(例如 ID3)优于神经网络和遗传算法,理由是决策树遵循现代社会规范的透明度和可预测性(例如,凝视决策),而 Chris Santos-Lang 则反其道而行之,理由是必须允许任何年龄的规范发生变化,而完全满足这些特定规范的自然失败对于使人类不易受到犯罪“黑客”的攻击至关重要。牛津大学人工智能治理中心 2019 年的一份报告显示,82% 的美国人认为应该谨慎管理机器人和人工智能。提到的担忧包括人工智能如何用于监视和在线传播虚假内容(包括在人工智能帮助下生成的篡改视频图像和音频,称为深度伪造)到网络攻击、侵犯数据隐私、雇佣偏见、自动驾驶汽车以及不需要人工控制器的无人机。82% 的美国人认为应该谨慎管理机器人和人工智能。提到的担忧包括人工智能如何用于监视和在线传播虚假内容(包括在人工智能帮助下生成的篡改视频图像和音频,称为深度伪造)到网络攻击、侵犯数据隐私、雇佣偏见、自动驾驶汽车以及不需要人工控制器的无人机。82% 的美国人认为应该谨慎管理机器人和人工智能。提到的担忧包括人工智能如何用于监视和在线传播虚假内容(包括在人工智能帮助下生成的篡改视频图像和音频,称为深度伪造)到网络攻击、侵犯数据隐私、雇佣偏见、自动驾驶汽车以及不需要人工控制器的无人机。

人工智能的伦理原则

在审查 AI 的 84 条道德准则时,发现了 11 组原则:透明度、正义和公平、无恶意、责任、隐私、慈善、自由和自主、信任、可持续性、尊严、团结。 Luciano Floridi 和 Josh Cowls 创建人工智能原则的伦理框架由四项生物伦理原则(善意、非恶意、自主和正义)和一个额外的人工智能支持原则——可解释性设定。

透明度、问责制和开源

比尔希巴德认为,由于人工智能将对人类产生如此深远的影响,人工智能开发人员是未来人类的代表,因此有道德义务在他们的努力中保持透明。 Ben Goertzel 和 David Hart 创建了 OpenCog 作为 AI 开发的开源框架。 OpenAI是由埃隆·马斯克、山姆·奥尔特曼等人创立的一家非营利性人工智能研究公司,旨在开发对人类有益的开源人工智能。还有许多其他开源 AI 开发。不幸的是,使代码开源并不能使其易于理解,从许多定义来看,这意味着 AI 代码是不透明的。 IEEE 在 AI 透明度方面进行了标准化工作。 IEEE 的努力为不同的用户确定了多个透明度级别。更远,有人担心,将当代人工智能的全部能力释放给某些组织可能是一种公害,即弊大于利。例如,微软对允许普遍访问其人脸识别软件表示担忧,即使是那些有能力付费的人。 Microsoft 发布了一篇关于此主题的非凡博客,要求政府监管以帮助确定正确的做法。不仅公司,而且许多其他研究人员和公民倡导者都建议将政府监管作为确保透明度的一种手段,并通过它来确保人的责任感。这一策略已被证明是有争议的,因为有些人担心它会减慢创新速度。其他人则认为,监管导致系统稳定性,从长远来看更有能力支持创新。经合组织、联合国、欧盟、2019 年 6 月 26 日,欧盟委员会人工智能高级别专家组(AI HLEG)发布了《可信赖人工智能的政策和投资建议》 ”。这是继 2019 年 4 月发布“可信赖 AI 道德准则”之后 AI HLEG 的第二个可交付成果。六月的 AI HLEG 建议涵盖四个主要主题:人类和整个社会、研究和学术界、私营部门和公共部门。欧盟委员会声称“HLEG 的建议反映了对人工智能技术推动经济增长、繁荣和创新的机会以及所涉及的潜在风险的认识”并表示欧盟旨在领导制定国际人工智能政策。

道德挑战

人工智能系统中的偏见

人工智能在面部和语音识别系统中变得越来越固有。其中一些系统具有真正的业务应用程序并直接影响人们。这些系统容易受到人类创造者引入的偏见和错误的影响。此外,用于训练这些 AI 系统的数据本身可能存在偏差。例如,微软、IBM 和 Face++ 的面部识别算法在检测人的性别时都存在偏见;这些人工智能系统能够比深色皮肤男性更准确地检测白人男性的性别。此外,2020 年的一项研究审查了亚马逊、苹果、谷歌、IBM 和微软的语音识别系统,发现它们在转录黑人声音时的错误率高于白人。此外,亚马逊停止使用人工智能招聘和招聘,因为该算法偏爱男性候选人而不是女性候选人。这是因为亚马逊的系统接受了 10 年收集的数据训练,这些数据主要来自男性候选人。偏见可以通过多种方式渗透到算法中。例如,弗里德曼和尼森鲍姆确定了计算机系统中的三类偏见:现有偏见、技术偏见和紧急偏见。在自然语言处理中,问题可能来自文本语料库——算法用来了解不同单词之间关系的源材料。IBM、谷歌等大公司已经努力研究和解决这些偏见。解决偏见的一种解决方案是为用于训练 AI 系统的数据创建文档。随着技术扩展到医学和法律等关键领域,并且越来越多没有深入技术理解的人负责部署它,机器学习中的偏见问题可能会变得更加严重。一些专家警告说,算法偏差已经在许多行业普遍存在,几乎没有人努力识别或纠正它。民间社会提供了一些开源工具,希望提高人们对有偏见的人工智能的认识。民间社会提供了一些开源工具,希望提高人们对有偏见的人工智能的认识。民间社会提供了一些开源工具,希望提高人们对有偏见的人工智能的认识。

机器人权益

“机器人权利”是指人们应该对他们的机器负有道德义务的概念,类似于人权或动物权利。有人提出,机器人权利(例如生存权和执行自身使命的权利)可以与机器人为人类服务的义务联系起来,类似于将人权与社会面前的人类义务联系起来。这些可能包括生命权和自由权、思想和言论自由权以及法律面前人人平等。未来研究所和英国贸易和工业部已经考虑过这个问题。专家们不同意多久需要就这个问题制定具体和详细的​​法律。 Glenn McGee 报告说,到 2020 年可能会出现足够多的人形机器人,而 Ray Kurzweil 则将日期定在 2029 年。2007 年开会的另一组科学家认为,任何足够先进的系统至少还需要 50 年才能存在。2003 年 Loebner 奖竞赛的规则设想了机器人拥有自己权利的可能性:61。如果在任何给定年份,由萨里大学或剑桥中心输入的公开可用的开源条目获得银奖或金奖,然后奖章和现金奖将颁发给负责开发该条目的机构。如果找不到这样的机构,或者如果两个或多个索赔人之间存在分歧,则奖章和现金奖励将以信托方式持有,直到参赛作品在美国或美国合法拥有比赛场地,现金奖和金牌本身。 2017 年 10 月,机器人索菲亚在沙特阿拉伯获得了“荣誉”公民身份,尽管有些人认为这更像是一种宣传噱头,而不是有意义的法律认可。有些人认为这种姿态是公开贬低人权和法治。有情主义哲学赋予所有有情众生一定程度的道德考虑,主要是人类和大多数非人类动物。如果人工智能或外星智能显示出有感知力的证据,这种哲学认为应该向他们表示同情并授予他们权利。乔安娜·布赖森 (Joanna Bryson) 认为,创造需要权利的人工智能既是可以避免的,又是不道德的,既是人工智能代理的负担,也是人类社会的负担。尽管有些人认为这更像是一种宣传噱头,而不是有意义的法律认可。有些人认为这种姿态是公开贬低人权和法治。有情主义哲学赋予所有有情众生一定程度的道德考虑,主要是人类和大多数非人类动物。如果人工智能或外星智能显示出有感知力的证据,这种哲学认为应该向他们表示同情并授予他们权利。乔安娜·布赖森 (Joanna Bryson) 认为,创造需要权利的人工智能既是可以避免的,又是不道德的,既是人工智能代理的负担,也是人类社会的负担。尽管有些人认为这更像是一种宣传噱头,而不是有意义的法律认可。有些人认为这种姿态是公开贬低人权和法治。有情主义哲学赋予所有有情众生一定程度的道德考虑,主要是人类和大多数非人类动物。如果人工智能或外星智能显示出有感知力的证据,这种哲学认为应该向他们表示同情并授予他们权利。乔安娜·布赖森 (Joanna Bryson) 认为,创造需要权利的人工智能既是可以避免的,又是不道德的,既是人工智能代理的负担,也是人类社会的负担。主要是人类和大多数非人类动物。如果人工智能或外星智能显示出有感知力的证据,这种哲学认为应该向他们表示同情并授予他们权利。乔安娜·布赖森 (Joanna Bryson) 认为,创造需要权利的人工智能既是可以避免的,又是不道德的,既是人工智能代理的负担,也是人类社会的负担。主要是人类和大多数非人类动物。如果人工智能或外星智能显示出有感知力的证据,这种哲学认为应该向他们表示同情并授予他们权利。乔安娜·布赖森 (Joanna Bryson) 认为,创造需要权利的人工智能既是可以避免的,又是不道德的,既是人工智能代理的负担,也是人类社会的负担。

对人类尊严的威胁

Joseph Weizenbaum 在 1976 年提出,AI 技术不应该用于取代需要尊重和关怀的职位的人,例如: 客户服务代表(AI 技术如今已用于基于电话的交互式语音响应系统)老年人(正如帕梅拉·麦考达克在她的《第五代》一书中所报道的那样) 一名士兵 一名法官 一名警察 一名治疗师(正如肯尼思·科尔比在 70 年代提出的那样) 魏森鲍姆解释说,我们需要这些职位的人具有真实的同理心。如果机器取代它们,我们会发现自己被疏远、贬值和沮丧,因为人工智能系统将无法模拟同理心。人工智能,如果以这种方式使用,就会对人类尊严构成威胁。Weizenbaum 认为,我们在这些职位上接受机器的可能性这一事实表明我们已经经历了“由于将自己视为计算机而导致的人类精神萎缩。”Pamela McCorduck 反驳说,代表女性和少数民族“我“我宁愿用一台公正的计算机冒险,”指出在某些情况下,我们更希望拥有完全没有个人议程的自动化法官和警察。然而,Kaplan 和 Haenlein 强调,人工智能系统的智能程度取决于用于训练它们的数据,因为它们本质上只不过是花哨的曲线拟合机器;如果过去的裁决显示出对某些群体的偏见,因为这些偏见已经正式化和根深蒂固,那么使用人工智能来支持法院裁决可能会带来很大的问题,这使得它们更难被发现和对抗。 Weizenbaum 还对 AI 研究人员(和一些哲学家)愿意将人类思维视为计算机程序(现在称为计算主义的立场)感到困扰。对魏泽鲍姆来说,这些观点表明人工智能研究贬低了人类的生命。人工智能创始人约翰麦卡锡反对魏泽鲍姆批评的道德基调。 “当道德化既激烈又含糊不清时,就会招致专制的虐待,”他写道。比尔·希巴德 (Bill Hibbard) 写道:“人类尊严要求我们努力消除对存在本质的无知,而人工智能则是实现这一目标所必需的。”Weizenbaum 也对 AI 研究人员(和一些哲学家)愿意将人类思维视为计算机程序(现在称为计算主义的立场)感到困扰。对魏泽鲍姆来说,这些观点表明人工智能研究贬低了人类的生命。人工智能创始人约翰麦卡锡反对魏泽鲍姆批评的道德基调。 “当道德化既激烈又含糊不清时,就会招致专制的虐待,”他写道。比尔·希巴德 (Bill Hibbard) 写道:“人类尊严要求我们努力消除对存在本质的无知,而人工智能则是实现这一目标所必需的。”Weizenbaum 也对 AI 研究人员(和一些哲学家)愿意将人类思维视为计算机程序(现在称为计算主义的立场)感到困扰。对魏泽鲍姆来说,这些观点表明人工智能研究贬低了人类的生命。人工智能创始人约翰麦卡锡反对魏泽鲍姆批评的道德基调。 “当道德化既激烈又含糊不清时,就会招致专制的虐待,”他写道。比尔·希巴德 (Bill Hibbard) 写道:“人类尊严要求我们努力消除对存在本质的无知,而人工智能则是实现这一目标所必需的。”当道德化既激烈又含糊时,就会招致专制的虐待,”他写道。比尔·希巴德写道,“人类尊严要求我们努力消除我们对存在本质的无知,而人工智能对于这种努力是必要的。”当道德化既激烈又含糊时,就会招致专制的虐待,”他写道。比尔·希巴德写道,“人类尊严要求我们努力消除我们对存在本质的无知,而人工智能对于这种努力是必要的。”

自动驾驶汽车的责任

随着自动驾驶汽车的广泛使用变得越来越迫在眉睫,必须解决完全自动驾驶汽车带来的新挑战。近来,对于这些车辆发生事故责任方的法律责任存在争议。在一份无人驾驶汽车撞到行人的报告中,司机在车内,但控制权完全掌握在计算机手中。这导致了事故责任方的两难境地。 在 2018 年 3 月 19 日的另一起事故中,一名 Elaine Herzberg 在亚利桑那州被一辆自动驾驶的 Uber 撞死。在这种情况下,自动驾驶汽车能够检测汽车和某些障碍物以自动在道路上行驶,但它无法预测道路中间的行人。这就提出了一个问题,即司机、行人、汽车公司、否则政府应该为她的死负责。 目前,自动驾驶汽车被认为是半自动的,需要司机注意并准备在必要时控制。因此,政府有责任对过度依赖自主功能的司机进行监管。还要教育他们这些技术虽然方便,但并不是完全替代品。在自动驾驶汽车被广泛使用之前,这些问题需要通过新的政策来解决。虽然方便,但不能完全替代。在自动驾驶汽车被广泛使用之前,这些问题需要通过新的政策来解决。虽然方便,但不能完全替代。在自动驾驶汽车被广泛使用之前,这些问题需要通过新的政策来解决。

人工智能武器化

一些专家和学者质疑将机器人用于军事作战,尤其是当此类机器人被赋予一定程度的自主权时。 2019 年 10 月 31 日,美国国防部国防创新委员会发布了一份报告草案,建议国防部道德使用人工智能的原则,以确保人类操作员始终能够调查“黑匣子”并了解杀伤链过程。然而,一个主要问题是报告将如何实施。美国海军资助了一份报告,该报告表明,随着军用机器人变得越来越复杂,应该更加关注其自主决策能力的影响。一些研究人员表示,自主机器人可能更人性化,因为他们可以更有效地做出决定。在过去的十年中,人们对自主权力进行了深入研究,该研究具有使用指定的道德责任进行学习的能力。 “这些结果可用于设计未来的军用机器人,以控制将责任分配给机器人的不良倾向。”从后果论者的角度来看,机器人有可能发展出自己的逻辑决定杀死谁的能力,这就是为什么应该有一套人工智能无法超越的道德框架。最近有一次强烈抗议人工智能武器的工程,其中包括机器人接管人类的想法。人工智能武器确实存在一种不同于人类控制武器的危险。许多政府已经开始资助开发人工智能武器的计划。美国海军最近宣布了开发自主无人机武器的计划,与俄罗斯和韩国分别发布的类似公告相呼应。由于人工智能武器可能变得比人类操作的武器更危险,斯蒂芬霍金和马克斯泰格马克签署了一份“生命的未来”请愿书,以禁止人工智能武器。霍金和特格马克发布的消息指出,人工智能武器构成了直接危险,需要采取行动避免在不久的将来发生灾难性灾难。”如果任何军事大国推进人工智能武器的发展,全球军备竞赛几乎是不可避免的,而且这种技术轨迹的终点是显而易见的:自主武器将成为明天的卡拉什尼科夫”,请愿书说,其中包括 Skype 联合创始人 Jaan Tallinn 和麻省理工学院语言学教授 Noam Chomsky 作为反对人工智能武器的额外支持者。物理学家和天文学家皇家马丁里斯爵士警告过灾难性的情况,例如“愚蠢的机器人会流氓或发展出自己的思想的网络.”剑桥大学里斯的同事休·普莱斯也发出了类似的警告,即当智能“摆脱生物学的限制”时,人类可能无法生存。这两位教授在剑桥大学创建了存在风险研究中心,希望避免这种对人类生存的威胁。关于将比人类更聪明的系统用于军事的可能性,开放慈善项目写道,这些场景“似乎与失去控制相关的风险一样重要”,但调查人工智能长期社会影响的研究在这个问题上花费的时间相对较少:“这类场景并不是在这个领域最活跃的组织的主要关注点,例如机器智能研究所 (MIRI) ) 和人类未来研究所 (FHI),关于它们的分析和辩论似乎较少”。

不透明的算法

像使用神经网络的机器学习这样的方法可能会导致计算机做出他们和编程人员无法解释的决定。人们很难确定此类决定是否公平和值得信赖,这可能导致人工智能系统中的偏见未被发现,或者人们拒绝使用此类系统。这导致了对可解释人工智能的倡导和某些司法管辖区的法律要求。

奇点

许多研究人员认为,通过“智能爆炸”,自我改进的人工智能可能变得如此强大,以至于人类无法阻止它实现目标。哲学家尼克博斯特罗姆在他的论文“高级人工智能中的伦理问题”和随后的书“超级智能:路径、危险、策略”中认为人工智能有能力导致人类灭绝。他声称通用超级智能将能够独立主动并制定自己的计划,因此可以更恰当地将其视为自主代理。由于人工智能不需要分享我们人类的动机倾向,因此超级智能的设计者可以指定其原始动机。由于超级智能 AI 能够带来几乎所有可能的结果并阻止任何阻止其目标实现的企图,因此可能会出现许多无法控制的意外后果。它可以杀死所有其他特工,说服他们改变自己的行为,或者阻止他们的干涉企图。然而,博斯特罗姆还声称超级智能可以帮助我们解决许多难题,而不是压倒人类并导致我们的毁灭。就像疾病、贫困和环境破坏一样,可以帮助我们“增强”自己。人类价值体系的绝对复杂性使得人工智能的动机变得人性化变得非常困难。除非道德哲学为我们提供完美的伦理理论,否则人工智能”s 效用函数可以允许许多符合给定道德框架但不符合“常识”的潜在有害场景。根据 Eliezer Yudkowsky 的说法,没有理由假设人工设计的大脑会有这样的适应性。 Stuart J. Russell、Bill Hibbard、Roman Yampolskiy、Shannon Vallor、Steven Umbrello 和 Luciano Floridi 等人工智能研究人员提出了开发有益机器的设计策略。Steven Umbrello 和 Luciano Floridi 提出了开发有益机器的设计策略。Steven Umbrello 和 Luciano Floridi 提出了开发有益机器的设计策略。

人工智能伦理中的参与者

有许多组织关注人工智能伦理和政策、公共和政府以及企业和社会。亚马逊、谷歌、Facebook、IBM 和微软成立了一个非营利组织 The Partnership on AI to Benefit People and Society,制定人工智能技术的最佳实践,促进公众的理解,并作为人工智能的平台. Apple 于 2017 年 1 月加入。企业成员将为该组织提供财政和研究贡献,同时与科学界合作,将学者纳入董事会。IEEE 制定了一项关于自主和智能系统伦理的全球倡议,该倡议一直在创建并在公众意见的帮助下修订指南,并接受来自组织内外的许多专业人士作为成员。传统上,社会使用政府来确保通过立法和警务遵守道德规范。现在,各国政府以及跨国政府和非政府组织做出了许多努力,以确保在道德上应用人工智能。政府间倡议:欧盟委员会有一个人工智能高级专家组。 2019 年 4 月 8 日,该公司发布了“值得信赖的人工智能的道德准则”。欧盟委员会还设有机器人和人工智能创新与卓越部门,该部门于 2020 年 2 月 19 日发布了关于人工智能创新卓越和信任的白皮书。 经合组织成立了经合组织人工智能政策观察站。政府举措:在美国,奥巴马政府制定了人工智能政策路线图。奥巴马政府发布了两份关于人工智能的未来和影响的重要白皮书。 2019 年,白宫通过一份名为“美国人工智能倡议”的执行备忘录,指示 NIST(美国国家标准与技术研究所)开始制定联邦人工智能标准的工作(2019 年 2 月)。 2020 年 1 月,在美国,特朗普政府发布了管理和预算办公室 (OMB) 发布的关于“人工智能应用监管指南”(“OMB AI 备忘录”) 的行政命令草案。该命令强调了需要投资于人工智能应用,提高公众对人工智能的信任,减少人工智能使用的障碍,并保持美国人工智能技术在全球市场上的竞争力。对隐私问题的需求表示赞同,但没有关于执行的进一步细节。美国人工智能技术的进步似乎是重点和优先事项。此外,甚至鼓励联邦实体使用该命令来规避市场可能认为难以履行的任何州法律和法规。计算社区联盟 (CCC) 发表了一份 100 多页的报告草稿——美国人工智能研究 20 年社区路线图 安全和新兴技术中心就新兴技术的安全影响向美国政策制定者提供建议,例如人工智能。非人类党正在新南威尔士州竞选,其政策围绕授予机器人、动物以及一般情况下的权利,智力被忽视的非人类实体。学术倡议:牛津大学的三个研究机构主要关注人工智能伦理。人类未来研究所,专注于人工智能安全和人工智能治理。人工智能伦理研究所由约翰·塔西乌拉斯 (John Tasioulas) 领导,其主要目标之一是促进人工智能伦理与相关应用伦理领域相比成为一个适当的领域。由 Luciano Floridi 领导的牛津互联网研究所专注于近期人工智能技术和信息通信技术的伦理。纽约大学的 AI Now 研究所是一家研究人工智能社会影响的研究所。其跨学科研究侧重于主题偏见和包容、劳动和自动化、权利和自由以及安全和民用基础设施。道德与新兴技术研究所 (IEET) 研究人工智能对失业和政策的影响。由 Christoph Lütge 领导的慕尼黑工业大学人工智能伦理研究所 (IEAI) 进行跨多个领域的研究,例如流动性、就业、医疗保健和可持续性。

小说在人工智能伦理中的作用和影响

虚构在人工智能伦理方面的作用是一个复杂的角色。人们可以区分小说在三个层面上影响人工智能和机器人技术的发展:从历史上看,小说一直在预示着共同的比喻,这些比喻不仅影响了人工智能的目标和愿景,而且还概述了与之相关的伦理问题和常见恐惧。在 20 世纪下半叶和 21 世纪的前几十年,流行文化,尤其是电影、电视剧和电子游戏,经常与围绕人工智能和机器人技术的伦理问题的成见和反乌托邦预测相呼应。最近,这些主题也越来越多地在科幻小说领域之外的文学作品中得到处理。而且,作为卡梅托拉斯,加泰罗尼亚技术大学机器人与工业计算研究所(Institut de Robòtica i Informàtica Industrial)的研究教授指出,在高等教育中,科幻小说也越来越多地用于教授技术学位中与技术相关的伦理问题。历史 从历史上看,对“思维机器”的道德和伦理影响的研究至少可以追溯到启蒙运动:莱布尼茨已经提出了一个问题,我们是否可以将智能归因于一种表现得好像它是有情众生的机制,那么笛卡尔,他描述了可以被认为是图灵测试的早期版本。浪漫时期曾多次设想人造生物逃脱其创造者的控制并带来可怕的后果,最著名的是玛丽雪莱的弗兰肯斯坦。然而,19 世纪和 20 世纪初期对工业化和机械化的广泛关注,将精神错乱的技术发展的伦理含义带到了小说的前沿:RUR——罗森的万能机器人,卡雷尔·恰佩克 (Karel Čapek) 扮演的被赋予情感用作奴隶劳动的有知觉的机器人是不仅因为“机器人”一词的发明(源自捷克语中的强迫劳动,robota)而受到赞誉,而且在 1921 年首演后在国际上取得了成功。 萧伯纳的戏剧 Back to Metuselah 于 1921 年出版,问题在一点是像人类一样的思维机器的有效性;弗里茨·朗 (Fritz Lang) 1927 年的电影《大都会》展示了一个机器人领导被剥削群众反抗技术官僚社会的压迫政权。小说对技术发展的影响 虽然对由潜在不屈不挠的技术主导的未来的预期长期以来激发了作家和电影制作人的想象力,但有一个问题很少被分析,即小说在多大程度上发挥了作用为科技发展提供灵感。例如,据记载,年轻的阿兰·图灵在 1933 年(就在他的第一篇开创性论文发表的 3 年前,为数字计算机奠定了基础)看到并欣赏了 GB Shaw 的戏剧 Back to Metuselah,并且他很可能会至少知道像 RUR 这样的戏剧,它在国际上取得成功并被翻译成多种语言。人们还可能会问,科幻小说在确立人工智能发展的原则和伦理意义方面发挥了什么作用:艾萨克·阿西莫夫 (Isaac Asimov) 在 1942 年的短篇小说“Runaround”中概念化了他的机器人三定律,这是短篇小说集 I, Robot 的一部分; Arthur C. Clarke 的短片“The sentinel”,斯坦利库布里克的电影 2001:A Space Odyssey 的基础,写于 1948 年并于 1952 年出版。另一个例子(包括许多其他的)是 Philip K. Dicks 的无数短篇小说和小说– 尤其是 1968 年出版的《Do Androids Dream of Electric Sheep?》,其中包含自己的图灵测试版本 Voight-Kampff 测试,以衡量与人类无法区分的机器人的情绪反应。这部小说后来成为雷德利·斯科特 (Ridley Scott) 1982 年有影响力的电影《银翼杀手》的基础。几十年来,科幻小说一直在努力解决人工智能发展的伦理问题,因此为一旦实现了类似于一般人工智能的东西可能会出现的伦理问题提供了蓝图:斯派克琼斯 2013 年的电影她展示了如果用户跌倒会发生什么爱上了他的智能手机操作系统的诱人声音;另一方面,Ex Machina 提出了一个更困难的问题:如果面对一个清晰可辨的机器,只有一张脸和一个富有同情心和感性的声音,我们是否仍然能够建立情感联系,仍然被诱惑?它 ? (这部电影呼应了两个世纪前已经出现的主题,在 1817 年 ETA 霍夫曼的短篇小说“桑德曼”中。) 与人造有情共存的主题也是最近两部小说的主题:伊恩·麦克尤恩 (Ian McEwan) 于 2019 年出版的《像我一样的机器》(Machines like me) 涉及(除其他外)一个涉及人造人和一对人类夫妇的三角恋.诺贝尔奖获得者石黑一雄的《克拉拉与太阳》于 2021 年出版,是克拉拉的第一人称叙述,克拉拉是一个“AF”(人工朋友),她正试图以自己的方式帮助与她同住的女孩,在被“解除”(即经过基因增强)后,患上了一种奇怪的疾病。电视剧 虽然与人工智能相关的伦理问题几十年来一直在科幻文学和故事片中出现,电视剧作为一种类型的出现,允许更长、更复杂的故事情节和角色发展,这导致了一些处理技术伦理影响的重大贡献。瑞典系列 Real Humans (2012–2013) 解决了与人工有情众生融入社会相关的复杂伦理和社会后果。英国反乌托邦科幻小说选集系列《黑镜》(2013-2019 年)因尝试与各种令人反感的技术发展相关的反乌托邦小说发展而特别引人注目。法国系列 Osmosis (2020) 和英国系列 The One 都解决了如果技术试图为一个人找到理想伴侣会发生什么的问题。小说和游戏中的未来愿景电影《十三楼》暗示了一个未来,在这个未来,电脑游戏机以娱乐为目的,创造了一个有知觉的居民的模拟世界。电影《黑客帝国》暗示了一个未来,地球上的主导物种是有知觉的机器,人类受到最大的物种歧视。短篇小说“普朗克潜水”暗示了一个未来,人类将自己变成了可以复制和优化的软件,软件类型之间的相关区别是有感知的和无感知的。同样的想法可以在星舰航海者的紧急医疗全息图中找到,它显然是其创造者齐默曼博士意识的一个简化子集的一个有知觉的副本,为了最好的动机,建立了在紧急情况下提供医疗援助的系统。电影 Bicentennial Man 和 AI 处理了可以爱的有知觉的机器人的可能性。我,机器人探索了阿西莫夫三定律的某些方面。所有这些场景都试图预见创造有感知力的计算机可能带来的不道德后果。人工智能的伦理是 BioWare 质量效应系列游戏的几个核心主题之一。它探索了一个文明通过全球规模的神经网络快速增加计算能力而意外创造人工智能的场景。这一事件在那些认为将有机权利授予新知的 Geth 是合适的人和那些继续将其视为一次性机器并为摧毁它们而奋斗的人之间造成了道德分裂。除了最初的冲突,机器与其创造者之间关系的复杂性是贯穿整个故事的另一个持续主题。随着时间的推移,正如雨果·德·加里斯 (Hugo de Garis) 和凯文·沃里克 (Kevin Warwick) 发起的“宇宙主义”和“人族”辩论所强调的那样,辩论越来越少地关注可能性,而更多地关注可取性。根据雨果·德·加里斯(Hugo de Garis)的说法,宇宙主义者实际上正在寻求为人类建立更聪明的继任者。剑桥大学的专家认为,人工智能在小说和非小说中绝大多数被描绘成种族白人,这种方式扭曲了对其风险和收益的看法。正如雨果·德·加里斯 (Hugo de Garis) 和凯文·沃里克 (Kevin Warwick) 发起的“宇宙主义”和“人类”辩论中所强调的那样。根据雨果·德·加里斯(Hugo de Garis)的说法,宇宙主义者实际上正在寻求为人类建立更聪明的继任者。剑桥大学的专家认为,人工智能在小说和非小说中绝大多数被描绘成种族白人,这种方式扭曲了对其风险和收益的看法。正如雨果·德·加里斯 (Hugo de Garis) 和凯文·沃里克 (Kevin Warwick) 发起的“宇宙主义”和“人类”辩论中所强调的那样。根据雨果·德·加里斯(Hugo de Garis)的说法,宇宙主义者实际上正在寻求为人类建立更聪明的继任者。剑桥大学的专家认为,人工智能在小说和非小说中绝大多数被描绘成种族白人,这种方式扭曲了对其风险和收益的看法。

也可以看看

笔记

外部链接

互联网哲学哲学百科全书中的人工智能伦理学斯坦福哲学百科全书的人工智能和机器人伦理学 Russell, S.;豪尔特,S.;奥特曼,R。Veloso, M.(2015 年 5 月)。“机器人:人工智能伦理”。自然。521 (7553):415–418。Bibcode:2015Natur.521..415.. doi:10.1038/521415a。PMID 26017428. S2CID 4452826. BBC 新闻:让游戏过上自己的生活 谁害怕机器人?,一篇关于人类对人工智能的恐惧的文章。计算机伦理简史 AI Ethics Guidelines Global Inventory 由 Algorithmwatch Hagendorff, Thilo(2020 年 3 月)。“人工智能伦理道德:指南评估”。思想和机器。30 (1): 99–120。doi:10.1007/s11023-020-09517-8。S2CID 72940833。