人工智能

Article

November 27, 2021

人工智能 (AI) 是机器展示的智能,而不是包括人类在内的动物展示的自然智能。领先的人工智能教科书将该领域定义为“智能代理”的研究:任何感知其环境并采取行动以最大限度地实现其目标的系统。一些流行的说法使用术语“人工智能”来描述模仿人类与人类思维相关的“认知”功能的机器,例如“学习”和“解决问题”,但是这个定义被主要的人工智能研究人员拒绝。人工智能应用包括高级网络搜索引擎(即谷歌)、推荐系统(由 YouTube、亚马逊和 Netflix 使用)、理解人类语音(如 Siri 或 Alexa),自动驾驶汽车(例如特斯拉)、自动决策和战略游戏系统(例如国际象棋和围棋)的最高级别竞争。随着机器的能力越来越强,被认为需要“智能”的任务通常从人工智能的定义中删除,这种现象被称为人工智能效应。例如,光学字符识别经常被排除在被认为是 AI 的事物之外,成为一项常规技术。 人工智能作为一门学科成立于 1956 年,此后几年经历了几波乐观浪潮,随后是失望和资金损失(被称为“人工智能冬天”),随之而来的是新的方法、成功和新的资金。自成立以来,人工智能研究已经尝试并放弃了许多不同的方法,包括模拟大脑、模拟人类问题解决、形式逻辑、大型知识数据库和模仿动物行为。在 21 世纪的最初几十年,高度数学统计机器学习占据了该领域的主导地位,并且该技术被证明非常成功,帮助解决了整个工业界和学术界的许多具有挑战性的问题。 AI 研究的各个子领域都围绕着特定的领域目标和特定工具的使用。人工智能研究的传统目标包括推理、知识表示、规划、学习、自然语言处理、感知以及移动和操纵物体的能力。通用智能(解决任意问题的能力)是该领域的长期目标之一。为了解决这些问题,人工智能研究人员已经适应并整合了广泛的问题解决技术——包括搜索和数学优化、形式逻辑、人工神经网络以及基于统计、概率和经济学的方法。人工智能还借鉴了计算机科学、心理学、语言学、哲学和许多其他领域。该领域建立在假设人类智能“可以如此精确地描述以至于可以制造机器来模拟它”的假设上。这引发了关于创造具有类人智能的人造生物的思想和伦理的哲学争论。自古以来,神话、小说和哲学一直在探索这些问题。科幻小说和未来学也表明,凭借其巨大的潜力和力量,人工智能可能成为人类生存的风险。以及基于统计、概率和经济学的方法。人工智能还借鉴了计算机科学、心理学、语言学、哲学和许多其他领域。该领域建立在假设人类智能“可以如此精确地描述以至于可以制造机器来模拟它”的假设上。这引发了关于创造具有类人智能的人造生物的思想和伦理的哲学争论。自古以来,神话、小说和哲学一直在探索这些问题。科幻小说和未来学也表明,凭借其巨大的潜力和力量,人工智能可能成为人类生存的风险。以及基于统计、概率和经济学的方法。人工智能还借鉴了计算机科学、心理学、语言学、哲学和许多其他领域。该领域建立在假设人类智能“可以如此精确地描述以至于可以制造机器来模拟它”的假设上。这引发了关于创造具有类人智能的人造生物的思想和伦理的哲学争论。自古以来,神话、小说和哲学一直在探索这些问题。科幻小说和未来学也表明,凭借其巨大的潜力和力量,人工智能可能成为人类生存的风险。该领域建立在假设人类智能“可以如此精确地描述以至于可以制造机器来模拟它”的假设上。这引发了关于创造具有类人智能的人造生物的思想和伦理的哲学争论。自古以来,神话、小说和哲学一直在探索这些问题。科幻小说和未来学也表明,凭借其巨大的潜力和力量,人工智能可能成为人类生存的风险。该领域建立在假设人类智能“可以如此精确地描述以至于可以制造机器来模拟它”的假设上。这引发了关于创造具有类人智能的人造生物的思想和伦理的哲学争论。自古以来,神话、小说和哲学一直在探索这些问题。科幻小说和未来学也表明,凭借其巨大的潜力和力量,人工智能可能成为人类生存的风险。科幻小说和未来学也表明,凭借其巨大的潜力和力量,人工智能可能成为人类生存的风险。科幻小说和未来学也表明,凭借其巨大的潜力和力量,人工智能可能成为人类生存的风险。

历史

具有智能的人造生物在古代作为讲故事的工具出现,并且在小说中很常见,如玛丽雪莱的弗兰肯斯坦或卡雷尔 Čapek 的 RUR 这些人物及其命运提出了许多现在在人工智能伦理中讨论的相同问题。机械或“形式”推理始于古代的哲学家和数学家。对数理逻辑的研究直接导致了阿兰图灵的计算理论,该理论表明一台机器可以通过打乱像“0”和“1”这样简单的符号来模拟任何可以想象的数学演绎行为。这种数字计算机可以模拟任何形式推理过程的见解被称为丘奇-图灵论题。丘奇-图灵论题,随着神经生物学、信息论和控制论的同时发现,研究人员开始考虑构建电子大脑的可能性。现在普遍认为人工智能的第一个工作是 McCullouch 和 Pitts 1943 年对图灵完备的“人工神经元”的正式设计。 当 1950 年代中期数字计算机成为可能时,人工智能研究开始探索人类智能的可能性可以简化为逐步的符号操作,称为符号 AI 或 GOFAI。基于控制论或人工神经网络的方法被放弃或推到了后台。人工智能研究领域诞生于 1956 年达特茅斯学院的一个研讨会,与会者成为人工智能研究的创始人和领导者。他们和他们的学生制作了被媒体称为“惊人”的程序:计算机正在学习跳棋策略、解决代数中的单词问题、证明逻辑定理和说英语。到 1960 年代中期,美国的研究得到了国防部的大力资助,世界各地的实验室已经建立。 1960 年代和 1970 年代的研究人员确信,符号方法最终会成功地创造出具有人工将军功能的机器。智能并认为这是他们领域的目标。赫伯特西蒙预测,“机器将能够在二十年内完成一个人可以做的任何工作”。马文明斯基同意,写道,“在一代人之内......创造‘人工智能’将得到实质性解决”。他们没有认识到一些剩余任务的难度。进展放缓,1974 年,为了回应 James Lighthill 爵士的批评以及美国国会持续施压以资助更高效的项目,美国和英国政府都切断了人工智能的探索性研究。接下来的几年被称为“人工智能寒冬”,人工智能项目获得资金困难的时期。在 1980 年代初期,人工智能研究因专家系统的商业成功而复兴,专家系统是一种模拟人类专家知识和分析技能的人工智能程序形式。到 1985 年,人工智能市场已超过 10 亿美元。与此同时,日本的第五代计算机项目激发了美国和英国政府恢复对学术研究的资助。然而,从 1987 年 Lisp 机器市场的崩溃开始,AI 再次声名狼藉,第二个持续时间更长的冬天开始了。 许多研究人员开始怀疑符号方法是否能够模仿人类认知的所有过程,尤其是感知、机器人、学习和模式识别。许多研究人员开始研究针对特定 AI 问题的“亚符号”方法。 Rodney Brooks 等机器人研究人员拒绝了符号 AI,而是专注于让机器人能够移动、生存和学习环境的基本工程问题。 80 年代中期,Geoffrey Hinton、David Rumelhart 等人重新开始了对神经网络和“联结主义”的兴趣。 80 年代开发了软计算工具,如神经网络、模糊系统、灰色系统理论、进化计算和许多来自统计或数学优化的工具。人工智能在 1990 年代末和 21 世纪初通过寻找特定问题的特定解决方案逐渐恢复了其声誉。狭窄的焦点使研究人员能够产生可验证的结果,利用更多的数学方法,并与其他领域(如统计学、经济学和数学)合作。到 2000 年,人工智能研究人员开发的解决方案被广泛使用,尽管在 1990 年代它们很少被描述为“人工智能”。更快的计算机、算法改进和对大量数据的访问使机器学习和感知取得了进步;数据饥渴的深度学习方法在 2012 年左右开始主导准确性基准。 据彭博社的杰克克拉克称,2015 年是人工智能具有里程碑意义的一年,谷歌内部使用人工智能的软件项目数量从 2012 年的“零星使用”增加到 2700 多个项目。他将此归因于负担得起的神经网络的增加,这是由于云计算基础设施的增加以及研究工具和数据集的增加。在 2017 年的一项调查中,五分之一的公司表示他们“在某些产品或流程中加入了人工智能”。在 2015-2019 年间,人工智能的研究量(以总出版物衡量)增加了 50%。许多学术研究人员开始担心人工智能不再追求创造多功能、全智能机器的最初目标。目前的大部分研究都涉及统计人工智能,它被绝大多数用于解决特定问题,即使是非常成功的技术,如深度学习。这种担忧导致了子领域人工智能(或“AGI”)的出现,到 2010 年代,该子领域拥有几家资金充足的机构。

目标

模拟(或创建)智能的一般问题已分解为子问题。这些包括研究人员期望智能系统显示的特定特征或能力。下面描述的特征受到了最多的关注。

推理、解决问题

早期的研究人员开发了模仿人类在解决难题或进行逻辑推理时使用的逐步推理的算法。到 1980 年代末和 1990 年代,人工智能研究已经开发出处理不确定或不完整信息的方法,采用概率和经济学的概念。 许多这些算法被证明不足以解决大型推理问题,因为它们经历了“组合爆炸”:它们随着问题变得越来越大,速度变得呈指数级增长。甚至人类也很少使用早期人工智能研究可以建模的逐步推论。他们使用快速、直观的判断来解决大部分问题。

知识表示

知识表示和知识工程使人工智能程序能够智能地回答问题并推断现实世界的事实。 “存在的东西”的表示是一个本体:正式描述的对象、关系、概念和属性的集合,以便软件代理可以解释它们。最通用的本体称为上层本体,它试图为所有其他知识提供基础,并充当涵盖特定知识领域(感兴趣的领域或关注的领域)的特定知识的领域本体之间的中介。一个真正智能的程序还需要获得常识性知识;普通人知道的一组事实。本体的语义通常用描述逻辑表示,例如 Web 本体语言。人工智能研究已经开发出表示特定领域的工具,例如:对象、属性、类别和对象之间的关系;情况、事件、状态和时间;原因和结果;关于知识的知识(我们所知道的其他人所知道的);默认推理(人类假设的事情是真实的,直到他们被以不同的方式讲述并且即使在其他事实发生变化时也将保持真实);以及其他域。 AI 中最困难的问题包括:常识知识的广度(普通人知道的原子事实的数量是巨大的);以及大多数常识知识的子符号形式(人们所知道的大部分内容并未表示为他们可以口头表达的“事实”或“陈述”)。正式知识表示用于基于内容的索引和检索,场景解释、临床决策支持、知识发现(从大型数据库中挖掘“有趣”和可操作的推论)等领域。

规划

一个可以计划的智能代理代表世界的状态,预测他们的行为将如何改变世界,并做出最大化可用选择的效用(或“价值”)的选择。在经典的规划问题中,代理可以假设它是世界上唯一起作用的系统,允许代理确定其行为的后果。但是,如果agent不是唯一的actor,则需要agent在不确定的情况下推理,不断重新评估环境并适应。多agent规划利用多个agent的合作和竞争来实现给定的目标。进化算法和群体智能会使用诸如此类的紧急行为。

学习

机器学习 (ML) 是人工智能研究领域自成立以来的一个基本概念,是对通过经验自动改进的计算机算法的研究。无监督学习在输入流中发现模式。监督学习首先需要人工标记输入数据,主要有两种类型:分类和数值回归。分类用于确定某物属于哪个类别——程序会从多个类别中查看一些事物的示例,并将学习对新输入进行分类。回归是试图产生一个函数来描述输入和输出之间的关系,并预测输出应该如何随着输入的变化而变化。分类器和回归学习器都可以被视为“函数逼近器”试图学习一个未知的(可能是隐式的)函数;例如,垃圾邮件分类器可以被视为学习一个函数,该函数从电子邮件的文本映射到两个类别之一,“垃圾邮件”或“非垃圾邮件”。在强化学习中,智能体因反应良好而受到奖励,因反应不良而受到惩罚。代理对其响应进行分类以形成在其问题空间中操作的策略。迁移学习是将从一个问题中获得的知识应用于新问题。计算学习理论可以通过计算复杂性、样本复杂性(有多少数据是需要),或通过其他优化概念。不是垃圾邮件”。在强化学习中,代理因响应良好而受到奖励,因响应不良而受到惩罚。代理对其响应进行分类以形成在其问题空间中操作的策略。转移学习是将从一个问题中获得的知识应用于新的问题。计算学习理论可以通过计算复杂性、样本复杂性(需要多少数据)或其他优化概念来评估学习者。不是垃圾邮件”。在强化学习中,代理因响应良好而受到奖励,因响应不良而受到惩罚。代理对其响应进行分类以形成在其问题空间中操作的策略。转移学习是将从一个问题中获得的知识应用于新的问题。计算学习理论可以通过计算复杂性、样本复杂性(需要多少数据)或其他优化概念来评估学习者。或通过其他优化概念。或通过其他优化概念。

自然语言处理

自然语言处理 (NLP) 允许机器阅读和理解人类语言。一个足够强大的自然语言处理系统将支持自然语言用户界面和直接从人类书面来源(例如新闻专线文本)获取知识。 NLP 的一些直接应用包括信息检索、问答和机器翻译。 Symbolic AI 使用形式句法将句子的深层结构转化为逻辑。由于逻辑的难处理性和常识知识的广度,这未能产生有用的应用程序。现代统计技术包括共现频率(一个词出现在另一个词附近的频率)、“关键字发现”(搜索特定词以检索信息)、基于转换器的深度学习(在文本中发现模式)等。它们在页面或段落级别达到了可接受的准确性,并且到 2019 年可以生成连贯的文本。

洞察力

机器感知是使用来自传感器(例如摄像头、麦克风、无线信号和有源激光雷达、声纳、雷达和触觉传感器)的输入来推断世界各个方面的能力。应用包括语音识别、面部识别和物体识别。计算机视觉是分析视觉输入的能力。

运动和操纵

人工智能在机器人技术中得到了大量使用。定位是机器人了解其位置并绘制其环境地图的方式。当给定一个小的、静态的、可见的环境时,这很容易;然而,动态环境,例如(在内窥镜检查中)患者呼吸身体的内部,构成了更大的挑战。运动规划是将运动任务分解为“原语”(例如单个关节运动)的过程。这种运动通常涉及顺从运动,这是一个运动需要与物体保持物理接触的过程。尽管存在摩擦和齿轮打滑,机器人可以从经验中学习如何有效地移动。

社交智能

情感计算是一个跨学科的保护伞,包括识别、解释、处理或模拟人类感觉、情感和情绪的系统。例如,一些虚拟助手被编程为对话式说话,甚至幽默地开玩笑;它使他们对人类互动的情感动态更加敏感,或者以其他方式促进人机交互。然而,这往往会给幼稚的用户一个不切实际的概念,即现有的计算机代理实际上有多聪明。与情感计算相关的中等成功包括文本情感分析和最近的多模态情感分析),其中人工智能对录像主题显示的情感进行分类。

一般情报

具有通用智能的机器可以解决各种各样的问题,其广度和多功能性类似于人类智能。关于如何开发通用人工智能,有几种相互竞争的想法。Hans Moravec 和 Marvin Minsky 认为可以将不同领域的工作整合到具有通用智能的高级多智能体系统或认知架构中。Pedro Domingos 希望有一个概念上简单但数学上困难的“主算法”可以引导到 AGI。其他人则认为,像人工大脑或模拟儿童发育这样的拟人化特征总有一天会达到一个临界点,从而出现通用智能。

工具

搜索和优化

AI 中的很多问题理论上都可以通过智能搜索多种可能的解决方案来解决:推理可以简化为执行搜索。例如,逻辑证明可以被看作是寻找一条从前提到结论的路径,其中每一步都是推理规则的应用。规划算法搜索目标和子目标的树,试图找到一条通往目标目标的路径,一个称为手段-目的分析的过程。用于移动肢体和抓取物​​体的机器人算法在配置空间中使用局部搜索。简单的穷举搜索对于大多数现实世界的问题来说很少足够:搜索空间(要搜索的地方的数量)快速增长到天文数字。结果是搜索太慢或永远不会完成。对于许多问题,解决方案是使用“启发式”或“经验法则”,优先选择那些更有可能实现目标并在更短的步骤中完成的人的选择。在某些搜索方法中,启发式还可以用于消除一些不太可能导致目标的选择(称为“修剪搜索树”)。启发式为程序提供了解决方案所在路径的“最佳猜测”。启发式将解决方案的搜索限制在较小的样本量中。基于优化的数学理论,一种非常不同的搜索在 1990 年代开始流行。对于许多问题,可以从某种形式的猜测开始搜索,然后逐步细化猜测,直到无法再进行细化。这些算法可以被想象成盲目的爬山:我们从景观上的一个随机点开始搜索,然后,通过跳跃或步骤,我们不断地将我们的猜测向上推,直到我们到达顶部。其他优化算法是模拟退火、波束搜索和随机优化。进化计算使用一种优化搜索形式。例如,他们可能从一群生物开始(猜测),然后让它们发生变异和重组,只选择最适者生存每一代(完善猜测)。经典的进化算法包括遗传算法、基因表达编程和遗传编程。或者,分布式搜索过程可以通过群智能算法进行协调。搜索中使用的两种流行的群算法是粒子群优化(受鸟群的启发)和蚁群优化(受蚂蚁踪迹的启发)。我们不断地将我们的猜测向上推,直到我们到达顶部。其他优化算法是模拟退火、波束搜索和随机优化。进化计算使用一种优化搜索形式。例如,他们可能从一群生物开始(猜测),然后让它们发生变异和重组,只选择最适者生存每一代(完善猜测)。经典的进化算法包括遗传算法、基因表达编程和遗传编程。或者,分布式搜索过程可以通过群智能算法进行协调。搜索中使用的两种流行的群算法是粒子群优化(受鸟群的启发)和蚁群优化(受蚂蚁踪迹的启发)。我们不断地将我们的猜测向上推,直到我们到达顶部。其他优化算法是模拟退火、波束搜索和随机优化。进化计算使用一种优化搜索形式。例如,他们可能从一群生物开始(猜测),然后让它们发生变异和重组,只选择最适合的人生存每一代(完善猜测)。经典的进化算法包括遗传算法、基因表达编程和遗传编程。或者,分布式搜索过程可以通过群智能算法进行协调。搜索中使用的两种流行的群算法是粒子群优化(受鸟群的启发)和蚁群优化(受蚂蚁踪迹的启发)。波束搜索和随机优化。进化计算使用优化搜索的一种形式。例如,他们可能从一群生物开始(猜测),然后让它们发生变异和重组,只选择最适合的人生存每一代(完善猜测)。经典的进化算法包括遗传算法、基因表达编程和遗传编程。或者,分布式搜索过程可以通过群智能算法进行协调。搜索中使用的两种流行的群算法是粒子群优化(受鸟群的启发)和蚁群优化(受蚂蚁踪迹的启发)。波束搜索和随机优化。进化计算使用优化搜索的一种形式。例如,他们可能从一群生物开始(猜测),然后让它们发生变异和重组,只选择最适者生存每一代(完善猜测)。经典的进化算法包括遗传算法、基因表达编程和遗传编程。或者,分布式搜索过程可以通过群智能算法进行协调。搜索中使用的两种流行的群算法是粒子群优化(受鸟群的启发)和蚁群优化(受蚂蚁踪迹的启发)。他们可能从一群生物开始(猜测),然后让它们变异和重组,只选择最适合的人来生存每一代(完善猜测)。经典的进化算法包括遗传算法、基因表达编程和遗传编程。或者,分布式搜索过程可以通过群智能算法进行协调。搜索中使用的两种流行的群算法是粒子群优化(受鸟群的启发)和蚁群优化(受蚂蚁踪迹的启发)。他们可能从一群生物开始(猜测),然后让它们变异和重组,只选择最适合的人生存每一代(完善猜测)。经典的进化算法包括遗传算法、基因表达编程和遗传编程。或者,分布式搜索过程可以通过群智能算法进行协调。搜索中使用的两种流行的群算法是粒子群优化(受鸟群的启发)和蚁群优化(受蚂蚁踪迹的启发)。搜索中使用的两种流行的群算法是粒子群优化(受鸟群的启发)和蚁群优化(受蚂蚁踪迹的启发)。搜索中使用的两种流行的群算法是粒子群优化(受鸟群的启发)和蚁群优化(受蚂蚁踪迹的启发)。

逻辑

逻辑用于知识表示和问题解决,但它也可以应用于其他问题。例如,satplan 算法使用逻辑进行规划,归纳逻辑编程是一种学习方法。 AI 研究中使用了几种不同形式的逻辑。命题逻辑涉及真值函数,如“或”和“非”。一阶逻辑添加了量词和谓词,可以表达关于对象、它们的属性以及它们之间的关系的事实。模糊逻辑将“真实程度”(介于 0 和 1 之间)分配给诸如“爱丽丝老了”(或富有、或高大或饥饿)之类的模糊陈述,这些陈述在语言上过于不精确而无法完全正确或错误。默认逻辑,非单调逻辑和限制是旨在帮助解决默认推理和限定问题的逻辑形式。已经设计了一些逻辑扩展来处理特定的知识领域,例如:描述逻辑;情境演算、事件演算和流畅演算(用于表示事件和时间);因果演算;信念演算(信念修正);和模态逻辑。还设计了对多代理系统中出现的矛盾或不一致语句进行建模的逻辑,例如超一致性逻辑。还设计了对多代理系统中出现的矛盾或不一致语句进行建模的逻辑,例如超一致性逻辑。还设计了对多代理系统中出现的矛盾或不一致语句进行建模的逻辑,例如超一致性逻辑。

不确定推理的概率方法

AI 中的许多问题(推理、计划、学习、感知和机器人技术)都要求代理使用不完整或不确定的信息进行操作。 AI 研究人员使用概率论和经济学的方法设计了许多强大的工具来解决这些问题。贝叶斯网络是一种非常通用的工具,可用于各种问题:推理(使用贝叶斯推理算法)、学习(使用期望-最大化算法)、规划(使用决策网络)和感知(使用动态贝叶斯网络)。概率算法还可用于过滤、预测、平滑和寻找数据流的解释,帮助感知系统分析随时间发生的过程(例如,隐马尔可夫模型或卡尔曼滤波器)。经济学中的一个关键概念是”效用”:衡量某事物对智能代理的价值。精确的数学工具已经开发出来,可以使用决策理论、决策分析和信息价值理论来分析代理如何做出选择和计划。这些工具包括模型,例如马尔可夫决策过程、动态决策网络、博弈论和机制设计。

分类器和统计学习方法

最简单的 AI 应用程序可以分为两类:分类器(“如果闪亮则钻石”)和控制器(“如果钻石则捡起”)。然而,控制器也会在推断动作之前对条件进行分类,因此分类构成了许多 AI 系统的核心部分。分类器是使用模式匹配来确定最接近匹配的函数。它们可以根据示例进行调整,使它们在人工智能中非常有吸引力。这些示例被称为观察或模式。在监督学习中,每个模式都属于某个预定义的类。一个班级是一个必须做出的决定。所有观察结果与其类别标签相结合被称为数据集。当收到新的观察结果时,该观察结果将根据以前的经验进行分类。分类器可以通过多种方式进行训练;有许多统计和机器学习方法。决策树是最简单和使用最广泛的符号机器学习算法。K-最近邻算法是直到 1990 年代中期使用最广泛的类比 AI。支持向量机 (SVM) 等内核方法在1990 年代。据报道,朴素贝叶斯分类器是谷歌“使用最广泛的学习器”,部分原因在于其可扩展性。神经网络也用于分类。分类器性能在很大程度上取决于待分类数据的特征,例如数据集大小、跨类的样本分布、维度和噪声水平。如果假设模型非常适合实际数据,则基于模型的分类器表现良好。否则,如果没有可用的匹配模型,并且如果准确率(而不是速度或可扩展性)是唯一关注的问题,那么传统观点认为判别式分类器(尤其是 SVM)往往比基于模型的分类器(例如“朴素贝叶斯”)更准确在大多数实际数据集上。

人工神经网络

神经网络的灵感来自于人脑中的神经元结构。一个简单的“神经元”N 接受来自其他神经元的输入,每个神经元在被激活(或“发射”)时,都会对神经元 N 本身是否应该激活进行加权“投票”。学习需要一种算法来根据训练数据调整这些权重;一种简单的算法(称为“一起开火,一起连线”)是当一个神经元的激活触发另一个神经元的成功激活时,增加两个相连神经元之间的权重。神经元具有连续的激活谱;此外,神经元可以以非线性方式处理输入,而不是权衡直接的投票。现代神经网络对输入和输出之间的复杂关系进行建模,或者在数据中找到模式。他们可以学习连续函数甚至数字逻辑运算。神经网络可以被视为一种数学优化——它们在通过训练网络创建的多维拓扑上执行梯度下降。最常见的训练技术是反向传播算法。神经网络的其他学习技术是 Hebbian 学习(“一起开火,一起连线”)、GMDH 或竞争性学习。允许对先前输入事件的反馈和短期记忆)。最流行的前馈网络包括感知器、多层感知器和径向基网络。神经网络可以被视为一种数学优化——它们在通过训练网络创建的多维拓扑上执行梯度下降。最常见的训练技术是反向传播算法。神经网络的其他学习技术是 Hebbian 学习(“一起开火,一起连线”)、GMDH 或竞争性学习。允许对先前输入事件的反馈和短期记忆)。最流行的前馈网络包括感知器、多层感知器和径向基网络。神经网络可以被视为一种数学优化——它们在通过训练网络创建的多维拓扑上执行梯度下降。最常见的训练技术是反向传播算法。神经网络的其他学习技术是 Hebbian 学习(“一起开火,一起连线”)、GMDH 或竞争性学习。允许对先前输入事件的反馈和短期记忆)。最流行的前馈网络包括感知器、多层感知器和径向基网络。神经网络的其他学习技术是 Hebbian 学习(“一起开火,一起连线”)、GMDH 或竞争性学习。允许对先前输入事件的反馈和短期记忆)。最流行的前馈网络包括感知器、多层感知器和径向基网络。神经网络的其他学习技术是 Hebbian 学习(“一起开火,一起连线”)、GMDH 或竞争性学习。允许对先前输入事件的反馈和短期记忆)。最流行的前馈网络包括感知器、多层感知器和径向基网络。多层感知器和径向基础网络。多层感知器和径向基础网络。

深度学习

深度学习在网络的输入和输出之间使用多层神经元。多个层可以从原始输入中逐步提取更高级别的特征。例如,在图像处理中,较低层可以识别边缘,而较高层可以识别与人类相关的概念,例如数字或字母或面部。深度学习极大地提高了人工智能许多重要子领域的程序性能,包括计算机视觉、语音识别、图像分类等。深度学习通常在其许多或所有层中使用卷积神经网络。在卷积层中,每个神经元仅接收来自前一层的受限区域(称为神经元感受野)的输入。这可以大大减少神经元之间的加权连接数,并创建类似于动物视觉皮层组织的层次结构。因此,RNN 是深度学习的一个例子。 RNN 可以通过梯度下降进行训练,但是反向传播的长期梯度可以“消失”(即趋于零)或“爆炸”(即趋于无穷大),称为梯度消失问题。在大多数情况下,长短期记忆 (LSTM) 技术可以防止这种情况发生。RNN 可以通过梯度下降进行训练,但是反向传播的长期梯度可以“消失”(即趋于零)或“爆炸”(即趋于无穷大),称为梯度消失问题。在大多数情况下,长短期记忆 (LSTM) 技术可以防止这种情况发生。RNN 可以通过梯度下降进行训练,但是反向传播的长期梯度可能会“消失”(即趋于零)或“爆炸”(即趋于无穷大),称为梯度消失问题。在大多数情况下,长短期记忆 (LSTM) 技术可以防止这种情况发生。

专业的语言和硬件

已经开发了用于人工智能的专门语言,例如 Lisp、Prolog、TensorFlow 和许多其他语言。为人工智能开发的硬件包括人工智能加速器和神经形态计算。

应用

人工智能与任何智力任务相关。现代人工智能技术无处不在,数量众多,无法在此一一列举。通常,当一项技术达到主流用途时,它就不再被视为人工智能;这种现象被描述为人工智能效应。在 2010 年代,人工智能应用是最商业化的计算领域的核心,并已成为日常生活中无处不在的特征。人工智能用于搜索引擎(如谷歌搜索)、定位在线广告、推荐系统(由 Netflix、YouTube 或亚马逊提供)、驱动互联网流量、定向广告(AdSense、Facebook)、虚拟助手(如 Siri 或 Alexa) ,自动驾驶汽车(包括无人机和自动驾驶汽车),自动语言翻译(微软翻译,谷歌翻译),面部识别(Apple 的 Face ID 或 Microsoft 的 DeepFace)、图像标记(由 Facebook、Apple 的 iPhoto 和 TikTok 使用)和垃圾邮件过滤。还有数千个成功的人工智能应用程序用于解决特定行业或机构的问题。例如:能量存储、深度造假、医疗诊断、军事物流或供应链管理,通过利用群体智慧解决 Wicked 问题。自 1950 年代以来,玩游戏一直是对 AI 实力的考验。 1997 年 5 月 11 日,深蓝成为第一个击败卫冕世界国际象棋冠军加里·卡斯帕罗夫的计算机国际象棋系统。2011 年,在危险中!智力竞赛表演赛,IBM的问答系统Watson战胜了两大Jeopardy!冠军,布拉德·鲁特和肯·詹宁斯,以显着的优势。2016 年 3 月,AlphaGo 在与围棋冠军李世石的比赛中赢得了 5 场围棋中的 4 场,成为第一个在没有障碍的情况下击败职业围棋选手的计算机围棋系统。其他程序处理不完美信息游戏;例如对于超人级别的扑克,Pluribus 和 Cepheus。DeepMind 在 2010 年代开发了一种“广义人工智能”,可以自行学习许多不同的 Atari 游戏。到 2020 年,自然语言处理系统,例如巨大的 GPT-3(然后迄今为止最大的人工神经网络)在预先存在的基准上匹配人类的表现,尽管系统没有获得对基准内容的常识性理解。 DeepMind 的 AlphaFold 2(2020 年)展示了在数小时而不是数月内确定蛋白质 3D 结构的能力。其他应用程序预测司法判决的结果,创造艺术(如诗歌或绘画)并证明数学定理。

哲学

定义人工智能

思考与行动:图灵测试

艾伦·图灵 (Alan Turing) 在 1950 年写道:“我建议考虑‘机器能思考’这个问题吗?” 他建议将问题从机器是否“思考”改为“机器是否有可能表现出智能行为”。唯一可见的是机器的行为,所以机器是否有意识,或有思想,或者智能是否只是“模拟”而不是“真实的东西”都无关紧要。他指出,我们也不知道其他人的这些事情,但我们扩展了他们实际上在“思考”的“礼貌惯例”。这个想法构成了图灵测试的基础。

人性化与智能行事:智能代理

人工智能创始人约翰麦卡锡说:“从定义上讲,人工智能不是对人类智能的模拟”。罗素和诺维格同意并批评图灵测试。他们写道:“航空工程文本并没有将他们领域的目标定义为‘制造与鸽子一样飞行的机器,以至于它们可以愚弄其他鸽子。’”其他研究人员和分析师不同意并认为人工智能应该通过研究来模拟自然智能心理学或神经生物学。智能代理范式定义了一般的智能行为,而不涉及人类。智能代理是一种感知环境并采取行动以最大限度地提高成功机会的系统。任何具有目标导向行为的系统都可以作为智能代理进行分析:像恒温器一样简单的东西,像人类一样复杂,以及像公司、生物群落或国家这样的大型系统。智能代理范式在 1990 年代被广泛接受,目前作为该领域的定义。该范式对 AI 具有其他优势。它提供了一种可靠和科学的方式来测试程序;研究人员可以通过询问哪个代理最擅长最大化给定的“目标函数”,直接比较甚至组合不同的方法来解决孤立问题。它还为他们提供了一种与其他领域交流的通用语言——例如数学优化(根据“目标”定义)或经济学(使用与“理性代理”相同的定义)。智能代理范式在 1990 年代被广泛接受,目前作为该领域的定义。该范式对 AI 具有其他优势。它提供了一种可靠和科学的方式来测试程序;研究人员可以通过询问哪个代理最擅长最大化给定的“目标函数”,直接比较甚至组合不同的方法来解决孤立问题。它还为他们提供了一种与其他领域交流的通用语言——例如数学优化(根据“目标”定义)或经济学(使用与“理性代理”相同的定义)。智能代理范式在 1990 年代被广泛接受,目前作为该领域的定义。该范式对 AI 具有其他优势。它提供了一种可靠和科学的方式来测试程序;研究人员可以通过询问哪个代理最擅长最大化给定的“目标函数”,直接比较甚至组合不同的方法来解决孤立问题。它还为他们提供了一种与其他领域交流的通用语言——例如数学优化(根据“目标”定义)或经济学(使用与“理性代理”相同的定义)。研究人员可以通过询问哪个代理最擅长最大化给定的“目标函数”,直接比较甚至组合不同的方法来解决孤立问题。它还为他们提供了一种与其他领域交流的通用语言——例如数学优化(根据“目标”定义)或经济学(使用与“理性代理”相同的定义)。研究人员可以通过询问哪个代理最擅长最大化给定的“目标函数”,直接比较甚至组合不同的方法来解决孤立问题。它还为他们提供了一种与其他领域交流的通用语言——例如数学优化(根据“目标”定义)或经济学(使用与“理性代理”相同的定义)。

评估人工智能的方法

在其大部分历史中,没有既定的统一理论或范式指导人工智能研究。统计机器学习在 2010 年代取得的空前成功使所有其他方法黯然失色(以至于某些来源,特别是在商业世界中,使用术语“人工智能”来表示“使用神经网络进行机器学习”)。这种方法大多是子象征性的、整洁的、柔软的和狭窄的(见下文)。批评者认为,未来几代人工智能研究人员可能必须重新审视这些问题。

象征性人工智能及其局限性

Symbolic AI(或“GOFAI”)模拟了人们在解决谜题、表达法律推理和做数学时使用的高级有意识推理。他们在代数或智商测试等“智能”任务上非常成功。 1960 年代,纽厄尔和西蒙提出物理符号系统假说:“物理符号系统具有一般智能行动的必要和充分手段。”然而,符号方法在许多人类容易解决的任务上惨败,例如学习、识别对象或常识推理。 Moravec 的悖论是发现高级“智能”任务对 AI 来说很容易,但低级“本能”任务却极其困难。自 1960 年代以来,哲学家休伯特·德雷福斯 (Hubert Dreyfus) 就一直认为,人类的专业知识取决于无意识的本能,而不是有意识的符号操纵,并且取决于对情况的“感觉”,而不是明确的符号知识。尽管他的论点在第一次提出时遭到了嘲笑和忽视,但最终人工智能研究达成了共识。 问题没有解决:亚符号推理可以犯许多与人类直觉相同的难以理解的错误,例如算法偏差。 Noam Chomsky 等批评者认为,为了获得一般智能,继续研究符号人工智能仍然是必要的,部分原因是亚符号人工智能是远离可解释人工智能的一步:可能很难或不可能理解为什么现代统计人工智能程序会产生一个特别的决定。尽管他的论点在第一次提出时遭到了嘲笑和忽视,但最终人工智能研究达成了共识。 问题没有解决:亚符号推理可以犯许多与人类直觉相同的难以理解的错误,例如算法偏差。 Noam Chomsky 等批评者认为,为了获得一般智能,继续研究符号人工智能仍然是必要的,部分原因是亚符号人工智能是远离可解释人工智能的一步:可能很难或不可能理解为什么现代统计人工智能程序会产生一个特别的决定。尽管他的论点在第一次提出时遭到了嘲笑和忽视,但最终人工智能研究达成了共识。 问题没有解决:亚符号推理可以犯许多与人类直觉相同的难以理解的错误,例如算法偏差。 Noam Chomsky 等批评者认为,为了获得一般智能,继续研究符号人工智能仍然是必要的,部分原因是亚符号人工智能是远离可解释人工智能的一步:可能很难或不可能理解为什么现代统计人工智能程序会产生一个特别的决定。Noam Chomsky 等批评者认为,为了获得一般智能,继续研究符号人工智能仍然是必要的,部分原因是亚符号人工智能是远离可解释人工智能的一步:可能很难或不可能理解为什么现代统计人工智能程序会产生一个特别的决定。Noam Chomsky 等批评者认为,为了获得一般智能,继续研究符号人工智能仍然是必要的,部分原因是亚符号人工智能是远离可解释人工智能的一步:可能很难或不可能理解为什么现代统计人工智能程序会产生一个特别的决定。

整洁与邋遢

“Neats”希望使用简单、优雅的原则(例如逻辑、优化或神经网络)来描述智能行为。“邋遢者”期望它必然需要解决大量不相关的问题。这个问题在 70 年代和 80 年代被积极讨论,但在 1990 年代,数学方法和坚实的科学标准成为常态,Russell 和 Norvig 将这种转变称为“尼茨的胜利”。

软计算与硬计算

对于许多重要问题,找到可证明正确或最佳的解决方案是棘手的。软计算是一组技术,包括遗传算法、模糊逻辑和神经网络,可以容忍不精确、不确定、部分真实和近似。软计算是在 80 年代后期引入的,21 世纪最成功的人工智能程序都是使用神经网络进行软计算的例子。

狭义与通用人工智能

人工智能研究人员对于是直接追求通用人工智能和超级智能(通用人工智能)的目标,还是解决尽可能多的具体问题(狭义人工智能)存在分歧,希望这些解决方案能够间接导致该领域的长期目标通用智能难以定义且难以衡量,现代人工智能通过专注于特定问题和特定解决方案而取得了更多可验证的成功。人工智能的实验子领域专门研究该领域。

机器意识、感觉和头脑

心灵哲学不知道机器是否可以像人类一样拥有心灵、意识和心理状态。这个问题考虑的是机器的内部体验,而不是它的外部行为。主流人工智能研究认为这个问题无关紧要,因为它不会影响该领域的目标。Stuart Russell 和 Peter Norvig 观察到,大多数人工智能研究人员“不关心 [人工智能的哲学]——只要程序有效,他们不在乎你称它为模拟智能还是真正的智能。” 然而,这个问题已经成为心灵哲学的核心。这通常也是小说中人工智能的核心问题。

意识

大卫查尔默斯确定了理解心灵的两个问题,他将其命名为意识的“困难”和“容易”问题。简单的问题是了解大脑如何处理信号、制定计划和控制行为。困难的问题是解释这种感觉如何或为什么它应该感觉像任何东西。人类的信息处理容易解释,而人类的主观经验却难以解释。例如,很容易想象一个色盲人已经学会了识别视野中哪些物体是红色的,但不清楚这个人需要什么才能知道红色是什么样子。

计算主义和功能主义

计算主义是心灵哲学中的一种立场,即人类的心灵是一个信息处理系统,而思维是一种计算形式。计算主义认为,身心之间的关系与软件和硬件之间的关系相似或相同,因此可能是身心问题的解决方案。这一哲学立场的灵感来自 1960 年代人工智能研究人员和认知科学家的工作,最初由哲学家杰里·福多 (Jerry Fodor) 和希拉里·普特南 (Hilary Putnam) 提出。哲学家约翰·塞尔 (John Searle) 将这一立场描述为“强人工智能”:“具有正确输入的适当编程的计算机因此,输出将具有与人类具有思想完全相同的思想。”塞尔用他的中文房间论点反驳了这一说法,它试图表明,即使机器完美地模拟了人类行为,仍然没有理由假设它也有思想。

机器人权益

如果机器有思想和主观经验,那么它可能也有知觉(感觉的能力),如果有,那么它也可能会受苦,从而享有一定的权利。任何假设的机器人权利都与动物权利和人权有关。几个世纪以来,这个问题一直在小说中被考虑,现在正在考虑,例如,加利福尼亚未来研究所,但批评者认为讨论为时过早。

人工智能的未来

超级智能

超级智能、超智能或超人智能是一种假想的智能体,其智能远远超过最聪明、最有天赋的人类思维。超级智能也可以指这种代理所拥有的智能形式或程度。如果对通用人工智能的研究产生了足够智能的软件,它可能能够重新编程和改进自己。改进后的软件在改进自身方面会更好,从而导致递归的自我改进。它的智力会在智力爆炸中呈指数级增长,并可能大大超过人类。科幻作家 Vernor Vinge 将这种情景命名为“奇点”。因为很难或不可能知道智能的极限或超级智能机器的能力,技术奇点是一种事件,超出它的范围,事件是不可预测的,甚至是深不可测的。机器人设计师汉斯·莫拉维克、控制论学家凯文·沃里克和发明家雷·库兹韦尔预测,未来人类和机器将融合成比两者都更有能力和更强大的半机械人。这个被称为超人类主义的想法源于奥尔德斯·赫胥黎和罗伯特·埃廷格。 爱德华·弗雷德金认为“人工智能是进化的下一个阶段”,这个想法最早由塞缪尔·巴特勒的“机器中的达尔文”早在 1863 年就提出,并且乔治·戴森 (George Dyson) 在 1998 年的同名书中对此进行了扩展。发明家雷·库兹韦尔 (Ray Kurzweil) 预测,未来人类和机器将融合成比两者都更有能力和更强大的半机械人。这个被称为超人类主义的想法源于奥尔德斯·赫胥黎和罗伯特·埃廷格。 爱德华·弗雷德金认为“人工智能是进化的下一个阶段”,这个想法最早由塞缪尔·巴特勒的“机器中的达尔文”早在 1863 年就提出,并且乔治·戴森 (George Dyson) 在 1998 年的同名书中对此进行了扩展。发明家雷·库兹韦尔 (Ray Kurzweil) 预测,未来人类和机器将融合成比两者都更有能力和更强大的半机械人。这个被称为超人类主义的想法源于奥尔德斯·赫胥黎和罗伯特·埃廷格。 爱德华·弗雷德金认为“人工智能是进化的下一个阶段”,这个想法最早由塞缪尔·巴特勒的“机器中的达尔文”早在 1863 年就提出,并且乔治·戴森 (George Dyson) 在 1998 年的同名书中对此进行了扩展。机器中的达尔文”早在 1863 年,乔治·戴森 (George Dyson) 于 1998 年在他的同名书中对此进行了扩展。机器中的达尔文”早在 1863 年,乔治·戴森 (George Dyson) 于 1998 年在他的同名书中对此进行了扩展。

Risks

Technological unemployment

过去,技术往往会增加而不是减少总就业人数,但经济学家承认,人工智能“我们处于未知领域”。一项针对经济学家的调查显示,对于越来越多地使用机器人和人工智能是否会导致长期失业率大幅上升存在分歧,但他们普遍认为,如果生产率的提高得到重新分配,这可能是一项净收益。风险的主观估计差异很大;例如,Michael Osborne 和 Carl Benedikt Frey 估计 47% 的美国工作处于潜在自动化的“高风险”中,而经合组织的一份报告仅将 9% 的美国工作归类为“高风险”。 - 类工作可能会被人工智能淘汰; 《经济学人》指出“人工智能对白领工作的影响就像工业革命期间蒸汽动力对蓝领工作的影响一样”是“值得认真对待的”。风险极大的工作范围从律师助理到快餐厨师,而工作需求可能会增加从个人医疗保健到神职人员等与护理相关的职业增加。

坏演员和武器化的人工智能

人工智能提供了许多对专制政府特别有用的工具:智能间谍软件、面部识别和语音识别允许广泛的监视;这种监视允许机器学习对国家的潜在敌人进行分类,并可以防止他们躲藏;推荐系统可以精确定位宣传和错误信息,以获得最大效果;deepfakes 有助于制造错误信息;先进的人工智能可以使集中决策与市场等自由和分散的系统更具竞争力。恐怖分子、犯罪分子和流氓国家可能会使用其他形式的武器化人工智能,如先进的数字战争和致命的自主武器。到 2015 年,据报道有 50 多个国家正在研究战场机器人。

算法偏差

人工智能程序在从现实世界的数据中学习后可能会变得有偏见。它通常不是由系统设计人员引入的,而是由程序学习的,因此程序员通常没有意识到偏差的存在。选择训练数据的方式可能会无意中引入偏差。它也可以从相关性中出现:人工智能用于将个人分类到组中,然后假设该个人将与该组的其他成员相似,从而做出预测。在某些情况下,这种假设可能是不公平的。这方面的一个例子是 COMPAS,这是美国法院广泛使用的一种商业程序,用于评估被告成为累犯的可能性。 ProPublica 声称 COMPAS 指定的黑人被告的累犯风险水平比白人被告更有可能被高估,尽管该节目没有被告知被告的种族。算法偏差可能导致不公平结果的其他例子是人工智能用于信用评级或招聘。

Existential risk

超级智能AI或许能够将自己提升到人类无法控制的地步。正如物理学家斯蒂芬霍金所说,这可能“预示着人类的终结”。哲学家尼克博斯特罗姆认为,足够智能的人工智能,如果它选择基于实现某个目标的行动,就会表现出收敛行为,例如获取资源或保护自己不被关闭。如果这个人工智能的目标不能完全反映人类的目标,它可能需要伤害人类以获得更多的资源或防止自己被关闭,最终更好地实现它的目标。他得出的结论是,人工智能对人类构成了风险,无论其既定目标可能多么卑微或“友好”。政治学家查尔斯·T·鲁宾认为“任何足够先进的仁慈都可能与恶意没有区别。”人类不应该假设机器或机器人会善待我们,因为没有先验的理由相信它们会分享我们的道德体系。专家和业内人士的意见不一,有相当一部分人对最终具有超人能力的人工智能的风险感到担忧和不关心。斯蒂芬霍金、微软创始人比尔盖茨、历史教授尤瓦尔诺亚哈拉里和 SpaceX 创始人埃隆马斯克都对人工智能的未来表达了严重的疑虑。著名的科技巨头包括Peter Thiel(亚马逊网络服务)和 Musk 已经向支持负责任的人工智能开发的非营利公司投入了超过 10 亿美元,例如 OpenAI 和未来生命研究所。马克扎克伯格(首席执行官,Facebook)曾表示,人工智能在目前的形式中很有帮助,并将继续为人类提供帮助。其他专家认为,未来的风险已经足够远,不值得研究,或者从超级智能机器的角度来看,人类将是有价值的。 Rodney Brooks 尤其表示,“恶意”人工智能还有几个世纪的路程.

Ethical machines

友好的人工智能是从一开始就被设计为将风险最小化并做出有利于人类的选择的机器。创造这个词的 Eliezer Yudkowsky 认为,开发友好的 AI 应该是一个更高的研究优先事项:它可能需要大量投资,并且必须在 AI 成为存在风险之前完成。具有智能的机器有可能利用他们的智能来制造道德决定。机器伦理领域为机器提供了解决伦理困境的伦理原则和程序。机器伦理也被称为机器道德、计算伦理或计算道德,是在 2005 年的 AAAI 研讨会上创立的。 其他方法包括温德尔瓦拉赫的“人工道德代理”和斯图尔特 J.开发可证明有益的机器的三个原则。

Regulation

人工智能的监管是公共部门政策和法律的发展,以促进和监管人工智能(AI);因此,它与更广泛的算法监管有关。人工智能的监管和政策格局是全球司法管辖区的一个新兴问题。 2016 年至 2020 年间,30 多个国家采用了专门的人工智能战略。大多数欧盟成员国都发布了国家人工智能战略,加拿大、中国、印度、日本、毛里求斯、俄罗斯联邦、沙特阿拉伯、阿拉伯联合酋长国、美国和越南也是如此。其他国家正在制定自己的人工智能战略,包括孟加拉国、马来西亚和突尼斯。人工智能全球伙伴关系于 2020 年 6 月启动,指出需要根据人权和民主价值观开发人工智能,以确保公众对该技术的信心和信任。

In fiction

自古以来,有思想的人造生物就作为讲故事的工具出现,并且一直是科幻小说中的一个永恒主题。这些作品中的一个共同比喻始于玛丽雪莱的弗兰肯斯坦,在那里人类的创造成为对其主人的威胁。这包括 Arthur C. Clarke 和 Stanley Kubrick 的 2001: A Space Odyssey(均为 1968 年)、HAL 9000、负责发现一号宇宙飞船的凶残计算机,以及 The Terminator (1984) 和 The Matrix (1999) 等作品)。相比之下,像《地球停转之日》(1951) 和《异形》(1986) 中的戈特这样罕见的忠诚机器人在流行文化中并不那么突出。艾萨克·阿西莫夫在许多书籍和故事中介绍了机器人三定律,最著名的是关于同名超级智能计算机的“Multivac”系列。阿西莫夫定律经常在机器伦理的非专业讨论中被提出。虽然几乎所有人工智能研究人员都通过流行文化熟悉了阿西莫夫定律,但他们普遍认为这些定律无用的原因有很多,其中之一就是它们的模糊性。 漫画《攻壳机动队》中探讨了超人类主义(人与机器的融合)和科幻小说系列沙丘。一些作品使用人工智能来迫使我们面对是什么使我们成为人类的基本问题,向我们展示了具有感受能力并因此能够承受痛苦的人造生物。这出现在 Karel Čapek 的 RUR、电影 AI 人工智能和 Ex Machina 中,以及 Philip K. Dick 的小说 Do Androids Dream of Electric Sheep?。迪克认为我们对人类主观性的理解被人工智能创造的技术改变了。

也可以看看

解释性说明

引文

参考

人工智能教科书

这是 2009 年使用最广泛的四本 AI 教科书。

人工智能的历史

其他来源

Werbos, PJ (1988),“反向传播的推广应用到循环天然气市场模型”,神经网络,1 (4):339–356,doi:10.1016/0893-6080(88)90007-X Gers,Felix A .; Schraudolph, Nicol N.; Schraudolph, Jürgen (2002)。 “使用 LSTM 循环网络学习精确计时”(PDF)。机器学习研究杂志。 3:115-143。 2017 年 6 月 13 日检索。Deng, L.; Yu, D. (2014)。 “深度学习:方法和应用”(PDF)。信号处理的基础和趋势。 7 (3–4): 1–199。 doi:10.1561/2000000039。 2016 年 3 月 14 日原始存档 (PDF)。2014 年 10 月 18 日检索。Schulz, Hannes;本克,斯文(2012 年 11 月 1 日)。 “深度学习”。 KI - Künstliche Intelligenz。 26 (4): 357–363。 doi:10.1007/s13218-012-0198-z。 ISSN 1610-1987。 S2CID 220523562。福岛,K. (2007)。 ”Neocognitron”。Scholarpedia. 2 (1): 1717. Bibcode:2007ShpJ...2.1717F. doi:10.4249/scholarpedia.1717. 于 1980 年由 Kunihiko Fukushima 介绍。Habibi, Aghdam, Hamed (317 May2)卷积神经网络:交通标志检测和分类的实际应用。Heravi, Elnaz Jahani。Cham,瑞士。ISBN 9783319575490。OCLC 987790957。Ciresan, D.;Meier, U.;Schmidhuber, J.(2012)。“Multi - 用于图像分类的列深度神经网络”。2012 年 IEEE 计算机视觉和模式识别会议。第 3642-3649 页。arXiv:1202.2745.doi:10.1109/cvpr.2012.6248110.ISBN 978-1-422C-ID 2161592. Schmidhuber, J. (2015). “神经网络中的深度学习:概述”. 神经网络. 61: 85–117. arXiv:1404.7828. doi:10.1016/j.neunet.2014.09.0273.PMID273. 11715509。“从不工作到神经网络”。经济学家。 2016 年。2016 年 12 月 31 日原始存档。2018 年 4 月 26 日检索。Thompson, Derek(2014 年 1 月 23 日)。 “机器人将从事什么工作?”。大西洋组织。 2018 年 4 月 24 日从原件存档。2018 年 4 月 24 日检索。Scassellati, Brian (2002)。 “人形机器人的心智理论”。自主机器人。 12 (1): 13–24。 doi:10.1023/A:1013298507114。 S2CID 1979315。样本,伊恩(2017 年 3 月 14 日)。 “谷歌的 DeepMind 开发了可以像人类一样学习的人工智能程序”。守护者。 2018 年 4 月 26 日从原件存档。2018 年 4 月 26 日检索。尼克希思(2020 年 12 月 11 日)。 “什么是人工智能?关于人工智能你需要知道的一切”。智德网。 2021 年 3 月 1 日检索。保龄球,迈克尔;伯奇,尼尔;约翰逊,迈克尔;塔梅林,奥斯卡里(2015 年 1 月 9 日)。 “单挑限注德州扑克已解决”。科学。 347 (6218): 145–149。参考文献:2015Sci...347..145B。 doi:10.1126/science.1259433。 ISSN 0036-8075。 PMID 25574016。S2CID 3796371。Solly,美兰(2019 年 7 月 15 日)。 “这个玩扑克的 AI 知道什么时候拿着 'Em 以及什么时候折叠 'Em”。史密森尼。 “人工智能:谷歌的 AlphaGo 击败围棋大师李世石”。英国广播公司的新闻。 2016 年 3 月 12 日。原件于 2016 年 8 月 26 日存档。2016 年 10 月 1 日检索。丹·罗温斯基(2013 年 1 月 15 日)。 “虚拟个人助理和智能手机的未来 [信息图]”。读写。 2015 年 12 月 22 日原始存档。Markoff, John(2011 年 2 月 16 日)。 “计算机在'危险中获胜!':微不足道,这不是”。纽约时报。2014 年 10 月 22 日从原件存档。2014 年 10 月 25 日检索。乔治,Anadiotis(2020 年 10 月 1 日)。 “2020 年的人工智能状态:民主化、工业化和通用人工智能之路”。智德网。 2021 年 3 月 1 日检索。Goertzel, Ben;连瑞婷;阿雷尔,伊塔马尔;德加里斯,雨果;陈硕(2010 年 12 月)。 “人工大脑项目的世界调查,第二部分:受生物启发的认知架构”。神经计算。 74 (1–3): 30–49。 doi:10.1016/j.neucom.2010.08.012。罗宾逊,AJ; Fallside, F. (1987),“效用驱动的动态误差传播网络。”,技术报告 CUED/F-INFENG/TR.1,剑桥大学工程系 Hochreiter,Sepp (1991)。 Untersuchungen zu dynamischen neuronalen Netzen (PDF)(毕业论文)。慕尼黑:Institut f.信息学,理工大学2015 年 3 月 6 日存档于 RJ 的 Wayback Machine Williams; Zipser, D. (1994),“循环网络的基于梯度的学习算法及其计算复杂性”,反向传播:理论、架构和应用,新泽西州希尔斯代尔:Erlbaum Hochreiter,Sepp; Schmidhuber, Jürgen (1997),“长短期记忆”,神经计算,9 (8):1735–1780,doi:10.1162/neco.1997.9.8.1735,PMID 9377276,S2CID 19150014本吉奥,约书亚; Courville, Aaron (2016),深度学习,麻省理工学院出版社。 2016 年 4 月 16 日存档于 Wayback Machine Hinton, G.;邓,L.;于,D。达尔,G。穆罕默德,A。 Jaitly, N.;高级,A。万豪克,V.;阮,P.;赛纳特,T。金斯伯里,B.(2012 年)。 “用于语音识别中声学建模的深度神经网络——四个研究小组的共同观点”。IEEE 信号处理杂志。 29 (6): 82–97。书目:2012ISPM...29...82H。 doi:10.1109/msp.2012.2205597。 S2CID 206485943。Schmidhuber, J. (2015a)。 “神经网络中的深度学习:概述”。神经网络。 61:85-117。 arXiv:1404.7828。 doi:10.1016/j.neunet.2014.09.003。 PMID 25462637。S2CID 11715509。Linnainmaa, Seppo (1970)。将算法的累积舍入误差表示为局部舍入误差的泰勒展开式(论文)(芬兰语)。大学赫尔辛基,6-7。|格里万克,安德烈亚斯 (2012)。 “谁发明了反向分化模式?优化故事”。 Documenta Matematica,额外卷 ISMP:389–400。韦伯斯,保罗 (1974)。超越回归:行为科学中预测和分析的新工具(博士论文)。哈佛大学。韦伯斯,保罗 (1982)。 “超越回归:行为科学中预测和分析的新工具”(PDF)。系统建模和优化。非线性灵敏度分析中的进步应用。柏林,海德堡:Springer。2016 年 4 月 14 日存档在 Wayback Machine “什么是‘模糊逻辑’?是否存在本质上是模糊的并且不应用通常的二元逻辑的计算机?”。《科学美国人》。1999 年 10 月 21 日。2018 年 5 月 5 日检索。默克尔,丹尼尔;米登多夫,马丁(2013 年)。“群智能”。在伯克,埃德蒙K.; Kendall, Graham (eds.). Search Methodologies: Introductory Tutorials in Optimization and Decision Support Techniques. Springer Science & Business Media. ISBN 978-1-4614-6940-7. van der Walt, Christiaan; Bernard, Etienne ( 2006).“决定分类器性能的数据特征”(PDF)。2009 年 3 月 25 日从原始文件 (PDF) 存档。2009 年 8 月 5 日检索。Hutter, Marcus (2005)。通用人工智能。柏林:斯普林格。 ISBN 978-3-540-22139-5。 Howe, J.(1994 年 11 月)。 “爱丁堡大学的人工智能:一个观点”。 2007 年 5 月 15 日原件存档。2007 年 8 月 30 日检索。Galvan, Jill(1997 年 1 月 1 日)。 “在菲利普·K·迪克的“机器人梦到电羊吗?”中进入后人类集体。科幻研究。 24 (3): 413–429。 JSTOR 4240644。McCauley, Lee (2007)。 “人工智能世界末日和机器人三定律”。道德与信息技术。 9 (2): 153–164。 CiteSeerX 10.1.1.85.8904。 doi:10.1007/s10676-007-9138-2。 S2CID 37272949。Buttazzo, G.(2001 年 7 月)。 “人工意识:乌托邦还是真实的可能性?”。计算机。 34(7):24-30。 doi:10.1109/2.933500。安德森,苏珊·利(2008 年)。 “阿西莫夫的“机器人三定律”和机器元伦理学。人工智能与社会。 22 (4): 477–493。 doi:10.1007/s00146-007-0094-5。 S2CID 1809459. Yudkowsky, E (2008),“人工智能作为全球风险的积极和消极因素”(PDF),全球灾难性风险,牛津大学出版社,2008 年,Bibcode:2008gcr..book..303Y McGaughey, E ( 2018),机器人会让你的工作自动化吗?充分就业、基本收入和经济民主,第 3 页。 SSRN 第 2(3) 部分,SSRN 3044448 于 2018 年 5 月 24 日在芝加哥 Wayback Machine IGM(2017 年 6 月 30 日)存档。 “机器人与人工智能”。 www.igmchicago.org。 2019 年 5 月 1 日从原件存档。2019 年 7 月 3 日检索。Lohr, Steve (2017)。 “机器人将取代工作,但不像某些恐惧那么快,新报告说”。纽约时报。2018 年 1 月 14 日原始存档。2018 年 1 月 13 日检索。Frey, Carl Benedikt; Osborne, Michael A(2017 年 1 月 1 日)。“未来就业:工作对计算机化的敏感性如何?”。技术预测和社会变革。114:254-280。CiteSeerX 10.1.1.395.416。doi:10.1016/j.techfore.2016.08.019。ISSN 0050-16 Melanie; Gregory, Terry; Zierahn, Ulrich (2016),“经合组织国家工作自动化的风险:比较分析”,经合组织社会、就业和移民工作论文 189 Morgenstern, Michael(2015 年 5 月 9 日)。“自动化和焦虑”。《经济学人》。2018 年 1 月 12 日原始存档。2018 年 1 月 13 日检索。阿尔瓦 Mahdawi(2017 年 6 月 26 日)。”20 年后哪些工作仍然存在?阅读此内容,为您的未来做好准备”。《卫报》。2018 年 1 月 14 日原件存档。2018 年 1 月 13 日检索。Rubin, Charles(2003 年春季)。“人工智能与人性”。新亚特兰蒂斯。1:88–100 . 2012 年 6 月 11 日原始存档. Bostrom, Nick (2014). Superintelligence: Paths, Dangers, Strategies. Oxford University Press. Brooks, Rodney (10 November 2014). “人工智能是一种工具,而不是威胁”。 2014 年 11 月 12 日原始存档。Sainato, Michael(2015 年 8 月 19 日)。“Stephen Hawking、Elon Musk 和 Bill Gates 警告人工智能”。Observer。原始存档于 2015 年 10 月 30 日。检索于 2015 年 10 月 30 日。 Harari, Yuval Noah(2018 年 10 月)。“为什么技术偏爱暴政”。大西洋组织。 Robitzski, Dan(2018 年 9 月 5 日)。 “五位专家分享了关于人工智能最让他们害怕的事情”。 2019 年 12 月 8 日从原件存档。2019 年 12 月 8 日检索。Goffrey, Andrew (2008)。 “算法”。在富勒,马修(编辑)。软件研究:一个词典。马萨诸塞州剑桥:麻省理工学院出版社。第 15-20 页。 ISBN 978-1-4356-4787-9。利帕蒂托,肯尼斯(2011 年 1 月 6 日)。 “叙事和算法:从 19 世纪到今天的信用报告类型”(PDF)(已提交手稿)。 doi:10.2139/ssrn.1736283。 S2CID 166742927。古德曼,布莱斯;弗拉克斯曼赛斯 (2017)。 “欧盟关于算法决策和“解释权”的规定”。人工智能杂志。 38 (3): 50。arXiv:1606.08813。 doi:10.1609/aimag.v38i3.2741。 S2CID 7373959。CNA(2019 年 1 月 12 日)。 “评论:坏消息。人工智能有偏见”。CNA。2019 年 1 月 12 日原始存档。2020 年 6 月 19 日检索。拉森,杰夫;Angwin,朱莉娅(2016 年 5 月 23 日)。“我们如何分析 COMPAS 累犯算法”。ProPublica。存档自原始于 2019 年 4 月 29 日。检索于 2020 年 6 月 19 日。Müller, Vincent C.;Bostrom, Nick (2014)。“人工智能的未来进展:专家间的民意调查”(PDF)。AI 问题。1 (1): 9– 11. doi:10.1145/2639475.2639478. S2CID 8510016. 2016 年 1 月 15 日原始存档 (PDF)。Cellan-Jones, Rory(2014 年 12 月 2 日)。“斯蒂芬霍金警告人工智能可能会终结人类。BBC 新闻存档”。原版于 2015 年 10 月 30 日。检索于 2015 年 10 月 30 日。罗林森,凯文(2015 年 1 月 29 日)。“微软的比尔盖茨坚持认为人工智能是一种威胁”。BBC 新闻。2015 年 1 月 29 日从原件存档。2015 年 1 月 30 日检索。Holley, Peter(2015 年 1 月 28 日)。 “比尔盖茨关于人工智能的危险:‘我不明白为什么有些人不关心’”。华盛顿邮报。 ISSN 0190-8286。 2015 年 10 月 30 日从原件存档。2015 年 10 月 30 日检索。Gibbs, Samuel(2014 年 10 月 27 日)。 “埃隆马斯克:人工智能是我们最大的生存威胁”。守护者。 2015 年 10 月 30 日从原件存档。2015 年 10 月 30 日检索。Churm, Philip Andrew(2019 年 5 月 14 日)。 “Yuval Noah Harari 谈论政治、技术和移民”。欧洲新闻。 2019 年 5 月 14 日原始存档。2020 年 11 月 15 日检索。博斯特罗姆,尼克(2015 年)。 “当我们的计算机变得比我们更聪明时会发生什么?”。 TED(会议)。2020 年 7 月 25 日原始存档。2020 年 1 月 30 日检索。华盛顿邮报(2015 年)。 “像埃隆马斯克这样的科技巨头正在花费 10 亿美元来拯救你免受终结者的伤害”。 2016 年 6 月 7 日原始存档。Del Prado, Guia Marie(2015 年 10 月 9 日)。 “埃隆马斯克投资的神秘人工智能公司正在开发改变游戏规则的智能计算机”。技术内幕。 2015 年 10 月 30 日从原件存档。2015 年 10 月 30 日检索。FastCompany(2015 年 1 月 15 日)。 “埃隆·马斯克正在向人工智能研究捐赠 1000 万美元的自有资金”。快公司。 2015 年 10 月 30 日从原件存档。2015 年 10 月 30 日检索。帕特里克锡伯杜(2019 年 3 月 25 日)。 “甲骨文首席执行官马克赫德认为没有理由害怕 ERP AI”。搜索ERP。 2019 年 5 月 6 日从原件存档。2019 年 5 月 6 日检索。Bhardwaj, Prachi(2018 年 5 月 24 日)。 “马克·扎克伯格回应埃隆·马斯克对人工智能的偏执:‘人工智能将……帮助我们的社区保持安全。’”。商业内幕。 2019 年 5 月 6 日从原件存档。2019 年 5 月 6 日检索。Geist, Edward Moore(2015 年 8 月 9 日)。 “人工智能真的是对人类生存的威胁吗?”。原子科学家公报。 2015 年 10 月 30 日从原件存档。2015 年 10 月 30 日检索。Madrigal, Alexis C.(2015 年 2 月 27 日)。 “针对杀手机器人的案例,来自一个实际从事人工智能工作的人”。融合网。 2016 年 2 月 4 日原始存档。2016 年 1 月 31 日检索。Lee, Timothy B.(2014 年 8 月 22 日)。 “人工智能会毁灭人类吗?这里有 5 个不用担心的理由”。声音。2015 年 10 月 30 日原始存档。2015 年 10 月 30 日检索。美国国会法律图书馆。全球法律研究理事会,发布机构。 (2019)。特定司法管辖区的人工智能监管。 LCCN 2019668143。OCLC 1110727808。联合国教科文组织科学报告:与时间赛跑以实现更智能的发展。巴黎:联合国教科文组织。 2021 年 6 月 11 日。ISBN 978-92-3-100450-6。贝里希尔,杰米; Heang, Kévin Kok;克洛格,罗布;麦克布莱德,基冈(2019 年)。你好,世界:人工智能及其在公共部门的使用 (PDF)。巴黎:经合组织公共部门创新观察站。 2019 年 12 月 20 日原始存档 (PDF)。2020 年 8 月 9 日检索。巴菲尔德,伍德罗;帕加洛,乌戈(2018 年)。人工智能规律研究手册。英国切尔滕纳姆。 ISBN 978-1-78643-904-8。 OCLC 1039480085。克里蒂科斯,米哈里斯(2019 年 1 月 3 日)。 “监管人工智能和机器人技术:数字社会中的设计伦理”。当代社会科学。 16 (2): 170–184。 doi:10.1080/21582041.2018.1563803。 ISSN 2158-2041。 S2CID 59298502。Wirtz, Bernd W.; Weyerer, Jan C.; Geyer, Carolin(2018 年 7 月 24 日)。 “人工智能和公共部门——应用和挑战”。国际公共管理杂志。 42(7):596-615。 doi:10.1080/01900692.2018.1498103。 ISSN 0190-0692。 S2CID 158829602。2020 年 8 月 18 日从原件存档。2020 年 8 月 22 日检索。Buiten, Miriam C (2019)。 “迈向人工智能的智能监管”。欧洲风险监管杂志。 10 (1): 41–59。 doi:10.1017/err.2019.8。 ISSN 1867-299X。瓦拉赫,温德尔(2010 年)。道德机器。牛津大学出版社。棕色的,艾琳(2019 年 11 月 5 日)。 “一半的美国人不相信 Deepfake 新闻可以在网上针对他们”。智德网。 2019 年 11 月 6 日原件存档。2019 年 12 月 3 日检索。安马尔 Frangoul(2019 年 6 月 14 日)。 “一家加利福尼亚企业正在使用人工智能来改变我们对储能的看法”。美国全国广播公司财经频道。 2020 年 7 月 25 日从原件存档。2019 年 11 月 5 日检索。“经济学人解释:为什么公司正在涌入人工智能”。经济学家。 2016 年 3 月 31 日。2016 年 5 月 8 日原始存档。2016 年 5 月 19 日检索。洛尔,史蒂夫(2016 年 2 月 28 日)。 “人工智能的承诺以小步骤展现”。纽约时报。 2016 年 2 月 29 日从原件存档。2016 年 2 月 29 日检索。Smith, Mark(2016 年 7 月 22 日)。 ”所以您认为您选择阅读这篇文章?”。BBC 新闻。2016 年 7 月 25 日原始存档。Aletras, N.;Tsarapatsanis, D.;Preotiuc-Pietro, D.;Lampos, V.(2016 年)。”预测欧洲人权法院的司法判决:从自然语言处理的角度来看”。PeerJ 计算机科学。2:e93。doi:10.7717/peerj-cs.93。Cadena, Cesar; Carlone, Luca; Carrillo, Henry; Latif, Yasir;Scaramuzza,Davide;Neira,Jose;Reid,Ian;Leonard,John J.(2016 年 12 月)。“同时定位和测绘的过去、现在和未来:迈向稳健感知时代”。IEEE 机器人学汇刊。 32 (6): 1309–1332. arXiv:1606.05830. Bibcode:2016arXiv160605830C. doi:10.1109/TRO.2016.2624754. S2CID 2596787. 1596,787. 1596,787. 1596,787. 1596,787. Beb0.1596787.自然语言处理研究综述 [评论文章]”。IEEE 计算智能杂志。9 (2):48–57。doi:10.1109/MCI.2014.2307227。S2CID 206451986。Vincent, James(2019 年 11 月 7 日)。“OpenAI 已经发表了文本生成人工智能,它说它太危险了,不能分享”。The Verge。2020 年 6 月 11 日从原件存档。2020 年 6 月 11 日检索。乔丹,密歇根;米切尔,TM(2015 年 7 月 16 日)。“机器学习:趋势、观点和前景”。Science. 349 (6245): 255–260. Bibcode:2015Sci...349..255J. doi:10.1126/science.aaa8415. PMID 26185243. S2CID 677212018.Maschafilm。 :Plug & Pray Film – 人工智能 – 机器人 -".plugandpray-film.de。2016 年 2 月 12 日原始存档。Evans, Woody (2015)。“后人权:超人类世界的维度”。Teknokultura。12 (2)。doi:10.5209/rev_TK.2015.v12.n2.49072。Waddell, Kaveh (2018)。“聊天机器人进入了恐怖谷”。大西洋。从原始存档2018 年 4 月 24 日。2018 年 4 月 24 日检索。Poria,Soujanya;Cambria,Erik;Bajpai,Rajiv;Hussain,Amir(2017 年 9 月)。“情感计算回顾:从单模态分析到多模态融合”。信息融合。37: 98–125. doi:10.1016/j.inffus.2017.02.003. hdl:1893/25490. “机器人可以要求合法权利”。BBC 新闻。2006 年 12 月 21 日。2019 年 10 月 15 日存档。检索2013 . Horst, Steven (2005). "The Computational Theory of Mind". 斯坦福哲学百科全书. Omohundro, Steve (2008). 自我提升人工智能的本质。在 2007 年在加利福尼亚州旧金山举行的奇点峰会上提出并分发。福特,马丁;杰夫科尔文(2015 年 9 月 6 日)。 “机器人创造的工作会比它们摧毁的多吗?”。守护者。 2018 年 6 月 16 日从原件存档。2018 年 1 月 13 日检索。白皮书:人工智能——欧洲追求卓越和信任的方法 (PDF)。布鲁塞尔:欧盟委员会。 2020. 2020 年 2 月 20 日从原件存档 (PDF)。2020 年 2 月 20 日检索。安德森,迈克尔;安德森、苏珊·利 (2011)。机器伦理。剑桥大学出版社。 “机器伦理”。 aaai.org. 2014 年 11 月 29 日原始存档。 斯图尔特罗素(2019 年 10 月 8 日)。人类兼容:人工智能和控制问题。美国:维京人。 ISBN 978-0-525-55861-3。 OCLC 1083694322。”AI 将超越人类的脑力”。CNN。2006 年 8 月 9 日。2008 年 2 月 19 日从原件存档。“机器人可以要求合法权利”。BBC 新闻。2006 年 12 月 21 日。2019 年 10 月 15 日从原件存档。检索 3 2011 年 2 月。“Kismet”。麻省理工学院人工智能实验室,仿人机器人组。2014 年 10 月 17 日原始存档。2014 年 10 月 25 日检索。Smoliar,Stephen W.;Zhang, HongJiang (1994)。“基于内容的视频索引和检索". IEEE Multimedia. 1 (2): 62–72. doi:10.1109/93.311653. S2CID 32710913. Neumann, Bernd; Möller, Ralf(2008 年 1 月)。“具有描述逻辑的现场解释”。图像和视觉计算。 (1): 82–101. doi:10.1016/j.imavis.2007.08.013. Kuperman, GJ; Reichley, RM; Bailey, TC(2006 年 7 月 1 日)。”使用商业知识库进行临床决策支持:机会、障碍和建议”。美国医学信息学协会杂志。13 (4): 369–371. doi:10.1197/jamia.M2055. PMC 1513681. PMID 16622160. McGarry Ken(2005 年 12 月 1 日)。“知识发现的兴趣度测量调查”。知识工程评论。20 (1): 39–61. doi:10.1017/S0269888905000408. S2CID 14987656. Bertini, M; Del Bimbo, A; Torniai, C (2006)。“使用多媒体本体对视频序列进行自动注释和语义检索”。MM '06 第 14 届 ACM 多媒体国际会议论文集。第 14 届 ACM 国际多媒体会议。圣巴巴拉:ACM。第 679– 682. Kahneman, Daniel (25 October 2011). Thinking, Fast and Slow. Macmillan. ISBN 978-1-4299-6935-2.2012 年 4 月 8 日检索。 Turing, Alan (1948),“机器智能”,在 Copeland, B. Jack (ed.),基本图灵:催生计算机时代的思想,牛津:牛津大学出版社,第 10 页。 412,ISBN 978-0-19-825080-7 多明戈斯,佩德罗(2015 年 9 月 22 日)。主算法:对终极学习机器的探索将如何重塑我们的世界。基础书籍。 ISBN 978-0465065707。 Minsky, Marvin (1986), The Society of Mind, Simon and Schuster Pinker, Steven (4 September 2007) [1994], The Language Instinct, Perennial Modern Classics, Harper, ISBN 978-0-06-133646-1 Chalmers, David (1995)。 “正视意识问题”。意识研究杂志。 2 (3): 200–219。 2005 年 3 月 8 日从原件存档。2018 年 10 月 11 日检索。罗伯茨,雅各布(2016 年)。 “思维机器:寻找人工智能”。蒸馏。第 2 卷第 2 期。第 14-23 页。原始存档于 2018 年 8 月 19 日。检索于 2018 年 3 月 20 日。Pennachin, C.;Goertzel, B. (2007)。通用人工智能的当代方法”。人工通用智能。认知技术。柏林,海德堡:Springer。doi:10.1007/978-3-540-68677-4_1。ISBN 978-3-540-23733-4。“问人工智能专家:是什么推动了当今 AI 的进步?”。麦肯锡公司。2018 年 4 月 13 日从原件存档。2018 年 4 月 13 日检索。“用人工智能重塑业务”。麻省理工学院斯隆管理评论。2018 年 5 月 19 日原始存档. 2018 年 5 月 2 日检索。Lorica, Ben(2017 年 12 月 18 日)。“人工智能采用的状态”。O'Reilly Media。2018 年 5 月 2 日原始存档。2018 年 5 月 2 日检索。“AlphaGo – Google DeepMind”。 2016 年 3 月 10 日原始存档。Asada, M.;细田,K.;国芳,Y。石黑浩,H。伊努伊,T。吉川,Y。荻野,M。吉田,C.(2009 年)。 “认知发展机器人:一项调查”。 IEEE 自主心理发展汇刊。 1 (1): 12–34。 doi:10.1109/tamd.2009.2021702。 S2CID 10168773。Ashok83(2019 年 9 月 10 日)。 “人工智能如何在人才管理和人力资源技术方面取得突破性变化”。黑客午。 2019 年 9 月 11 日从原件存档。2020 年 2 月 14 日检索。Berlinski, David (2000)。算法的出现。哈考特图书。 ISBN 978-0-15-601391-8。 OCLC 46890682。原件于 2020 年 7 月 26 日存档。2020 年 8 月 22 日检索。Brooks, Rodney (1990)。 “大象不t Play Chess”(PDF)。机器人和自治系统。6(1-2):3-15。CiteSeerX 10.1.1.588.7539。doi:10.1016/S0921-8890(05)80025-9。存档(PDF)来自原版于 2007 年 8 月 9 日。巴特勒,塞缪尔(1863 年 6 月 13 日)。“机器中的达尔文”。给编辑的信。新闻界。新西兰基督城。原版于 2008 年 9 月 19 日存档。检索于 2014 年 10 月 16 日 –通过惠灵顿维多利亚大学。克拉克,杰克(2015 年 7 月 1 日a)。“马斯克支持的团体探索人工智能背后的风险”。彭博社。2015 年 10 月 30 日原始存档。2015 年 10 月 30 日检索。克拉克,杰克(8 2015 年 12 月b。“为什么 2015 年是人工智能的突破年”。Bloomberg.com。2016 年 11 月 23 日原始存档。2016 年 11 月 23 日检索。丹尼特,丹尼尔(1991 年)。意识解释。企鹅出版社。 ISBN 978-0-7139-9037-9。德雷福斯,休伯特 (1972)。计算机不能做的事。纽约:麻省理工学院出版社。 ISBN 978-0-06-011082-6。德雷福斯,休伯特;德雷福斯,斯图尔特 (1986)。机器之心:计算机时代人类直觉和专业知识的力量。英国牛津:布莱克威尔。 ISBN 978-0-02-908060-3。 2020 年 7 月 26 日原始存档。2020 年 8 月 22 日检索。Dyson, George (1998)。机器中的达尔文。艾伦莱恩科学。 ISBN 978-0-7382-0030-9。 2020 年 7 月 26 日原始存档。2020 年 8 月 22 日检索。Edelson, Edward (1991)。神经系统。纽约:切尔西之家。 ISBN 978-0-7910-0464-7。 2020 年 7 月 26 日从原件存档。2019 年 11 月 18 日检索。Fearn, Nicholas (2007)。最古老问题的最新答案:与世界的哲学冒险最伟大的思想家。纽约:格罗夫出版社。 ISBN 978-0-8021-1839-4。豪格兰,约翰 (1985)。人工智能:非常想法。马萨诸塞州剑桥:麻省理工学院出版社。 ISBN 978-0-262-08153-5。霍金斯,杰夫;布莱克斯利,桑德拉(2005 年)。关于情报。纽约:猫头鹰书籍。 ISBN 978-0-8050-7853-4。亨德森,马克(2007 年 4 月 24 日)。 “机器人的人权?我们被冲昏了头脑”。泰晤士报在线。伦敦。 2014 年 5 月 31 日原始存档。2014 年 5 月 31 日检索。Kahneman, Daniel;斯洛维奇,D。特维尔斯基,阿莫斯 (1982)。不确定性下的判断:启发式和偏见。科学。 185. 纽约:剑桥大学出版社。第 1124-1131 页。 doi:10.1126/science.185.4157.1124。 ISBN 978-0-521-28414-1。 PMID 17835457。S2CID 143452957。Katz, Yarden(2012 年 11 月 1 日)。 “诺姆乔姆斯基谈人工智能哪里出错了”。大西洋组织。2019 年 2 月 28 日从原件存档。2014 年 10 月 26 日检索。Kurzweil, Ray (2005)。奇点临近。企鹅图书。 ISBN 978-0-670-03384-3。兰利帕特 (2011)。 “机器学习的不断变化的科学”。机器学习。 82(3):275-279。 doi:10.1007/s10994-011-5242-y。莱格,谢恩; Hutter, Marcus(2007 年 6 月 15 日)。情报定义集(技术报告)。国际开发署。 arXiv:0706.3639。书目代码:2007arXiv0706.3639L。 07-07。莱纳特,道格拉斯;古哈,RV (1989)。构建基于知识的大型系统。艾迪生-卫斯理。 ISBN 978-0-201-51752-1。莱特希尔,詹姆斯 (1973)。 “人工智能:综合调查”。人工智能:论文研讨会。科学研究委员会。伦巴多,P;伯姆,我;奈尔兹,K(2020 年)。 “广播漫画——圣诞老人和放射学的未来”。 Eur J Radiol。122 (1): 108771. doi:10.1016/j.ejrad.2019.108771。 PMID 31835078。Lungarella, M.;梅塔,G.; Pfeifer, R.;桑迪尼,G.(2003 年)。 “发展机器人:一项调查”。连接科学。 15 (4): 151–190。 CiteSeerX 10.1.1.83.7615。 doi:10.1080/09540090310001655110。 S2CID 1452734。制造商,梅格休斯顿 (2006)。 “AI@50:AI 过去、现在、未来”。达特茅斯学院。 2007 年 1 月 3 日原始存档。2008 年 10 月 16 日检索。麦卡锡,约翰;明斯基,马文;罗切斯特,内森;香农,克劳德 (1955)。 “达特茅斯暑期人工智能研究项目提案”。 2007 年 8 月 26 日从原件存档。2007 年 8 月 30 日检索。Minsky, Marvin (1967)。计算:有限和无限机器。新泽西州恩格尔伍德悬崖:Prentice-Hall。 ISBN 978-0-13-165449-5。 2020 年 7 月 26 日从原件存档。2019 年 11 月 18 日检索。Moravec, Hans (1988)。心灵的孩子。哈佛大学出版社。 ISBN 978-0-674-57616-2。 2020 年 7 月 26 日原始存档。2019 年 11 月 18 日检索。NRC(美国国家研究委员会)(1999)。 “人工智能的发展”。资助革命:政府对计算研究的支持。国家学院出版社。纽厄尔,艾伦;西蒙,哈 (1976)。 “作为实证研究的计算机科学:符号和搜索”。 ACM 的通讯。 19 (3​​): 113–126。 doi:10.1145/360018.360022.. Nilsson, Nils (1983)。 “人工智能为 2001 年做准备”(PDF)。人工智能杂志。 1 (1)。 2020 年 8 月 17 日原件存档 (PDF)。2020 年 8 月 22 日检索。人工智能促进协会主席致辞。奥德耶,PY。 (2010)。 ”关于机器人在行为和认知科学中的影响:从昆虫导航到人类认知发展”(PDF)。IEEE Transactions on Autonomous Mental Development。2 (1): 2–16. doi:10.1109/tamd.2009.2039057. S2CID 6362217。 2018 年 10 月 3 日原始存档 (PDF)。2013 年 6 月 4 日检索。Schank, Roger C.(1991)。“AI 在哪里”。AI 杂志。第 12 卷第 4 期。Searle,John(1980)。“ Minds, Brains and Programs”(PDF)。行为和脑科学。3 (3): 417–457. doi:10.1017/S0140525X00005756。2019 年 3 月 17 日原始存档 (PDF)。2020 年 8 月 22 日检索,约翰·斯尔。 (1999)。思想、语言和社会。纽约:基础书籍。ISBN 978-0-465-04521-1。OCLC 231867665。2020 年 7 月 26 日从原始存档。2020 年 8 月 22 日检索。西蒙,哈 (1965) .男性和管理自动化的形态。纽约:哈珀与罗。 2020 年 7 月 26 日原始存档。2019 年 11 月 18 日检索。Solomonoff, Ray (1956)。感应推理机 (PDF)。达特茅斯人工智能夏季研究会议。 2011 年 4 月 26 日从原件存档 (PDF)。2011 年 3 月 22 日检索 - 通过 std.com,原件的 pdf 扫描副本。后来出版为所罗门诺夫·雷 (1957)。 “感应推理机”。 IRE 公约记录。信息论部分,第 2 部分。第 56-62 页。 Spadafora,安东尼(2016 年 10 月 21 日)。 “斯蒂芬霍金相信人工智能可能是人类最后的成就”。测试新闻。 2017 年 8 月 28 日原始存档。陶建华;谭铁牛(2005)。情感计算和智能交互。情感计算:回顾。LNCS 3784。施普林格。第 981-995 页。 doi:10.1007/11573548。特库奇,格奥尔格(2012 年 3 月至 4 月)。 “人工智能”。 Wiley 跨学科评论:计算统计。 4(2):168-180。 doi:10.1002/wics.200。 Thro, 艾伦 (1993)。机器人:计算机和机器的结合。纽约:档案事实。 ISBN 978-0-8160-2628-9。 2020 年 7 月 26 日原始存档。2020 年 8 月 22 日检索。图灵,艾伦(1950 年 10 月),“计算机与智能”,Mind, LIX (236):433–460,doi:10.1093/mind/LIX.236。 ISSN 0026-4423。 Vinge, Vernor (1993)。 “即将到来的技术奇点:如何在后人类时代生存”。愿景 21:网络空间时代的跨学科科学与工程:11. Bibcode:1993vise.nasa...11V。 2007 年 1 月 1 日从原件存档。2011 年 11 月 14 日检索。Wason,PC;夏皮罗,D.(1966 年)。 “推理”。在 Foss, BM (ed.)。心理学的新视野。哈蒙兹沃斯:企鹅。 2020 年 7 月 26 日原始存档。2019 年 11 月 18 日检索。Weng, J.;麦克莱兰;彭特兰,A.;斯波恩斯,O。斯托克曼,我。苏尔,M。 Thelen, E. (2001)。 “机器人和动物的自主智力发展”(PDF)。科学。 291 (5504):599–600。 doi:10.1126/science.291.5504.599。 PMID 11229402。S2CID 54131797。2013 年 9 月 4 日原始存档 (PDF)。2013 年 6 月 4 日检索 - 通过 msu.edu。Thelen, E. (2001)。 “机器人和动物的自主智力发展”(PDF)。科学。 291 (5504):599–600。 doi:10.1126/science.291.5504.599。 PMID 11229402。S2CID 54131797。2013 年 9 月 4 日原始存档 (PDF)。2013 年 6 月 4 日检索 - 通过 msu.edu。Thelen, E. (2001)。 “机器人和动物的自主智力发展”(PDF)。科学。 291 (5504):599–600。 doi:10.1126/science.291.5504.599。 PMID 11229402。S2CID 54131797。2013 年 9 月 4 日原始存档 (PDF)。2013 年 6 月 4 日检索 - 通过 msu.edu。

进一步阅读

外部链接

“人工智能”。互联网哲学百科全书。托马森,里士满。“逻辑与人工智能”。在 Zalta,Edward N. (ed.)。斯坦福哲学百科全书。人工智能,BBC Radio 4 与 John Agar、Alison Adam 和 Igor Aleksander 的讨论(In Our Time,2005 年 12 月 8 日)

来源

本文包含来自免费内容作品的文本。根据 C-BY-SA 3.0 IGO 获得许可,文本摘自联合国教科文组织科学报告:与时间赛跑以实现更智能的发展。Schneegans, S.、T. Straza 和 J. Lewis (eds),联合国教科文组织。要了解如何向 Wikipedia 文章添加开放许可文本,请参阅此操作方法页面。有关重用维基百科文本的信息,请参阅使用条款。