人工智能

Article

May 26, 2022

可以通过关注推理的内部过程或智能系统的外部行为并使用作为有效性或与人类行为或理想行为的相似性的度量来给出具体定义,称为理性:人性化:结果智能系统执行的操作与人类执行的操作没有区别。人性化思考:引导智能系统解决问题的过程与人类相似。这种方法与认知科学有关。理性思考:引导智能系统解决问题的过程是一个回归逻辑的正式程序。理性行动:引导智能系统解决问题的过程是在给定可用信息的情况下使其获得最佳预期结果的过程。人工智能是科学家和哲学家争论的一门学科,因为它体现了伦理以及理论和实践方面。斯蒂芬霍金在 2014 年警告人工智能的危险,认为它对人类的生存构成威胁。同年 8 月 2 日,埃隆·马斯克(Elon Musk)也在推特上写道:“我们必须非常关注人工智能。可能比核能更危险。”人工智能是科学家和哲学家之间有争议的学科,因为它体现了伦理以及理论和实践方面。斯蒂芬霍金在 2014 年警告人工智能的危险,认为它对人类的生存构成威胁。同年 8 月 2 日,埃隆·马斯克(Elon Musk)也在推特上写道:“我们必须非常关注人工智能。可能比核能更危险。”人工智能是科学家和哲学家之间有争议的学科,因为它体现了伦理以及理论和实践方面。斯蒂芬霍金在 2014 年警告人工智能的危险,认为它对人类的生存构成威胁。同年 8 月 2 日,埃隆·马斯克(Elon Musk)也在推特上写道:“我们必须非常关注人工智能。可能比核能更危险。”

历史

研究传统

导致这门学科诞生的步骤有很多。从重要性和时间顺序来看,第一个是计算机的出现和对它们的持续兴趣。早在 1623 年,多亏了 Willhelm Sickhart,就有可能创造出能够对多达六位数字进行数学计算的机器,即使不是自主的。 1642 年,Blaise Pascal 制造了一台能够使用自动进位进行运算的机器,而 1674 年 Gottfried Wilhelm von Leibniz 制造了一台能够递归加法、微分和乘法的机器。 1834 年至 1837 年间,查尔斯·巴贝奇 (Charles Babbage) 研究了一种称为分析引擎的机器模型,其特性在一定程度上预测了现代计算机的特性。在 20 世纪,对计算机的关注重新浮出水面:例如,1937 年,耶鲁大学的 Claude Shannon 展示了布尔代数和二元运算如何表示电话内部的电路变化。更重要的一步是 Alan Turing 于 1936 年撰写的文章 On Computable Numbers, With An Application To The Entscheidungsproblem,它为诸如可计算性、可计算性、图灵机、迄今为止计算机的基本定义等概念奠定了基础。 .后来,在 1943 年,麦卡洛克和皮茨创造了被认为是人工智能的第一部作品。该系统采用人工神经元模型,其中这些神经元的状态可以是“开”或“关”,在存在由足够数量的周围神经元引起的刺激的情况下,“切换到”打开“。例如,McCulloch 和 Pitts 表明,任何可计算的函数都可以由一些神经元网络表示,并且所有逻辑连接词(“and”、“or”、...)都可以通过一个简单的结构神经元来实现.七年后,也就是 1950 年,两位哈佛大学的学生 Marvin Minsky 和 ​​Dean Edmonds 创建了公认的第一个神经网络,即 SNARC。) 可以通过一个简单的神经结构来实现。七年后,也就是 1950 年,两位哈佛大学的学生 Marvin Minsky 和 ​​Dean Edmonds 创建了公认的第一个神经网络,即 SNARC。) 可以通过一个简单的神经结构来实现。七年后,也就是 1950 年,两位哈佛大学的学生 Marvin Minsky 和 ​​Dean Edmonds 创建了公认的第一个神经网络,即 SNARC。

该学科的实际诞生(1956年)

1956 年,在新罕布什尔州的达特茅斯学院召开了一次会议,出席的有一些致力于开发智能系统的新兴计算领域的领军人物:约翰麦卡锡、马文明斯基、克劳德香农和纳撒尼尔罗切斯特。在麦卡锡的倡议下,一个 10 人的团队应该在两个月内制造出一台可以模拟人类学习和智力各个方面的机器。一些研究人员加入了这项计划,包括普林斯顿大学的 Trenchard More、IBM 的 Arthur Samuel、麻省理工学院的 Ray Solomonoff 和 Oliver Selfridge。在同一次会议上,另一项举措引起了麦卡锡项目之外的关注:艾伦纽厄尔和赫伯特西蒙计划。与麦卡锡不同,这两位研究人员他们已经有了一个能够进行某种形式推理的程序,称为逻辑理论家或 LP,能够从数学原理开始证明定理。还是在同一次会议上,麦卡锡引入了人工智能这个词,它不可磨灭地标志着这门学科的实际诞生,赋予了它自己的本性。

第一次远大前程(1950-1965)

纽厄尔和西蒙创建的程序允许他们进步并创建一个称为通用问题解决器或 GPS 的程序。与 LP 不同,GPS 的设计目的是模仿人类使用的解决问题的过程(特别是所谓的“手段-目的启发式”)。在该计划可以运行的有限情况下,有人指出,该计划考虑目标和行动的方法可与人类方法相媲美。同年,在 IBM,罗切斯特和他的同事开始开发其他能够推理的程序。 1959 年,Herbert Gelemter 创建了 Geometry Theorem Prover,这是一个能够证明复杂几何定理的程序。去年,在麻省理工学院,麦卡锡对人工智能领域做出了另一贡献,他定义了 30 年来被公认为实现人工智能系统的主要编程语言:Lisp。除此之外,麦卡锡还写了一篇题为 Programs with Common Sense 的论文,其中描述了一个理想的程序,称为 Advice Taker,可以看作是第一个完整的智能系统。与 LP 和 GPS 不同,Advice Taker 旨在为不同类型的问题寻找解决方案,这不是严格的数学问题。明斯基在麻省理工学院期间协调了程序的创建,以解决所谓的微观世界,即需要使用推理来解决的断言所描述的有限问题。其中,James Slagle 的 1963 年程序 SAINT 能够解决封闭形式的积分问题,这是大学一年级的典型特征。

第一次困难(1966-1969)

在研究人员的各种愿望中,主要是创造能够表现出与人类相似的推理能力的机器。例如,赫伯特·西蒙(Herbert Simon)在 1957 年估计,十年内将有能够与国际象棋冠军竞争的机器(预测会成真,但在四十年后)。然而,这些愿望必须面临一些困难:首先,与机器处理的领域相关的语义知识绝对缺乏,因为它们的推理能力仅限于语法操作。由于这个困难,美国政府于 1966 年停止资助翻译机的开发。另一个问题是无法处理人工智能提出的许多问题。这是因为人们认为“缩放”问题的大小只是硬件和内存的问题。当研究人员未能证明十多个公理的定理时,这种乐观情绪很快就消失了。因此可以理解,拥有一个在理论水平上能够找到问题解决方案的算法并不意味着相应的程序能够在实际水平上实际计算它。第三种困难是在推理意义上的计算机逻辑的局限性。在 Minsky 和 ​​Papert 题为 Perceptrons (1969) 的论文中,表明,尽管感知器(一种简单形式的神经网络)能够学习它可以表示的任何函数,但具有两个输入的感知器无法表示能够识别出两个输入何时不同的函数。

基于知识的系统(1969-1979)

之前的困难导致将机器采用的方法定义为弱方法,因此需要更多的应用领域内在知识。 1969 年,感谢 Ed Feigenbaum(Herbert Simon 的学生)、Bruce Buchanam 和 Joshua Lederberg,创建了 DENDRAL 计划。该程序能够从光谱仪获得的分子质量信息开始,重建分子的结构。因此,该程序是第一个基于密集使用知识的系统,后来将麦卡锡为 Advice Taker 提出的所有理论概念纳入其中。随后,费根鲍姆与其他斯坦福大学的研究人员一起启动了启发式程序项目(HPP),为了扩展这些系统的应用场景,从作为血液感染诊断一部分的 MYCIN 系统开始。然后我们开始对称为专家系统的系统进行理论化,即能够在给定的应用场景中拥有专家知识。

从学术界到工业界(1980-1985)

第一个商业人工智能系统是 R1,1982 年由 Digital Equipment 使用。该程序的目的是帮助配置新计算机的订单。 1986 年,他每年为公司节省了 4000 万美元。杜邦公司也使用了类似的系统,每年节省约 1000 万美元。在 1980 年代,几乎每个美国大公司都有自己的专家系统在运行,并且正在研究更先进的系统。 1981 年,日本宣布了第五代项目,这是一个基于 Prolog 构建智能系统的十年计划。作为回应,美利坚合众国创建了微电子和计算机技术公司(MCC),作为一个研究联盟,以确保在国家层面的竞争力。在英国,阿尔维报告收回了被莱特希尔报告切断的资金,该报告在 1973 年导致英国政府停止支持人工智能研究。然而,这些项目并没有达到预期的目标。人工智能产业在 1988 年达到了数十亿美元的数量级,其中包括数百家公司,他们在这些领域创造了专家系统、机器人和专门的软件和硬件。1973 年导致英国政府停止支持人工智能研究。然而,这些项目并没有达到预期的目标。人工智能产业在 1988 年达到了数十亿美元的数量级,其中包括数百家公司,他们在这些领域创造了专家系统、机器人和专门的软件和硬件。1973 年导致英国政府停止支持人工智能研究。然而,这些项目并没有达到预期的目标。人工智能产业在 1988 年达到了数十亿美元的数量级,其中包括数百家公司,他们在这些领域创造了专家系统、机器人和专门的软件和硬件。

神经网络的回归(1986-)

在 1980 年代中期,最初由 Bryson 和 Ho 于 1969 年设计的称为反向传播的神经网络学习算法被重新发明。该算法应用于与学习相关的许多问题,既有计算机科学方面的,也有心理学方面的。实现智能系统的所谓联结主义模型被视为麦卡锡及其合作者纽厄尔和西蒙设计的符号模型的替代方案。这些模型试图回答先前模型未能成功解决的问题,但在某种程度上它们也失败了。因此,基于符号方法的模型和具有连接主义方法的模型被视为互补。

现在的人工智能(1986-)

如今,智能系统存在于各个领域,甚至在日常活动中,并且在游戏中表现出色,正如多年前人工智能倡导者所推论的那样。有些程序已经能够与国际象棋冠军竞争,例如深蓝;其他已用于太空任务的,例如 1998 年,NASA 使用了一个名为 Remote Agent 的程序,该程序能够管理与太空系统相关的活动;一些汽车现在配备了一个系统,可以在不使用人类驾驶员的情况下驾驶它们,因此是一种完全自主的方式。相反,在更多日常场景的背景下,想想能够预测温度变化的用于加热和空调的恒温器,管理居民的需求并与其他设备进行交互。在经济领域,就业率总体上对变化特别敏感,就像发生最深刻革命的金融科技一样。

阿西洛玛的原则

2017年,在生命未来研究所推动的世界人工智能专家会议之后,制定了一个包含23条原则的vademecum,并获得了非常广泛的共识,以解决人工智能的伦理、社会、文化和军事问题。该文件立即得到了 800 多名专家的签名,后来又得到了数千名专家的签名。

欧盟人工智能道德规范

从各国政府必须在最大程度尊重道德的情况下保证人工智能的使用这一前提出发,2019 年 4 月,欧盟制定了其道德准则,其中包含关于人工智能系统使用和开发的指导方针。该文件由 52 名专家组成,其中包括计算机科学家、工程师以及法学家、哲学家、实业家、数学家,该文件有一个漫长的过程和不同的研究阶段。整个文件以及由此产生的所有法律原则的出发点是,人工智能必须以人为中心,必须为公共利益服务,以改善福祉并保障自由。首先,专家组通过在欧盟条约、权利宪章和国际人权法中寻找法典的法律基础,确定了它们的法律基础。根据这一分析,已经确定了在欧盟必须尊重人工智能的强制性权利,即: 尊重人的尊严 个人自由 尊重民主和正义 平等和非歧视 公民权利 在这一点上可以说明欧盟应遵循哪些道德原则以确保人工智能系统得到可靠利用,即:尊重人类自主权、防止损害、公平和公正。专家组工作的最后阶段是起草欧盟道德准则指南,公司、研究人员和社区必须遵守该准则,并代表上述基本权利和原则的操作性翻译和综合. .

指南

人类监督:人工智能必须为人类服务,不得减少、限制或误导其自主性,更不得开发危害基本人权的系统。该人必须保持自主并能够监督系统本身。技术稳健性和安全性:算法必须可靠,并且以这样一种方式开发,即在系统的整个生命周期内不会危及安全性。隐私和数据治理:在使用人工智能的系统的整个生命周期内,必须始终告知公民其个人数据的使用完全符合欧盟隐私立法。透明度:透明度意味着人工智能系统的可追溯性。所有使用的数据,包括算法,都必须记录在案,只有这样才能理解原因,例如,基于人工智能的决策是错误的。多样性、无歧视、公平:人工智能系统必须考虑到所有人的能力和能力,保证所有人都可以访问。社会和环境福祉:必须使用人工智能系统来支持积极的环境变化并追求可持续发展目标。问责制:在报告人工智能系统中使用的数据和算法时必须采用问责机制。此评估过程可让您最大程度地减少任何负面影响。包括算法在内,必须记录在案,只有这样才能理解原因,例如,基于人工智能的决策不正确。多样性、无歧视、公平:人工智能系统必须考虑到所有人的能力和能力,保证所有人都可以访问。社会和环境福祉:必须使用人工智能系统来支持积极的环境变化并追求可持续发展目标。问责制:在报告人工智能系统中使用的数据和算法时必须采用问责机制。此评估过程可让您最大程度地减少任何负面影响。包括算法在内,必须记录在案,只有这样才能理解原因,例如,基于人工智能的决策不正确。多样性、无歧视、公平:人工智能系统必须考虑到所有人的能力和能力,保证所有人都可以访问。社会和环境福祉:必须使用人工智能系统来支持积极的环境变化并追求可持续发展目标。问责制:在报告人工智能系统中使用的数据和算法时必须采用问责机制。此评估过程可让您最大程度地减少任何负面影响。只有这样,才能理解为什么会做出错误的决策,例如基于人工智能的决策。多样性、无歧视、公平:人工智能系统必须考虑到所有人的能力和能力,保证所有人都可以访问。社会和环境福祉:必须使用人工智能系统来支持积极的环境变化并追求可持续发展目标。问责制:在报告人工智能系统中使用的数据和算法时必须采用问责机制。此评估过程可让您最大程度地减少任何负面影响。只有这样,才能理解为什么会做出错误的决策,例如基于人工智能的决策。多样性、无歧视、公平:人工智能系统必须考虑到所有人的能力和能力,保证所有人都可以访问。社会和环境福祉:必须使用人工智能系统来支持积极的环境变化并追求可持续发展目标。问责制:在报告人工智能系统中使用的数据和算法时必须采用问责机制。此评估过程可让您最大程度地减少任何负面影响。基于人工智能的决定是错误的。多样性、无歧视、公平:人工智能系统必须考虑到所有人的能力和能力,保证所有人都可以访问。社会和环境福祉:必须使用人工智能系统来支持积极的环境变化并追求可持续发展目标。问责制:在报告人工智能系统中使用的数据和算法时必须采用问责机制。此评估过程可让您最大程度地减少任何负面影响。基于人工智能的决定是错误的。多样性、无歧视、公平:人工智能系统必须考虑到所有人的能力和能力,保证所有人都可以访问。社会和环境福祉:必须使用人工智能系统来支持积极的环境变化并追求可持续发展目标。问责制:在报告人工智能系统中使用的数据和算法时必须采用问责机制。此评估过程可让您最大程度地减少任何负面影响。人工智能系统必须考虑所有人类的能力和能力,保证所有人都可以访问。社会和环境福祉:必须使用人工智能系统来支持积极的环境变化并追求可持续发展目标。问责制:在报告人工智能系统中使用的数据和算法时必须采用问责机制。此评估过程可让您最大程度地减少任何负面影响。人工智能系统必须考虑所有人类的能力和能力,保证所有人都可以访问。社会和环境福祉:必须使用人工智能系统来支持积极的环境变化并追求可持续发展目标。问责制:在报告人工智能系统中使用的数据和算法时必须采用问责机制。此评估过程可让您最大程度地减少任何负面影响。问责制:在报告人工智能系统中使用的数据和算法时必须采用问责机制。此评估过程可让您最大程度地减少任何负面影响。问责制:在报告人工智能系统中使用的数据和算法时必须采用问责机制。此评估过程可让您最大程度地减少任何负面影响。

研究

开发具有智能行为的系统的复杂问题已通过分解为子问题来解决,每个子问题都有特定的研究领域。每个子问题都在于研究表征智能系统的特定能力和特性。关于给定智能系统的应用范围,这将针对每个子问题提出或多或少的先进解决方案。

强弱人工智能

人工智能领域研究的一个主要区别是弱人工智能和强人工智能,根据是否只复制了人类思维的部分或全部功能。

演绎、推理和解决问题

研究人员最初专注于开发算法,忠实地模仿人类用来解决游戏或进行逻辑推理的推理,以便将它们集成到智能系统中。此类算法通常依赖于世界状态的符号表示,并寻找达到所需状态的动作序列。这些算法的演变考虑了更复杂的方面,例如信息的不确定性或不完整性,包括来自概率、统计和经济学的概念。由于与所考虑问题的内在复杂性相关的困难,解决这些问题的算法有时可能需要大量的计算资源。 L'算法优化是该领域研究的重中之重。

知识的表示

知识表示和知识工程是人工智能研究的核心贡献。特别是,这些学科关注在智能系统中集成什么样的知识是必要的或合适的,以及如何表示不同类型的信息。在智能系统需要表示的事物中,我们经常发现:对象、属性、类别和对象之间的关系、情况、事件、状态、时间、因果关系、他人拥有的知识。表示和知识工程通常与本体论的哲学学科相关联。知识及其表示对于这类智能系统尤其重要,这些智能系统的行为基于对其运行环境的知识的广泛显式表示。

规划

为了让智能系统能够预测和表示未来的世界状态,并通过最大化行动的预期价值来做出达到这些状态的决定,它们必须能够定义目标并追求它们。在经典的规划问题中,智能系统可以假设它是环境中唯一运行的实体,并且可以绝对确定所采取的任何行动的后果。如果它不是环境中的唯一参与者,或者环境不是确定性的,那么智能系统必须不断监控其行为的结果并更新未来的预测和计划。

学习

机器学习是研究能够通过经验自动提高个人表现的算法的学科。自成立以来,它一直是人工智能的一个重要研究领域。机器学习对于智能系统的开发尤为重要,主要有以下三个原因: 智能系统的开发人员几乎无法预见系统本身可能运行的所有可能情况,除了极其简单的上下文。智能系统的开发人员很难预测随着时间的推移环境中所有可能的变化。通过求助于涉及以下方面的解决方案,可以更有效地解决一大类问题。自动学习。这类问题包括,例如,国际象棋游戏和物体识别。

自然语言处理

处理自然语言的能力为智能系统提供了阅读和理解人类使用的语言的能力。这种能力在所有需要搜索信息、回答问题、翻译或分析文本的人工智能应用中证明是必不可少的。这个过程的主要困难是表征自然语言的内在歧义,因此解决方案需要对世界的广泛知识和非凡的操纵能力。

运动和操纵

机器人学是一门与人工智能密切相关的学科。机器人可以被视为智能系统,用于所有需要认知水平技能来操纵或移动物体和运动的任务,以及定位(确定一个人的位置和空间中其他实体的位置),地图构建(了解周围空间的特征),以及运动的规划和执行。

方法

智能代理

智能代理(或理性代理)的概念是许多更常见的人工智能方法的核心。代理是能够通过使用传感器感知环境并能够通过使用执行器作用于环境的实体。因此,每个代理都与一系列感知相关联,理解为每个传感器进行的所有检测的完整时间顺序,以及代理功能,通过将每个感知序列与要执行的动作相关联来指定代理的行为。性能度量定义为将效用值与环境的每个状态(或状态序列)相关联的函数,一个智能体是智能(或理性的)如果对于每一个可能的感知序列,给定他的知识由感知序列本身和集成的知识定义,他的智能体功能总是引导他执行最大化性能度量的预期值的动作进入代理。代理功能的具体实现有不同的方法论,每种方法或多或少都适合代理所在的环境类型。代理人。代理人。

简单的反应剂

这类智能体根据当前的感知选择要执行的动作,完全忽略了感知的历史。

基于模型的代理

这类代理的特点是维持一种内部状态,该状态取决于感知的时间顺序,同时反映了环境中一些未被观察到的方面。更新状态需要两种类型的知识:描述环境演变的模型,而不考虑代理执行的操作,模型描述代理的操作对环境的影响。

基于目标的代理

在许多应用程序中,跟踪环境的当前状态并不足以确定要采取的行动,但代理需要代表理想情况的信息,这些信息称为目标或目标。这种类型的智能代理是最常使用解决问题的规划和研究概念的智能代理。

基于效用的代理

在许多应用中,仅目标的概念不足以获得高质量的行为,因为所包含的信息只能用于区分理想状态和不良状态。通过效用的概念,可以精确地表征每个状态,确定每个状态对代理的良好行为的有用程度。

应用

人工智能已被用于广泛的领域和应用,例如医学、股票市场、机器人、法律、科学研究甚至玩具。在一些应用中,人工智能已经在社会或行业中根深蒂固,以至于不再被视为人工智能。即使在计算领域本身,也有许多最初是为了解决问题或需求而开发的解决方案。人工智能已被其他学科采用并且不再被视为人工智能的一部分。特别是:分时、解释器(计算机)、图形界面、鼠标、链表数据结构、函数式编程、符号编程、动态编程和面向对象编程。人工智能在银行中的首次使用可以追溯到 1987 年,当时美国太平洋国家安全银行组织了一个工作组,以防止与未经授权使用信用卡有关的欺诈行为。目前,不仅在银行业,神经网络还被用于识别不能归因于名义行为且需要人工干预的现象。神经网络也被广泛用于支持医学诊断,目前正在开发许多其他应用,例如: 医学图像的解释。心音分析。癌症诊断。药物的创造。陪伴老人的机器人。人工智能主要被电话和电信公司广泛用于创建自动在线助理,目的是降低招聘和培训员工的成本。人工智能在交通领域的使用也在迅速增加。模糊逻辑的应用已被用于汽车变速箱的实现。谷歌和特斯拉开发的自动驾驶汽车大量使用了人工智能技术。人工智能也被用于视频监控领域。该算法允许识别场景中存在的对象以生成警报。最后但并非最不重要的是复杂神经网络在文本生成中的应用,或者更确切地说,在将一般文本输入转换为也以字符表示的输出中的应用。尤其是近年来,OpenAI发布了多个版本的GPT“模型”,取得了相当大的成功和轰动。通过这个基于特定神经网络的模型,可以生成故事、自动总结文本、越来越准确地从一种语言翻译成另一种语言。通过这门学科,应用程序是最不同的,包括与二项式新闻和写作有关的应用程序,包括值得注意且具有强大社会影响的应用程序。例如,《华盛顿邮报》早在 2017 年就宣布它在一年内发布了 850 条新闻,由一位人工智能。 Storykube 利用人工智能来支持新闻的起草和事实核查。最后,加拿大报纸《环球邮报》,完全由人工智能指导。

意大利的人工智能市场

意大利人工智能市场仍处于起步阶段,但未来前景乐观:2018 年达到 8500 万欧元,这一数字指的是对开发和实施项目的投资,例如:人工智能的发展算法;用于存储和处理数据的硬件;数据管理软件;集成和个性化服务 要了解人工智能在意大利技术背景下的价值,只需注意它如何与云转型和物联网等其他数字趋势交织在一起。第一个使数据收集和处理所需的基础设施可扩展,第二个创建设备和传感器,这些设备和传感器不仅可用于数据收集,还可用于提供基于人工智能的服务。

AI对意大利企业的意义

媒体和公司越来越关注人工智能这个话题,但这有时会导致对这项技术的看法不明确。事实上,企业往往认为这是一种能够完全复制人类智能的解决方案,但这个让人联想到强人工智能方法的定义,与该学科的实际应用几乎没有关系。另一方面,对该主题有更高认识的公司认为,人工智能被定义为一组具有人类典型能力的系统。

人工智能与失业

与在劳动世界中实施人工智能相关的一个主要经济问题是它不可避免地导致的失业。事实上,越来越多的人正在失去工作,因为人工智能取代了他们。

意大利人工智能的未来

尽管整个意大利公司在这个主题上还没有统一的愿景,但已经确定了特别有趣的发展领域: 智能家居扬声器 这些是能够管理家中智能对象的智能语音助手。它们是最近推出的,但它们在意大利的市场价值已经达到 6000 万欧元,而且这个价值似乎注定会增长:在不久的将来,这些助手可以作为传达与世界相关的服务和应用程序的渠道人工智能,为行业企业创造新的发展机遇。智能机器人 该类别包括协作机器人和 AGV(自动导引车)。前者与人类操作员合作,并能够使他们的行为适应外部刺激,而后者通过独立移动来适应外部环境,无需物理指南或预定路径的支持。智能导师 此类别包括 Edugames 或机器人的化身,他们在博物馆和其他学习场所内,引导学习者 - 访客并充当人工教师 - 教育者。

人工智能为善

AI for Good 是联合国的 IT 平台,旨在促进科学界的对话,旨在通过对这一技术系列的合乎道德和共同利益的使用,开发人工智能领域的具体项目。从 2017 年开始,AI for Good 每年都会组织一次全球活动,第四届活动定于 2020 年 9 月 21 日在瑞士日内瓦举行。该倡议与全球目标相关,特别是在可持续发展方面,与联合国会议通常制定的计划和政策文件相比,旨在获得更直接和更具体的结果。人工智能应用被分为三大类:AI for Earth (AI for Earth)、AI for Humanitarian (Humanitarian AI) 和 AI for Healthcare。首届 AI for Good 全球峰会于 2017 年 6 月 7 日至 9 日在日内瓦举行。成立了一个 ITU-T 焦点小组5G 连接技术的机器学习。第二届 AI for Good 全球峰会于 2018 年 5 月 15 日至 17 日在日内瓦国际电联总部举行,共产生了 35 个项目,还与世卫组织合作开展了 AI 4 Health (FG-AI4H) 类别。演讲者包括 Roger Penrose 和 Samantha Cristoforetti。在那次会议上,启动了一个旨在实现可持续发展目标的 AI for Goods 项目和相关示例库,同时国际电联推出了 ICT Discoveries 杂志,其第一个特别版致力于人工智能。第三届 AI for Good 全球峰会于 2019 年 5 月 28 日至 5 月 31 日在联合国总部瑞士城市举行,讨论了人工智能的民用和军事应用。太空中的人工智能,例如 2 周时间范围内的可靠天气预报、预测与地球碰撞过程中的小行星和天体、监测鲸鱼或濒危物种的动物迁徙、基于地理位置的管理卫星服务(例如作为没有驾驶员的车辆的自动控制)。再次在作为联合国总部的瑞士城市,关于人工智能在太空中的民用和军用应用,例如 2 周时间范围内的可靠天气预报,碰撞过程中小行星和天体的预测与地球,鲸鱼或濒危物种的动物迁徙的监测,基于地理定位的服务的卫星管理(例如没有司机的车辆的自动控制)。再次在作为联合国总部的瑞士城市,关于人工智能在太空中的民用和军用应用,例如 2 周时间范围内的可靠天气预报,碰撞过程中小行星和天体的预测与地球,鲸鱼或濒危物种的动物迁徙的监测,基于地理定位的服务的卫星管理(例如没有司机的车辆的自动控制)。鲸鱼或濒危物种的动物迁徙监测,基于地理定位的服务的卫星管理(例如自动控制没有驾驶员的机动车辆)。鲸鱼或濒危物种的动物迁徙监测,基于地理定位的服务的卫星管理(例如自动控制没有驾驶员的机动车辆)。

批评与争议

人们越来越关注人工智能的伦理、环境和社会影响,以及提高大型科技公司对其算法的透明度和问责制的必要性。主要批评涉及: 算法偏见 对“黑盒”算法产生的结果缺乏问责制 人工智能设备中使用的稀有矿物的不道德采购 数据中心的环境足迹、能源和水的使用 利用数字“点击工作”工作参与人工智能训练和内容审核的数据标记用户消费和投票偏好的算法操纵

哲学辩论

回答“机器能思考吗?”的问题。由于支持(丹尼尔·丹尼特、希拉里·普特南、罗杰·彭罗斯)和反对(休伯特·德雷福斯、约翰·塞尔、杰拉尔德·埃德尔曼、杰瑞·福多)的争论,辩论仍然开放。有两种不同的哲学思潮试图将智能机器定义为以下产物: 弱人工智能(弱人工智能):这种思想的基础在于相信机器可以用定义明确的规则进行编程,以便以一种聪明的方式行事。强人工智能(strong AI):这一思想的基础在于,机器的智能行为意味着它也知道它真正的行为方式。1950 年,艾伦·图灵(Alan Turing)在他的文章“计算机与智能”中,他将哲学辩论带到了更实用的层面,基于他发明的行为测试给出了智能的操作定义,称为“模仿游戏”,也被称为“图灵测试”。该测试基于三个对齐的房间的存在,其中第一个房间是男人,最后一个房间是女人;提问者位于中央。男人和女人只能通过键盘打字和屏幕阅读来与审讯者交流短信。女人的目的是表明自己是女人,而男人的目的是欺骗提问者,让他相信他是女人。第二次重复这个游戏,用人换机器。如果询问器正确识别男人和女人的频率至少与他正确识别机器和女人的频率相同,则该机器被定义为智能。因此,当且仅当机器表现得像人时,机器才可以被认为是智能的,因此,只有当它设法像人一样欺骗提问者时。后来,John Searle 在《Minds, Brains and Programs》一文中描述了一个反对强人工智能的思想实验,称为“中国房间”。他想证明能够通过图灵测试的机器无法理解其中发生的事情;因此,他不知道自己的行为方式。实验由一个只懂英文的人组成,配备一本用英文写成的中文语法书和各种纸张,有些是白色的,有些带有符号。这个人在房间里,外面有一扇小窗户。无法辨认的符号出现在窗口中。该人匹配规则书符号并按照说明进行操作。说明可以包括在新工作表上书写符号、查找新符号等。最后,这些写好的表格将通过窗户传递给外界。对于外部观察者来说,机器正在接收中国符号,处理它们并用其他符号做出反应,就像有意识的人一样。从这个意义上说,根据图灵测试,它应该被认为是智能的。 Searle 指出的问题是,实际上机器内部没有任何东西真正懂中文,所以他不知道他实际上在做什么。根据 Searle 的说法,她只是遵循书中描述的一套规则。然而,根据丹尼尔丹尼特的说法,由于塞尔未能务实地证明他的论点,因此辩论仍然开放,因此不得不求助于直觉。

Fantascienza

在科幻作品中,人工智能是一个反复出现的主题,作为一个简单的叙事元素或作为故事的中心主题。它通常以先进的计算机、机器人或机器人的形式呈现。这个主题通常与机器的反叛有关,其中一台计算机(在大多数情况下是有知觉的)反对建造它的人类。在有知觉的计算机中有例如 Multivac,出现在一些故事中由艾萨克·阿西莫夫 (Isaac Asimov) 编写,可与现代网格计算系统相媲美,以及斯坦利·库布里克 (Stanley Kubrick) 的 2001:太空漫游 (1968) 中的 HAL 9000。相反,《银河系漫游指南》中的 Deep Thought 是一种人工智能,能够为“关于生命的基本问题,宇宙和一切。“在终结者电影系列中,天网超级计算机被呈现为一组高度进化的网络,由美国国防部在冷战结束时建立,最终将成为一个具有自我意识的整体和承担,指挥机器人和半机械人的军队,一场无情的灭绝人类战争。在电影黑客帝国中,智能机器奴役数十亿人,从他们身上汲取电力。除了电影之外和电视,还有卡通和视频游戏的世界都利用了人工智能的主题。一个例子是 Cortana,出现在 Halo 传奇中的人工智能(微软也给它的虚拟助手起这个名字:Windows 10 上的 Cortana)。 Sentient 机器人或机器人也是经典之作。在机器可能会逐渐变得与人类更相似的假设中,作者假设机器具有巨大的计算能力并具有个性。 “正电子机器人”,例如基金会小说中的机器人 R. Daneel Olivaw、偏执机器人 Marvin、星球大战中的 R2-D2 和 C-3PO、星际迷航:下一代中的日期和 Humandroid 中的 Chappie 只是几个例子。最著名的。这些机器与简单的机器人的不同之处在于,它们具有强大且“人性化”的个性,这得益于极其先进的人工智能。假设机器可能会逐渐变得与人类更相似,作者假设机器具有巨大的计算能力并具有个性。 “正电子机器人”,例如基金会小说中的机器人 R. Daneel Olivaw、偏执机器人 Marvin、星球大战中的 R2-D2 和 C-3PO、星际迷航:下一代中的日期和 Humandroid 中的 Chappie 只是几个例子。最著名的。这些机器与简单的机器人的不同之处在于,它们具有强大且“人性化”的个性,这得益于极其先进的人工智能。假设机器可能会逐渐变得与人类更相似,作者假设机器具有巨大的计算能力并具有个性。 “正电子机器人”,例如基金会小说中的机器人 R. Daneel Olivaw、偏执机器人 Marvin、星球大战中的 R2-D2 和 C-3PO、星际迷航:下一代中的日期和 Humandroid 中的 Chappie 只是几个例子。最著名的。这些机器与简单的机器人的不同之处在于,它们具有强大且“人性化”的个性,这得益于极其先进的人工智能。《星球大战》中的 R2-D2 和 C-3PO、《星际迷航:下一代》中的日期和 Humandroid 中的查比只是其中一些最著名的。这些机器与简单的机器人的不同之处在于,它们具有强大且“人性化”的个性,这得益于极其先进的人工智能。《星球大战》中的 R2-D2 和 C-3PO、《星际迷航:下一代》中的日期和 Humandroid 中的查比只是其中一些最著名的。这些机器与简单的机器人的不同之处在于,它们具有强大且“人性化”的个性,这得益于极其先进的人工智能。

Note

Bibliografia

Diego Gosmar,机器学习。人工智能第六脉轮,ISBN 979-8644551132,2020 Enrico Prati,Artificial mind,米兰,EGEA,2017,ISBN 978-88-238-7997-3。 Somalvico Marco、Amigoni Francesco 和 Schiaffonati Viola,人工智能,Petruccioli Sandro(编辑),科学史卷。 IX,罗马,意大利百科全书研究所,2003 年,第。 615-624。 Marcus Hutter,通用人工智能,柏林,施普林格,2005 年,ISBN 978-3-540-22139-5。 George Luger 和 William Stubblefield,人工智能:解决复杂问题的结构和策略,第五版,Benjamin / Cummings,2004,ISBN 0-8053-4780-1。 Stuart Russell 和 Peter Norvig,人工智能:现代方法,第二版,培生教育有限公司,2003 年,ISBN 978-0-13-790395-5。Stuart Russell e Peter Norvig,人工智能:现代方法,terza edizione,培生教育有限公司,2009,ISBN 978-0-13-604259-4。 Nils J. Nilsson,人工智能的探索,思想和成就的历史,网络版,斯坦福大学,2010。Antonio Lieto,人工思维的认知设计,英国伦敦,Routledge,Taylor & Francis,2021,ISBN 978- 1-138-20792-9。 Gardner A.,法律推理的人工智能方法,0262071045,9780262071048 MIT 1987 Nick Bostrom,Superintelligenza,2018,Bollat​​i Boringhieri,ISBN 9788833929019Antonio Lieto,人工思维的认知设计,英国伦敦,Routledge,Taylor & Francis,2021,ISBN 978-1-138-20792-9。 Gardner A.,法律推理的人工智能方法,0262071045,9780262071048 MIT 1987 Nick Bostrom,Superintelligenza,2018,Bollat​​i Boringhieri,ISBN 9788833929019Antonio Lieto,人工思维的认知设计,英国伦敦,Routledge,Taylor & Francis,2021,ISBN 978-1-138-20792-9。 Gardner A.,法律推理的人工智能方法,0262071045,9780262071048 MIT 1987 Nick Bostrom,Superintelligenza,2018,Bollat​​i Boringhieri,ISBN 9788833929019

相关项目

智能代理 Alan Turing 机器学习 Google DeepMind John Searle Intelligence 强人工智能 人工神经网络 Watson(人工智能) 机器学习 遗传算法 全人工智能理论计算

其他项目

维基语录包含关于人工智能的引述 维基教科书包含关于人工智能的文本或手册 维基共享资源包含关于人工智能的图像或其他文件

外部链接

人工智能 (EN) 人工智能,在 Encyclopedia Britannica,Encyclopædia Britannica, Inc. (EN) 上的人工智能作品,在开放图书馆,互联网档案馆。