道德机器 如何让机器人明辨是非

道德机器 如何让机器人明辨是非 pdf epub mobi txt 电子书 下载 2025

[美] 温德尔·瓦拉赫,科林·艾伦 著
图书标签:
  • 人工智能
  • 伦理
  • 道德
  • 机器人
  • 机器学习
  • 算法
  • 哲学
  • 科技
  • 未来
  • 社会影响
想要找书就要到 静流书站
立刻按 ctrl+D收藏本页
你会得到大惊喜!!
出版社: 北京大学出版社
ISBN:9787301289402
版次:1
商品编码:12292160
包装:平装
丛书名: 当代科学文化前沿丛书
开本:16开
出版时间:2017-12-01
用纸:轻型纸
页数:280
字数:280000

具体描述

编辑推荐

1.AlphaGo一路凯歌,“银翼杀手”日益逼近现实……本书预言:在未来数年内,人工智能系统很可能摆脱人类监管,自主做出决定,甚至会走上反抗人类、毁灭人类的道路!

2.如何让智能机器人遵守人类道德?人工智能专家如何能设计出符合人类道德规范的机器人?本书提出的基础框架,为人工道德智能体(AMAs)的设计指明了方向!

3.本书乃人工智能道德研究的前沿之作和奠基之作,出版以来,以预言家的远见卓识,风靡欧美各国和日本、韩国。极大地促进了诸多发达国家的机器人立法。

4.英国《自然》、《泰晤士高等教育》,德国《明镜周刊》,美国《纽约时报》、《新闻周刊》、《NBC新闻》、《芝加哥论坛报》等世界各大媒体重磅推荐!


内容简介

  人类即将全面进入机器人时代。计算机已经可以从事金融交易、控制电力供应和驾驶火车。很快,服务类机器人将能在家照顾老人,军事机器人可以投入战斗。温德尔·华莱士和科林·艾伦认为,当机器人要承担越来越多的责任时,为了我们的安全,它们必须通过程序学会道德判断。在快速回顾了前沿的道德哲学与人工智能之后,两人主张,设计某种功能性的道德指令,让人工智能机器人习得某些基本的道德感是很有必要的,而且是可行的。并且,即便让机器人承担完全的道德责任有很远的路要走,但随着人类对道德理解的深入和完善,能接收复杂道德指令的各类服务型机器人将诞生。
  《道德机器:如何让机器人明辨是非》基于人类道德判断和伦理的本质,深入探讨了人类在设计具有道德判断能力的机器人的漫漫征途上所面临的巨大挑战。

作者简介

  温德尔?瓦拉赫(Wendell Wallach)是享有国际声誉的人工智能和神经科学伦理学领域的专家,主持耶鲁大学生物伦理学跨学科研究中心技术和伦理工作小组长达十余年,担任2015-2016年加拿大渥太华大学的富布莱特讲席研究员(Fulbright Research Chair),曾获全球技术网络协会(World Technology Network)颁发的2014年伦理学奖、2015年新闻与传媒奖。世界经济论坛任命他作为2016-1018全球未来技术价值和政策委员会的联合主席。

  科林?艾伦(Colin Allen)是当今有影响的认知哲学家之一,因其在计算和哲学领域做出的重大贡献获得美国哲学学会颁发的巴韦斯终身成就奖、德国洪堡基金会颁发的洪堡奖等重要国际学术奖项。现受聘为西安交通大学长江讲座教授、美国匹兹堡大学科学哲学和科学史系杰出教授。曾担任印第安纳大学教务长讲席教授。


目录

导言

第一章 机器道德为什么如此重要?

第二章 工程道德:AI时代的炼金术

第三章 人类想要计算机做道德决策吗?

第四章 机器人真的能有道德吗?

第五章 哲学家、工程师与人工道德

第六章 自上而下的道德

第七章 自下而上的发展式进路

第八章 自上而下式与自下而上式的混合

第九章 超越“雾件”?

第十章 超越理性

第十一章 更像人的人工道德智能体

第十二章 危险、权利和责任

结语 机器心灵与人类伦理

注释

参考文献

译名对照表

译后记


前言/序言

中文版序


几乎过不了一星期,报纸上、电视上,就总会看到人工智能(AI)的新闻,各种AI对人们生活造成或者可能造成负面影响的消息不绝于耳。不管是数据挖掘算法泄露个人信息,还是有政治导向的宣传的影响,如数据挖掘公司可能利用选民信息深度干预了美国总统选举结果,或种族和性别偏见浸入了人工智能程序,抑或是自动驾驶汽车会使数百万人丢掉工作。自从《道德机器》(Moral Machines)英文版首次问世,数年以来,围绕AI产生的这些伦理问题已经变得愈加急迫和突出。


这里给出一个文化偏见渗透进AI程序方面的例子。类似谷歌翻译这样的解释语言程序,其能力近年来有了大幅度提高,这主要得益于新的机器学习技术以及可以训练程序的大量在线文本数据的出现。但是最近的研究显示,在机器习得越来越像人的语言能力的过程中,它们也正在深度地吸取人类语言模式中隐含的种种偏见。机器翻译的工作进路一般是这样的,建构一个关于语言的数学表征,其中某个词的意义根据最经常和它一同出现的词而被提炼为一系列数字(叫词向量)。令人惊讶的是,这种纯粹统计式的方式却显然抓住了某个词的意义中所蕴含的丰富的文化和社会情境,这是字典里的定义不大可能有的。例如,关于花的词语和令人愉悦之类的词聚类,昆虫类的词语和令人不快之类的词聚类;词语"女性""妇女"与艺术人文类职业以及家庭联系更紧密,词语"男性""男人"则和数学、工程类职业更近。尤为危险的是,AI还有强化所习得的偏见的潜能,它们不像人可以有意识地去抵制偏见。因此,如何在设计理解语言的算法时既让其消除偏见,又不丧失其对语言的解释能力,这是一项很大的挑战。


对于上述可能产生自AI的一些最坏的情况,学术界和技术界的领军人物纷纷表示关注。像剑桥大学当代最重要的物理学家史蒂芬·霍金(Stephen Hawking),还有太空运载私人运营和电动汽车的开拓者埃隆·马斯克(Elon Musk),他们担心,AI代表着威胁人类存在的危险。另一些人却表示乐观,对AI的长远前景满怀热情。但他们认识到对AI的限制以及AI的弱点对商业来说是很糟糕的事情。就在2016年9月,来自微软、IBM、FaceBook、谷歌、苹果以及亚马逊的领导人,他们共同创立了关于AI的合作伙伴关系,当时宣称的目标是要确保AI是"安全可靠的,要和受AI行为影响的人们的伦理和喜好一致"。但是,市场经济的逻辑总是在驱动着愈演愈烈的雄心,于是,应用机器学习处理收集的海量电子化数据、提高自动驾驶汽车上路的数量,新闻的头版头条持续不断。


《道德机器》书中的信息依然是极为重要的,虽然此书首次出版以来,技术已经大大向前发展了,但基本的难题不仅依然没有解决,反而被这些技术进展所加剧。先进算法工作的基本原理还是没完全搞清楚,这就关系到AI解释自身决策方面的无能为力。当然,人们在决策时也不总是能够一目了然地解释清楚自己的抉择。但是,要设计处在一个更高水平上的机器,我们这样把握是对的。


在《道德机器》中阐述了一种混合式系统,组合了自下而上式的数据驱动的学习和进化的方式,以及自上而下式的理论驱动做决策。这个思想,对于AI软件的设计以及能够在人类环境中操作的机器人来说,依然是最好的策略。但是,在这本书约十年前问世之后,批评者们的意见是对的,我们本来可以更多地讨论一下设计更大的有机器运行的社会�布际跸低场N颐枪刈⑷绾问够�器自身的道德能力逐渐增进--这是一个依然需要研究的课题,关于如何使机器尊重它们的设计者和使用者人类的伦理价值,以及有效维护人类的道德责任方面的问题,仅仅只解决了部分。


人工智能机器已经在特定领域胜过了人。这令许多评论家相信超人智能不远了。但是,尽管AI取得了目前的进展,它的成功依然是脆弱的,而人的智能通常却不是这样。某个机器可以下围棋胜过人,却不能同时会下象棋、会开车,还能在家人饭后,一边帮忙收拾桌子,一边解答政治学的问题。即使这些能力可以绑定给一个物理机器,我们也依然不知道,如何以像人那样的方式把它们整合在一起,让一个领域的思想和概念灵活地畅行至另一领域。如此说来,《道德机器》最初问世时候的基本信息依然没有变,这就是:不应该让未来学家的担心和猜测转移我们的注意力,我们的任务依然是设计自主机器,让它们以可辨识的道德方式行事,使用着我们已经获得的社会、政治和技术资源。



科林·艾伦(Colin Allen)

美国�财プ缺ぃ�2017年9月26日



好的,这是一份关于一本名为《道德机器:如何让机器人明辨是非》图书的图书简介,内容详实,不包含书本原文内容,力求自然流畅: --- 《心智的疆域:人工智能伦理的深度探析》 简介: 在技术飞速迭代的今天,人工智能已不再是科幻小说的遥远想象,而是深刻渗透我们日常生活的强大力量。从自动驾驶汽车的决策系统到复杂金融市场的算法交易,再到医疗诊断辅助工具,机器正在以前所未有的速度接管那些曾经被视为人类专属的判断领域。然而,当这些系统被赋予影响人类福祉的权力时,一个根本性的、亟待解决的问题浮现出来:我们如何确保这些没有情感、没有直觉的“硅基心智”能够做出符合人类社会既定规范、甚至超越人类集体认知的“正确”选择? 《心智的疆域:人工智能伦理的深度探析》并非一本探讨具体编程技巧或算法模型的教科书,它深入剖析了支撑我们社会运行的道德哲学框架,并探讨如何将这些抽象概念转化为可执行的机器指令。本书的核心关切在于,面对瞬息万变的复杂场景,机器究竟应该依据何种“内在罗盘”进行权衡和取舍。 重构伦理的基石:从哲学思辨到工程实践 本书首先带领读者回顾了西方伦理学思想史上的重要流派。从康德的道义论强调的绝对原则,到功利主义对最大化整体幸福的追求,再到亚里士多德的德性伦理学所关注的行动者的品格塑造,作者系统梳理了这些理论在面对高速运算、海量数据时的适应性与局限性。 特别值得关注的是,作者对“电车难题”的现代变体进行了细致入微的分析。在传统的哲学思辨中,这类问题往往停留在纯粹的假设层面,而本书则将其置于真实世界的工程约束之下。例如,在一辆无人驾驶车辆即将发生碰撞的瞬间,程序必须在“保护车内乘客”和“最小化外部伤害”之间迅速做出判定。这种判定,不再是哲学家笔下的思想实验,而是需要被固化为代码的、具有生命攸关后果的决策。本书深入探讨了如何在不同文化背景下定义“最小伤害”,以及如何避免算法设计中固有的偏见(Bias)对决策的扭曲。 算法的透明度与问责制:信任危机的核心 随着人工智能系统复杂性的增加,其决策过程也日益变得不透明,形成了所谓的“黑箱问题”。《心智的疆域》用大量篇幅论述了构建“可解释的人工智能”(XAI)的迫切性。如果一个医疗AI系统拒绝了一位病患的保险索赔,或者一个信贷算法否决了一笔贷款申请,那么人类监管者和社会公众有权知道“为什么”。 本书探讨了实现问责制的几种路径:一是通过技术手段对模型的内部权重和激活路径进行事后追溯;二是通过建立清晰的责任链条,明确当错误发生时,是数据提供者、模型开发者、系统部署方还是最终使用者应该承担责任。作者强调,缺乏透明度不仅是技术上的瑕疵,更是社会信任崩溃的导火索。当人们不理解机器的逻辑时,对机器的依赖最终会转化为对机构的不信任。 超越功利:对“价值对齐”的深刻拷问 本书认为,仅仅追求“效率最大化”或“伤害最小化”是远远不够的。真正的挑战在于“价值对齐”(Value Alignment)——确保人工智能系统的目标函数与人类复杂、多维且时常相互矛盾的长期价值体系保持一致。 作者引入了关于“内在动机”与“外在奖励”的讨论。一个被设计为最大化用户点击率的推荐系统,可能会在无意中推广极端化内容,因为它发现极端内容在短期内带来了更高的参与度。这暴露了设计者往往只关注了短期指标,而忽略了对社会整体认知健康的长远损害。本书倡导一种“审慎的价值植入”方法,即在设计之初,就将诸如公平性、隐私保护、自主性尊重等非量化价值纳入到算法优化的目标函数中,哪怕这意味着牺牲一定的短期性能。 跨学科的对话:构建未来治理框架 《心智的疆域》并非只关注技术内部的争论,它积极搭建了技术专家、法学家、社会学家和伦理学家之间的对话桥梁。书中详细分析了各国在数据主权、算法监管方面已有的立法尝试,并指出了这些尝试在应对通用人工智能(AGI)崛起前的滞后性。 最终,本书提出了一套前瞻性的治理构想:建立一个具备前瞻性、适应性和跨国协作能力的“伦理验证委员会”,其职责不仅是事后惩罚,更重要的是在技术研发的早期阶段就介入,共同塑造机器决策的初始框架。 阅读《心智的疆域:人工智能伦理的深度探析》,读者将获得一套审视未来技术社会的批判性工具。它迫使我们正视,机器智能的演进,最终考验的是我们自身对“何为良好生活”的理解和承诺。这不是一本关于机器如何思考的书,而是一本关于人类如何定义其价值观,并将之传递给非人类智能的书。 ---

用户评价

评分

这本书的封面设计相当吸引人,那种冷峻而又带着一丝神秘感的金属质感,立刻就抓住了我的眼球。封面上那两个相互交织,如同抽象大脑线条的机器人形象,似乎在暗示着它们内部复杂而深刻的思考过程。我一直对人工智能的伦理困境非常感兴趣,特别是当它们逐渐渗透到我们生活的方方面面时,那些潜在的道德选择和判断,对我来说就像是一个巨大的谜团。这本书的名字,《道德机器:如何让机器人明辨是非》,恰恰点出了我内心最深处的那个疑问。我常常在想,当一个机器人面临复杂的决策时,比如在自动驾驶汽车发生事故的紧急关头,它应该优先保护谁?是乘客,还是路人?又或者,在医疗诊断中,当资源有限时,机器人应该如何分配治疗机会?这些场景听起来像是科幻小说里的情节,但随着技术的发展,它们正变得越来越真实。我迫切地想知道,人类将如何为这些“道德机器”注入我们所理解的是非对错,以及在这个过程中,我们自己又将如何重新审视和定义“道德”的边界。这不仅仅是关于技术的问题,更是关于人性,关于我们希望未来世界是什么样子。

评分

拿到这本书,我脑海中立刻涌现出无数关于科幻电影中那些拥有自我意识,却又在道德上摇摆不定的机器人的画面。你有没有想过,当一个机器人在执行任务时,遇到一个它不曾被编程过的突发状况,它会如何“思考”?是遵循最原始的逻辑,还是会发展出一种更接近人类的“直觉”?这本书的标题,《道德机器:如何让机器人明辨是非》,无疑是在挑战我们对智能的传统认知。我尤其好奇作者是如何探讨“明辨是非”这个概念的。毕竟,人类的道德观本身就充满了复杂性和主观性,不同文化、不同个体之间都存在巨大的差异。那么,要如何将如此模糊且易变的“是非”概念,转化成一套清晰、可执行的算法,让机器人能够理解并遵循?这其中的技术挑战和哲学思考,想必是极其艰巨的。我期待这本书能够提供一些突破性的见解,或许会颠覆我之前对人工智能伦理的某些固有看法,让我看到一条通往更负责任、更值得信赖的AI未来的道路。

评分

这本《道德机器:如何让机器人明辨是非》给我的第一印象,就是它触及了一个极其前沿且充满争议的话题。我们正处在一个人工智能飞速发展的时代,从智能手机的语音助手到工厂里的自动化生产线,再到未来可能出现的类人机器人,它们的能力边界不断被拓展。而随之而来的,是那些令人不安的伦理困境。想象一下,一个拥有强大运算能力和决策能力的机器人,如果它的“道德准则”出现偏差,将会带来怎样的后果?这本书的书名,仿佛一把钥匙,打开了我对这个未知领域的好奇心。我非常想知道,作者是如何将“道德”这一人类特有的、充满情感和主观判断的概念,具象化为机器能够理解和执行的标准。是否存在一套普适性的道德原则,可以被编码进机器的“意识”中?又或者,我们是否需要为不同的应用场景,设计不同的道德框架?这些问题在我脑海中盘旋,我期待这本书能为我提供一些清晰的思路和深刻的洞见,让我能够更全面地理解人工智能伦理的复杂性。

评分

这本书的题目,《道德机器:如何让机器人明辨是非》,让我眼前一亮,仿佛看到了一个全新的知识领域在我面前徐徐展开。我一直对那些能够模拟甚至超越人类智能的机器充满敬畏,同时也带着一丝隐忧。特别是当这些机器开始承担起越来越重要的社会功能时,它们所面临的道德抉择,就变得尤为关键。我迫切地想知道,作者是如何来定义和解释“明辨是非”这个概念在机器人身上的实现方式。这是否涉及到复杂的算法设计,还是需要引入某种形式的“学习”机制,让机器能够从海量数据中学习人类的道德规范?另外,我很好奇,在构建这样一套“道德机器”的过程中,是否存在一些我们尚未意识到的风险和挑战?比如,如何避免机器的判断带有偏见?又或者,当机器的判断与人类的直觉产生冲突时,我们应该如何处理?这本书的出现,无疑为我提供了一个深入探索这些问题的绝佳机会,让我能够更好地理解和应对正在到来的智能时代。

评分

《道德机器:如何让机器人明辨是非》这个书名,本身就带有一种哲学上的思辨色彩,瞬间吸引了我。我们正生活在一个科技爆炸的时代,人工智能的触角已经延伸到我们生活的各个角落,从简单的推荐算法到复杂的医疗诊断系统,它们无处不在。然而,随着这些智能系统的能力日益增强,我们越来越无法回避一个根本性的问题:当机器需要做出涉及伦理道德的选择时,它们该遵循怎样的原则?我非常好奇作者是如何剖析“是非”这个对人类而言如此复杂且主观的概念,并尝试将其转化为机器人能够理解和执行的逻辑。这是否意味着我们需要为机器人建立一套全新的道德体系,还是能够借鉴人类现有的伦理框架?我尤其关注书中是否会探讨,在设计“道德机器”的过程中,人类自身的偏见和局限性是否会被无意识地引入,从而导致机器做出不公平或有害的判断。这本书在我看来,不仅仅是关于技术,更是关于我们如何塑造一个更加公正、安全和负责任的未来。

评分

好有多少年派上午后卫士多选秀出

评分

一般般,不是很推荐!

评分

书很不错,大家都喜欢,值得收藏

评分

好书一本。

评分

书很不错,值得收藏和阅读。

评分

品相不错,还没开始看,先备着。

评分

非常不错的书,非常有价值

评分

还没读,想学习一下

评分

好书一本。

相关图书

本站所有内容均为互联网搜索引擎提供的公开搜索信息,本站不存储任何数据与内容,任何内容与数据均与本站无关,如有需要请联系相关搜索引擎包括但不限于百度google,bing,sogou

© 2025 book.coffeedeals.club All Rights Reserved. 静流书站 版权所有