1.AlphaGo一路凯歌,“银翼杀手”日益逼近现实……本书预言:在未来数年内,人工智能系统很可能摆脱人类监管,自主做出决定,甚至会走上反抗人类、毁灭人类的道路!
2.如何让智能机器人遵守人类道德?人工智能专家如何能设计出符合人类道德规范的机器人?本书提出的基础框架,为人工道德智能体(AMAs)的设计指明了方向!
3.本书乃人工智能道德研究的前沿之作和奠基之作,出版以来,以预言家的远见卓识,风靡欧美各国和日本、韩国。极大地促进了诸多发达国家的机器人立法。
4.英国《自然》、《泰晤士高等教育》,德国《明镜周刊》,美国《纽约时报》、《新闻周刊》、《NBC新闻》、《芝加哥论坛报》等世界各大媒体重磅推荐!
温德尔?瓦拉赫(Wendell Wallach)是享有国际声誉的人工智能和神经科学伦理学领域的专家,主持耶鲁大学生物伦理学跨学科研究中心技术和伦理工作小组长达十余年,担任2015-2016年加拿大渥太华大学的富布莱特讲席研究员(Fulbright Research Chair),曾获全球技术网络协会(World Technology Network)颁发的2014年伦理学奖、2015年新闻与传媒奖。世界经济论坛任命他作为2016-1018全球未来技术价值和政策委员会的联合主席。
科林?艾伦(Colin Allen)是当今有影响的认知哲学家之一,因其在计算和哲学领域做出的重大贡献获得美国哲学学会颁发的巴韦斯终身成就奖、德国洪堡基金会颁发的洪堡奖等重要国际学术奖项。现受聘为西安交通大学长江讲座教授、美国匹兹堡大学科学哲学和科学史系杰出教授。曾担任印第安纳大学教务长讲席教授。
导言
第一章 机器道德为什么如此重要?
第二章 工程道德:AI时代的炼金术
第三章 人类想要计算机做道德决策吗?
第四章 机器人真的能有道德吗?
第五章 哲学家、工程师与人工道德
第六章 自上而下的道德
第七章 自下而上的发展式进路
第八章 自上而下式与自下而上式的混合
第九章 超越“雾件”?
第十章 超越理性
第十一章 更像人的人工道德智能体
第十二章 危险、权利和责任
结语 机器心灵与人类伦理
注释
参考文献
译名对照表
译后记
中文版序
几乎过不了一星期,报纸上、电视上,就总会看到人工智能(AI)的新闻,各种AI对人们生活造成或者可能造成负面影响的消息不绝于耳。不管是数据挖掘算法泄露个人信息,还是有政治导向的宣传的影响,如数据挖掘公司可能利用选民信息深度干预了美国总统选举结果,或种族和性别偏见浸入了人工智能程序,抑或是自动驾驶汽车会使数百万人丢掉工作。自从《道德机器》(Moral Machines)英文版首次问世,数年以来,围绕AI产生的这些伦理问题已经变得愈加急迫和突出。
这里给出一个文化偏见渗透进AI程序方面的例子。类似谷歌翻译这样的解释语言程序,其能力近年来有了大幅度提高,这主要得益于新的机器学习技术以及可以训练程序的大量在线文本数据的出现。但是最近的研究显示,在机器习得越来越像人的语言能力的过程中,它们也正在深度地吸取人类语言模式中隐含的种种偏见。机器翻译的工作进路一般是这样的,建构一个关于语言的数学表征,其中某个词的意义根据最经常和它一同出现的词而被提炼为一系列数字(叫词向量)。令人惊讶的是,这种纯粹统计式的方式却显然抓住了某个词的意义中所蕴含的丰富的文化和社会情境,这是字典里的定义不大可能有的。例如,关于花的词语和令人愉悦之类的词聚类,昆虫类的词语和令人不快之类的词聚类;词语"女性""妇女"与艺术人文类职业以及家庭联系更紧密,词语"男性""男人"则和数学、工程类职业更近。尤为危险的是,AI还有强化所习得的偏见的潜能,它们不像人可以有意识地去抵制偏见。因此,如何在设计理解语言的算法时既让其消除偏见,又不丧失其对语言的解释能力,这是一项很大的挑战。
对于上述可能产生自AI的一些最坏的情况,学术界和技术界的领军人物纷纷表示关注。像剑桥大学当代最重要的物理学家史蒂芬·霍金(Stephen Hawking),还有太空运载私人运营和电动汽车的开拓者埃隆·马斯克(Elon Musk),他们担心,AI代表着威胁人类存在的危险。另一些人却表示乐观,对AI的长远前景满怀热情。但他们认识到对AI的限制以及AI的弱点对商业来说是很糟糕的事情。就在2016年9月,来自微软、IBM、FaceBook、谷歌、苹果以及亚马逊的领导人,他们共同创立了关于AI的合作伙伴关系,当时宣称的目标是要确保AI是"安全可靠的,要和受AI行为影响的人们的伦理和喜好一致"。但是,市场经济的逻辑总是在驱动着愈演愈烈的雄心,于是,应用机器学习处理收集的海量电子化数据、提高自动驾驶汽车上路的数量,新闻的头版头条持续不断。
《道德机器》书中的信息依然是极为重要的,虽然此书首次出版以来,技术已经大大向前发展了,但基本的难题不仅依然没有解决,反而被这些技术进展所加剧。先进算法工作的基本原理还是没完全搞清楚,这就关系到AI解释自身决策方面的无能为力。当然,人们在决策时也不总是能够一目了然地解释清楚自己的抉择。但是,要设计处在一个更高水平上的机器,我们这样把握是对的。
在《道德机器》中阐述了一种混合式系统,组合了自下而上式的数据驱动的学习和进化的方式,以及自上而下式的理论驱动做决策。这个思想,对于AI软件的设计以及能够在人类环境中操作的机器人来说,依然是最好的策略。但是,在这本书约十年前问世之后,批评者们的意见是对的,我们本来可以更多地讨论一下设计更大的有机器运行的社会�布际跸低场N颐枪刈⑷绾问够�器自身的道德能力逐渐增进--这是一个依然需要研究的课题,关于如何使机器尊重它们的设计者和使用者人类的伦理价值,以及有效维护人类的道德责任方面的问题,仅仅只解决了部分。
人工智能机器已经在特定领域胜过了人。这令许多评论家相信超人智能不远了。但是,尽管AI取得了目前的进展,它的成功依然是脆弱的,而人的智能通常却不是这样。某个机器可以下围棋胜过人,却不能同时会下象棋、会开车,还能在家人饭后,一边帮忙收拾桌子,一边解答政治学的问题。即使这些能力可以绑定给一个物理机器,我们也依然不知道,如何以像人那样的方式把它们整合在一起,让一个领域的思想和概念灵活地畅行至另一领域。如此说来,《道德机器》最初问世时候的基本信息依然没有变,这就是:不应该让未来学家的担心和猜测转移我们的注意力,我们的任务依然是设计自主机器,让它们以可辨识的道德方式行事,使用着我们已经获得的社会、政治和技术资源。
科林·艾伦(Colin Allen)
美国�财プ缺ぃ�2017年9月26日
这本书的封面设计相当吸引人,那种冷峻而又带着一丝神秘感的金属质感,立刻就抓住了我的眼球。封面上那两个相互交织,如同抽象大脑线条的机器人形象,似乎在暗示着它们内部复杂而深刻的思考过程。我一直对人工智能的伦理困境非常感兴趣,特别是当它们逐渐渗透到我们生活的方方面面时,那些潜在的道德选择和判断,对我来说就像是一个巨大的谜团。这本书的名字,《道德机器:如何让机器人明辨是非》,恰恰点出了我内心最深处的那个疑问。我常常在想,当一个机器人面临复杂的决策时,比如在自动驾驶汽车发生事故的紧急关头,它应该优先保护谁?是乘客,还是路人?又或者,在医疗诊断中,当资源有限时,机器人应该如何分配治疗机会?这些场景听起来像是科幻小说里的情节,但随着技术的发展,它们正变得越来越真实。我迫切地想知道,人类将如何为这些“道德机器”注入我们所理解的是非对错,以及在这个过程中,我们自己又将如何重新审视和定义“道德”的边界。这不仅仅是关于技术的问题,更是关于人性,关于我们希望未来世界是什么样子。
评分拿到这本书,我脑海中立刻涌现出无数关于科幻电影中那些拥有自我意识,却又在道德上摇摆不定的机器人的画面。你有没有想过,当一个机器人在执行任务时,遇到一个它不曾被编程过的突发状况,它会如何“思考”?是遵循最原始的逻辑,还是会发展出一种更接近人类的“直觉”?这本书的标题,《道德机器:如何让机器人明辨是非》,无疑是在挑战我们对智能的传统认知。我尤其好奇作者是如何探讨“明辨是非”这个概念的。毕竟,人类的道德观本身就充满了复杂性和主观性,不同文化、不同个体之间都存在巨大的差异。那么,要如何将如此模糊且易变的“是非”概念,转化成一套清晰、可执行的算法,让机器人能够理解并遵循?这其中的技术挑战和哲学思考,想必是极其艰巨的。我期待这本书能够提供一些突破性的见解,或许会颠覆我之前对人工智能伦理的某些固有看法,让我看到一条通往更负责任、更值得信赖的AI未来的道路。
评分这本《道德机器:如何让机器人明辨是非》给我的第一印象,就是它触及了一个极其前沿且充满争议的话题。我们正处在一个人工智能飞速发展的时代,从智能手机的语音助手到工厂里的自动化生产线,再到未来可能出现的类人机器人,它们的能力边界不断被拓展。而随之而来的,是那些令人不安的伦理困境。想象一下,一个拥有强大运算能力和决策能力的机器人,如果它的“道德准则”出现偏差,将会带来怎样的后果?这本书的书名,仿佛一把钥匙,打开了我对这个未知领域的好奇心。我非常想知道,作者是如何将“道德”这一人类特有的、充满情感和主观判断的概念,具象化为机器能够理解和执行的标准。是否存在一套普适性的道德原则,可以被编码进机器的“意识”中?又或者,我们是否需要为不同的应用场景,设计不同的道德框架?这些问题在我脑海中盘旋,我期待这本书能为我提供一些清晰的思路和深刻的洞见,让我能够更全面地理解人工智能伦理的复杂性。
评分这本书的题目,《道德机器:如何让机器人明辨是非》,让我眼前一亮,仿佛看到了一个全新的知识领域在我面前徐徐展开。我一直对那些能够模拟甚至超越人类智能的机器充满敬畏,同时也带着一丝隐忧。特别是当这些机器开始承担起越来越重要的社会功能时,它们所面临的道德抉择,就变得尤为关键。我迫切地想知道,作者是如何来定义和解释“明辨是非”这个概念在机器人身上的实现方式。这是否涉及到复杂的算法设计,还是需要引入某种形式的“学习”机制,让机器能够从海量数据中学习人类的道德规范?另外,我很好奇,在构建这样一套“道德机器”的过程中,是否存在一些我们尚未意识到的风险和挑战?比如,如何避免机器的判断带有偏见?又或者,当机器的判断与人类的直觉产生冲突时,我们应该如何处理?这本书的出现,无疑为我提供了一个深入探索这些问题的绝佳机会,让我能够更好地理解和应对正在到来的智能时代。
评分《道德机器:如何让机器人明辨是非》这个书名,本身就带有一种哲学上的思辨色彩,瞬间吸引了我。我们正生活在一个科技爆炸的时代,人工智能的触角已经延伸到我们生活的各个角落,从简单的推荐算法到复杂的医疗诊断系统,它们无处不在。然而,随着这些智能系统的能力日益增强,我们越来越无法回避一个根本性的问题:当机器需要做出涉及伦理道德的选择时,它们该遵循怎样的原则?我非常好奇作者是如何剖析“是非”这个对人类而言如此复杂且主观的概念,并尝试将其转化为机器人能够理解和执行的逻辑。这是否意味着我们需要为机器人建立一套全新的道德体系,还是能够借鉴人类现有的伦理框架?我尤其关注书中是否会探讨,在设计“道德机器”的过程中,人类自身的偏见和局限性是否会被无意识地引入,从而导致机器做出不公平或有害的判断。这本书在我看来,不仅仅是关于技术,更是关于我们如何塑造一个更加公正、安全和负责任的未来。
评分好有多少年派上午后卫士多选秀出
评分一般般,不是很推荐!
评分书很不错,大家都喜欢,值得收藏
评分好书一本。
评分书很不错,值得收藏和阅读。
评分品相不错,还没开始看,先备着。
评分非常不错的书,非常有价值
评分还没读,想学习一下
评分好书一本。
本站所有内容均为互联网搜索引擎提供的公开搜索信息,本站不存储任何数据与内容,任何内容与数据均与本站无关,如有需要请联系相关搜索引擎包括但不限于百度,google,bing,sogou 等
© 2025 book.coffeedeals.club All Rights Reserved. 静流书站 版权所有