TheBigIdea系列第一辑AI会取代我们吗雪莉范著人工智能发展历程应用领域和能力计pdf下载pdf下载

TheBigIdea系列第一辑AI会取代我们吗雪莉范著人工智能发展历程应用领域和能力计百度网盘pdf下载

作者:
简介:本篇主要提供TheBigIdea系列第一辑AI会取代我们吗雪莉范著人工智能发展历程应用领域和能力计pdf下载
出版社:中信书店旗舰店
出版时间:2020-10-01
pdf下载价格:0.00¥

免费下载


书籍下载


内容介绍

话题紧贴21世纪热点,具有广泛的讨论价值与深远影响力。

搭建学科知识系统,一网打尽关键节点与概念。

主次分明的分层式排版,满足不同阅读需求。



书名:AI会取代我们吗?(The Big Idea系列第一辑)

定价:68元

作者:雪莉·范

出版社:中信出版集团

出版日期:2020-10

页码:144

装帧:平装

开本:16开

ISBN:9787521721218


简短的发问往往难答。

太空是什么形状的?AI会取代我们吗?医疗对我们仍然有利吗?性别是流动的吗?这些问题中,有的长久以来困扰人类,有的随时间推移逐渐显现。

TheBigIdea系列以这些简短的发问为引,梳理了人类探寻答案的历程,探讨这些问题在21世纪的新答案。这些或宏大或幽微的问题,不仅仅是对人类群体的关照,也勾连到每个个体的命运。

TheBigIdea系列用不同字号区分内容的主次难易,读者可以根据自己的需要任意选取。

如果你是地球的常住居民,这是一份21世纪地球居民读本。

如果你是恰巧路过的时空漫游家,这是一份21世纪地球深度游手册。

如果你是前来考察的星际观察员,这是一份21世纪人类思索简报。


系列介绍:

TheBigIdea引导读者带着问题意识对21世纪人类面对的重大议题展开独立思考。

TheBigIdea系列主要面向一二线城市的潮流青年。希望启发他们用提问的方式主动接近21世纪关键的议题,在独立思考问题的过程中搜集必要的新知与讯息,在解答问题的同时建立新的认知体系。

本册介绍:

人工智能早已融入我们的日常生活,但关于它的争论从它被构想那天起就从未停止。《人工智能会取代我们吗?》一书梳理了过去60年人工智能的爆炸式发展,总结了人工智能给我们带来的诸多好处和潜在威胁,是一本兼具知识性与思想性的科普小书,适合对人工智能认识不多、在好奇与戒惧间摇摆的人们阅读。


导言

1.人工智能的发展

2.人工智能如今的能力

3.人工智能如今的局限和问题

4.人工智能的未来

结语

延伸阅读

索引


雪莉·范博士是加州大学旧金山分校的神经学家。她的科普文章发表在《科学美国人》杂志上。她是SingularityHub的特约编辑(该在线出版物关注前沿的科学和技术进步)并运营着获奖的科学博客NeuroFantastic。


(《AI会取代我们吗?》)系统地回顾了人工智能的发展历程、现在的应用领域和能力,保持了一种审慎的乐观,用将近一半的篇幅讨论了人工智能面对和未来可能带来的问题。

——郁喆隽(复旦大学哲学学院副教授)

TheBigIdea通过精心设计的分层式排版结构引导读者展开思考,由浅入深地展现了当下人类与机器之间的复杂关系,也是同类科普读物之中视觉传达非常有冲击力的一本。

——陈楸帆(科幻作家,代表作《荒潮》《人生算法》)

这本书(《人工智能会取代我们吗?》)有什么“用”呢?厘清人工智能发展的历程?明白当下它能胜任的工作?默思要如何跟它更好共处?

——上述或许都是这本书可能给你的收获。但有意思的,乃是试着在阅读过程中,以人工智能的眼光,像所有儿童那样,怀着“好奇心”重新学习人世间林林总总的事物和规则。都说抚育后代能让你重新审视自己,而人工智能就是全人类正共同努力生养和教育的那个“孩子”。我们跟它宿命相连,气息相通。

透过它,我们能再出生一次。

——任宁(ONESVentures合伙人、《迟早更新》主播)


一个总是做出荒唐决定的算法并不必然是危险的,因为人们很容易察觉并处理掉它的错误。还有一个更为隐蔽的后果,需要我们万分警惕:人工智能算法可能会根据种族、性别或意识形态隐约但系统性地对某些人群给予区别对待。

谷歌的第一代自动相片标签系统曾将非裔人误认为大猩猩,激起了人们的愤怒,就是一个广为人知的负面案例。普洛帕布利卡(ProPublica)在2016年对一款用于预测罪犯重新犯罪概率的风险评估软件——孔帕斯(COMPAS)进行了调查,结果显示,虽然该软件并没有专门针对种族做出明确设计,但是它依然对黑人抱有偏见。

2017年的一项研究表明,算法在单词联想中也会表现出偏见:男性更可能与工作、数学和科学联想到一起,而女性则会同家庭和艺术联想在一起。这些偏见会对就业招聘产生直接影响。例如,如果一款人工智能程序认为“男性”与“程序员”两个词有固有的联系,那么,当它在为一个计算机编程职位检索简历的时候,就很可能会将有着一个听起来像男性的名字的简历排到面试表的顶部。偏见也同样为翻译软件带来了麻烦。例如,在谷歌翻译将其他语言中的一个中性代词翻译为英语的时候,如果这个代词在语境中指的是一位医生,他就会将这个词翻译为男性的“他”(he),而如果这个代词在语境指的是护士,它就会将其翻译为女性的“她”(she)。另外,语音识别软件在处理女性声音和方言时效果要差得多,这就使得那些使用非标准发音方式的社会重要成员受到了排斥。

另外一些算法可能已经以一种不易察觉的方式扭曲了人们接受医疗或保险的类型,改变了他们在刑事司法系统中的待遇,或者对哪些家庭更有可能虐待儿童做出了不恰当的预测。偏见和不公正侵蚀了人类与人工智能系统之间的信任;它并不能像人们一开始预测的那样成为一个对社会贡献巨大的均衡器——在从一个中立的角度做出影响生活的决定这件事上,人工智能可能并不比人类做得更好。如果真是如此,那么社会为什么要接受机器,让它们作为银行从业者、招聘人员、警察或法官“更公正”的替代品呢?

一般情况下,偏见产生的原因并不是那些武装在学习型算法上的冰冷、严格的统计方法。人工智能学习者通常只是掌握了训练数据中自带的偏见而已,而这些数据的源头是社会本身。换言之,算法反映的是它们的创作者的偏见,在问题严重时,它们甚至会加深或验证我们已经拥有的偏见。“过滤气泡”就是一个例子:脸书开发的新闻算法总是对那些病毒式投稿偏爱有加,以至于将事实真相都抛诸脑后,这严重影响了公众对社交互动和重大新闻事件的看法。该公司的人工智能使社会关系紧张、加深了政治上的两极分化,引发了极大的愤慨,这使得马克?扎克伯格不得不做出承诺,将从根本上改变算法,以促进“更深入、更有意义的交流”。

通过使用人工智能算法来定位易受宣传影响的选民团体,剑桥分析公司介入到了2016年美国总统大选和英国脱欧运动中,这可能已经改变了民主和历史的发展轨迹。此外,随着关于用户偏好和兴趣特征的数据被大量记录下来并得到分析,新闻和媒体创作者就可以将内容精准投放给被细致区分出来的各社会群体——这种区分甚至能细到个人层面。这就给推荐系统以及控制它们的政党打开了一扇方便之门,让他们能够操纵特定网络人群的想法和感受。

减少人工智能中的偏见和不公将是一场旷日持久的战斗,随着深度学习应用在我们社会中的进一步渗透,这场战斗必将变得更加激烈。

目前,我们尚没有找到消除偏见的捷径。有人主张,让人工智能算法参数完全透明是解决问题的关键;但是另外一些人却认为,这种透明反而会为给政党利用系统牟取利益提供方便。IBM正在试验一些在决策过程中会引入人类的价值观的人工智能系统,研究人员希望能帮助这些系统找到并理解自身同人类在决策过程中的不一致性。他们的想法是要建立一个拥有道德感的人工智能系统,但是,由于人类价值观各异,“道德”难以界定,这种进路有其内在的困难。对于这个挑战,一个流行的想法是把界定道德这件事“外包”给普罗大众,用普通人做出的决定来教人工智能系统如何行动。有人则主张对数据进行培训,他们认为拥有各种专长、社会经济背景雄厚的团队可以更好地帮助我们在来源中消除偏见。

2017年底,一个名为“IEEE关于人工智能和自治系统伦理考虑的全球倡议”的组织创建了一个“古典伦理”委员会,目的是要对像佛教和儒家这样的非西方价值体系进行整理,让对于“应该用怎样的价值观来构建一个有伦理感的人工智能”这一问题的回答更加多元化。或许连人工智能开发人员都会感到惊讶的是,人工智能系统正在为人性提供一面镜子,它反映出我们最好的和最糟糕的一些倾向。

^_^:ff991aa5f8daf1b298e8fa76198d3209