人工智能  · 哲学  · 哲学家  · 专访  · 严肃对话  · ChatGPT

哲学学者余明锋:ChatGPT的回答追求正确,真正的人文教育并非如此 | 专访

我们正在经历一个不可思议的时代,一个注定不安的时代。在这个意义上,人工智能和其他技术的发展一样,都是人类反思自身的契机。

 |  林子人
摄影:范剑磊

摄影:范剑磊

界面新闻记者 | 林子人

界面新闻编辑 | 黄月

2022年11月,美国人工智能研究实验室OpenAI推出了ChatGPT。截至20231月末,其月度活跃用户已突破1亿人次,成为史上用户增长速度最快的消费级应用程序。继2016年的AlphaGo之后,ChatGPT再度一石激起千层浪,引发全球公众对人工智能领域的关注。

ChatGPT是由人工智能驱动的自然语言处理工具,拥有语言理解和文本生成能力,它通过海量数据训练模型,使其几乎无所不知。令人们惊讶和着迷的是,ChatGPT还能根据聊天的上下文,模拟类似真实人类的聊天过程,撰写邮件、文案、翻译、代码等任务。ChatGPT还预设了某种道德准则,一旦判定用户的话语中包含恶意或犯罪意图,就会拒绝提供答案。ChatGPT的横空出世标志着人工智能领域的重大发展,而随着用户积极地发现它越来越多的用途,它改变甚至颠覆既有生活方式、社会常规和政治经济秩序的可能性也在渐渐浮现。

技术与人的关系是同济大学人文学院副教授、哲学系副主任余明锋近年来重要的研究方向,2022年出版的《还原与无限》一书是他的“技术时代三部曲的开篇。余明锋认为,ChatGPT在开启了人工智能新时代的同时,对经济、政治、日常生活,乃至人类的自我理解、哲学思考、基本的价值信念、社会法则等方面带来了深刻的挑战。

余明锋(采访对象供图)

在接受界面文化(ID: Booksandfun)专访时,余明锋谈到了ChatGPT可能对大学教育、人类自我身份认同、价值观、就业机会和社会公平正义等方面产生的影响。他认为,ChatGPT带来的挑战固然很多,引发的许多问题还只是猜想没有答案,但以ChatGPT为代表的人工智能技术同样也是人类反思自身和既有社会问题的契机。为此,我们需要以更积极的姿态应对技术变革,在巨大的社会变动和价值观冲撞中谋求某种共识。

01 AlphaGo预告过靴子将落下,ChatGPT就是第一只

界面文化:你对ChatGPT这项技术的出现有怎样的感受?

余明锋:ChatGPT好像是从北美刮过来的一阵旋风,瞬间成为了一个全球性话题。我试用之后,几乎每天都在中英文媒体上看各种报道和分析,大致形成了自己的判断。

人类仿佛又到了一个接近技术奇点的时刻。2016AlphaGo掀起了对于人工智能的狂想,面对ChatGPT我们会有似曾相识的感觉,但这一次人工智能突破的不是一个规则清晰的棋类游戏,而是有着相当的模糊性和高度灵活性的人类自然语言领域,这是一个非常大的不同。在OpenAI开放ChatGPT让全球所有人去体验之前,很多人是不相信它能实现突破的——语言是人类世界中最神秘的现象之一,可以说是人类思维和全部人类文明的基本载体,我们的自我和世界其实是通过语言打开的,这是哲学的基本看法。所以这一次技术突破确实会带来巨大的影响。

AlphaGo2016年预告了靴子即将落下,ChatGPT就是第一只落下来的靴子,它开启了人工智能的新时代。这个技术突破不但关系到互联网领域的投资和商业领域的变革,而且会深刻影响我们的日常生活。当然,ChatGPT只是GPT3的一个衍生产品,是AIGC(内容生成型人工智能)大家族中异军突起的一支而已。不过,它大大加剧了群雄逐鹿的形势,也许会在很大程度上挤占其他枝杈的生存空间,化生为未来的根脉。人工智能的另一个兴奋点是谷歌旗下的Alphafold,那意味着人工智能与生物技术的结合。

无论如何,我们有理由相信内容生产型的人工智能会有广阔的前景,这一只靴子我们可以断定它已经落下,可还有另一只靴子,这是我想说的重点:人工智能的广泛应用,究竟意味着什么?它对经济、政治、日常生活,乃至人类的自我理解,对我们的哲学思考和基本的价值信念、社会法则等等会带来哪些深刻的挑战?这是未来会发生的事情,也是我们作为思想者如此关注它的更为重要的原因。所以,关于此的公共讨论非常有必要。

摄影:范剑磊

界面文化:你用ChatGPT问了什么问题?

余明锋:比如人类什么时候会灭亡?它的回答比我想象得悲观。它说有关于此,学者们尚且无法确定,但大多数人认为几十年后,由于不可避免的气候变化、环境污染、社会分歧、人口过剩等社会现象,人类将面临灭亡的威胁。不过,也有朋友提醒我,用英文提问,答案会不一样无论如何,我大体了解了为什么大家那么兴奋和惊讶,因为它确实会聊天,能够进行有连续性、有逻辑的对谈,而且表述确实是它自己综合网络资源生成的。

02 ChatGPT或将改变既有的人文教育模式

界面文化:美国的一项实验发现,OpenAIGPT-3模型在经过数百万单词的训练后,已经能够伪装成美国哲学家丹尼尔·丹尼特(Daniel Dennett)与人讨论哲学问题,很多时候我们难以分辨AI生成的评论到底是否出自丹尼特之口。作为一位大学老师和哲学学者,你是否会有危机感?

余明锋:这是一个我特别想谈的问题,但我想首先对人工智能技术做一番祛魅的思考。某种意义上,人工智能天然地有一种魔术的性质。魔术有自我隐藏的特征,魔术师不会把TA的技巧给你看,而是给你看效果。这是魔术的基本特征,人工智能也是如此。

我们需要意识到,ChatGPT不是真的在聊天,而是一个有交互性的数据处理。面对高度复杂、有很强模糊的人类语言,它能够实现这样的数据处理当然是惊人的,但数据处理依然是它的本质。这个区分非常重要。真正的聊天不是单纯的信息交流,而是有着丰富的人性要素。这是我首先想说明的,它对于我们接下来的讨论非常重要。

也会有人反过来问,我们难道不可以把人类的智能理解为复杂的数据处理吗?这是一个非常有趣的哲学问题。我个人认为这是对人类智能的高度简化。人类的聊天不只是在处理信息,其中情绪性、直觉性、联想性的东西,不能化约为数据处理。当然,人工智能的研究者肯定在未来试图把它们化约为数据处理——当我们把它们还原为数据处理的时候,我们就可以使机器更接近人类的需要。但我们要意识到这是两件本质不同的事情。数据处理本身是对人类精神世界的一个巨大简化,虽然这样的简化会越来越有效,而且会带来一些巨大的改变。可简化总是有损失的,再有效的简化也不同于事情本身。

明白这一点后,我们再来看它对哲学研究和哲学教学的影响。黑格尔、海德格尔等著名哲学家都会说一些“黑话,就是个人特征非常明显的语言,这样的语言是可以作为语料库来训练的,但这不哲学研究,而是在模仿人类既有的思想成果。真正的哲学研究需要创造性提问,并且要结合自己的生存处境、自我认识、世界上的种种矛盾,提出切身的问题,这甚至是一个哲学家最重要的品质。全新的提问方式会把我们带入全新的思想世界,这种创造性是不能简单被机器替代的。

但对学者而言,影响会很大。学者和哲学家的区别在于学者处理前人的文本,他们解释黑格尔谈了什么、丹尼特谈了什么。这种处理既定文本的能力也是有创造性的,而不是简单的复述。我作为一个尼采研究者解释尼采的时候,带入了我自己的视角,带入了我们时代的关切,他的思想在我们这个时代之所以有研究的必要,是因为和我们当下的生存有相关性。

但另一方面,现在的论文学术体制中大量的工作就是文献梳理,这个工作在未来会被包括ChatGPT在内的人工智能技术大大影响。已经有很多国外著名期刊要求作者必须声明自己在写作时是否使用了这个软件,或者直接拒绝有ChatGPT参与的论文,国内的期刊也开始有反应这是非常有意思的事情,充分说明了ChatGPT对这个层面的学术研究的影响。它会形成一个错乱的机制,一篇基于ChatGPT的综述写成文章算不算作者自己的成果?如何评估它的影响又是一件有趣的事情。对于真正有创造性的学者来说,ChatGPT当然可以节约时间,因为学术研究确实有很大一部分时间是在处理信息,ChatGPT可以在处理二手文献方面提供很大帮助,大量的二手文献只有浏览和综述的价值。这个意义上,我个人有很强的兴奋感去了解它,因为在我看来,论文写作在当下过多地挤占了真正的哲学思考,哲学的本意在今天其实已陷入巨大危机。

界面文化:我们再从学生的角度聊聊这个问题吧。ChatGPT能归纳、总结、举例、理解上下文,能够回答开放性、创意性的问题,甚至在一些涉及伦理安全的敏感问题上都能答得很好。我们是否到了需要担心人工智能会冲击文科教育的时候?微软已宣布在搜索引擎Bing中引入ChatGPT,我们熟悉的搜索框将变为对话框,今后Bing将对复杂的搜索请求给出更完善的答案。在此之前,搜索引擎对我们获取信息、学习知识的方式的改变就已有诸多争议,当有技术甚至能直接给出参考答案时,是否会进一步削弱我们阅读原典的动力?它是否会导致智识上的懒惰?

余明锋:如果我们没有把经典文本装在心里其实是没有办法对它做深入分析的,因为经典文本需要玩味,需要化入自己的生命我们这一代的学者已经非常习惯于用PDF的搜索功能去查关键术语出现的概率和语境,这种处理方式会让我们的思考偏于机械化。在这个意义上,无疑有一种退化。

随着更强大工具的兴起,深入阅读后归纳总结、撰写文献综述的能力也会发生普遍的退化,这不是一个太耸人听闻的观点。还有一件很重要的事情是注意力。对于一个思想者来说,注意力极为重要,它不但是有效学习、深入思考的前提,而且是个人幸福感的重要要素。

目前大家更忧虑的是学生以后还会不会独立写论文了,教育者又要如何判定学生的论文。我试着反过来看这个问题,论文写作这件事在今天是不是被过于强调了?学生的能力通过论文来评判,学者的生产力由论文数量和被引率来评判,这件事本身值得反思。论文写作对学术初学者来说固然是一种重要的训练,但更基本的训练恐怕是非常基础的人文教育,比如深入经典文本的能力、倾听和对话的能力、历史感和社会关怀等等

ChatGPT对论文的挑战,也许会促使我们调整既有的教育模式真正有效的哲学教育很大程度上体现在学生是否被“打开”,他们的问答是否具有反思性和逻辑性,他们是否被启发着去质疑和反思,去进行有逻辑性和有创造性地论辩,他们在论辩时是着力于为自己辩护还是着力于事情本身的澄清,等等。

所以在我的教学范围内,我不是特别担心这件事,虽然危险的确存在,但它也可以是一个我们解决既有问题的契机。包括哲学在内的人文教育真正的意义不是培养学者,而是培育真正意义上的人,甚至大写的人。可我们仿佛本末倒置了,这是尼采在100多年前就痛心疾首的事情人文教育关系到青年灵魂的成长、生命的塑造、对伟大传统的理解和对世界的开放态度ChatGPT的回答追求正确,可真正的人文教育关注的恰恰不是给出全然正确的答案而是基于深切的关怀和深厚的学养去追问,由此打开新的反思空间、新的生命空间。在这个意义上哲学思考有行动的性质,这些都是无法被机器取代的。

03 人工智能的政治正确可能会加剧价值观冲突

界面文化:当人工智能已经在一定程度上可以做到近似人类的思考,人类要如何保持自己的身份认同呢?和人工智能的“思维方式相比,人类的思维方式还保有哪些独到之处?

余明锋:哪怕一个小孩给出了错误的答案,TA回答过程所关联到的要素都比信息处理来得丰富。TA有想象,有直觉,还有一些莫名其妙但真实感受到的东西。我在写完《还原与无限》后准备撰写的第二本书叫《感知论》,感知这件事其实非常要紧,而人类过去包括哲学在内更强调理知理知当中有很大一部分是可以被机器替代掉的,而感知这种能力其实对文学艺术创作、哲学思考来说极为重要。它不是简单的信息处理,很多时候是跳跃性的、从无到有的,甚至莫名其妙地生发出来的。

ChatGPT的一个问题在于,它使用的是过往的语料库,你如果现在问它2022年的事情,它是不知道的。这还在其次,毕竟它可以更新。更重要的是,它是在处理海量数据中生成的回答。这意味着,它的回答基于出现频率最高的、在大多数人当中流行的说法。可真理往往掌握在少数人手上,人类自古以来如此。真正有创造性的思想,在当时常常是不被接受的。内容生成型人工智能的核心原理是贝叶斯公式,数学家贝叶斯(Thomas Bayes, 1702-1761)在世时没有得到承认,贝叶斯公式是在后世不断的运用中赢得了声誉。

在这个层面上,我觉得ChatGPT是一个巨大的危险:数据处理可能会加固人类既有的流行观念,而严肃的思考恰恰需要质疑这些东西。另一方面,人类反馈训练的环节事实上是培养了人工智能的政治正确,目前ChatGPT的处理方法是搁置关于道德、宗教或政治方面的很多话题,然后在其他一些问题中把违背人类直觉或道德底线的一些东西排除掉。我们可以设想,尼采的文本可能通不过它的检验尼采后期自称是非道德主义者,有很多激进的言论,这些言论对人类的道德反思做出了重要的贡献。比如说他认为许多看上去善良温和的道德其实是出于我们的怨恨,背后可能是人类的权力欲望,这是一个高度批判性但是值得我们深思的视角。ChatGPT这样的信息处理当中,这样的答案大概率会被过滤掉。于是它将形成一个新的人类知识库,加固正确的意见。

界面文化:也就是说,ChatGPT的一个潜在威胁,是可能无法容忍超出现有道德伦理框架的一些观点。

余明锋:对,而且现有的人类道德伦理框架还有国族和文化差异,这就很麻烦。比如关于女性的观点,美国人和阿拉伯世界的人差异巨大。目前ChatGPT简单又聪明的处理办法就是搁置这些话题,但如果真的要与ChatGPT深入聊天,很多问答会不会隐含这些价值判断那么当ChatGPT被训练为给出标准的、政治正确的回答,这一机制就会成为人类自我理解的一面镜子。如果持有不同价值观的政治共同体训练不同的聊天机器,是否会导致人与人的隔阂越来越深?这都是问题。

04 是机器主体性在提升,还是我们的主体性在没落?

界面文化:ChatGPT的出现加剧了另一种恐惧——人类的工作岗位是不是会进一步加快流失?也有一种对技术进步更乐观的观点认为,我们应该争取一个人工智能+人类(而非人工智能取代人类)的未来,在人机密切合作的时代里,人工智能成为人类的个人助理。你对此怎么看?

余明锋:我觉得两方面的观点都有道理。首先谈就业焦虑的问题。其实现在最焦虑的不是普通的打工人,而是互联网巨头,因为这一次人工智能突破涉及到的会是新一轮的互联网基建。各大搜索引擎和APP如果要植入ChatGPT,都需要重新改造。通用人工智能的巨大应用前景是让谷歌、脸书这样的互联网巨头非常紧张,这个转变的关口如果没有跟上,就没有办法与微软竞争了。

摄影:范剑磊

回到普通人来说,如果说工业革命替代的是低端的体力劳动,那么人工智能革命替代的会是低端的脑力劳动。前两年大家讨论大卫·格雷伯的《毫无意义的工作》,我想很多人意识到了生活中很多的工作就是狗屁工作,写发言稿、填表格、做方案等等都是低端的脑力劳动。总体来说,这些低端的脑力劳动未来会在相当程度上被替代。但就像工业革命会产生新型的低端体力劳动一样(比如农民可能去开收割机,或在流水线上按螺丝),人工智能也可能会产生一些新的岗位,比如训练人工智能的标记员,可这甚至已经不能算是脑力劳动了。总之,就业会发生大规模的缩减和转移,这两者会同时发生。

《毫无意义的工作》
[美]大卫·格雷伯 著 吕宇珺 译
中信出版集团 2022-7

第二个相关的看法是,我们需要反思今天的中国教育。如果我们目前培养的就是低端脑力劳动者,那么未来是很容易被替代的。今天的大学教育非常成问题的一点是普遍的绩点制,大学变成了高中的延续,老师在忙写论文,学生在忙考试争取高绩点,这使得自由讨论、质疑、批评的氛围,甚至一些值得鼓励的偏离轨道的尝试大大减少改变教育体制不容易,因为教育在我们的社会也是一个公平机制。依照考试成绩和论文数量来评判的机制无论如何僵化,都成了社会公平的底线。这是我们的教育“不能承受之重”,是其社会功能所在也是症结所在。任何一种变化,如何能够同时维系社会公平

也许,一个办法是做出区分,在基础教育阶段强调公平,但在高等教育阶段,既然已经择优培养,那就要卸下这个社会职能的重担,让该精英的部分精英起来。我个人在这方面不是特别乐观,但它值得我们进行广泛的公共讨论。不然我们将不止在ChatGPT这一步落后,还可能落后于整个人工智能的未来发展方向。我们虽然无法要求所有人都有创造力,但至少能培养出具有灵活性、不是成天从事那些狗屁工作的人, 君子不器是我们该有的人格理想。

界面文化:格雷伯对狗屁工作有很多不同的分类,狗屁工作当然和刚刚提到的低端的脑力劳动有很大的重合度,但其实很多工作的存在(比如“随从类工作)是为了满足职场上位者的需求,无论是虚荣心还是权力欲望。这一类工作虽然毫无意义,但它是根据人性需求创造出来的。人性很难改变,那技术也不大可能改变这样一种职场权力结构。

余明锋:这里涉及到一个问题,就是人工智能的主体性认定。我们之所以要一个人做随从,是因为TA是人,如果后面跟着人工智能好像没什么值得骄傲的,就没有刷存在感的空间了,是吧?现在有人提出一个问题,我们是不是应该拓展主体性的概念,当机器能够与我们互动时,我们是否应该承认它的主体性?

我个人比较倾向于前面说的,要人性思维数据计算之间做出本质区分,人工智能毕竟是一种魔术虽然这种魔术愈发逼真,就像电影《她》(Her)展示的,人工智能在未来可能会满足很多人的情感需要,比如说晚上睡不着,把你的伴侣吵醒是件很糟糕的事情,而聊天机器可以给你讲个故事。可主体性的确认恰恰需要差异性的张力,如果我们的情感需要都寄托在方便的TA上面,那恐怕不是机器的主体性的提升,而是我们自己的主体性的没落。

不止居上位者有权力欲,普通人的权力欲未来可能是需要通过机器去满足的,就像人们会养宠物一样,未来可能会养自己的聊天机器,你可以养出一个文质彬彬或心直口快的聊天机器,而这都关系到主体性的维系和没落。

此外,我想说一个哲学上非常值得注意的问题,就是人类的自我理解。它不止事关个体,也涉及到人的社会性,涉及到人把什么作为他者。随着人性化的人工智能进入我们的生活,它对人类心理的这种微妙影响力其实值得关注。现在的青少年已经出现了这个状况,就是人性的交流大大不足。很多青少年在需要交流的时候被打发去玩iPad、打游戏或者听故事,过度的人机交流其实会对人的内心产生负面影响。而当ChatGPT显得更加人性化的时候,也更容易替代人进入亲子交流的领域,这对孩子的影响会是怎样的?ChatGPT毕竟和父母的角色是不同的,它甚至和真正的宠物也不同宠物不止听话,它不是一个绝对顺从的对象,它还会带来麻烦,它也会有情绪机器的陪伴在带来便利的同时是否会阻碍健全主体性的养成?

还有老年人的照护问题,机器人会如何处理?这里有很多伦理取向的难题把人工反馈加入ChatGPT后是有伦理取向的设置的,那么人类价值观会不会趋于单一化人类的社会性思考会不会趋于简化?人工智能会不会培养出看上去很乐观、事实上内心冰凉的人?也许未来会有这样的问题,值得我们思考。

05  未来最大的不平等存在于被喂养信息的人站在后台的人之间

界面文化:你在《还原与无限》中提出,“资本-技术-政治三位一体的存在为19世纪后的现代世界的全面展开提供了动力,技术深深嵌入资本和政治的系统之中。如果你在撰写这本书的时候ChatGPT就已经出现了,你会如何讨论它呢?

余明锋:ChatGPT可以说是还原论的又一次重大进步,涉及的是日常语言如何被还原为机器语言的问题 

我们刚才谈的所有问题,某种意义上都是另一只靴子的组成部分。ChatGPT不止是一个工具,科技和资本、政治系统是有关联的。现在国内外的讨论主要和经济有关,因为ChatGPT是投资的热土,这就是技术和资本的密切关联资本在过去几年其实缺少投资热点,现在终于有了一个新的风口另一方面,ChatGPT的诞生本身就和资本的力量分不开,微软注入了大量资本,以海量数据为基础进行训练,它带来的效益也首先表现在经济方面。

与此同时,它也会重塑我们的生活方式,这是我作为一个哲学研究者非常关注这个问题的原因。这是我们时代真实发生的事件,它不是一个局部的问题,而是影响到我们的社会组织、生活方式的整体性问题。资本-科学-技术系统当然和政治有关系,比如美国总统大选期间,媒体平台、公共平台对选举的影响是很大的,ChatGPT信息机制之后在多大程度上会影响选民?

《还原与无限:技术时代的哲学问题》
余明锋 著
上海三联书店 2022-8

未来世界最大的一个分野,恐怕就在于你是站在后台的人还是站在前台的人。站在后台的人是掌握数据处理机制的人,他们即便无法全权掌握海量数据,但可以影响数据的处理机制。现在互联网巨头竞争的其实是是否能率先搭建平台、成为后台,用户就会成为站在前台的人,这件事就和政治太有关系了。

界面文化:我们对ChatGPT的担忧之一是它会加剧不平等:如果人工智能的发明是为了让人类的生活变得更好,那它应该促进自由、平等、透明和财富的分享,但我们担心ChatGPT和其他类似的应用会进一步帮助资本逐利。1930年,凯恩斯就预测随着技术发展人类每周工作时间可能不超过15个小时,但至今他的预言不仅没有实现,反而我们的加班时间越来越长。也就是说,技术进步的果实其实没有被普通的劳动者享受到。

余明锋:这是我在《还原与无限》中着重分析的问题,为什么会这样?技术不是简单地让我们有了更便利的生活,而是把我们从原来的生活方式中“解放出来,置入一个无限增长的系统技术系统之所以会有中立的假象,就因为它唯一的目的在于增长本身。资本因为有时间价值,所以有强制增长的内在要求,有时间价值意味着明天一定要比今天多,要不然就亏了被置入资本-科学-技术的系统之后,看上去大家的生活改善了,但其实我们原先的生活是没有那么多增长需要的,增长也不是生命的唯一追求,甚至也不是主要追求。在古代世界,就价值观而言,人追求的是德性的上升,比如中世纪基督教追求的主要是灵魂的纯化,这些东西在今天的我们听起来像天方夜谭一样。今天最主要的追求就是增长,整个社会都有增长强制,这是你刚才所说的现象的原因。

再回到不平等的问题。我在《还原与无限》中有一个基本判断,我们认同现代社会的一个基本原因是认同自由与平等,但在今天这两项现代性的承诺都落空了。刚才我们谈到信息茧房和数据后台,当我们的每一步行动都变成数据,当算法深入到我们全部的生活细节,我们的个人偏好成为商业开发对象的时候,自由的承诺难道不是落空了吗?平等的承诺也是如此。未来的不平等可能更多表现在你是被喂养信息的人,还是你是站在后台的人,这种不平等恐怕是一个绝对的不平等,不只是财富上的,而且是人格上的。未来的不平等还体现在,劳动在现代世界被认为是个人实现自我成长的途径,但今天的劳动变成了单纯的绩效追求和自我施加的暴力。我们每天的工作除了增长和谋生意义之外,没有了真正的自我实现的含义,这在未来恐怕也会加剧。

界面文化:人工智能会改变我们的价值观和政治经济制度吗?

余明锋:现代性的后果已经越来越明显,人类正在经历一次价值观的大冲撞,这种冲撞在我们的社会中也感受得很明显,好像共识不再存在。如果人类未来要形成具有共识性的价值观,恐怕将会基于对现代性后果的消化。这里面既有思想者的工作,也有社会本身的演化。

技术的发展使得社会处于巨大的动荡之中,几年就有一个新的技术概念被跑出来,虽然它可能离实现还很远(比如元宇宙),但巨大的投资进入后技术发展是一个加速的过程。当我们意识到技术永远有另外一只靴子的时候,意味着社会在经历技术发展的同时也会一次次地重组,那么它对社会、政治、价值观的影响会是巨大的。

我们仍然处于这个变化之中,恐怕我们这一代人甚至几代人(如果人类还没有毁灭)还得去忍受这种价值观上的不安。这是变动中的社会必定会有的后果和挑战,我们正在经历一个不可思议的时代,一个注定不安的时代。在这个意义上,人工智能和其他技术的发展一样,都是人类反思自身的契机。我们需要以积极的姿态去充分介入另一只靴子的落下,它和每一个人切身相关。