当从未来的一个世纪回首观望时,我们这个时代很可能将会被追述为“生成式人工智能” [1]诞生的时代[2]。尽管我们(由于缺乏历史距离)而无法对当前的进程作出评判,但所有迹象都在表明,我们正在经历一场计算机和技术革命的初始阶段,这场革命开启了机器“智能”。许多人不禁自问,从这个意义上看,我们将会面临怎样的一个未来?最近,我们不得不学习一些新术语,诸如“算法”、“机器学习” (machine learning)以及更新的“大型语言模型” (large language models),但这仅仅是开始而已。新技术正以旋风般的速度改变着我们的生活,专家们认为,它仍然蕴藏着其他不可思议的潜力。

关于危害的讨论自然也日渐频繁,而且不幸的是,一些与社交媒体密切相关的危害已经相当常见:成瘾、虚假信息、心理健康、两极分化、审查及删减,等等[3]。谁有道理:是那些以热情迎接新变化的人,还是那些做出世界末日和乌托邦式预言的人?在众说纷纭之中,辨明方向尤显举步维艰。我们将在本文中试着提供一些参考点,以助读者辨别方向,尽管这是一项颇为艰巨的任务。于今,鉴于我们将在下文中讨论的ChatGPT狂热已有所降温[4],我们有可能对这一“引起广泛争议的难题” (vexata quaestio)进行一种更平衡的思考。

“智能”技术是一把双刃剑

为了更好地理解“生成式人工智能”,让我们从更远的过去出发,来进行一个思想实验。如果在20世纪70年代,一位来自未来的时空旅行者做出如下预测:我们很快即会拥有一种新发明的设备,它将使大部分人类在不受物理距离限制的情况下快速而有效地进行交流并相互合作[5],我们会怎么想?通过这种设备,我们几乎可以获取人类的所有知识,或是在瞬间检索到大量信息(数据、音乐、影片、大部分已发表的书籍、报纸及文章,等等)。此外,它还可以在几秒钟内将任何文本翻译为任何语言。那么,我们如今的确拥有了这种工具,而且人人都可以使用。对此,专业人士和诚恳的科幻小说家通常会承认自己曾有过类似的梦想,但在他们的想象中,付诸实现所需要的时间则会更加漫长。

事实上,我们对人工智能几乎所有要素的了解已有40-50年的历史,但我们现今拥有的全新技术知识却是50年前所无法想象的,即:怎样使同样的算法在机器上以提高1000万倍的速度运行。我们才刚刚开始看到这一新工具在各个领域所产生的影响,包括教育(儿童发展、科学研究、价值观改变)、文化(社会新闻、交流渠道)、政治(民主话语、选举)、经济(市场营销、GDP),以及最后但同样重要的精神生活。

数字技术发展所带来的都是好消息吗?不幸的是,事实并非如此,而且这种现象会越来越明显;毫无疑问的是它也具有负面性。举例来说,如果早在20世纪70年代,上文提到的那位时间旅行者也曾告诉我们,这种神奇的设备会导致我们的子女在人际关系中遇到困难并分散他们的注意力;某些被称为“社交媒体”的简单应用程序会导致青少年严重的情绪困扰,使成年人群面临由于注意力不足、压力和睡眠问题而失去条理的风险[6],我们是否还会对它抱持同样的热情?诚然,我们完善了帕斯卡(Pascal)的“娱乐观”,但学者们认为,我们已经做出的改变有可能夺走我们的生活意义以及感受这种意义的能力[7],更不要说我们与天主的关系、祈祷和默想[8]

如果我们的时间旅行者也曾警告我们,新技术会使我们容易受到信息被非法操作和截取的伤害(因为神秘设备知道我们的信用卡号码、读取我们的电子邮件、追踪我们的地理坐标,甚至会应用户要求而计算我们每天的步数),那又会怎样呢?谁能料到社交媒体作为我们这个时代最强大的发明会把我们围困于一个好比回音室的交流“气泡”中让我们只能听到观点一致者的声音,从而使社会分化扩大到前所未有的程度呢?事实上,被我们称为智能手机的设备导致了一种相当可观的假象:它将我们与一个全球信息网络联系在一起,而我们现在却似乎被困于其中。伴随着它的使用,我们比人类历史上任何时候都更加全球化,但与此同时,我们却是孤独的。这个设备唤醒了我们灵魂深处最可怕的恶魔(色情内容及暴力),而它又是如此难以挣脱,以至于形成一种真正的成瘾流行病[9]。我们是否还想为此而欢庆?

不仅如此,所有迹象都显示着我们不过是步入了这一变革历程的初期。事实上,与最新社交媒体相比,那些造成上述诸多弊端的社交媒体所使用的工具相形之下显得极其原始。从根本上而言,它们的奇妙之处在于,搜索引擎会根据用户以往(包括在未经授权情况下所收集的)兴趣和点击情况来推荐新闻报道或YouTube视频。即便如此,这些原始的方法已然赋予它们难以置信的力量:它们不仅将我们锁定在屏幕前,还同时窃取了我们的睡眠时间[10],并且操纵了我们的观念,分化了我们的政治言论,损害了我们的心理健康,破坏了我们的民主社会的稳定[11]。直到不久前,我们还只是与人造的信息内容打交道;然而,最近出现的却是一些重大的变化。

“下一件大事”(The next big thing)

2022年11月22日,一项未来必将引起空前轰动影响的新技术发明问世。加利福尼亚初创公司OpenAI创建了一个由“人工智能”驱动的“大型语言模型”,名为ChatGPT。这揭开了科技史上的新篇章,也有人认为它揭开了人类历史的新篇章。仅在五天之内,就有一百万人注册了这款应用程序,两个月之内,其用户数量即已超过一亿[12]。但是,这个从无声无息中骤然而出并可能成为未来世界中一个关键角色的聊天机器人究竟是什么呢?

ChatGPT是号称“生成式人工智能”的一个范例,它能够在大量互联网文本信息、图像和声音的训练基础上生成类似人类思维的内容。在人类历史上,我们第一次有可能作为用户与一个(无机、硅基的)强大非生物“智能”直接互动–即使这种互动迄今为止仅限于书面。我们可以与其对话和聊天,它也会立时回答我们的问题。就连大多数专家也对聊天机器人所能完成任务的复杂性感到吃惊。它学会了人类语言并能对其运用自如,因此可以用任何语言或就互联网上讨论的任何话题提供信息。不过,聊天机器人最令人惊讶的创新之处在于它能以“创造性的方式”完成任务,即可以自己生成文本、图像和视频。这也正是OpenAI的创举取得空前成功之原因所在。

此外,ChatGPT并非发展进程的最后阶段,相反,它只是初期步骤之一。自ChatGPT问世以来,几乎每周都有新的进展,诸如谷歌推出了自己的聊天机器人“巴德”(Bard),为其搜索引擎提供动力,并向Anthropic投资了3亿美元;比其前身更为强大的GPT-4现已面世;谷歌推出了功能强大的语言模型PaLM2;被誉为“中国谷歌”的百度推出了名为“克劳德” (Claude)的聊天机器人,等等[13]。总之,一种非人类“智能”已经进入公共领域,它能生成文本(包括文章学术论文)、翻译文章、绘制图片、创作音乐,甚至创造出质量惊人、千变万化的计算机程序。这是否可谓一个好消息?

批判和肯定的现实主义

某些人并不将此视为一种进步,而是视其为人类文明史上的倒退。他们警告人们,在不加批判地陷入欣喜若狂之前,我们首先应该注意到ChatGPT运作之不完美:它有时会产生“幻觉”,即“想象”,有时会肯定谎言,而且这些问题似乎无法得到最终解决。此外,利用这项新发明进行诈骗之轻而易举令人震惊,比如因此而产生的数量惊人的假图像、假声音及假视频(深度伪造)。这已经引起了犯罪分子的注意:美国联邦贸易委员会报告称,在美国,于过去一年中通过利用“人工智能”模拟某个人的声音或制造此人的移动化身对一无所知的亲属进行诈骗而被窃取的价值达1100万美元[14]。在意大利一个著名的案例是,歌手詹尼·莫兰迪(Gianni Morandi)之前妻,即83岁的劳拉·埃弗里奇安(Laura Efrikian)女士被犯罪分子借助于“人工智能”模拟她一个侄子的声音而骗取了一笔数目可观的巨款。

那么,将来在见不到某人本人的情况下,我们是否不再能够相信他的身份?似乎的确如此。然而,最大的威胁似乎并不是被用于合同欺诈和逃税的“人工智能”,而是模拟与真人亲密关系的“人工智能”(虽然没有真正的共情能力却假装理解我们、伪造真实人际关系的机器人“朋友”、“女朋友”以至密友)[15]。美国哲学家丹尼尔·丹尼特(Daniel Dennett)认为,这绝非儿戏,而是对我们文明的一个真正“威胁”[16]。在这方面,一个古老的问题似乎重新浮现:做人意味着什么?

对于这一问题,即使是哲学家、神学家、历史学家、律师、经济学家等专家也各持己见。此外,关于“人工智能”进入–或者更确切地说,名副其实地侵入–我们的文化之后究竟正在发生什么这一问题,他们也同样无法达成一致。少数人在试图淡化这些事件的严重性的同时声称,这不过是又一个短暂的“奇迹”:人类在其20万年的历史中已经历过更大的震荡。另一些人的看法则截然相反,他们不仅将“生成式人工智能”的传播比作火、轮子或文字的发明,还将其比作进化–无机进化–的新开端,这对他们而言代表着一个新的奇点,预示着一个不可避免的世界末日般的未来(教育的不可能、大量失业、数字封建主义,直至人类灭绝)。这似乎证明ChatGPT母公司OpenAI的首席执行官山姆·奥特曼(Sam Altman)的话不无道理:他曾在ChatGPT首次公开亮相时预言,他们的创造之意义将“超越农业革命、工业革命及互联网革命的总和”[17]。然而,这一切并不能阻止我们采取负责任的行动。

在绝望式危言耸听和轻信式不以为然这两种错误的选择之间,一种更为平衡的观点是了解情况、担负责任和积极主动的现实主义。尽管从原则上讲未来是不可预测的,尤其是在这种情况下,我们没有类似的例据来了解正在发生中的事情,但我们可以通过负责任的方式做出一些预测。首先,我们似乎正面临着一场真正的历史性变革,我们必须为此而做好准备。“人工智能”虽然不一定会摧毁我们的思维和生活方式,但无疑会在几十年内以前所未有的规模改变我们的思维和生活方式:它将颠覆教育系统和科学界,挑战我们对脑力工作的基本观念(创造力、知识产权及版权),迫使我们采用新的教学法(包括从小学至大学);提出重组卫生部门的要求,改变我们对人性的看法;在改变经济格局,尤其是劳动力市场的同时向经济学家和政治家提出挑战;在改变政治面貌的同时制造民主和战争危机,创建基于“人工智能”的军备;最后,也是最根本的一点,它将影响人类的所有思维,即我们心目中的“现实”和“真实”。应对所有这些挑战的适当办法既不是绝望,也不是投降,而是监督、反思和负责任的行动。

需要监管的四个理由

正如我们之前所看到的,ChatGPT的出现表明,我们正处于一个新时代的黎明。这个时代的特点将是“人工智能”的快速发展及其对社会近乎各个方面的深远影响。我们不能不思考应该如何应对。

当然,在辨别时也需要教会训导的指引。不过,教会通常不会轻率地给予指导方向。她会耐心等待,直到经过深思熟虑。这种态度无疑具有其优势:它可以防止草率的反应,让人们明智行事。然而,就“人工智能”而言,我们有理由认为,教会训导则不能遵照一惯的步调。我们需要更短的反应时间。事情正在以闪电般的速度发生。1983年被普遍公认为发现互联网的年份,而宗座社会传播委员会直到2002年才发表了《教会与互联网》这一文件。社交媒体诞生于1997年[18],而传播部在2023年才发表了《走向全方位面对》(Towards a Full Presence)的文件[19]。教宗方济各正在努力与时俱进:他在世界社会传播日(2024年1月24日,圣方济各沙雷氏诞辰日)的反思以“人工智能与心灵智慧”为主题[20];2024年1月1日,他在世界和平日的文告也同样以“人工智能与和平”为主题[21]。这更应进一步激发我们对这一主题的反思。

1) 其中最重要的一个方面涉及对“生成式人工智能”的监管。这首先是出于反复出现的紧迫道德形势所要求,譬如战争局势。多年来,包括卡内基梅隆大学(Carnegie Mellon University)安全与技术研究所所长奥黛丽·库思·克罗宁(Audrey Kurth Cronin)在内的一些专家已经在谈论这一风险,与此同时,他们认为,“开放的技术创新正在武装明天的恐怖分子”[22]。最近发生的事件在很大程度上证实了这些学者的担忧:在以色列冲突中,哈马斯利用廉价易得的先进技术(社交网络、无人机、传感器和“智能”火箭)提高了破坏能力,增加了恐怖袭击的受害者人数。这一简单的事实应进一步警示那些正在开发“生成式人工智能”新技术的人:它将拥有倍增大规模毁灭(例如通过制造新的致命病毒)效果的力量。

2) 保护人类所需要的不是破坏性创造力,而是创新性解决方案。尽管数字革命的所有主要参与者–从OpenAI到谷歌,再到微软和Anthropic(现已进入亚马逊的轨道)–都宣称他们意识到了这些技术被恶意操纵所固有的巨大风险,但善意的声明似乎无济于事。尤其是那些“大佬们”并不觉得自己负有责任!身家数十亿美元的跨国汽车公司特斯拉首席执行官兼X公司(以前的推特Twitter)所有者及董事长埃隆·马斯克(Elon Musk)本人就多次被指控散布假新闻。起初,他以绝对言论自由的名义大幅削减了对网络上发布内容的验证系统;然后,他又为经济机制开辟了空间,这种机制奖励那些虚假但引人入胜并能产生大量浏览量的剪辑制作;最后,他又于近期鼓励人们关注两个在他看来很有趣的有关以色列问题的网站,它们是两个习惯性传播虚假信息的反犹主义网站。当有人向他指出这些错误时,虽然收回了自己的这一邀请,但在他的1.6亿粉丝中,它已被1100万人阅读[23]

据显示,另一位亿万富翁、Meta公司(前Facebook公司)负责人马克·扎克伯格(Mark Zuckerberg)与此相反的政策也同样是有害和站不住脚的:在国会讨论“人工智能”问题时,他虽然认同监管的重要性,却否认限制其开放使用的必要性。由此可见,令人疑虑的是对权力的欲望蒙蔽了相关人士的眼睛,使其无法认识到,将如此巨大的权力交到具有潜在危险的行为者手中是不负责任的。在过去,这种公然的错误判断会彻底粉碎技术民主化的梦想,而如今承担后果的则是我们。令人遗憾的是,如此重要的决定并不应委任于个体,即使他们在政治和道德上并非完全不知情。为了避免最糟糕的情况,所有主要参与者都必须具备透明度和民主问责制。

3)当然,这种责任的承担对于那些价值数十亿美元的强大公司而言尤为复杂,比如美国巨头谷歌(YouTube每天的用户达13亿,其平均使用时间为70分钟)或中国巨头抖音(目前已成为美国和欧洲青少年信息的半垄断者)。在这些社交媒体平台的背后,还有基于“人工智能”、为了将我们锁定在屏幕前而由世界上最优秀的行为科学家研发的算法。难怪我们如今正在丧失集中注意力的能力。在这些领域,监管应有的目标并不是不惜一切代价地转移注意力–这只会使少数人的个人利益最大化,并同时分化其他社会成员–而是提供信息、赋予权力和力量(empowering),以激活我们的最佳资源。为此,不可或缺的,借用方济各会士保禄·贝南蒂(Paolo Benanti)的一个新词,是“算法伦理”(algoretic),也就是说,必须赋予算法以伦理意义[24]

4) 监管是必要的,这不仅是为了抗击战争、假新闻制造者及不负责任的社交媒体运营商,也是为了拯救(和完善)现有的民主政治制度。2017年美国总统大选受外国势力干预的方式众所周知。然而,在2023年9月30日的斯洛伐克议会选举中,亲俄民粹主义者罗伯特·菲佐(Robert Fico)获胜,其中所使用的更为复杂的手段却鲜为人知。在深度造假支持下,假造的选举活动主要针对进步自由派候选人米哈尔·西梅卡(Michal Simecka)。虽然这听起来很滑稽,但却是一个严肃的问题:在投票开始前48小时,Facebook发布了一段视频,假冒的西梅卡在视频中宣布,如果他获胜,啤酒价格将翻一番。与此同时,另一个假冒的米哈尔声称要收买罗姆少数民族选票的音频片段也在网上传播开来[25]

随着技术的飞跃,我们会不会不再相信自己在屏幕上看到的东西?也许可能。但是,应该有一种监管。就像以往受严厉惩罚的伪造产品,对人类行为的伪造如今也同样应该被付诸于法律[26]。这并不违反言论自由,因为机器人无权享有这一自由。

好消息是,据我们所知,“生成式人工智能”既没有意识,也不会产生自我意识(事实上,与我们不同的是,它并不明白自己在说些什么)。不过这并不意味着它不会构成危险。因此,我们需要对它进行持续的监管,这一伦理、神学和精神方面的持久任务将属于我们:真正的人。

  1. 必须加以区分的是:机器“智能”有别于人类“智能”。因此,我们将在本文中采用加双引号的通用术语,以标明这一区别。参见F. Bastiani, «Faggin: “L’AI non avrà mai coscienza. ChatGPT? A differenza nostra non comprende ciò che dice”», in StartUp Italia,2023年9月25日。
  2. 标志性事件是于2022年12月推出的ChatGPT。当然,这一举措出台的背后有着一段相当长的历程。对此,目前为人们所谈论的重要信息时刻至少有四个:1)2010年,人工智能开始被用于对互联网搜索的改善;2)2014年,商业人工智能被用于帮助人们找到所需产品(仿佛它们开始“读懂我们的心思”);3)2018年,感知人工智能出现,机器开始看到并识别物体;4)我们目前正在见证的生成式人工智能的浪潮。参见J. Holmström, «From AI to digital transformation: The AI readiness framework», in Business Horizons 65 (2022/3) 329-339; U. Pillai, «Automation, productivity, and innovation in information technology», in Macroeconomic Dynamics 27 (2022/4) 879-905。
  3. 更详细的内容包括:信息过载、末日搜索(doomscrolling)影响者(influencer)文化、儿童性化、假新闻(fake news)、注意力集中时间缩短、深度伪造(deep fake)、建立邪教、网络骚扰、破坏民主等。参见T. Harris, »Beyond the AI dilemma«, in youtube.com/watch?v=e5dQSzEuE9Q
  4. 在经历了前所未有的增长之后,ChatGPT于2023年6月开始流失用户,其网站流量首次比前一个月减少了10%。参见N. Tiku – G. De Vynck – W. Oremus, «Big Tech was moving cautiously on AI. Then came ChatGPT», in The Washington Post (washingtonpost.com/technology/2023/07/07/chatgpt-users-decline-future-ai-openai), 2023年2月3日。然而,这一事实并未阻止大型语言模型所预期的文化领域中的“气候变化”。
  5. 虽然早在1837年,塞缪尔·芬利·布雷斯·莫尔斯(Samuel Finley Breese Morse)就发明了能够传输电信号的电报并申请了专利,而安东尼奥·梅乌奇(Antonio Meucci)也早在1871年就发明并制造了第一部电话,但这些工具所实现的通信却远远不能与移动电话的功能相提并论。
  6. 关于一种的确存在于年轻人中的医疗保健危机之危险性的报告,请参见J. Haidt, After Babel: Reclaiming Relationship in a Technological World, audiolibro, 2022; Id., The Anxious Generation: How the Great Rewiring of Childhood Is Causing an Epidemic of Mental Illness, Londra, Penguin, 2019。另见J. Cain, «It’s Time to Confront Student Mental Health Issues Associated with Smartphones and Social Media», in American Journal of Pharmaceutical Education, 1 settembre 2018 (https://doi.org/10.5688/ajpe6862).
  7. 在关于这一主题的繁多著述中,我们仅以下文为引证:T. W. Kim – A. Scheller-Wolf, «Technological unemployment, meaning in life, purpose of business, and the future of stakeholders», in Journal of Business Ethics, n. 160, 2019, 319-337 (https://doi.org/10.1007/s10551-019-04205-9).
  8. 参见St. K. Spyker, Technology and Spirituality: How the Information Revolution Affects Our Spiritual Lives, Woodstock, VT, SkyLight Path Publishing, 2007。相形之下,关于积极方面的论述寥寥无几:F. Cavaiani, «The Positive Power of Technology», in Human Development 43 (2023/2) 47-51.
  9. 参见G. Cucci, Dipendenza sessuale online. La nuova forma di un’antica schiavitù, Àncora – La Civiltà Cattolica, Milano, 2015.
  10. 奈飞(Netflix)首席执行官里德·黑斯廷斯(Reed Hastings)曾于2017年声称:“我们的最大竞争对手是睡眠”。
  11. 值得注意的是,尽管美国人生活于有史以来最先进的信息社会中,但人们仍然无法在最新几届总统选举的胜出者、气候变化是否是真正的威胁以及是否值得接种新冠疫苗等问题上达成一致。如今,公众对联邦政府的信任度位居近七十年民调中最低水平之列。参见Pew Research Center, Public Trust in Government: 1958-2023, in pewresearch.org/politics/2023/09/19/public-trust-in-government-1958-2023
  12. 值得注意的是,为了达到同一数字绩效,Facebook-Meta花费了四年半时间,TikTok也花费了整整九个月。参见«The battle for search», in The Economist, 2023年2月9日, 7。ChatGPT正是因为其快速增长而备受关注,被誉为增长率最高的应用程序。
  13. 参见同上。
  14. 参见M. Atleson, «Chatbots, deepfakes, and voice clones: AI deception for sale», in ftc.gov/business-guidance/blog/2023/03/chatbots-deepfakes-voice-clones-ai-deception-sale/。在当今的技术条件下,仅以三秒钟就足以教会AI模拟任何人的声音,这使在电话中对家庭成员进行实时诈骗成为可能。
  15. 在一个视频中,麻省理工学院的心理学家兼技术专家雪莉·特克尔(Sherry Turkle)将她与“机器人护士”的相遇描述为其职业生涯中“最悲伤的经历”:参见S. Turkle, Alone Together. Identity and Digital Culture (TEDxUIUC – Sherry Turkle – Alone Together – YouTube)。
  16. 参见H. Bray, «“This is civilization-threatening”: Here’s why AI poses an existential risk», in The Boston Globe (Bostonglobe.com/business),2023年6月1日。参见 D. C. Dennett, From Bacteria to Bach and Back: The Evolution of Minds, New York, W. W. Norton & Company, 2017。
  17. 参见 S. Altman, «The Software Revolution»(2015年2月16日)。
  18. 参见M. Jones, «A Complete History of Social Media: A Timeline of the Invention of Online Networking, History of social media: The Invention of Online Networking», in historycooperative.org
  19. 参见Dicastero per la Comunicazione, Verso una piena presenza. Riflessione pastorale sul coinvolgimento con i social media,2023年5月28日。2022年1月10日,在宗座生命科学院推动下,2020年由微软和IBM等公司所签署的《人工智能伦理罗马呼吁》(Rome Call for AI Ethics)文件被扩展至犹太教及伊斯兰教代表。此举以促进一种“算法伦理” (algoretica)为宗旨,因为正如该科学院院长文森佐·帕里亚(Vincenzo Paglia)主教所提醒的那样,这些新技术“既可以带来巨大的发展,也可以带来同样巨大的悲剧,因为它们有可能在一种颠覆人类本身的技术独裁中压制人性”。
  20. 参见G. Mocellin, «Intelligenza artificiale & fede. Noi credenti e le “seduzioni” religiose di ChatGpt», in Avvenire,2023年10月10日。
  21. 同上。
  22. 参见A. K. Cronin, Power to the People. How Open Technological Innovation is Arming Tomorrow’s Terrorists, Oxford, Oxford University Press, 2020。
  23. 参见 M. Gaggi, «Le falsità intelligenti che minacciano il mondo», in Corriere.it(2023年10月12日)。
  24. 参见P. Ottolina, «Benanti: “Più dell’intelligenza artificiale mi spaventa la stupidità naturale”», in Corriere.it,2023年4月24日。
  25. 参见M. Gaggi, «Le falsità intelligenti che minacciano il mondo», cit., 28。
  26. 参见«Piers Morgan vs Yuval Noah Harari On AI The Full Interview», in youtube.com/watch?v=lEt6OJEArM8