保罗·贝南蒂(Paolo Benanti)神父是圣方济各,宗座额我略大学(Pontifical Gregorian University)伦理神学教授。他的研究、教学和传播活动涉及伦理学、生物伦理学和技术伦理学。在个人网站上,他称自己的研究“尤其侧重于创新管理:互联网和数字时代的影响、提高人类及生物安全的生物技术、神经科学和神经技术”[1]。贝南蒂神父具备出色的沟通和教学技能,经常在媒体上出现,并与各种学术、政府及国际机构进行合作。近期,他被联合国秘书长任命为人工智能高级咨询机构(High-Level Advisory Body on Artificial Intelligence)成员[2]。贝南蒂神父欣然同意回答我们的问题,对此,我们表示感谢。他在回答中就许多已经提上日程并将决定人类未来的问题给予了我们很大启发。

贝南蒂神父,您于近期被联合国秘书长安东尼奥·古特雷斯(António Guterres)任命为联合国人工智能高级咨询机构成员我们感到有趣的是,这个小组中唯一的意大利人是一位宗教人士。这是否意味着在意大利,教会团体对于这一问题的思考更为深入?

人工智能在全球范围内的迅猛发展令许多人措手不及。这种快速变化的局面实际上是一个跨学科的过程,对不同技能和学科提出了质疑,同时也带来了众多危机因素和新的推动。其中首先需要强调的因素是:人工智能事实上对每个人来说都是一个巨大的挑战。在这个转型的大背景下,方济会作为一个经历过其他重大社会和文化转型的机构和修会,有助于我们从不同变迁因素中窥见一些连续性和新颖性。我认为,这一历史转折点使得原本已经得到巩固的许多因素发生了变化,也将促进教会与世界其他领域开展新的对话。

当然,您在联合国的任命并非突如其来。您也是宗座生命科学院的成员,负责人工智能领域的工作;此外,您还被意大利政府任命为负责制定国家人工智能战略的专家之一。您的学术和知识经历使您在担任宗座额我略大学伦理神学教授之外荣任这些如此重要的职务,您能否对这些经历为我们做一个概括性介绍?

在加入修会之前,我攻读的是工程学。大学时代为我打下了科学和专业语言的基础。在毕业前的最后一年,我加入了方济各。离开大学时,我本以为自己也丢弃了技术行业。在亚西西完成哲学和神学之后,我继续在额我略大学攻读伦理神学硕士这一机缘不仅使我得以加深对伦理思考基础的理解,而且能够在罗马宗座大学的优越环境中敞开心扉,迎接当前的复杂性及挑战。我体验到了真正的“万国大学”,语言、人类和教会经历以及文化的多样性在这里孕育出相遇和相互丰富的果实。我对当前问题的关注在这里得到更深入的思考,事实证明,这对我后来应对诸如人工智能等复杂的全球性挑战很有帮助。

对我来说,博士生阶段是一个非常重要的时期,在研究计划中,我得以运用在学习期间获得的普遍性知识重新解读技术现象。我博士阶段研究的一部分是在美国乔治敦大学(Georgetown University)进行的,其间,我发现了一个逐渐变得更加激烈和深刻的微妙挑战:在技术演变过程中,机器和人之间存在着某种抗衡,机器似乎变得越来越人性化,而人似乎越来越把自己理解为一台机器。事实上,一些重大技术,如纳米技术、人工智能和生物技术,开始被后人类思想的某些观点理解为“改进”人类的一种方式,而人则被视为一种因存在缺陷而需要“修理”的机器。

博士毕业后,我投身于教学工作。在额我略大学任教期间,我开设了神经科学与伦理学、后人类及人工智能等具体课程,这不仅赋予我的研究一个有机结构,也推动我接触国际学术界和研究机构。如今,我满怀热情地继续这项任务,与学生们分享不断发展的知识。我完全赞同额我略大学的价值观以及托付于耶稣会士的教学使命:今天,对我来说,面对人工智能的挑战,普遍性(l’universalità)及个人关怀(la cura personalis)可以成为不同民族和平发展与和平共处的宝贵工具。

那么,让我们从定义谈起。于今,当我们谈论人工智能时,我们究竟在谈些什么?

正是在人工智能的定义上,我们遇到了最初的困难。在一个意于对这一领域进行监管的环境中,找到一个能涵盖各种人工智能系统所实现的不同技术的定义是非常复杂的。一方面,监管者希望找到一个能够涵盖各种不同系统的人工智能描述;另一方面,各企业则试图绕过具体限定,以逃避未来的监管法规。相形之下,欧盟在《人工智能法》(AI Act)草案中所提出的定义以适当的方式包含了不同形式的人工智能。我们在这里读到的是,可以将“人工智能”理解为使用技术表中所列出的以一种或多种技术和方法开发的软件,“它可以按照人所定义的特定目标而生成内容、预测、建议或决定等输出,从而影响与其互动的环境”[3]

如今,“人工智能”一词被用作基于不同技术的各种计算机应用程序的统称,这些应用程序展示了当前通常与人类智能相关的功能。被定性为人工智能的系统通过获取数据、分析结构化或非结构化数据、生成知识形式或对数据进行信息处理来记录其运行环境,并在此基础上享有优化的行动能力,以实现特定目标。人工智能的设计可以根据新数据不断调整自己的行为,并提高其性能以实现特定目标。

是否有必要做进一步的语言性说明呢?

是的。对于这些前提,我认为有必要做一个语言上的补充说明。由于计算机科学对人类智能进行技术还原而获得其部分功能的作用,“人工智能”一词的最佳用法始终是复数形式,即:“各种人工智能”。

这一选择至少基于两个原因。首先,它强调了无论这些系统多么令人惊奇、多么强大,它们与人类之间的距离是不可逾越的:在这个意义上,复数形式所表明的事实是各类人工智能只是不同的碎片,它们在某种程度上或是使人联想到或是类似于人的某些能力。其次,复数形式表示这些工具的非同一性:人工智能系统应始终被视为“社会技术系统”,因为人工智能系统的影响–无论其基础技术如何–不仅取决于系统的设计,而且取决于其实施、部署(deployment)及使用方式。因此,人工智能应被理解为一个由多种不同人工制品组成的星系,这些人工制品深刻地改变了我们的社会生活以及一些最重要的认知和行为领域。

各类人工智能常常与机器人技术联系在一起。两者之间真的相关吗?

非常笼统地说,我们可以把机器人定义为一种机器,通常可以由计算机编程,能够自动执行一系列复杂的操作。事实上,机器人是一种可编程的机械和电子设备,用于工业领域,代替人类自动和自主地执行重复或复杂、繁重和危险的任务和操作。当今的机器人编程既可以使用传统方式,也可以使用各类人工智能,因为合格的人工智能系统既可以应用于实体层面,也可以应用于数字层面。

科幻小说及影片的传播可能使人认为人类可以通过机器人技术及人工智能创造出另一个智人(Homo sapiens),也就是机器智人,从而在某种程度上成为“机器新物种”的“创造者”。然而,日常经验却并非如此。虽然各类人工智能日渐强大,但我们仍然不具备同等水平的机器人。造成这种差异的原因在于一个以其提出者、计算机科学家汉斯·莫拉维克(Hans Moravec)而命名的悖论,即莫拉维克与罗德尼·布鲁克斯(Rodney Brooks)、马文·明斯基(Marvin Minsky)等人于20世纪80年代所提出的一个与直觉截然相反的情况。与传统假设相反,高级推理只需要很少的计算,而低级的感觉运动和知觉能力却需要巨大的计算资源。莫拉维克认为,让计算机在智力测试或下棋方面达到成人水平相对容易,但让它在感知和移动能力方面达到一岁儿童的水平却很困难,甚至不可能。换句话说,对人类来说很复杂的任务,比如求一个很大数字的立方根,对计算机和人工智能来说易如反掌;而为婴儿很简单的感知和动作技能,比如摆弄一个物件或通过旋转把手而将门打开,对今天的计算机和人工智能系统来说却极为复杂。

对于莫拉维克悖论的解释多种多样。进化论者认为,人的感觉运动能力是数百万年进化的产物,因此在很大程度上是无意识的。人脑中庞大的感官和运动部分包含了十亿年感知世界的经验和生存于其中的所需技能。

我认为,这个疑难使人想起另一个问题。如果智力不是由大脑这一器官产生的抽象能力,那么,我们作为智人,作为一个人,最重要的或许也是我们居住的身体。我们是具有血肉之躯的智能。我们居住的媒介–我们的身体–并不是任何一种普通硬件,正因如此,我们才与众不同。

当我们谈论人工智能时,会涉及许多问题:伦理问题、劳动力市场的后果问题或个人数据的处理和控制问题。在伦理道德上,我们真的能说人工智能是中立的、一切都取决于对它的应用或仅仅取决于一个优秀的工程师吗?哪些方面是已经或将要对我们的生活产生实际影响的人工智能之真正核心?

在他的一篇著名论文《人工制品是否具有政治性》(Do Artifacts Have Politics? 中,研究科学、技术与社会关系的美国著名学者兰登·温纳(Langdon Winner)展示了某些技术的实施具有内在道德及政治特征,与此同时,他对技术制品具有道德中立性的观点提出了强烈质疑。他在其文章中经常引用的一个例子是长岛街道上桥梁的高度,这些桥梁是按照特殊规定建造的,其目的是使公共汽车无法通过。温纳认为,这是一种限制少数种族和低收入群体通行的方式,这些人由于用不起私家车而只能搭乘公共汽车。

温纳的例子表明,技术设计不能被视为中立,因为它在技术本身的社会影响中强加了某种形式的秩序和权力安排,并可被用来施加特定的政治计划。这种贯穿于技术伦理方法中的意识使我们认识到,每一件人工制品都是一个社会技术系统。作为一种人工制品,人工智能也同样具有这一特性。我们开发人工智能的方式–我们用以训练这些系统的数学算法及数据选择;我们实施这些系统的方式;以及最后,机器与用户之间的界面设计,即所谓的用户体验–与长岛街道上的混凝土桥梁毫无二致。

最后,让我们借鉴意大利数字哲学家科西莫·阿科托(Cosimo Accoto)的观点。他认为,人工智能在机械系统中具有预测将会发生事件的功能。这位哲学家认为,在人的身上,这种功能会产生行为,比如网络购物平台的购买建议。有鉴于此,我们有理由想象并担心未来人工智能可能对我们的自由产生强烈影响,它将成为一种“社会导师”,引导我们在避免那些被视为消极行为的同时采取被视为积极的行为。在这一点上,有关人工智能塑造世界这一未来可能性的问题不再只是社会经济问题,而是伦理和政治问题。与此同时,随之而来的问题则不容忽视,即:在这些技术的帮助下,我们想要建设怎样的未来?

早在2018年,维多利亚·尤班克斯(Victoria Eubanks)就在一篇近年来经常被引用的文章《不平等的自动化》(Automating Inequality)中警告过人工智能的使用在社会公正领域可能产生的影响,例如,在收入补贴的确定或社会住房的分配方面。这种担忧是否已经具体化?这种情况中存在着哪些挑战?

通过重温莫拉维克的悖论,我们已经可以窥见人工智能可能产生的社会影响。如果社会发展像工业革命初期那样,继续以劳动自动化为导向,那么人工智能就会凭借其更容易替代高认知任务而非体力劳动的能力而“打击到”那些如今作为特定社会阶层特征的工作,即中产阶级和所谓“白领”的工作。在此意义下,一些现象已经可以从某些新的工作形式中清晰可见。让我们思考一下所谓的“吉格经济”(Gig Economy,又称“零工经济”),这是一种基于随叫随到、临时性和暂时性的工作模式,而不是以稳定性和持续性为基础。在吉格经济中,劳资双方主要通过数字平台进行对接。这种劳动模式包括多种职业,其中主要是数字领域的职业,如摄影师、撰稿人、平面设计师和网站管理员。吉格经济中有一些众所周知的例子,包括Uber司机、Foodora或Deliveroo的外卖送餐员,以及在Airbnb上出租房屋的房主,等等。为需求(问题所有者)和供应(解决方案所有者)牵线搭桥的大型平台依赖于各种形式的自动化算法及人工智能。

让我们来思考一下快递的世界:在这些新职业中,工人最多只能为送货贡献肌肉能量,但永远不会达到管理职位,因为这是由软件操作的工作。在这种工作模式中,收入高、认知含量高的职业被机器取代,而人只能从事收入低、认知含量低的工作。如果说近年来的科幻小说让我们在机器面前越来越为人类灭亡的可能性而忧心忡忡,那么我则以为更令人担心的应该是中产阶级的灭亡,因为这更有可能在短期内发生。

当我们面临第三次世界大战的风险,或者正如教宗方济各所言,在第三次世界大战正以零星的方式进行的时候,我们该如何看待人工智能与战争之间的关系?哪些是人工智能已经产生以及会在不久的将来产生的影响?

在近期与哲学家塞巴斯蒂亚诺·马菲托内(Sebastiano Maffettone)就人工智能与冲突这一话题而展开的讨论中,我们对上个世纪武装冲突中的许多变化进行了思考:利害关系、参战人员、战斗空间以及相关语言。无人机已出现于这一领域。最近,一个联合国专家小组报告了土耳其制造的小型无人机“STM Kargu-2”的使用情况,该无人机已于2020年成为首个由人工智能操控的杀人装置(具体而言,是在利比亚战争中用以攻击哈夫塔尔[Haftar]附属部队的士兵)。这种无人机具有完全自主运行的效能。由联合国起草的报告指出,“经过编程的武器系统无需操作员与弹药之间的数据连接即可攻击目标”;换言之,它们基于计算机视觉(computer vision)和通过人工智能而完成的目标识别。从技术上讲,这类无人机被称为巡航(loitering)弹药,“游荡”弹药;它们通常是地地道道的弹药–通常是炮弹–由无人机携带飞行,执行“自杀”任务,一旦到达目标,就会与载体一起爆炸。这种武器使哈夫塔尔部队惊慌失措,因为当地士兵从未接受过防御这种新技术的训练。

此类新闻–自主武器系统(Autonomous Weapon Systems)的使用–迫使我们反思武装冲突的转变以及机器杀人的可能性。所有这一切,即使对于各交战方(不仅仅是所谓的“超级大国”)于今也都是可以实现并且可行的。在悲惨的战争环境中,人工智能为致命性手段问题增添了潜在的易用性和扩散性。

让我们来关注另一个重大变化:在传统领域(陆、海、空、网络空间及太空)之外,北约最近又增加了一个新的竞争和冲突空间,即认知领域。在这个人们头脑中的新战场上,其目标不仅要改变人们的思维,还要改变他们思考和行动的方式。在此,人工智能仍是潜在的主角,尤其是生成型人工智能:它们因有能力生成可信和有说服力的内容而成为可能的战争工具。在这种情况下,认知操控可能不会被用来摧毁城市或消灭人类,而是被用以破坏社会凝聚力和民主空间。从这一角度来看,我认为教宗方济各在2024年1月1日发布的以人工智能为主题的《世界和平日文告》极为适宜和及时。

许多国家和多边组织都在呼吁对人工智能进行监管。如何才能做到这一点,哪些是应该考虑的方面?

鉴于人工智能技术在各行各业与日俱增的重要性及其所涉及的伦理、安全与隐私方面的挑战,对它的监管是一个重大时事问题。目前,多个国家和国际组织正在制定监管举措。

从总体上看,关键问题之一是需要协调创新与安全。制定法规的方式必须能够促进这些技术以负责和安全的形式发展,同时又不扼杀创新或为新公司进入市场设置不合理障碍(这实际上相当于大型技术巨头的垄断)。

此外,这种思考必须在全球合作的背景下进行:各国合作制定一致且有效的法规至关重要。这些数字技术是全球性的:只有制定全球性的法规,才有可能防止一些公司向法规不那么严格的国家转移的情况。

目前,世界上存在着各种观点。例如,在美国,拜登-哈里斯政府已经考虑了几项监管人工智能的立法提案,并获得了业内七家主要公司的承诺,以促进人工智能负责任和安全的发展。这些承诺包括安全测试、风险管理信息共享、网络安全投资、普及人工智能功能信息以及降低社会风险的研究。此外应提及的还有教科文组织于2021年11月颁布的《人工智能伦理建议书》。在欧洲,欧盟委员会正在制定《人工智能法》,这是一项根据人工智能系统对用户所造成的风险而对其进行分类的监管提案,监管水平根据风险程度而有所不同。

这些尝试必须正视的事实是,人工智能监管不可能是一个静态过程,而必须能够适应技术的发展。正因如此,兼容人文学科、伦理学甚至神学的跨学科方法才是制定真正有效解决方案的唯一途径。

教会对人工智能的思考处于什么阶段?是否已经发布任何关于训导的声明?教会的社会训导是否能够翻开一个新的篇章?

教会对人工智能的反思正在不断发展,且主要聚焦于伦理学和人类学方面:正在出现的是要促进对人工智能及其在社会中的作用进行批判性思考。教宗方济各强调了设定限制的重要性,以防止这一人类前沿领域中无度滥用的可能。同时,他也强调了一种新的、更加迫切的伦理需求,即“算法伦理”(指算法的伦理发展)。

因此,数字化和人工智能为人类生活所带来的划时代变革必须体现在所有具有良好意愿的人们的责任感以及对美好事物的追求之上。这一进程必须使我们在生活中认识到,技术的设计和实施除了严格的技术因素考量之外,还受到一系列社会和经济因素的影响。在这一努力中,圣座希望与所有寻求拓宽技术政策议程的善意人士合作,在开发、实施和使用人工智能时采用一种以适用于数字技术伦理为特点的方法。正是出于这一原因,教宗在2020年2月28日《对宗座生命科学院全体会议的讲话》中指出,需要深入拓展算法伦理学的前沿,这“可以成为一座桥梁,以便通过有效的跨学科对话而将各项原则具体体现于数字技术中。此外,在不同世界观的交锋中,人权是寻求共同点的一个重要交汇点。而且,目前似乎有必要对这一领域的权利和义务进行新的思考。事实上,数字时代变革的深度和加速引起了意想不到的问题,对个人及集体伦理提出了新的要求”。

即将发表的和平日文告及社会传播日文告均以人工智能为主题,它们可以进一步扩展这些思考。预测未来将会发生的事情总是一种博弈,但这一领域有可能成为教会社会训导的推进方向之一。我之所以这样认为,是因为教会本身已经表达了将伦理原则纳入人工智能的必要性和紧迫性,并强调了决策者、联合国机构、研究人员、学者及非政府组织代表之间达成共识的重要性。我认为,我们有理由相信,深化的可能性是巨大的。

最近,关于ChatGPT的讨论层出不穷。这一应用程序在学校和大学领域产生了相当大的影响。怎样才能以一种教育性而非制裁性的方式来应对这一挑战?

ChatGPT被称为创纪录的应用程序,这要从其采用率说起。自2022年11月推出之后,它比其他任何应用程序都更为迅速地达到了百万用户:截止2023年1月,即在推出仅两个月之后,其月活跃用户就达到了一亿;到2023年9月,其每月度总访问量愈15亿次。这些数字使它成为史上增长最快的消费类应用,超过了TikTok和Instagram等热门应用:它们分别花费了9个月和两年半的时间才达到一亿用户。此外,该应用程序的用户人口统计数据也很有趣:55.99%的用户为男性,其中25至34岁年龄段的用户最多。

这种大规模使用带来了一些与其相伴而行的问题。首先是理解这一产品究竟是什么。它完全不像许多用户所认为的那样,相当于一个搜索引擎。ChatGPT是一个基于大型语言模型(LLM)的对话机器人,它使用深度学习(deep learning)技术和超大型数据集来识别内容,并对其进行生成、总结、翻译以至预测。这些模型可用于多种应用,包括文本生成、翻译、内容摘要、文本重写以及内容分类和归类。

ChatGPT是一款基于LLM、名为“GPT”的聊天应用,具有一些独特功能:其中之一是来自人类反馈的强化学习(RLHF),OpenAI利用这种技术完善了GPT模型,使其偏好一种回应而非另一种回应;另一个功能是OpenAI的聊天界面,它能记住会话中与用户的先前交流,并将其添加到提示词prompt,即用户所提出的问题)中,从而生成一种对先前内容有“记忆”的对话。

用户体验上的这一简单改变使普通大众在它的使用上存在很大不同。这其中潜藏着一个隐蔽的差异。作为一种聊天工具,ChatGPT的目的并非给出准确无误的答案,而是与对话者“交谈”,就像在酒吧聊天一样,在场者会继续和我们对话,并会尽量延长这种闲谈。其陈述真实或精准与否并不重要:聊天的目的在于延长对话时间。不仅如此,GPT模型还展现了意想不到的一面:新特性的出现,而这些新特性是开发人员并未明确编入程序的行为和能力,它们全部属于模型组件之间复杂相互作用及数据集合(data set)训练的结果。

事实证明,ChatGPT能够解决小型文字游戏、生成解述并根据用户建议调整输出。它能理解人类语言和语境,能与情商互动,最令人惊讶的是,它似乎对2021年11月之前的事实具有一定了解。

因此,在大学中使用ChatGPT的首要和根本问题是对这一媒介的无知:如果学生想利用该系统获取知识,那么他只是对所使用媒介无知的“受害者”。我们迫切需要对教师和学生进行培训,以使他们了解这种机器的性质,避免将随机的文字放音器当作知识的来源。但是,仅仅对这种幼稚的ChatGPT方法提出批评是不够的。作为学者,我们有责任对人工智能系统进行思索。人工智能系统有很多,其中的一些正在彻底改变人们对文化和信息的获取方式。将它们与教学和研究相结合会有助于拓展其自身的广度及深度。在这条道路上,我们绝不能听任机器的摆布:我们的任务始终是坚持深层辨析的路线。

最后,在感谢您接受采访的同时,请允许我再问您一个具有个人性质的问题。在您身上,方济灵修与人工智能和技术研究是如何偕伴同行的?

经常有人问我为什么作为一个方济会士要关心这些问题:在大众的认知中,方济会士的生活方式是与简朴、与自然接触的理念联系在一起的。事实上,除了我的个人成长之外,自中世纪以来,方济各会一直与科学有着密切关系,并为科学的发展和传播做出了积极贡献。我们可以回顾罗杰·培根(Ruggero Bacone,1220-92年),他是方济会修士,也是经验主义奠基者之一。培根提倡将实验和直接观察作为认识自然世界的工具。拉蒙·卢尔(Raimondo Lullo,1235-1315年)的著作也堪称典范。这位隐修士写下了Ars magna,在这部著作中,他努力探寻一门能够通过普遍原理而包含所有特殊科学原理的普遍科学。卢尔通过图表和数字以一种机械逻辑的方式将基本概念联系起来,并断言可以通过这种逻辑而获得各个知识领域的真理。几个世纪之后,德国哲学家和数学家莱布尼兹(Leibniz,1646-1716年)在研究创造通用语言的可能性时采纳了他的观点;莱布尼兹的研究后来成为现代计算机科学的基础。我们还可以回想路易吉·伽伐尼(Luigi Galvani,1737-98年),这位方济各第三会的会士以动物电实验而闻名,他的信仰与对医学和科学的热衷携手同行:对他来说,理解自然是赞美天主化工的一种方式。即使在数字技术领域,方济各会也拥有杰出的学者。换言之,我的个人兴趣植根于一个悠久的传统。

  1. www.paolobenanti.com/,在他的众多著述中,我们的推荐如下:The Cyborg: corpo e corporeità nell’epoca del post-umano, Assisi (Pg), Cittadella, 2012; La condizione tecno-umana. Domande di senso nell’era della tecnologia, Bologna, EDB, 2016; Postumano, troppo postumano. Neurotecnologie e human enhancement, Roma, Castelvecchi, 2017; Digital Age. Teoria del cambio d’epoca. Persona, famiglia e società, Cinisello Balsamo (Mi), San Paolo, 2020; Human in the loop. Decisioni umane e intelligenze artificiali, Milano, Mondadori Università, 2022.
  2. 联合国秘书长召集了一个关于人工智能(AI)的高级别咨询机构。该机构由来自世界各地的32名相关学科专家组成,以对国际人工智能治理进行分析并提出建议,重点关注共同利益和人权,并使其与可持续发展目标保持一致。参见www.un.org/techenvoy/ai-advisory-body
  3. European Union, AI Act, art. 3.1. 参见www.eur-lex.europa.eu