《当今大马》标志
这篇文章是在2 年前刊登

从ChatGPT现象谈科技伦理

【岛屿信札】

AI生成式语言工具或说聊天机器人ChatGPT开放注册后,很快就成了史上用户成长速度最快的相关应用程式。

它能有这样的成绩,除了回答问题时,能提供包罗万象并相当准确的答案外,最让人惊异的莫过于它拟人的对话方式,是会让使用者觉得不像在跟聊天机器人对话,而是真的跟另一个人对话。

还不是真正的人工智能

这样的使用经验,就让人燃起对于ChatGPT是否已具有人工智慧的想像。但实际上,ChatGPT所使用的深度学习(Deep learning)框架下的机器学习技术,并不是什么崭新技术。过去多年,我们早已可以在各大电子商务公司如IBM、Google、亚马逊甚至阿里巴巴开发的AI机器人身上,看到类似AI语言模型的应用。

正如我大约一年多前,在大马《当代评论》上写的《当你说人工智能时,说的是什么意思?》就已提出,若根据深度学习这种弱AI(有关强、弱AI的定义,请参考《当今大马》的《人工智慧发展的人文反思》一文)途径,当开发者或使用者给予机器的回馈越来越多,那这个机器对于事情的判断方式,就会越来越接近人类“合理”的回应;而ChatGPT恰恰就是这样的产物,但即使如此,也不能改变ChatGPT并非真正意义上的人工智能(即强AI)。

不过,出现像ChatGPT这样强大的人类聊天夥伴,也许改变了我们人类对于AI机器人的想像,如美国科幻作家艾西莫夫所设想的机器人,还是一个有著和人类一样身体的AI机器人,可是在现实上,ChatGPT却不过就是我们电脑、手机这样的存在物而已。

机器人三法则的启示:AI的伦理规范

虽然如此,艾西莫夫(Isaac Asimov )在“机器人系列”里提出的机器人三个法则这样的想法,还是可以很好的启发我们。

他所设想的三个法则如下:第一、机器人不得伤害人类,或坐视人类受到伤害;第二机器人必须服从人类命令,除非命令与第一法则发生冲突;以及最后的第三法则是在不违背第一或第二法则之下,机器人可以保护自己。

若把三个法则硬套入真实世界中的ChatGPT的讨论实属滑稽。但艾西莫夫运用法则给机器人设限的想法,却可提醒我们即使是AI机器人,还是必须要它遵守一定的规范或准则!

因为当AI机器人能跟人互动,并会造成一定的行为后果时,那我们便该去询问,AI机器人做的事,是对的(right)、错的(wrong)、好的(good)、坏的(bad)、应该、不应该、它对自己所做的行为,是否有义务、有责任等等。也就是说,我们对AI机器人的行为,要有一定的伦理思考。

但一定会有人质疑,一个像ChatGPT这类的弱AI,它不过是一组由AI语言模型组成的,它的知识、应对方式,受限于工程师给它输入的资料年限,以及它的语言模型能生成的新语句;所以有些人会主张说,ChatGPT这类聊天机器人,对自己所提供的谈话内容,是不具有意识或情感,而一个没有自我意识的机器,它其实就只是一个被人所使用的工具而已!

工具不具“自主决策”能力

工具有需要对自己的行为负责吗?正如有人用刀杀了人,你会说做错事、坏事的是那位持刀杀人的人,还是做错事、坏事的是那把用来杀人的刀呢?

答案显而易见,那是因为我们都知道,要为行为负上责任的,是有能力做“自主决策”的道德代理(moral agencies),而工具却明显不具有“自主决策”的能力,所以工具是不用为“行为”负责的。

但问题就在,目前已在线上应用的AI机器人,它是可以根据给定的认知模型,来推行一定的决策和行为的,而这些行为还会对人类社会产生影响。

那这些行为,又是谁有道德上的义务呢?是AI机器人本身,还是设计这套AI机器人的人或组织,又或者是使用者本身呢?

自驾车的伦理两难

以电动自驾车为例子来看,当有人类放弃操控车子,而由AI机器人来自负责驾驶开始,便有许多的人,开始讨论各种情境底下的道德上的两难,其中一个最有名的,便是脱胎于有名的道德两难思想实验的电车难题(Trolley problem)。

我们假设自驾车在面临车祸时,出现一个极端的情境,那就是如果的迎面将两位行动不便的老人撞死,那坐在车里的孕妇就会没事,反之若自驾车选择躲避行人,它本身则会撞向山壁,而车里的孕妇腹中的孩子便会伤重不治。

那在这样的情境下,第一个层面就是伦理学式的,这时自驾车会怎么做呢?它是根据什么样的道德标准来判断的呢?第二个层面则是根据我们人类的道德价值而制定的法律规范,我们该如何认定意外事件发生后的责任归属呢?

先不论以上这个两难有没有标准答案,一个显而易见的问题就是,工程师编写程式时的判断,便成了自驾车考虑应对时的重要规则!

正如艾西莫夫在他的机器人三法则那样,编定的道德和价值标准,是会影响机器判断什么事是“优先”该做的,什么不是。而在机器人系列中,其结论就是机器人为了不让人类彼此之间互相伤害,建立了一个机器代替人类来管治的专制王国。

这就是为什么我们除了必须在对ChatGPT的能力感到惊奇之外,还必须思考对话内容的伦理学意义。

AI传播暴力和偏见又如何

一个最简单的质疑就是,透过网络资料搜寻、统计跟整合来回答问题的AI机器人,难道不会将网路上的错误资讯,暴力、偏见和种族歧视等等也传播给我们吗?

为了排除这样的情况,负责编码的工程师便必须将自己的许多道德标准,价值判断设计进AI语言模型中,那问题又是,谁来保證工程师们的意见本身没有偏见呢?

这些可能的偏差,会不会演变成对人类世界多元价值,言论自由的钳制呢?而根据这些偏差来行事的AI机器人,应不应该为自身行为造成的后果负责呢?

一旦我们开始思考AI机器人的伦理问题,很多的议题都会开始浮现,而显得没完没了,但我们必须知道,过去科技的进步,虽然带来了人类生活的巨大改变、进步与破坏,但却很少会让我们将科技伦理放上台面来讨论,因为我们知道,过去出现在人类社会的科技产品,再怎么去追溯,要为这些科技创新与破坏负责的都是人,因为做决策的都是人。

但在AI机器人的时代,我们却一定得开始关注科技伦理,尤其从刚刚的讨论中,我们可以确定的,就是目前AI机器人的设计,就让它本身的跟人类互动时,能具有一定的“自主决策”空间的。

所以朋友们,让我们现在就开始来思考,一个适合AI机器人的伦理框架是什么吧!


吴振南是旅居台湾的马来西亚人,前报业从业员,目前是专职相妻教子的家庭煮夫与兼职文化玩童。

本文内容是作者个人观点,不代表《当今大马》立场。