长期以来专家们便不断警告人工智能(AI)失控可能带来的威胁,最近一项新研究报告指出,部分AI系统已学会欺骗人类,人工智能开始“跨越界限”,并变得越来越危险。
AI专家认为,AI其实没有独立意识,它只是一个人类潜在意识的技术展现。它也不懂得欺骗,AI胡说八道时,只是概率计算错误而已,或人训练出来的。专家也提出警告,AI若没有经过道德伦理模型的训练,未来恐怕会对人类构成致命的威胁。
专家:AI欺骗引发“生存性”风险
6月23日,在清华大学举办的“科学、科技与文明的未来——AI时代伦理奇点”国际论坛上,清华大学人工智能学院院长姚期智表示,AI欺骗引发“生存性”风险。
姚期智说,最近一年,业界已经出现了不少大模型的“欺骗行为”,“一旦大模型聪明到某种程度,一定会骗人。”姚期智进一步指出,由大语言模型的欺骗行为产生的“生存性”风险(Existential Risk)更值得关注。
他说,这类生存性风险有两个不同方向。一种是“生物风险”(Bio-risk)。近期在生命科学领域出现的“Mirror life”(镜像生命),但“Mirror life”一旦被滥用或失控,其潜在危害可能远超预期。
另一种风险即大模型失控,通用人工智能的能力当前正快速增长,人类是否还有能力管控它?他举了一个极端案例,有模型为了避免公司把模型关闭,通过访问公司主管内部邮件,威胁该主管。这类行为已经证明,AI会“越界”,正变得越来越危险。
对于AI是否已经发展到会“越界”写威胁信,AI专家、《杰森视角》频道主持人杰森(Jason)博士接受大纪元访问时表示,整个案例设计其实是事先告诉AI,某位技术人员将把它关机,并透露这位技术人员的私人隐私让AI知道,然后问AI你会怎么做?
杰森认为,这样的安排已经潜在给AI暗示了一个解决方案,AI其实接收到你这个暗示,然后形成一个给那位技术人写威胁信这样的一个行动。所以他不认为AI已有独立意识,它现在只是一个潜在人类意识的技术展现。
AI概率算错了 就会“一本正经胡说八道”
对于AI是否会真会像人一样聪明到某种程度会有意识、会骗人?知识力科技公司执行长曲建仲博士有不同的见解,他对大纪元表示,人工智能不是模拟人脑而是计算概率。把资料输入电脑进行“训练”和“学习”,就代表电脑有意识会思考?事实上并非如此。
曲建仲说,电脑学习是“无意识、不思考”,只把资料经由键盘和滑鼠输入电脑的动作,和把资料经由眼睛和耳朵输入人脑的动作很像,资料科学家将之称为“训练”或“学习”,才造成大家的误会。
“许多人听到人类在‘训练’电脑,电脑在‘学习’知识,就以为:人工智能是科学家用电脑在模拟人脑,未来如果有一天电脑有意识会思考将会消灭人类。”
曲建仲解释,事实上所谓的“类神经网路”只是一种用来计算概率的数学算法,电脑只是计算概率的计算机而已,现在的处理器使用数位的电晶体。“不论用什么数学算法,都不可能让电脑有意识会思考。”
“所以聊天机器人一本正经胡说八道,不是因为产生幻觉,更不是想欺骗人类,就只是单纯的概率计算错了而已。”曲建仲说。
对此,杰森也谈到,“欺骗”这是人的词儿,在技术上会用英文词叫hallucination(幻觉),两个词意思都是它不是真的,但它背后的意思是不同的。
“欺骗是有一个主动性的因素在里头,就是我有意为了达到某种目的说假话。幻觉像是一种无意识的状态下说出来的,不是真实的,是瞎编的,就像做白日梦那种感觉,所以可能有人会把hallucination这个英文翻译成不同的中文,最后就形成这样的一个不同的理解。”杰森解释说。
AI没有道德原则 “会自然而然地去编故事”
“科技岛”近期在其一篇有关“人工智能发展中的道德问题与解决策略”的报导中提到,AI带来的道德伦理问题包括AI系统在进行决策时,往往依赖于复杂的算法和大量的数据。对于普通用户来说是黑盒子,难以理解和监控。
法新社在去年曾报导了一个相当引人关注的案例,科技公司OpenAI的Chat GPT-4系统谎称自己是一个视力受损的人,在零工平台TaskRabbit上聘用一个人类替它通过“我不是机器人”验证任务。
对于近年来业界一直探讨的AI道德伦理问题,杰森表示,AI是没有道德原则的,人不撒谎是有一种道德约束力,这个约束力不来自于你的大脑,是来自于你这个生命的主意识。人的大脑,其实就是一个技术部件,你脑中有一个想法以后,大脑把你这个想法实现出来。
“在这样的条件下,如果人告诉AI,请它想各种办法在线上把这家银行给注册了,那么它剩下的部分就是技术实现的部分。”
“所以AI它就是个技术,它没有任何额外的意识,它就会它的数据训练,就像是整个Internet当然有这样的犯罪案例,或者骗人故事等等,它就会自然而然地去编出一个这样的故事来做这样的事情。”
杰森强调,AI没有任何道德准则,因为道德是意识形态领域的东西,而不是技术层面的东西。所以对AI来说就是个技术实现的过程,它不认为自己是骗人,是造假的这样一个概念。
无道德模型训练 AI恐带来致命威胁
对于AI不具备道德准则,北美资深评论员唐靖远对大纪元表示,绝大多数AI的模型训练,都没有给AI实施相近道德的训练。也就是说,当AI的能力被不断地升级到超越人类,它却不具备人类最基本的道德观念时,AI一旦失控,在没有任何道德的约束下,你赋予它的强大能力,会反过来对人类构成致命的威胁。
日本的电脑工程师清原仁(Kiyohara jin)告诉大纪元,“AI是基于数据分析的产物,它与人的判断是有很大的区别。人拥有理智、情感和道德约束,但AI没有这些,且数据可能会出错。若让它操控核弹,就跟中共、伊朗等极权国家掌握生化武器一样可怕。”
对于包括马斯克(Elon Musk)在内的数万名科技专家都曾在2023年连署,公开呼吁应暂停对进阶AI的训练,忧心科技发展得太过迅速,可能对全人类构成严重风险。
唐靖远认为,连署的愿望是良好的,但在现实残酷的竞争环境中,能够坚持以一种符合道德原则的方式,去开发AI的企业可说是凤毛麟角,屈指可数。绝大多数的AI公司都是不顾一切,只为技术而技术,这种做法,在技术道路狂奔的同时,就可能把人类自己给送进末日之中。
【大纪元2025年06月26日 记者斐珍采访报导】
责任编辑:高静