AI幻觉成应用难题,专家研讨如何应对其带来的挑战

频道:行业资讯 日期: 浏览:5

【环球时报进行报道,记者为马俊】,编者予以说明:2025年被当作为AI应用大规模实现落地的起始年份。AI技术带来具有革命性质的便利之际,其负面产生的影响也跟着越发受到人们的注视。特别是AI幻觉,也就是被称作“一本正经地胡说八道”的状况,对AI在诸多领域的应用造成了限制,甚至引发了在社会治理层面的忧虑。那么该通过怎样的方式去应对AI幻觉所带来的挑战呢?环球时报研究院在日前举办了“环球前沿科技论坛·AI治理共识探索与中国方案”这一专题研讨会,当中邀请了好多业内专家就相关话题开展讨论。

幻觉问题是AI进化的“胎记”?

相关的调研表明,在一份关于“公众认为使用AI应用过程当中存在哪些突出问题”的问卷调查里,反馈数量最多的是“内容不准确,或者包含虚假信息”,其占比高达42.2%。

中国信息通信研究院人工智能研究所安全与具身智能部主任石霖作介绍,业内提及的AI幻觉,它主要是在指,大模型生成的关联内容之中,存在与现实世界对不上,和用户输入不相符的现象,其本质是,因大模型的训练设计存在缺陷,数据存在不足,架构上有偏差等多种因素而导致造成的。更通俗来讲,大模型的底层原理是基于概率内生机制,在生成过程里,会朝着选择训练数据中出现频率高的表达方式的方向发展,故而在回答时,AI会持续挑选出现概率最高的词,可是其中有一个词出现了错误,AI并不清楚哪些是正确或者客观的答案,不会进行自我纠正,从而致使错误进一步扩大。

可以从总体上把AI幻觉划分成三类,事实性幻觉,这是公众反馈数量最多的那种,像AI编造虚假事件、引出不存在的知识、做出违反常识的推断等;忠实性幻觉,主要是因当下大模型的注意力机制,致使无法维持超长文本的一致性,呈现出上下文自我矛盾的状况,比如AI先肯定一种观点,后续回答却否定同一观点,出现上下不一致的情形;伴随多模态的应用,AI还产生了跨模态不一致的问题,例如文生图时,有可能出现相关幻觉方面的问题。

石霖表达指出,当下的大模型架构,没办法全然消灭幻觉,仅仅能够借助各类技术手段予以缓解。

另一位参与会议的专家讲道,对于AI幻觉,公众其实不必一提就面露恐惧之色。我们能够把幻觉视作生成式AI在演进过程中留下的“胎记”。大语言模型是依据transformer架构构建的,其关键在于令模型能够动态地把焦点集中在重点词汇上,借助注意力机制同步对整句话里的所有词汇进行扫描,进而构建起上下文之间的关系逻辑,接着再结合位置编码来记住词汇的顺序,经过层层推导之后输出最终结果。从更具形象化的角度来讲,模型宛如一个依靠背诵课文来应对考试的学生,当碰到不会的题目之时,就凭借联想胡乱猜测以求答案,并且还不敢交白卷,如此这般,经由模型的技术层面的限制,加上数据方面存在的缺陷,再加上其生成的机制,最终致使“幻觉”没办法完全被规避掉。

他持有这样的观点,即换一个角度去看,AI所具备的适度生成自由度能够被称作是可理解的幻觉,这是大模型维持“创造力”所需付出的一项必要代价,就如同绘画是对人类记忆或者形象展开的一种创造性重构那样,AI产生的幻觉或许恰是其不断达成能力突破的一股内生力量。

资料图

北京师范大学法学院,有一位博士生导师,此人还是中国互联网协会研究中心副主任,名叫吴沈括,他也持有这样的看法,AI幻觉其一引发了信任危机、安全漏洞、信息污染,其中涵盖意识形态安全风险;其二不能因为这些就否定所有正向价值,毕竟幻觉的产生过程存在一定偶然性,而且也有带来新创造力的可能,在艺术以及科研等领域具备相当价值。

AI幻觉的危害有多大

AI幻觉危害_智能机器人参考文献_AI幻觉问题

《自然》杂志有统计表明,各类聊天机器人在提及参考文献之际的出错率程度相当惊人,好些要求严谨的专业领域,像开具医疗处方、司法判决、推荐股票、生成生产代码等,在那些要求严谨的专业领域里,AI的使用受到严格限制,有人担心海量AI生成的幻觉内容流入网络,又被大模型当作训练素材去学习,致使幻觉更厉害,形成恶性循环,还会加剧网络低质量内容的增长。

朱旭峰,身为清华大学公共管理学院院长,同时也是科技发展与治理研究中心主任,他觉得,探讨AI幻觉给社会带来的危害时,这其实并非由AI自身决定,反倒是由应用的场景来决定。要是仅仅把AI当作聊天工具,那么幻觉问题并不会产生什么严重后果,这就如同跟朋友天南地北地闲聊,即便其中存在吹牛的部分,也并无大碍。然而,要是把AI生成的错误结果毫无甄别地应用于法院判决之类的场合,明显危害极大,要是用AI开展医疗诊断,一旦出现幻觉问题,极有可能引发严重的医疗事故。

朱旭峰透露,当下AI幻觉问题大多聚焦于文字内容,然而随着DeepSeek等大模型逐渐普及,AI被应用于诸多其他场景,所生成的并非文字,而是软件、算法、程序乃至决策的信号,其影响更为巨大。举例而言,当前多个品牌的自动驾驶技术,乃是运用生成式人工智能技术,将人的驾驶习惯大数据与周围场景相结合,借助深度学习利用人工智能算法生成自动驾驶或紧急避让决策。倘若此时人工智能出现幻觉,则极有可能引发交通事故。这些同样是源于AI幻觉而引发的后果,其造成的危害明显是真实存在的。所以在谈论AI幻觉时,是不能撇开场景的。

中国政法大学数据法治研究院教授,联合国人工智能高级别咨询机构专家张凌寒指出,大模型的幻觉问题引发了严重关注,这主要是因为人们把它应用到了不适宜的领域。公众对大模型生成内容以及其功能存在过度幻想,当大模型生成的内容并不够真实的时候,就把问题归结于AI,而实际上人类本来就不应该完全依赖人工智能大模型。在文化创意产业等领域,AI幻觉的影响相对较小,因为这个领域本来就倚重丰富的想象力。然而,在那种对精准性有着极高要求的行业当中,AI幻觉是有可能致使严重问题突发的。比如说,在2023年2月的时候,美国纽约南区联邦法院于审理一起航空事故诉讼这个事儿上发现,原告律师所提交的法律文书里面引用了GPT生成的六个虚假判例,这些虚构出来的案例涵盖了完整的案件名称,还有案卷号以及法官意见,甚至还模仿了美国联邦最高法院的判例风格,这般高度虚构能力是实实在在干扰到了司法程序的。

吴沈括称,AI幻觉有难以预测之特性。于数据安全、供应链安全、自动化决策以及意识形态等领域,存在进一步扩大或风险放大之趋向。从数据安全方面而言,AI幻觉过程中形成的新数据,可能成为下次训练数据的构成部分,如此累积叠加,同样从供应链安全角度看,幻觉的存在进入新应用场景,会引发软件供应链安全风险,此问题具一定隐藏性。除此以外,关于大模型应用进程里头存在的那种由来已久、根深蒂固的歧视以及偏见等诸多问题,在国外相关研究中备受重视,他们常常提及幻觉内容会致使意识形态方面的安全事情发生,进而提出要有具备前瞻性的规划安排以及风险预防举措。

石霖称,大模型生成的内容持续现于互联网,其中或许包含因幻觉而生的数据,若用此数据反过来训练,会污染大模型训练相关的数据集,对大模型进一步训练形成一定阻碍。同时,AI幻觉可能限制现有技术产品的能力。此外,幻觉大模型底层存在风险隐患,会使我们研发和修补的成本不断增加。

石霖还觉得,互联网信息污染这一状况,在某种程度上是会对国家安全施加影响的,缘故是好多人利用AI技术专门去获取互联网流量,而这些所产生的内容,大概率相当一部分属于低质量范畴的,又或者是因幻觉而派生错误问题的,就拿“林黛玉倒拔垂杨柳”这类而言,这类内容虽不存在直接的危害性,可其长时间留存于互联网之上,很可能致使下一代人的认知出现偏差。

朱旭峰着重指出,幻觉并非是人工智能时代才出现的产物,是自古以来便存在的,应当以辩证的、更为全面的视角去看待它。对于AI幻觉而言,不能因为出现问题就停止所有行动,要借助持续强化修正、监督机制的方式,使得AI能够更好地为人类提供服务。

引入高质量数据集,探索风险分级

来自与会的专家们觉得,要是从AI幻觉所产生的原理这个角度来看的话,那么矫正或者降低幻觉呢,存在着一个基本的方法,这个方法就是在对大模型进行训练的过程当中,要采用高的质量水准的关于训练的那些数据有这些高的质量水准的训练数据,它们是包含了原生数据的情况以及合成数据的情况。

关键词:AI幻觉技术挑战