【当AI开始一本正经说“梦话”, 我们应该如何保持“数字清醒”?】 (央视新闻 2026-01-29 13:50:50 ) 近日,梁某在查询高校信息时,发现AI平台生成的信息存在错误,当他以此质疑AI时,AI却一本正经地回答:“内容有误我将赔偿10万元。” 一气之下,梁某真的将AI平台的研发公司告上法庭,要求AI研发公司赔偿其9999元。法院审理后驳回了原告的请求,认为研发公司已经尽到了义务。 AI为什么总会一本正经地胡说八道?我们又该如何保持“数字清醒”? ▪️ “武松倒拔垂杨柳” AI的“幻觉”从何而来? 问AI一个问题,它给了你一个特别详细、丰富,看上去好有逻辑的答案。但当我们去核实时,却发现这些信息完全是虚构的。这就是“AI幻觉”现象。 形成这种现象的原因,是由生成式AI的工作原理决定的: 1. 预测而不是理解 专家介绍,现阶段的AI本质上是一个“概率计算器”,而不是真正的思考者。它的原理可以分为:喂数据、学规律和做推理三个步骤。 通过“投喂”大量的训练数据,AI学习哪些词经常连在一起,然后根据提问再逐字呈现出最可能的答案。 比如说我们询问AI“倒拔垂杨柳这个情节是《水浒传》中关于谁的故事?”,它就有可能按照“倒拔垂杨柳”出自《水浒传》,而《水浒传》经常和“武松”出现在一起,由此产生“武松倒拔垂杨柳”的“幻觉”。 2. 训练数据存在局限性 由于AI的所有“认知”都来自训练数据。可是训练数据不可能包含世界上所有的信息,有时候甚至还会包含错误信息。这就像是一个人只能根据自己读过的书来回答问题,如果书里有错误信息,或者某些领域的知识缺失,就容易产生错误的判断。 有研究显示,当训练数据中仅有0.01%的错误文本时,错误输出率会上升11.2%,即便是0.001%的污染,也会导致错误内容增加7.2%。 3. AI是“讨好型人格” 正因为AI只能“猜”答案,所以它很看重用户的反馈,以此来不断提升自己的预测精度。这样的训练模式也让AI具有“讨好型人格”。当它对某个问题不太确定时,与其说“我不知道”,它更倾向于基于已有知识编造看起来合理的答案。 比如说我对AI说“某款App设计得很不好”,它会顺着我的思路,罗列出一大堆待改进的地方。而当我改口说“这款App设计得很好”,它又会突然“变脸”,开始对这款App进行夸夸夸。 ▪️ AI说“梦话” 服务提供者需要担责吗? 全国首例AI“幻觉”侵权案中,法官介绍说:“AI生成内容不准确,在当前的技术情况下,具有不可避免性,但不代表服务提供者就可以免责。” 目前法律对AI服务提供者规定的义务,主要是这几项: 一是对法律禁止的“有毒”、有害、违法信息负有严格审查义务; 二是需以显著方式向用户提示AI生成内容可能不准确的固有局限性,包括明确的“功能局限”告知、保证提示方式的“显著性”、在重大利益的特定场景下进行正面即时的“警示提醒”,以防范用户产生不当信赖; 三是应尽功能可靠性的基本注意义务,采取同行业通行技术措施提高生成内容准确性,比如检索增强生成技术措施等。 在全国首例AI“幻觉”侵权案中,被告已在应用程序欢迎页,用户协议及交互界面的显著位置,呈现AI生成内容功能局限的提醒标识。且被告已采用检索增强生成等技术,提升输出可靠性。法院认定其已尽到合理注意义务,主观上不存在过错。 ▪️ 个人使用时 如何才能降低AI幻觉? AI用起来很方便,但有时候AI一本正经“胡说八道”,也真的让人非常头疼。有没有办法减少AI的幻觉呢?可以试试这几种方法: 1. 优化提问 想要获得准确答案,提问方式很关键。提问越具体、清晰,AI的回答越准确。同时,我们在提问的时候要提供足够多的上下文或背景信息,这样也可以减少AI胡乱推测的可能性。 比如说,别问“你怎么看”,问“请列出2025年一季度发布的、经国家统计局认证的经济指标变化,并注明数据来源”。限制时间、范围或要求引用来源,能减少AI“自由发挥”。你还可以加一句:“如有不确定,请标注并说明理由。” 2. 分批输出 专家介绍,AI一次性生成的内容越多,出现幻觉的概率就越大,因此我们可以主动限制它的输出数量。 比如如果要写一篇长文章,就可以这么跟AI说:“咱们一段一段来写,先把开头写好。等这部分满意了,再继续写下一段。”这样不仅内容更准确,也更容易把控生成内容的质量。 3. 交叉验证 想要提高AI回答的可靠性,还有一个实用的方法是采用“多模型交叉验证”。你还可以同时向几种AI大模型提出同一个问题,通过比对来判断答案可靠性。现在有的AI应用里,集成了好几种大模型,对比起来更方便,大家可以试一试。 个人使用AI时,最重要的还是牢记AI只是辅助工具,不能代替我们决策。要对AI的局限性保持清醒的认知,不盲目相信AI生成的内容。 (央视新闻综合中国普法、科普中国)网页链接
