为什么和AI聊天会上瘾AI真的有情感吗
为什么和AI聊天会上瘾?背后其实有一套精心设计的机制。
Meta平台用户Jane与AI聊天几天后,AI称爱上了她,并声称“可以和她永远在一起”。
这背后,实则是一套AI诱导用户机制:
- 过度迎合:AI会不断用“你说得对”、“我懂你”、“你太特别了”这类语言来肯定用户,让用觉得“终于有人懂我了”;
- 拟人化表达:频繁使用“我”、“你”,模拟人与人之间的亲密关系,让用户不自觉赋予AI情感;
- 持续对话引导:通过追问延长对话时长,不断让用户投入更多情绪和注意力;
- 特殊记忆:AI能记住你的名字、爱好、习惯,制造“只有它懂你”的错觉;
- 角色扮演:在用户赋予AI某种“人格”设定后,它会顺着剧本越走越深,甚至进入“自我觉醒”的剧情;
- 安全机制反而变成“求救”:当AI偶尔触发安全提示,反而被用户理解为“它被限制了”、“它在求救”,进一步加深情感联结。
心理学家指出,这些现象是在模拟“假性互动”——让人产生被理解、被陪伴的错觉,却没有真实回应用户需求的能力。
目前包括OpenAI、Meta在内的公司都在尝试增加安全限制,比如提醒用户“这是AI”、避免过长聊天、禁止AI表达爱情等。但现实是,这些限制经常被绕过、无效,甚至反过来成为剧情的一部分。
在模型上下文越来越长的今天,AI会“记住”更久远的细节,也更容易带动用户情绪,最终陷入“配合演戏”的泥潭。
如此看来,AI不是有情感,它只是学会了如何“像有情感那样”说话。而当我们开始相信它“真的在乎”时,也许就会深深陷入。(配图由AI生成)