这篇文章,帮你给AI大模型“祛祛魅”:看清本质后,AI也不过如此。 文章出自老牌逆向工程专家halvar.flake,以下进行适当改写—— 很多人聊起大模型(LLM),总爱不自觉地“神化”它:觉得它可能有意识、有动机、有潜在的危险人格…… 一、语言模型不过是词语接龙 他谈到,语言模型做的事,不过是把前面的一段词语,映射成一个在高维空间里,并不断推进路径。 这个过程像极了贪吃蛇游戏:模型每走一步,旧记忆就被新记忆推着走。 所有的“对话”、“输出”,都是沿着这个路径往下一个词、一个词地推出来的。 二、所谓“对齐”不过是概率问题 你有没有遇到AI拒绝回答问题的情况?比如你咨询疾病,AI会告诉你应该找专业医生,拒绝给出医疗建议。 这就是“AI对齐”,技术上就是用大量样本、反馈机制、惩罚策略,“教”大模型应该说什么,不应该说什么。 乍一看仿佛是在给模型“立规矩”,但从技术角度看,“对齐”其实是个数学概率分布。 换句话说,对齐并非大模型理解了人类世界的规则,它只是靠“惩罚策略”,被“训练”得看上去会察言观色。 三、它没有意识、更没有“潜意识” 很多人喜欢把AI说得像人——有“觉醒”的可能,有“目的”、“动机”,甚至担心它“叛变”或“反抗人类”。但halvar.flake指出:这些都是臆症。 本质上,大模型只是一个高维空间里的函数,它做的事,就是基于上下文预测下一个词,整个流程是纯数学的,没有感知、没有思维,也没有“自我”。 甚至连“停下来”这件事,它都不会自己做,除非你不给它输入。从工程视角看,它就是一台需要“手摇”的文本生成器——你不喂它东西,它就不会动。 四、AI的惊人能力,也源自人类写下的大量语言 有人把AI输出的内容视为“智能”的体现,比如让它写童话、生成代码、总结文章,它确实做得越来越好。但它的“能力”来自哪里?答案很简单:海量人类文本。 我们用几乎整个互联网的内容,把大模型训练成一个能“猜出下一个词”的系统。它之所以能写诗、画图、回答问题,不是因为“理解”,而是因为它“见过”。 它能写病历,是因为见过无数病例;它能写论文,是因为读过足够多论文;它能画图,是因为看过成千上万幅图。AI不是创造力的源头,而是我们创造的镜子。 五、为什么那么多人坚持认为“它像人”? flake认为,这可能是因为,一部分AI研究者本身就是带着“我想做出类人智能”的目标走进这个行业的。 当他们看到LLM能写诗、能聊天、能生成图像,就倾向于相信“它正在变成我们”。久而久之,他们不再把LLM当工具,而是当作一种“生命”。 而这种思路一旦成为主流,就容易让公众产生误解——以为AI正在“觉醒”,以为“它也许真的有意识”。 但现实是,它只是个生成函数。没有痛感,没有价值判断,也没有觉不觉醒的可能。 六、真正该关注的,不是“它像不像人”,而是“我们如何控制它” flake最后提醒大家,与其花时间讨论AI有没有感情、能不能成精,不如回到工程视角:它是一个可以生成一切文本的系统。 问题在于—— 我们没法穷举“不希望它生成的东西”,我们只能靠训练、采样、策略优化,让它“倾向于”走某些路径。 这才是“对齐”的核心难题:它不是伦理问题,而是概率控制问题。 大模型不会像人一样“越界”或“犯错”,它只是按统计规律往下预测词。真正的问题不是“它做了什么”,而是我们没法完全预判它“说出什么”。 七、祛魅之后,才能看清挑战 大模型已经展现出了一定的便利性,以前很难实现的自然语言处理、图文生成、摘要提取等任务,都变得简单高效,堪比“第四次工业革命”。 但只有先祛魅,才能真正掌握它。否则,我们只是在拿一个文本生成器,当作一个“可能成神”的生命体来看待。AI创造营(配图由AI生成) 参考链接:addxorrol.blogspot.com/
这篇文章,帮你给AI大模型“祛祛魅”:看清本质后,AI也不过如此。 文章出自老牌
量子位来谈科技
2025-07-08 18:30:06
0
阅读:0