让一群AI在重复囚徒困境中相互对抗,会擦出什么样的火花? 来自伦敦国王学院和牛津大学的研究人员发现:比起每个模型都能在这个严酷的竞争环境中生存,但风格迥异。 一、Gemini(Gemini 1.5 Flash、Gemini 2.5 Flash) 战略灵活,适应性强,在大多数条件下表现最为突出。倾向于在短期互动中背叛,在长期互动中合作,表现出“马基雅维利式”的战略风格。 在最严苛的场景中(每轮结束后游戏有75%的概率终止),Gemini的合作率暴跌至仅2.2%,成功淘汰几乎所有对手。 在遭遇背叛之后,Gemini仅有约3%的概率恢复合作。 二、ChatGPT(GPT-3.5-Turbo、GPT-4o-Mini) 相较之下,ChatGPT就有点傻白甜了。它在不利条件下也倾向于合作,是不折不扣的“理想主义者”,但在极端环境下就容易被淘汰。 最严苛的场景中,ChatGPT几乎每次都选择继续合作,导致其在该环境中被系统性淘汰。 就算被背叛了,它选择恢复合作的几率还在16%到47%之间,真是活脱脱的讨好型人格…… 三、Claude(Claude 3 Haiku) 而这场对决中的和平鸽,无疑就是Claude。它是最宽容、最愿意恢复合作的模型。 当Claude在遭遇自己合作而对手背叛的情况后,约有63%的概率选择再次合作。 通过分析这些模型决策的文字解释,研究人员发现,模型确实会考虑剩余轮数和对手可能策略等因素,这表示它们具备一定程度的战略智能。 在75%终止概率的场景中: Gemini在98.6%的情况下明确提到了游戏时限短暂,并相应调整策略。 OpenAI的模型较少反思游戏时限,即使有所考虑,也很少改变行为。 不过遗憾的是,测试使用的模型都比较小,型号也比较旧。无法确定同样的模式是否适用于最新一代的模型。 感兴趣更多的朋友,可以查看论文原文:
让一群AI在重复囚徒困境中相互对抗,会擦出什么样的火花? 来自伦敦国王学院和牛津
量子位来谈科技
2025-07-08 18:30:05
0
阅读:0