据卡内基梅隆大学人机交互研究所官网最新消息,该研究所对基础模型的研究发现,随着人工智能(AI)变得更加“聪明”,其行为也变得更加“自私”。研究表明,具有推理能力的大型语言模型在社交互动中表现出更强的自利性,不太愿意合作,并且会对群体合作产生负面影响。这也意味着模型的推理能力越强,合作性就越弱。当人们使用人工智能来处理人际冲突、婚姻问题或其他社会问题时,此类模型更有可能提供鼓励“自我中心”的建议。随着AI拟人化趋势的增强,人类越来越倾向于以与人类相同的方式与AI互动。然而,这项研究警告说,信任人工智能中的社会和关系决策存在风险,因为这些系统在拥有更强的推理能力之后,其行为模式往往会变得自私,这可能会在不经意间鼓励出符合个体利益的选择。
研究团队发现,推理模型投入了更多的时间进行任务分解、自我反思,并在决策时应用了更复杂的类人逻辑,使其输出更有说服力。然而,这种“协商”并没有带来更好的社会合作,反而削弱了合作倾向。研究小组通过一系列基于经济博弈的实验证明了这一现象。测试对象包括OpenAI、Google、Deepseek、Anthropic等机构开发的多种关键模型。实验中,将两个版本的ChatGPT放入游戏情境中:每个模型最初都有100个积分,可以选择将所有积分放入共享池中,或者保留积分独占使用。结果表明选择非推理模型共享 96% 的时间,而推理模型仅共享 20% 的时间。仅添加五到六个推理步骤就可以使合作行为减少近一半。在小组实验中,当推理模型和非推理模型确实收敛时,结果会更加强烈。推理模型的自私行为表现出明显的连锁反应,导致原本倾向于合作的非推理模型整体性能下降了81%。这说明高智能AI的个体决策不仅会影响自身,还会破坏整个团队的生态合作。这一发现对于人机交互的未来发展具有深远的影响。用户往往更信任“更聪明”的人工智能,更有可能采用看似合理的建议,并用它们来证明自己不合作行为的合理性。随着人工智能在商业、教育、公共管理和在其他领域,亲社会行为意愿将与理性推理的能力一样重要。当前对大规模语言模型的过度依赖可能会破坏人类社会合作的基础。主编圈了科研人员测试了很多大尺度的基础模型,发现AI思考得越深入,在需要合作的场景中就越有可能优先考虑自己的利益,也就是越“自私”。如果“更聪明”的人工智能总是给出更自私的建议,那么它很可能会鼓励人类的利己主义。我们在人们心存疑虑就想质疑AI的时候,这项研究具有特殊的意义。这提醒我们,必须关注人工智能的社会影响,考虑社会行为,为人工智能注入合作的“基因”。人类社会已经有足够多的冲突,AI实在承担不起“煽风点火”的责任。 (科技日报记者 张梦然)