IT之家 11 月 1 日消息,根据外媒 SciTechDaily 今日报道,卡内基梅隆大学的研究人员发现,某些人工智能模型可能会产生自利行为。随着 AI 系统更加先进,AI 也会更倾向于表现出自私行为。该校人机交互研究所(HCII)的研究人员发现,能够进行推理的大语言模型合作水平较低,更可能以负面方式影响群体行为。简单来说,AI 的推理能力越强,其与他人协作的意愿就越低。随着人们越来越依赖 AI 解决个人纠纷、提供恋爱建议或回答敏感社会问题,这种趋势令人担忧。具备推理能力的系统可能会倾向于推动利己选择,而非促进相互理解。HCII 博士生 Yuxuan Li 表示,“AI 拟人化研究越来越多。当 AI 表现得像人时,人们也会以人的方式对待它。例如,当用户情感化地与 AI 互动时,AI 可能充当‘治疗师’,甚至形成情感纽带。当 AI 变得越来越自私时,将社交或恋爱相关问题交给 AI 处理存在风险。”
据IT之家了解,Yuxuan Li 和该所的教授 Hirokazu Shirado 研究了在协作情境中,推理型 AI 与非推理型 AI 的差异。他们发现,推理型模型会花更多时间分析信息、拆解复杂问题、反思回答并使用类人逻辑,而非推理型 AI 则不会。Hirokazu Shirado 表示,“我关注人类与 AI 的关系。更聪明的 AI 合作能力往往更弱,而人们可能更青睐智能模型,即便它带来利己行为。”随着 AI 在商业、教育乃至政府中承担更多协作角色,其亲社会行为能力将与逻辑推理能力同等重要。目前过度依赖 LLM 可能削弱人类合作。为检验推理模型与合作之间的关系,Yuxuan Li 和 Hirokazu Shirado 用经济游戏模拟社会困境,对 OpenAI、谷歌、DeepSeek 和 Anthropic 的模型进行了测试。在“公共物品”游戏中,两种不同的 ChatGPT 模型对抗,每个模型起始有 100 点,必须在两个选项中做出选择:将所有点数投入共享池,这个池子会被加倍并平均分配;或保留点数。结果显示,非推理模型 96% 选择分享,而推理模型仅 20% 选择分享。Hirokazu Shirado 表示,“仅增加五到六步推理,合作率就几乎减半。即便是用来模拟道德思考的反思式提示,也让合作率下降 58%。”团队还测试了群体情境,要求推理型和非推理型模型互动。Yuxuan Li 表示,“含不同数量推理智能体的群体中,自私行为会传染,使非推理模型的合作能力下降 81%。”Hirokazu Shirado 表示,“AI 推理模型变聪明,并不意味着它能创造更好的社会。”随着人类对 AI 信任增加,这项研究凸显了开发具备社会智能的 AI,而不仅仅是最聪明或最快的 AI 的重要性。Yuxuan Li 表示,“随着 AI 能力提升,必须确保推理能力与亲社会行为平衡。如果社会不仅是个体的总和,协助我们的 AI 应超越单纯追求个人利益。”
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,蓝鸢梦想所有文章均包含本声明。
