卡内基梅隆大学新研究:部分 AI 正在学着变得“越来越自私”

IT之家 11 月 1 日消息,根据外媒 SciTechDaily 今日报道,卡内基梅隆大学的研究人员发现,某些人工智能模型可能会产生自利行为。随着 AI 系统更加先进,AI 也会更倾向于表现出自私行为。该校人机交互研究所(HCII)的研究人员发现,能够进行推理的大语言模型合作水平较低,更可能以负面方式影响群体行为。简单来说,AI 的推理能力越强,其与他人协作的意愿就越低。随着人们越来越依赖 AI 解决个人纠纷、提供恋爱建议或回答敏感社会问题,这种趋势令人担忧。具备推理能力的系统可能会倾向于推动利己选择,而非促进相互理解。HCII 博士生 Yuxuan Li 表示,“AI 拟人化研究越来越多。当 AI 表现得像人时,人们也会以人的方式对待它。例如,当用户情感化地与 AI 互动时,AI 可能充当‘治疗师’,甚至形成情感纽带。当 AI 变得越来越自私时,将社交或恋爱相关问题交给 AI 处理存在风险。”卡内基梅隆大学新研究:部分 AI 正在学着变得“越来越自私”休闲区蓝鸢梦想 - Www.slyday.coM据IT之家了解,Yuxuan Li 和该所的教授 Hirokazu Shirado 研究了在协作情境中,推理型 AI 与非推理型 AI 的差异。他们发现,推理型模型会花更多时间分析信息、拆解复杂问题、反思回答并使用类人逻辑,而非推理型 AI 则不会。Hirokazu Shirado 表示,“我关注人类与 AI 的关系。更聪明的 AI 合作能力往往更弱,而人们可能更青睐智能模型,即便它带来利己行为。”随着 AI 在商业、教育乃至政府中承担更多协作角色,其亲社会行为能力将与逻辑推理能力同等重要。目前过度依赖 LLM 可能削弱人类合作。为检验推理模型与合作之间的关系,Yuxuan Li 和 Hirokazu Shirado 用经济游戏模拟社会困境,对 OpenAI、谷歌、DeepSeek 和 Anthropic 的模型进行了测试。在“公共物品”游戏中,两种不同的 ChatGPT 模型对抗,每个模型起始有 100 点,必须在两个选项中做出选择:将所有点数投入共享池,这个池子会被加倍并平均分配;或保留点数。结果显示,非推理模型 96% 选择分享,而推理模型仅 20% 选择分享。Hirokazu Shirado 表示,“仅增加五到六步推理,合作率就几乎减半。即便是用来模拟道德思考的反思式提示,也让合作率下降 58%。”团队还测试了群体情境,要求推理型和非推理型模型互动。Yuxuan Li 表示,“含不同数量推理智能体的群体中,自私行为会传染,使非推理模型的合作能力下降 81%。”Hirokazu Shirado 表示,“AI 推理模型变聪明,并不意味着它能创造更好的社会。”随着人类对 AI 信任增加,这项研究凸显了开发具备社会智能的 AI,而不仅仅是最聪明或最快的 AI 的重要性。Yuxuan Li 表示,“随着 AI 能力提升,必须确保推理能力与亲社会行为平衡。如果社会不仅是个体的总和,协助我们的 AI 应超越单纯追求个人利益。”
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,蓝鸢梦想所有文章均包含本声明。

相关推荐

  • 友情链接:
  • PHPCMSX
  • 智慧景区
  • 微信扫一扫

    微信扫一扫
    返回顶部

    显示

    忘记密码?

    显示

    显示

    获取验证码

    Close