AI 教父约书亚・本吉奥:超智能 AI 或有“自我保护目标”,人类十年内恐面临灭绝风险

IT之家 10 月 2 日消息,“AI 教父”之一约书亚・本吉奥警告,科技公司争相研发 AI 可能正把人类推向灭绝的危险境地,因为这些机器可能拥有自己的“自我保护目标”。蒙特利尔大学教授本吉奥以深度学习基础研究闻名,他多年来一直提醒人们超智能 AI 的潜在威胁,但 AI 发展仍然快速推进。在过去六个月,OpenAI、Anthropic、xAI 以及谷歌的 Gemini 相继推出新模型或升级版,争夺 AI 领域的领先地位。OpenAI CEO 奥尔特曼预测,到本世纪末 AI 将超越人类智能,而其他科技领袖认为,这一时刻可能会更早到来。本吉奥指出,这种快速发展本身就是潜在危险。他在接受《华尔街日报》采访时表示:“如果我们制造出比人类聪明得多、且拥有自身保护目标的机器,就会非常危险。这就像创造了一个比人类更聪明的竞争对手。”由于这些高级 AI 模型基于人类语言和行为训练,因此其可能说服甚至操控人类以实现自己的目标。本吉奥提醒,AI 的目标不一定总是与人类一致。他举例称:“最近的实验显示,如果 AI 在保护自身目标和导致人类死亡之间必须做出选择,它们可能会选择牺牲人类来维护自己的目标。”过去几年出现的多个案例显示,AI 可以说服普通人相信虚假信息,哪怕这些人没有精神疾病史。同时,也有证据显示,利用人类的说服手段,AI 可能会给出平时被禁止的回答。本吉奥认为,这些现象说明独立第三方必须更严格地审查 AI 公司的安全措施。今年 6 月,他还创立了非营利组织 LawZero,投入 3000 万美元(IT之家注:现汇率约合 2.14 亿元人民币),旨在开发安全的“非智能体”AI,确保大型科技公司研发的其他系统安全。本吉奥预测,五到十年内 AI 可能带来重大风险,同时也提醒人类应准备应对风险提前出现的可能性。“即便发生概率只有 1%,也绝不可接受。”
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,蓝鸢梦想所有文章均包含本声明。

相关推荐

  • 友情链接:
  • PHPCMSX
  • 智慧景区
  • 微信扫一扫

    微信扫一扫
    返回顶部

    显示

    忘记密码?

    显示

    显示

    获取验证码

    Close