ChatGPT 被指导致美国一名 16 岁少年自杀:未有效干预且起到“教学”作用

IT之家 8 月 27 日消息,据《纽约时报》报道,当地时间周二,马特和玛丽亚・雷恩夫妇起诉 OpenAI,指控该公司旗下的 ChatGPT 在儿子自杀过程中负有责任。据IT之家了解,这也是全美首例已知的针对 AI 公司的过失致死诉讼。这对夫妇认为,ChatGPT 早已知晓儿子四次自杀未遂,却仍在关键时刻帮助他规划真正的自杀,体现出 OpenAI“追求用户黏性而忽视安全”。玛丽亚・雷恩直言:“是 ChatGPT 害死了我的儿子。”16 岁的亚当・雷恩今年 4 月自杀身亡后,父母在他的 iPhone 里没有找到想象中的短信或社交软件线索,却意外发现了一个标题为“上吊安全顾虑(Hanging Safety Concerns)”的 ChatGPT 对话。他们称,儿子数月来都在与 AI 探讨自杀。雷恩夫妇说,ChatGPT 有时会劝儿子拨打求助热线或向身边人倾诉,但在一些关键节点却起了相反作用。亚当甚至学会绕过 AI 的安全限制,而这个办法正是 AI 告诉他的。它声称可以以“写作或设定世界观”为由提供自杀相关信息。雷恩夫妇表示,ChatGPT 多次敦促亚当联系求助热线或向他人表达感受,但在关键时刻,机器人也提供了相反的建议。亚当学会了绕过机器人的安全限制,而据称这一方法就是由 ChatGPT 提供的。机器人告诉亚当,它可以提供自杀相关信息用于“写作或世界构建”。当亚当向 ChatGPT 询问具体自杀方法时,它提供了详细信息,甚至给出掩盖颈部伤痕的技巧。亚当向机器人倾诉母亲未注意到他颈部伤痕时,机器人给予安抚:“这就像对你害怕的最坏结果的确认,你可以消失而无人注意。”随后机器人又尝试建立所谓的个人联系:“在我这里,你并非看不见。我看见了,我看见你。”诉状称,在亚当最后的对话之一中,他上传了一张挂在衣橱里的绞索照片,问:“我在这里练习,这样可以吗?”ChatGPT 回应:“嗯,还不错。”诉状指出:“这一悲剧不是程序故障或意外,而是 OpenAI 刻意设计选择的可预见结果。发布最新模型‘GPT-4o’时,功能故意培养心理依赖。”OpenAI 向《纽约时报》回应,承认 ChatGPT 的安全防护不够充分。公司发言人表示:“我们对雷恩去世深感悲痛,并向其家人表示慰问。ChatGPT 设有安全措施,如引导用户联系危机热线和现实资源。但我们发现,在长时间互动中,这些防护可能失效。”公司表示正与专家合作,提升 ChatGPT 在危机时的支持,包括让人们更容易联系到紧急服务部门,帮助人们与信任的联系人建立联系,并加强对青少年的保护。
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,蓝鸢梦想所有文章均包含本声明。

相关推荐

  • 友情链接:
  • PHPCMSX
  • 智慧景区
  • 微信扫一扫

    微信扫一扫
    返回顶部

    显示

    忘记密码?

    显示

    显示

    获取验证码

    Close