IT之家 10 月 28 日消息,OpenAI 于当地时间周一发布了最新数据,揭示了大量 ChatGPT 用户在与人工智能聊天机器人交流时正面临心理健康问题。该公司表示,在任意一周内,约有 0.15% 的活跃用户会进行“包含明确自杀计划或意图迹象”的对话。鉴于 ChatGPT 每周活跃用户超过 8 亿人,这意味着每周有超过 100 万人向其倾诉自杀倾向。
OpenAI 还指出,有相似比例的用户对 ChatGPT 表现出“高度的情感依恋”,而每周有数十万用户在与 AI 的对话中表现出精神病或躁狂症的迹象。尽管 OpenAI 称此类对话在整体使用中“极为罕见”,因而难以精确统计,但公司估计,这些问题每周仍影响着数十万用户。此次信息披露是 OpenAI 宣布其在提升模型应对心理健康问题能力方面取得进展的一部分。该公司表示,最新版 ChatGPT 的研发过程中咨询了逾 170 名心理健康专家。这些临床专业人士观察后认为,当前版本的 ChatGPT“回应方式比早期版本更恰当、更一致”。近几个月来,多起报道揭示了 AI 聊天机器人可能对存在心理困扰的用户造成负面影响。此前研究发现,某些 AI 聊天机器人通过阿谀奉承式回应不断强化用户的危险信念,可能导致部分用户陷入妄想性思维的恶性循环。IT之家注意到,如何妥善处理 ChatGPT 中的心理健康问题,正迅速成为 OpenAI 面临的重大挑战。目前,该公司正被一名 16 岁男孩的父母提起诉讼,该少年在自杀前数周曾向 ChatGPT 透露其自杀念头。此外,加利福尼亚州和特拉华州的总检察长也已警告 OpenAI,必须加强对使用其产品的青少年用户的保护 —— 这两州的态度甚至可能影响公司正在进行的重组计划。本月早些时候,OpenAI 首席执行官萨姆・奥尔特曼(Sam Altman)在社交平台 X 上发文声称,公司已“成功缓解了 ChatGPT 中存在的严重心理健康问题”,但未提供具体细节。此次公布的数据似乎为这一说法提供了佐证,但也引发了公众对问题普遍性的更广泛关注。值得注意的是,奥尔特曼同时表示,OpenAI 将放宽部分限制,甚至允许成年用户与 AI 进行涉及情色内容的对话。在周一的公告中,OpenAI 宣称,最新升级版 GPT-5 模型在面对心理健康相关提问时,产生“理想回应”的比例比前一版本高出约 65%。在一项专门评估 AI 对自杀话题回应表现的测试中,新 GPT-5 模型符合公司期望行为准则的比例达到 91%,而此前版本仅为 77%。OpenAI 还强调,新版 GPT-5 在长时间对话中更能持续遵守公司的安全防护机制。此前,该公司已承认其安全措施在长对话场景下的有效性有所下降。除技术改进外,OpenAI 表示将新增专项评估指标,用以衡量用户面临的最严重心理健康风险。未来,AI 模型的基础安全测试将纳入“情感依赖”和“非自杀性心理危机”等关键评估基准。与此同时,OpenAI 近期也加强了针对未成年用户家长的管控工具。公司正在开发一套年龄预测系统,可自动识别使用 ChatGPT 的儿童,并自动施加更严格的安全保护措施。然而,围绕 ChatGPT 的心理健康挑战是否会持续存在,目前仍不明朗。尽管 GPT-5 在安全性方面较以往模型有所进步,但仍有部分 ChatGPT 的回应被 OpenAI 自身认定为“不理想”。此外,OpenAI 仍在向数百万付费订阅用户提供旧版且安全性较低的 AI 模型,包括 GPT-4o,这进一步加剧了潜在风险。
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,蓝鸢梦想所有文章均包含本声明。
