IT之家 2 月 18 日消息,人工智能企业与美国军方的关系正进入紧张的全新阶段。位于旧金山、以“人工智能安全”为核心理念的初创公司 Anthropic,成为这场风波的焦点。据 Axios 最新报道,美国国防部正威胁终止与 Anthropic 价值 2 亿美元(IT之家注:现汇率约合 13.83 亿元人民币)的合作项目,双方核心分歧在于:私营企业应在多大程度上管控军方对其软件(如 Claude 人工智能模型)的使用方式。
数月来,美国国防部一直在向四大人工智能巨头 ——Anthropic、OpenAI、谷歌及 xAI 施压,要求允许军方将其模型用于“所有合法用途”。这本质上意味着取消常规的安全限制,这些限制原本禁止普通用户将人工智能用于武器研发、情报搜集或战场作战等敏感领域。报道显示,OpenAI、谷歌和 xAI 均表现出一定的灵活性。而 Anthropic 则是其中态度最为强硬的一方。该公司在两个具体问题上划下明确红线:禁止使用 Claude 模型对美国民众进行大规模监控,以及禁止用于研发完全自主武器 —— 即无需人类介入即可自主开火的系统。在美国军方发起抓捕委内瑞拉前总统尼古拉斯 · 马杜罗的行动后,双方矛盾彻底爆发。《华尔街日报》披露,五角大楼在此次任务中,通过与数据公司 Palantir 的合作使用了 Claude 模型。这一事件引发了 Anthropic 内部的质疑。据称,当 Anthropic 询问其技术是否被用于这场发生“火力打击”(实战交火)的抓捕行动时,美国国防部官员极为不满。军方认为这种事后审查完全不具备可行性,主张作战人员在实战行动中,不可能停下来与软件供应商逐一协商使用场景。这场争端凸显了双方巨大的文化冲突。Axios 援引官员的说法称,Anthropic 是所有人工智能实验室中最“意识形态化”的一家。据悉,该公司执行极为严格的内部使用政策,甚至连其工程师内部,都对军方相关业务存在不同意见。但五角大楼也陷入两难:尽管摩擦不断,官员们承认,在面向政府专项与涉密应用场景中,Claude 目前的表现仍优于竞品。若双方无法达成一致,五角大楼暗示可能将 Anthropic 列为“供应链风险方”,并逐步寻找替代方案。而 Anthropic 方面则坚称致力于维护国家安全,并强调自己是首家将模型接入涉密网络的人工智能企业。目前,双方仍在沟通之中。
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,蓝鸢梦想所有文章均包含本声明。
