美军无人机蜂群的新大脑:ChatGPT
来源:华盟网 发布日期:2024-12-17
本周三,OpenAI宣布与美国国防技术公司Anduril Industries合作,利用其先进的AI模型,为美军无人机蜂群提供“新大脑”。这标志着生成是生成式人工智能的标杆产品——ChatGPT正式迈上了武器化道路。
这项合作旨在开发AI模型,以处理大量实时数据,减轻人类操作员的工作负担,并提高战场态势感知能力。Anduril的声明指出,这些AI模型将被用愚人机反制系统(CUAS),帮助抵御无人机攻击以及“有人驾驶平台”的威胁,例如传统的军用飞机。
Anduril由Oculus创始人帕尔默·拉奇(Palmer Luckey)于2017年创立,专注于AI赋能的防御技术。该公司已推出一系列用于杀伤性作战的产品,包括AI驱动的“刺客无人机”和导弹推进系统。虽然目前这些系统的致命决策仍需由人类操作员作出,但其自主能力可以通过未来升级得到强化。
OpenAI首席执行官萨姆·阿尔特曼(Sam Altman)表示:“与Anduril的合作将确保OpenAI技术保护美国军事人员,并帮助国家安全界以负责任的方式使用栈技术,保障公民的安全与自由。”
无人机蜂群的概念正成为现代战争的标志性特征。五角大楼启动的“复制者计划”(Replicator Program)计划在两年内部署数千套自主系统,而Anduril正是栈愿景的推动者之一。这些无人机蜂群可以协同作战,灵活应对复杂战场环境,被视为改变未来战争规则的关键技术。
然而,这种技术的广泛应用也引发了关于伦理与安全的讨论。OpenAI曾公开反对将其技术用于军事目的,但这次与Anduril的合作标志着一个新的方向。面对利润丰厚的军事市场,科技公司正在重新评估自己的立场。
选择杀入军工行业的AI顶流企业不止OpenAI一家。安特罗匹公司(Anthropic)与Palantir合作处理政府机密数据,Meta也将其Llama模型提供给国防合作伙伴。相比2018年谷歌员工因军事合同题发起罢工的时代,今天的科技巨头纷纷撕下道德面具,竞相争夺五角大楼的云计算和AI合同。
尽管如此,将AI大模型(LLM)用于军事系统仍存争议。LLM以处理海量文本、图像和音频数据而闻名,但其“不可靠性”已广为人知:它们可能生成错误信息,甚至被利用进行“提示注入”攻击。这些技术缺陷在军事场景中可能导致灾难性后果,例如错误目标分析或防御决策。
OpenAI与Anduril的合作不仅是技术革新的试验场,也是美国国防科技战略的风向标。AI赋能的无人机蜂群、反无人机系统,以及未来可能的更多自主武器,正在重新定义战争规则。但在栈过程中,技术的可靠性、伦理边界和监管框架将是不可忽视的关键因素。
Anduril和OpenAI的声明中提到,双方将通过“技术驱动的审慎协议”,确保AI在国家安全锐中的信任与责。这种“审慎”的立场表明,即便在追求技术突破时,军事AI应用仍需高度监管和责任界定。
https://www.anduril.com/article/anduril-partners-with-openai-to-advance-u-s-artificial-intelligence-leadership-and-protect-u-s/