AI成战争工具,科技巨头道德底线受质疑
来源:李智衍 发布时间:一周前 分享至微信

AI和无人机正逐渐成为未来战场的主导力量。为应对中国利用AI强化军事的担忧,美国严格管制AI相关技术出口。与此同时,科技公司与军方的合作日益紧密,以中美对抗为背景,为商业合作披上保家卫国的外衣。


Google曾以“不作恶”为企业原则,但近年来这一原则悄然改变。2018年,Google将行为准则中的“不作恶”替换为“做正确的事”,并在同年发布了AI原则,承诺不开发可能造成整体伤害的技术。


然而,2025年2月初更新的AI原则中,未见明确禁止将技术用于武器的条款。Google DeepMind CEO Demis Hassabis表示,AI伦理原则需随时代变化,Google将协助加强AI网络和生物攻击的防御能力,但拒绝开发致命自动化武器。


然而,其他科技公司已向军方靠拢。微软与以色列军方有数十年合作关系,利用Azure平台提供AI模型支持。


OpenAI起初反对AI军事用途,但近一年来放宽了使用条款,允许用于国家安全用例,并与Anduril合作将AI整合至美军无人机反制系统。


Meta也允许美国政府将Llama模型用于国防和国家安全用途。这些合作引发了严重道德争议,因为AI模型最初并非设计用于决定生死。


科技公司以保家卫国为旗号开放AI军事应用,但加入国防科技产业后,能否完全掌控产品用途成为疑问。

[ 新闻来源:李智衍,更多精彩资讯请下载icspec App。如对本稿件有异议,请联系微信客服specltkj]
存入云盘 收藏
举报
全部评论

暂无评论哦,快来评论一下吧!