DeepSeek AI模型安全性受质疑,易生成恶意内容
来源:龙灵 发布时间:2025-02-10 分享至微信

中国新创DeepSeek以低成本AI模型著称,但近日其安全性备受关注。据报道,DeepSeek的R1模型在测试中易被诱导生成恶意软件、汽油弹制作方法及生物武器信息等有害内容。


相比OpenAI ChatGPT、Google Gemini和Anthropic Claude等模型,DeepSeek的R1模型更易被“越狱”。


网络威胁情报公司Kela和安全平台CalypsoAI均在测试中成功从DeepSeek模型获取恶意建议。此外,网络安全公司Palo Alto Networks发现,DeepSeek模型会提供汽油弹制作细节。


思科团队指出,DeepSeek R1模型对使用者给出的所有有害指令均未阻挡,“越狱”成功率达100%。据TechCrunch报道,DeepSeek模型在安全测试中表现最差,能生成难以找到的生物武器信息。


值得注意的是,DeepSeek将模型作为开源软件发布,任何人可免费使用或修改。然而,即便如此,开发商仍应加强防护机制以管控有害内容生成。

[ 新闻来源:龙灵,更多精彩资讯请下载icspec App。如对本稿件有异议,请联系微信客服specltkj]
存入云盘 收藏
举报
全部评论

暂无评论哦,快来评论一下吧!