DeepSeek AI模型安全性受质疑,易生成恶意内容
来源:龙灵 发布时间:2025-02-10
分享至微信

中国新创DeepSeek以低成本AI模型著称,但近日其安全性备受关注。据报道,DeepSeek的R1模型在测试中易被诱导生成恶意软件、汽油弹制作方法及生物武器信息等有害内容。
相比OpenAI ChatGPT、Google Gemini和Anthropic Claude等模型,DeepSeek的R1模型更易被“越狱”。
网络威胁情报公司Kela和安全平台CalypsoAI均在测试中成功从DeepSeek模型获取恶意建议。此外,网络安全公司Palo Alto Networks发现,DeepSeek模型会提供汽油弹制作细节。
思科团队指出,DeepSeek R1模型对使用者给出的所有有害指令均未阻挡,“越狱”成功率达100%。据TechCrunch报道,DeepSeek模型在安全测试中表现最差,能生成难以找到的生物武器信息。
值得注意的是,DeepSeek将模型作为开源软件发布,任何人可免费使用或修改。然而,即便如此,开发商仍应加强防护机制以管控有害内容生成。
[ 新闻来源:龙灵,更多精彩资讯请下载icspec App。如对本稿件有异议,请联系微信客服specltkj]
存入云盘 收藏
举报
全部评论
暂无评论哦,快来评论一下吧!

龙灵
开创IC领域,共创美好未来!
查看更多
相关文章
DeepSeek AI模型安全性受质疑
2025-02-08
DeepSeek服务遇挑战,回应称受恶意攻击及维护影响
2025-01-31
DeepSeek:受网络审查限制的AI黑马
2025-02-05
传DeepSeek加速发布R2 AI模型
2025-02-26
印度允许DeepSeek托管,计划创建基础AI模型
2025-02-10
热门搜索
美国实体清单新增54家中企
苹果拟推带微型摄像头AirPods
江波龙拟赴港上市
华为
台积电
中芯国际
联发科
高通
英特尔