OpenAI员工公开信:AI缺乏监督,存在高风险
来源:ictimes 发布时间:2024-06-05 分享至微信

一群 OpenAI 前任与现任员工6月4 日发表公开信警示,人工智能 (AI) 公司对 AI 的「严重风险」应该更加透明,同时应该保护 AI 风险举报人。


OpenAI 的现任和前任员工在公开信中写道:“公司有强大的商业利益动机来避免有效的监督,我们认为公司治理的客制化结构不足以撼动这一点。”


信中提到,AI 公司拥有大量非公开信息,包括他们的技术可以做什么,他们采取的安全措施的程度以及技术对不同类型伤害的风险水平。


信中内容还写到:我们也理解这些技术带来的严重风险,从操纵到失去控制,即所谓的奇点,这可能会导致人类灭绝。这些公司目前只有微弱的义务与政府分享其中一些信息,而没有与民间社会分享。我们认为不能依靠他们自愿分享它。


这封信还详述现任和前任员工对人工智能产业举报人保护不足的担忧,并指出,如果没有有效的政府监督,员工在追究公司责任方面处于相对独特的地位。


公开信称:「宽泛的保密协议阻止我们表达我们的担忧,除非是那些可能未能解决这些问题的公司,普通的举报人保护是不够的,因为它们侧重于非法活动,而我们担心的许多风险尚未受到监管。」


[ 新闻来源:ictimes,更多精彩资讯请下载icspec App。如对本稿件有异议,请联系微信客服specltkj]
存入云盘 收藏
举报
全部评论

暂无评论哦,快来评论一下吧!