欧盟正在考虑禁止将人工智能用于多种目的,包括大规模监控和社会信用评分。这是根据一份泄露的提案,该提案在预计下周正式宣布之前已经在网上流传。如果该提案草案获得通过,欧盟将对人工智能的某些应用采取强硬立场,使其与一些国家区分开来。一些用例将以类似于欧盟在GDPR立法下对数字隐私的监管方式进行监管。
例如,成员国将被要求成立评估委员会,对高风险的人工智能系统进行测试和验证。而在欧盟开发或销售被禁止的人工智能软件的公司--包括那些位于世界其他地方的公司--可能会被处以最高达其全球收入4%的罚款。
根据一份草案副本,该法规草案包括:
禁止人工智能用于 "无理由的监控",包括直接跟踪物理环境中的个人或从其他来源汇总数据的系统。
禁止人工智能系统创建社会信用评分,即根据社会行为或预测的人格特征来判断一个人的可信度。
在公共场所使用面部识别等 "远程生物识别系统"的特别授权。
当人们与人工智能系统互动时,需要发出通知,除非 "从使用环境和背景来看,这是显而易见的"
对 "高风险"的人工智能系统进行监督,包括那些对安全构成直接威胁的系统,如自动驾驶汽车,以及那些很有可能影响人们生活的系统,如用于工作招聘、司法裁决和信用评分的系统。
在高风险系统投入使用前对其进行评估,包括确保这些系统可以向人类监督人员解释,并确保这些系统是在经过测试的 "高质量"数据集上进行训练的,以防止出现偏差。
成立一个由各成员国代表组成的 "欧洲人工智能委员会",帮助委员会决定哪些人工智能系统算作 "高风险",并提出修改禁令的建议。
也许该文件最重要的部分是第4条,它禁止人工智能的某些用途,包括大规模监控和社会信用评分。不过,数字权利组织和政策专家对草案的反应是,这一部分需要改进。
"对要禁止的人工智能系统的描述是模糊的,而且充满了不明确的语言,会造成严重的漏洞空间,"Access Now的欧洲政策分析师Daniel Leufer表示,这部分内容 "远远没有达到理想的程度"。
Leufer指出,禁止导致人们 "行为、形成意见或作出不利于他们的决定 "的制度是无益的模糊。国家法律究竟如何决定一项决定是否对某人不利?另一方面,Leufer说,禁止人工智能用于大规模监控的规定 "太宽松了"。他补充说,禁止AI社会信用体系基于"可信度"的定义也过于狭隘。社会信用系统不需要评估某人是否值得信赖来决定他们是否有资格享受福利待遇等事情。
非营利组织IAPP(国际隐私专业人员协会)副总裁Omer Tene评论说,该法规 "代表了布鲁塞尔对新技术和创新的典型做法。当有疑问时,就进行监管。" Tene表示,如果提案获得通过,将建立一个 "庞大的监管生态系统",不仅会吸引人工智能系统的创造者,还将吸引进口商、分销商和用户,并建立一些国家和欧盟范围内的监管委员会。
目前还不知道在欧盟政策制定者为4月21日的正式宣布做准备时,这份提案草案可能会有什么变化。不过该法规一旦提出,就会在欧洲议会议员的反馈意见后进行修改,并必须在各成员国分别实施。
暂无评论哦,快来评论一下吧!