造成“不可接受的风险”或伤害的人工智能系统现在可以在欧盟被禁止。一些不可接受的人工智能活动包括社会评分、欺骗性操纵、利用个人漏洞、基于外表的预测性警务、基于生物识别的分析、实时生物识别监视、工作场所或学校的情绪推断以及未经授权的面部识别数据库扩展。 TechCrunch 报道:根据该集团的方法,有四个主要风险级别:(1)最小风险(例如,电子邮件垃圾邮件过滤器)将不受监管监督; (2) 有限的风险,包括客户服务聊天机器人,将受到宽松的监管; (3) 高风险——人工智能用于医疗保健建议就是一个例子——将面临严格的监管; (4) 不可接受的风险应用——本月合规要求的重点——将被完全禁止。被发现在欧盟使用任何上述人工智能应用程序的公司将被处以罚款,无论其总部位于何处。他们可能面临高达约 3600 万美元的损失,即上一财年年收入的 7%,以较高者为准。英国斯劳特梅律师事务所技术主管 Rob Sumroy 在接受 TechCrunch 采访时指出,罚款在一段时间内不会生效。 Sumroy 表示:“预计各组织将在 2 月 2 日之前完全合规,但是……企业需要注意的下一个重要截止日期是 8 月。” “到那时,我们就会知道主管部门是谁,罚款和执法规定也将生效。”
在 Slashdot 上阅读这个故事的更多内容。