本报讯 记者赵晨报道:日前,德国政府公布了一份由德国、法国和意大利三国达成的关于人工智能(AI)监管的文件,或为欧洲层面的AI监管准则提供蓝本。
该文件总体上支持对AI进行必要的监管,但同时强调,AI系统的固有风险在于应用而不是技术,所以监管对象应该是AI应用,而不是AI技术本身。
文件显示,三国政府主张欧盟相关企业在AI应用方面作出具有约束力的自愿承诺,支持对AI基础模型“通过行为准则进行强制性自我监管”,但反对“未经检验的规范”。
文件提出,不应在一开始就对AI应用实施制裁,但如果在一段时间后发现服务商违反行为准则,可以建立制裁制度。欧盟当局应建立监管机构,监督准则的执行情况。
德国政府表示,希望欧盟对AI进行“明智的”监管,避免监管过于严格。德国经济部长哈贝克称,现在最重要的是在欧洲层面制定合理的AI监管法规。
据悉,目前欧盟委员会、欧洲议会和各成员国之间正在就AI监管进行谈判,德法意三国政府的决定将对正在进行的谈判产生重大影响,可能会加速谈判进程并为欧洲层面的AI监管准则提供蓝本。
随着AI技术的快速发展,世界各国政府都开始推动建立监管制度,寻求把握机遇和规避风险之间的平衡点。此前,欧洲议会曾提出一项AI法案,旨在避免AI应用带来安全风险的同时,不影响这项新技术在欧洲发挥创新能力。