人工智能,无疑是21世纪以来最受人们关注的技术。但伴随发展而来的,还有一系列难以预知的风险,因此不少国家与地区开始陆续出台与人工智能治理相关的方案。接下来,就让我们来了解一下相关内容。
欧盟在2018年4月发布的《人工智能政策》中指出,将建立人工智能发展与法律及伦理相适应的框架,以强化欧盟在人工智能领域的竞争力。为了搭建统一协调的体系,欧盟后续又提出了几项有关于人工智能的方案,并在2023年6月正式通过了《人工智能法案》。
该项法案的通过,与2022年年末生成式人工智能的爆火关系密切。生成式人工智能在段时间内所爆发出来的版权问题、信息安全以及伦理风险等,极大程度的引起了人工智能技术先进地区的警觉。
在美国,白宫于2020年发布了《人工智能应用监管指南》,要求完善对人工智能开发与研究的监管,在人工智能系统中加入高标准的预防措施。在后续的意见征求稿中,针对人工智能的安全风险评估、监管标准、认证标准等情况进行了调查,希望能够构建出符合美国价值观的治理框架。
我国在人工智能治理方面,也在努力搭建出多级管控制度。以明确的职责划分,将风险管控划分到具体的人与单位。在今年8月,我国便已经正式实施了《生成式人工智能服务管理暂行办法》,明确了生成式人工智能在法律、道德等方面的风险应对措施,力图为人工智能的发展建立出更加规范化的道路。
针对人工智能已经暴露出来的问题,需要我们“软硬兼施”。既要加强监管,用强硬的手段确保其发展方向不会违背初衷;但同样也需要加大对人工智能研发的扶持力度,确保在该领域的竞争力。
发表评论 取消回复