欧洲议会的一个重要议员委员会批准了一项史无前例的人工智能法规,使其更接近将成为法律。
这一批准标志着有关部门将监管人工智能的一个里程碑式的进展,人工智能正以惊人的速度发展。该法律被称为《欧洲人工智能法案》,是西方第一部针对人工智能系统的法案。
这些规定还明确了对ChatGPT等所谓“基础模型”提供商的要求。考虑到这些模型的发展程度,以及对工人将被取代的担忧,ChatGPT已成为监管机构关注的一个关键问题。
(资料图片仅供参考)
《人工智能法案》将人工智能的应用分为四个级别的风险:不可接受的风险、高风险、有限的风险和最小或没有风险。
默认情况下,不可接受的风险应用程序是被禁止的,并且不能在社区或企业中部署。
它们包括:
- 人工智能系统使用潜意识技术,或操纵或欺骗技术来扭曲行为
- 人工智能系统利用个人或特定群体的漏洞
- 用于社会评分或评估可信度的人工智能系统
- 人工智能系统通过无目标抓取创建或扩展面部识别数据库
- 人工智能系统在执法、边境管理、工作场所和教育中的一些应用
一些议员呼吁提高这些措施的成本,以确保它们涵盖ChatGPT。为此,需求被强加在“基础模型”上,例如大型语言模型和生成人工智能。
年利达律师事务所(Linklaters)律师Ceyhun Pehlivan说:“此类人工智能模型的提供商将被要求采取措施,评估和减轻对基本权利、健康和安全、环境、和法治的风险。”“他们还将受到数据治理要求的约束,例如检查数据源的适用性和可能的偏差。”
需要强调的是,虽然欧洲议会的立法者已经通过了这项法案,但它离成为法律还有一段路要走。
私营公司被允许以极快的速度开发人工智能技术,从而催生了微软支持的OpenAI的ChatGPT和谷歌的Bard等系统。
谷歌最近宣布了一系列新的人工智能更新,包括一种名为PaLM 2的高级语言模型,该公司表示,该模型在某些任务上优于其他一些系统。
像ChatGPT这样的新型人工智能聊天机器人吸引了许多技术人员和学者,因为它们能够根据大量数据训练的大型语言模型,对用户的提示做出类似人类的反应。
这些规定势必也将引发了科技行业的担忧。计算机和通信行业协会(Computer and Communications Industry Association)表示,它担心《人工智能法案》的范围被扩大得太多,可能会涵盖无害的人工智能发展。
CCIA欧洲政策经理博尼法斯德尚普里斯(Boniface de Champris)表示:“令人担忧的是,看到广泛类别的人工智能应用程序,它们其实构成的风险非常有限,或者根本没有,但是现在却将面临严格的要求,甚至可能在欧洲被禁止。”
“欧盟委员会对人工智能法案的最初提议采取了一种基于风险的方法,对构成明显风险的特定人工智能系统进行监管,”德尚普里斯补充道。
(文章来源:wind)
标签:
要闻