人工智能:欧盟委员会对 ChatGPT 的最新监管方向

撰文:AnnaFell?nder,anch.AI的创始人、ETHICALAIGOVERNANCEGROUP委员会成员

2023年2月,欧洲议会AI伦理领域的顾问AnnaFell?nder在欧盟委员会官网发表了《ChatGPT’srapidentry–UrgentforthegovernmenttoappointanauthorityforresponsibleAI》,提出了关于为什么要对生成式AI进行监管的背景、原因和解释。笔者认为,这篇文章很有可能代表了未来欧盟委员会对生成式人工智能的监管方向之一,我们看这篇,也主要是作为一个国际动向进行关注。

全文如下:

最近新发布的人工智能方案ChatGPT,以一种全新的方式挑战着所有人。随着生成式AI系统创造的机会,我们同时也面临着具有历史意义的十字路口:

欧盟委员会研究通过“嵌入式监管”来监控DeFi的可能性:金色财经报道,欧盟委员会上周发布了一项提案,旨在研究通过“嵌入式监管”来监控DeFi的可能性。?该提案源于委员会专门负责金融和市场的总局,旨在调查金融监管机构如何监管以太坊。它认为以太坊是 DeFi 的最大支付结算平台。?该试点计划将持续至少六个月,估计价值为 250,000 欧元(约合 242,500 美元)。参与申请将持续开放至12月1日。

?根据委员会的文件,该研究将侧重于直接从区块链自动收集监管数据,以测试对实时DeFi活动进行监管的技术能力。

Circle欧盟政策和战略负责人Patrick Hansen在推特上表示,试点的影响可能很大,因为监管机构通过读取公共区块链数据自动监控合规性的能力可以大大减少对市场参与者(例如 DAO)的需求。积极收集、验证并向当局提供数据。[2022/10/11 10:30:25]

也就是,究竟是人工智能来控制人类,还是人类来控制人工智能。

欧盟委员会的数字欧元倡议已收到超1万条公众意见:金色财经报道,截至目前,欧盟委员会的数字欧元倡议已收到超1万条公众意见。公开评论期为2022年4月5日至6月14日,旨在收集公众关于建立和监管数字欧元的意见。欧盟尚未就是否发行数字货币做出决定,此次磋商将成为2023年可能通过的任何法律草案的前奏。今年2月份,欧盟金融稳定、金融服务和资本市场联盟专员MaireadMcGuinness表示:我们的目标是在2023年初提出立法。(The Block)[2022/4/17 14:29:01]

瑞典的企业和当局,需要对人工智能采取Ethicalapproach,也就是伦理学上的考量,但最重要的是,需要建立风险评估框架,来支撑这种发展,从而指导符合人类价值观的人工智能解决方案的发展。

欧盟委员会将于3月14日对加密法规MiCA进行投票:金色财经报道,据最新消息,欧盟议会货币委员会将于3月14日对欧盟的加密货币市场规则(MiCA)立法进行投票。(CoinDesk)[2022/3/8 13:43:21]

此外,欧盟人工智能立法,对发展负责任的人工智能来说,指日可待,而政府迫切需要组建发展负责任的人工智能机构。

ChatGPT和其他生成式人工智能系统

首先,创造了人们内心期待已久的人工智能民主化,更多的人可以参与进来这次技术带来的迭代,自己去创造由算法在历史数据上生成的新内容。各个组织实现AI技术价值的门槛显著降低,新的创新商业模式也层出不穷,能够有效地加强客户和人们的关系。

同时,所有个体和社会,每天都面临着由于不受监管的人工智能解决方案,从而导致的道德和法律问题。其中一个原因是,人工智能模型的学习是基于历史数据,而其中,很可能存在不必要的偏见,这种偏见,可能导致社会排斥和歧视,包括其他的违规行为。

欧盟议会和欧盟委员会将于6月份就区块链问题进行辩论:据cryptonews消息,欧盟议会工业委员会呼吁欧盟委员会提出措施以促进区块链和其他分布式账本技术。这个问题应该在6月份的全体会议上进行辩论。此外,欧洲议会的一份新闻稿称,欧洲议会议员要求提交2020年后的欧盟长期预算,据说目前正在谈判中的预算包括为区块链研究和项目提供资金。Eva Kaili是欧洲议会社会党和民主党进步联盟的成员之一,她表达了她对提高整体生活质量的技术的期望,并补充说:“区块链是一项尖端技术,我们希望使欧盟成为第四次工业革命时代的全球领导者“。委员会发现,“将区块链模式应用于能源使用,供应链和治理等领域将削减企业成本并赋予公民权力。”关于工业委员会如何实施区块链的更多信息可以在6月份的全体会议之后获得。[2018/5/21]

比如说,当我们这些个体,批准自己数据在某种情况下被使用时,可能并不会意识到,当我们自己的数据与其他数据结合时,算法如何创造出侵犯个人隐私的见解。

注意:这对公司和各国政府来说,代价都很高,例如可能会撤回投资,或者导致声誉受到损失。最近的案例表明,2021年,由于人工智能解决方案错误地指责接受父母保险的父母是欺诈。此外,还有个基于OpenAI的GPT-3的医疗聊天机器人被发出测试,其结果是建议病人自杀。

参考资料:GPT-3medicalchatbottellssuicidaltestpatienttokillthemselves|BoingBoing

生成式人工智能系统,比其他人工智能解决方案具备更高程度的道德风险暴露。其中一个原因是,生成式人工智能系统的使用往往是通过API进行的,这使得解决方案的透明度很低,并且,对它的发展难以控制。

同时,道德和法律方面的违规行为,通常发生得很微妙,也很突然,虽然这些违规行为可能会小到无法察觉,但是极有可能造成指数级的损失。

其中一个例子是深度造假,比如说,被用来操纵视频或照片中的面孔和声音。而要注意到的是,生成式人工智能模型通常以API的形式提供,这就可以使用户更容易获得和使用该技术,这可能会增加滥用的风险。

需要承认的是,基于API的生成性人工智能模型本身并没有风险,但它们的使用方式和训练的数据会使他们具备风险。

欧盟的人工智能立法,即《人工智能法案》,将于2024年正式生效。

《人工智能法案》的目标,是让公民和消费者感到信任,并维护欧盟包括人权在内的价值基础。欧盟委员会在《人工智能法》中提议,成员国必须任命或建立至少一个监督机构,负责确保「必要的程序得到遵循」。

随着生成式人工智能系统逐步出现的巨大潜力,尤其是在医疗保健方面,例如正确诊断和优化疾病的治疗,关键是,要有可用的风险评估框架,并任命一个负责任的机构。

人工智能的伦理框架,为所有部门创造了一个高度的创新环境。因此,有关机构迫切需要任命这一负责机构,并提供风险评估框架,以便瑞典企业和瑞典当局不会像GDPR那样对人工智能法案缺乏警惕性。

https://futurium.ec.europa.eu/en/european-ai-alliance/blog/chatgpts-rapid-entry-urgent-government-appoint-authority-responsible-ai

Artificialintelligence:hugepotentialifethicalrisksareaddressed|News|EuropeanParliament(europa.eu)

Welcometoanch.AI-AIandEqualityinPublicAdministration-areportbyanch.AIandtheSwedishGenderEqualityAuthority.

郑重声明: 本文版权归原作者所有, 转载文章仅为传播更多信息之目的, 如作者信息标记有误, 请第一时间联系我们修改或删除, 多谢。

地球链

[0:15ms0-0:954ms