CHA:ChatGPT热潮之下 虚假新闻、算法歧视、信息泄露的法律风险你了解吗?

文:赵志东蔡佳雯

2022年底,美国科技初创公司OpenAI发布的智能聊天工具ChatGPT一夜火爆。与过去一些AI聊天机器人对话时明显的机械感或内容复制粘贴感相比,ChatGPT给出的答复往往逻辑清晰,切中要点,并能与用户进行自然流畅的对话。出于对AI技术究竟发展到何程度的好奇,各行各业的人都开始用ChatGPT进行花式测评,从写代码到做高考数学题,从翻译学术论文到写命题小作文。而ChatGPT的完成度也确实令人感慨,过去仅能由人类完成的创造性工作,一定程度上可以由ChatGPT取代,完成相应内容生产。

ChatGPT的出现,也掀起了人工智能内容生产赛道的热潮。微软已正式将ChatGPT技术接入必应搜索和Edge浏览器。百度有限公司也表示,将在今年3月完成类似ChatGPT的项目“文心一言”的内部测试后向公众开放。

对于ChatGPT展现的“超能力”,不少人对技术发展感到振奋的同时,也对人工智能内容生产及其背后的道德伦理、社会责任和法律风险存在一丝担忧。本文将从算法、数据和内容三个层面,详述ChatGPT背后的法律风险和合规建议。

dYdX:V4治理中dYdX Chain开源软件将使用Cosmos SDK中的标准x/gov模块:6月23日消息,去中心化衍生品协议dYdX介绍V4治理,dYdX Chain开源软件将使用Cosmos SDK中的标准x/gov模块,将包括治理模块的某些必需参数,将使代币持有者能够通过治理投票过程调整任何x/gov参数。

治理能够调整的参数列表包括添加新市场、调整实时市场的参数、移除任何市场、编辑交易所使用的第三方价格来源列表、费用表、交易奖励机制等。[2023/6/23 21:55:51]

一、ChatGPT生成虚假信息,谁来为答案质量负责?

ChatGPT的技术原理是在算法和数据基础上,利用自然语言处理生成相应回答。具体来说,ChatGPT使用了基于人类偏好的强化学习的机器训练模型,由技术人员预先给ChatGPT输入海量语言数据,并根据人工标注的高质量回答对ChatGPT生成的回答建立打分和奖励模型,引导训练ChatGPT模型对输出结果不断进行校正和优化,并向高分方向完善输出答案,最终使得ChatGPT能够学习人类语言的特征和结构,实现用自然语言进行人机交流。

Partisia Blockchain与OriginAll合作以打击非洲假药:金色财经报道,Partisia Blockchain已与在瑞士注册的技术公司OriginAll建立合作伙伴关系,以在非洲阻止制药欺诈。Partisia Blockchain将为OriginAll的防伪解决方案提供技术基础。两个团队创建了代币化平台Origin All Healthies,可跟踪交易、慈善汇款和供应链物流。通过使用Origin All Healthies,可以轻松跟踪药物是否是从授权经销商处购买的。每笔交易都使用一个属于合法产品的唯一标识符(UID)。据悉,根据世界卫生组织的数据,截至2021年,在非洲国家,70%的药品都是假药,假药市场的净收入可能超过4万亿美元。[2021/12/22 7:55:00]

当前,ChatGPT被认为能够处理多种相对复杂的语言类工作,包括自动文本生成、自动问答、延续上下文的连续对话等,并被尝试用于新闻、营销、客服等行业领域。但是,人工智能内容生产并不能保证其内容的准确性,ChatGPT也在用户协议中对此做出了免责声明。比起ChatGPT输出一些“正确的废话”,其“一本正经地胡说八道”带来的危害更是令各国监管机构都十分警觉。

动态 | 美国空军将使用SIMBA Chain来确保其供应链的安全:美国空军选择了智能合约初创公司SIMBA Chain提供区块链,这将用于确保其供应链的安全。(cointelegraph)[2019/8/27]

今年1月,OpenAI首席技术官米拉·穆拉蒂表示,ChatGPT可能会被“危险分子”使用于编造事实,这是当下大型语言模型共同面临的挑战。

一方面,在法律、医学等专业领域,用户需要一定的专业知识才能辨别ChatGPT生成内容的真假。如有用户依赖不准确的答案做出判断和决策,可能会危害用户的人身和财产安全。

另一方面,不排除一些别有用心的不法分子,通过向ChatGPT输入虚假或误导性的信息来“训练”其产生虚假信息,严重者可能导致影响舆论或生态、煽动暴力和犯罪等破坏公共利益等严重后果。

我国出台的《互联网信息服务深度合成管理规定》,也是旨在应对深度合成技术给法律、社会秩序、公共安全带来的冲击。根据《互联网信息服务深度合成管理规定》给出的定义,深度合成技术是指利用深度学习、虚拟现实等生成合成类算法制作文本、图像、音频、视频、虚拟场景等网络信息的技术,其中包括篇章生成、文本风格转换、问答对话等生成或者编辑文本内容的技术。ChatGPT这类人工智能内容生产产品,显然应受该法的规制。

动态 | SpankChain平台被盗的ETH已被黑客归还:据Coindesk消息,一名从SpankChain平台偷走165.38 ETH的黑客已退还资金。此前,数字货币项目SpankChain遭受了黑客攻击,损失了165.38 ETH(当时价值约3.8万美元),另有价值4000美元的BOOTY币遭冻结。[2018/10/12]

按照《互联网信息服务深度合成管理规定》要求,深度合成服务提供者应当落实信息安全主体责任,建立健全用户注册、算法机制机理审核、科技伦理审查、信息发布审核、数据安全、个人信息保护、反电信网络、应急处置等管理制度。

首先,深度合成服务提供者应当以显著方式提示深度合成服务技术支持者和使用者承担信息安全义务。对于使用其服务生成的可能导致公众混淆或者误认的信息内容,应当在该信息内容的合理位置、区域进行显著标识,向公众提示该内容为深度合成,并在生成疑似违法信息时提示用户存在虚假信息的安全风险。

其次,深度合成服务提供者应当加强深度合成内容管理,建立健全用于识别违法和不良信息的特征库,采取技术或者人工方式对深度合成服务使用者的输入数据和合成结果进行审核。如果发现用户利用深度合成服务制作、复制、发布、传播虚假信息的,应当及时采取辟谣措施,保存有关记录,并向网信部门和有关主管部门报告。

声音 |Juniper Research: 65%的美国企业更青睐IBM Blockchain而不是微软:据cryptodaily消息,据Juniper Research于2018年9月的调查显示,65%的受访者会选择IBM Blockchain来部署分布式账本技术(DLT)和类似的解决方案。亚军微软仅获得7%的选票,名单上的其他公司还包括埃森哲,德勤和甲骨文。在企业区块链解决方案方面,IBM最受企业美国人的信任。

同样的调查发现,如果公司要部署分散式应用程序(Dapp)和相关解决方案,那么美国公司绝大多数都更喜欢以太坊网络,该平台获得近50%的选票。[2018/9/23]

与此同时,对发布违法和不良信息的相关深度合成服务使用者,要依法依约采取警示、限制功能、暂停服务、关闭账号等处置措施。

二、ChatGPT生成歧视性文本,算法盲盒如何监管?

除了《互联网信息服务深度合成管理规定》,ChatGPT等人工智能内容生产产品也受《互联网信息服务算法推荐管理规定》规制。《互联网信息服务算法推荐管理规定》中所称算法推荐技术,就包括利用生成合成类算法技术向用户提供信息。该法规的要点,是防止出现算法歧视或算法偏见,生成负面有害信息或低俗劣质信息等不符合主流价值导向的内容。

根据《互联网信息服务算法推荐管理规定》第七条规定,算法推荐服务提供者应当建立健全算法机制机理审核、科技伦理审查、用户注册、信息发布审核、数据安全和个人信息保护、反电信网络、安全评估监测、安全事件应急处置等管理制度和技术措施。

具体来讲,算法服务提供者应当定期审核、评估、验证算法机制机理、模型、数据和应用结果,确保算法模型不违背伦理道德。在此基础上,算法服务提供者同样应以显著方式告知用户其提供算法推荐服务的情况,并以适当方式公示算法推荐服务的基本原理、目的意图和主要运行机制等。

此外,如果是具有舆论属性或者社会动员能力的产品,算法推荐服务提供者应当在提供服务之日起十个工作日内通过互联网信息服务算法备案系统填报服务提供者的名称、服务形式、应用领域、算法类型、算法自评估报告、拟公示内容等信息,履行备案手续。

以ChatGPT为例,尽管OpenAI在官网上声明,ChatGPT已通过算法设置和训练,能在一定程度上拒绝用户不合理的请求,例如生成可能包含种族歧视或性别歧视、暴力、血腥、等违反法律以及公序良俗的内容。但事实上,这样的违法信息传播风险仍然存在,其引发的法律责任和社会舆论,可能会对公司形象及商誉产生负面影响。

三年前在韩国十分火爆的人工智能聊天机器人LeeLuda,由于一些用户在对话交互时,故意输入污秽和暴力言语,导致LeeLuda在接收这些不符合主流价值观的内容后,开始输出一些涉嫌性别歧视、种族歧视、对弱势群体的歧视的内容,该产品因此广为诟病而于上线不到一个月就中断了服务。

三、用户的输入信息被用来训练ChatGPT,个人信息处理合规要点何在?

ChatGPT的前期训练、后期迭代和强化学习都需要海量的数据,最新开放版本GPT-3.5预训练数据量已达到45TB,其中就包括北京智源人工智能研究院建构的中文语料库WuDaoCorpora中约3TB的中文语料。

《互联网信息服务算法推荐管理规定》第十四条明确规定,深度合成服务提供者和技术支持者应当加强训练数据管理,采取必要措施保障训练数据安全;训练数据包含个人信息的,应当遵守个人信息保护的有关规定。

我国《个人信息保护法》明确了处理个人信息应当遵循的公开原则、诚信原则和最小限度原则,即个人信息处理者应当公开个人信息处理规则,明示处理的目的、方式和范围,不得过度收集个人信息,不得通过误导、欺诈、胁迫等方式处理个人信息。以ChatGPT为例,OpenAI公司为模型训练而收集或处理个人信息的,还需要取得用户个人的同意。

在OpenAI公司就ChatGPT使用常见问题的答复中,OpenAI明确承认,用户与ChatGPT的对话数据,将会被用于ChatGPT的迭代模型训练。并且,OpenAI特别提示,OpenAI暂时无法从输入历史中删除特定某条内容;如果想要删除数据,必须以注销此OpenAI账号的方式,而该账号所有的相关数据会被一起删除,故用户不要在使用ChatGPT时输入敏感信息或机密内容。

因此,在类似ChatGPT的人工智能内容生产产品开发和后期升级过程中,尽可能使用公开的非个人信息,或对收集的个人信息进行匿名化的处理。如果必须要使用个人信息,应当明确向用户告知并取得其个人同意,避免违法使用个人信息造成的侵权或损害。

郑重声明: 本文版权归原作者所有, 转载文章仅为传播更多信息之目的, 如作者信息标记有误, 请第一时间联系我们修改或删除, 多谢。

地球链

[0:15ms0-0:943ms