美国时间3月25日,OpenAI官方发布了3月20日ChatGPT临时中断服务的调查报告,并表示有1.2%的ChatGPTPlus用户可能数据被泄露。
根据OpenAI官网公告表示,3月20日以前,一个名为Redis-py的开源库中的错误造成了缓存问题,该问题会导致用户可能看到其他人聊天记录的片段,甚至会向一些活跃用户显示其他用户信用卡的最后四位数字、到期日期、姓名、电子邮件地址和付款地址。
本来可能还只是零星的用户出现该类BUG,但令人神经大条的是,在20号早上,OpenAI在对服务器进行更改的时候出现失误,导致Redis请求取消激增,问题进一步的加剧,所以出现了这个“1.2%”的可能。
根据OpenAI官方的说法,有两种可能会使这些信息被暴露:
Hashkey Exchange:将于今日移除ETH/BTC交易对:金色财经报道,根据Hashkey Exchange官方公告,该平台将于2023年08月03日16:00点(UTC+8)移除ETH/BTC交易对,受影响的范围包括现货交易和充值和提现,所有挂单将自动取消,用户仍可以在HashKey Exchange平台上可用的其它交易对中交易上述币种,ETH的充值和提现将不受影响。
金色财经此前报道,HashKey Exchange宣布获得香港颁发的加密交易所许可证。[2023/8/3 16:15:38]
1.在特定时间内的付款确认邮件,可能会发给了一些错误的用户,这些邮件上包含信用卡的后四位数字。
2.在特定时间内,点击“我的账户”-“管理我的订阅”,可能会导致另一个活跃用户的姓名、电子邮箱、付款地址、信用卡后四位被泄露。
OpenAI表示,目前已经联系了这些可能已经泄露信息的用户。
区块链互操作性初创公司Datachain完成稳定币跨链结算的商业化实验:4月27日消息,区块链互操作性初创公司Datachain已完成数字证券和稳定币跨链结算的商业化实验,此次实验使用CosmosIBC和LCP实现Corda和ConsenSysQuorum网络的互连。三菱日联金融集团旗下稳定币平台ProgmatCoin计划将在多条链上发行稳定币,并使用IBC作为通信协议,一旦获得许可,将符合日本的监管要求。[2023/4/27 14:30:22]
网址:https://openai.com/blog/march-20-chatgpt-outage
为了防止此类事情再次发生,OpenAI也在博文里说明了他们已经采取的行动:添加“冗余检查”以确保提供的数据与用户匹配;改进修复了其Redis集群在高负载下吐出错误的可能性......而且还强调他们的Redis开源维护者一直是出色的合作者。
THORChain通过2次安全审计,现已恢复运行:跨链流动性协议THORChain已在夏季的两次攻击事件后完成了2次安全审计,分别由网络安全公司Trail of Bits和Halborn进行,这将使THORChain得以实施一项五步恢复计划。THORChain的贡献者表示,在重启所有主要加密货币集成和跨链交易功能后,该协议已经全面运行。除了审计之外,THORChain还宣布,已经委托漏洞赏金平台Immunefi实施一项赏金计划来识别新漏洞。(Cointelegraph)[2021/10/29 21:06:45]
虽然问题已经解决,但还是有大量的网民们依旧质疑OpenAI的安全性,还有网民询问,为什么不能用GPT4检查代码上的错误。
Channels与Ops达成战略合作伙伴关系:据官方消息,9月15日,Channels与NFT社交平台opsnft达成战略合作伙伴关系,Channels已入驻Ops平台,双方将在品牌建设、社区协作、生态赋能等方面持续合作。
Channels 是多链创新DeFi借贷平台。用户可以在Channels存钱和借钱,存借均会获得平台币CAN奖励。
Ops是一款由Zero One团队开发的SocialFi+NFT项目,主要功能包括用户社交所需的NFT拍卖行交易、NFT私密内容浏览、内置流动性挖矿、社交广场。[2021/9/15 23:26:39]
可能是为了安抚ChatGPT用户的心绪,OpenAICEOSamAltman在当天立刻接受了媒体专访。虽然只字未提此次用户数据泄露事件,却多次强调“AI安全”。
声音 | Blockchairi首席程序员:BCH分叉会伤害其生态系统:据Ethnews消息,Blockchairi首席程序员Nikita Zhavoronkovi近日针对比特现金分叉表态,他认为Craig Wrighti提出的改变是不必要且危险的。这只会伤害到比特现金的生态系统。[2018/8/28]
他提到了以下四点:
1.人工智能语言模型的开发和改进需要一个包含公众反馈的迭代过程,专注于解决偏见,并考虑AI安全性和一致性。
2.人工智能的进步,特别是GPT技术的进步,正在改变编程的性质,需要仔细考虑人工智能的安全性、语言输出的监控和解决偏见。
3.人工智能的发展,特别是神经网络,有可能超越人类智能,大大提高生活质量,但也带来了重大的风险和挑战,必须通过不断研究和开发人工智能安全性和一致性来解决。
4.OpenAI是一家营利性公司,致力于强大的AI技术,同时对安全问题保持透明。
OpenAICTOMiraMurati也在其官网上发出自己的观点,“人工智能系统正在成为日常生活的一部分。关键是要确保这些机器符合人类的意图和价值观。”而如今,他们一手创造的ChatGPT正在挑战着他们所给到公众的承诺。
随着人类工作生活使用人工智能的频次越来越高,AI安全问题也应该成为我们在当下及未来相当长一段时间应该重视的问题,AI技术不能只考虑跑得快,还要考虑不翻车。
根据openAI官方解释,这是由于缓存问题导致用户信息泄漏,然而这种错误,在互联网行业中,并不是第一起。
早在2015年的圣诞节,Steam也因为缓存问题,使34000名左右用户的个人信息被泄露。OpenAI投入巨量的精力和金钱在AI的潜在安全的研究上,却被一个常见的老问题给绊倒。虽说“成大事者,不拘小节”,但“天下难事,必作于易;天下大事,必作于细。”希望未来OpenAI不会再出现此类的问题了。
我们询问了GPT-4,AI安全问题应该如何解决,它回答道:
在人工智能领域,确保安全性是至关重要的。以下是一些建议和方法,以解决AI安全问题:
可解释性和透明度:AI系统的设计应具备可解释性,以便研究人员、用户和监管机构理解其决策过程。提高透明度有助于确保AI系统的行为符合预期,便于发现潜在的安全隐患。
数据安全和隐私:AI系统通常需要大量数据进行训练。保护这些数据的隐私和安全至关重要。采用加密、数据脱敏和差分隐私等技术,以确保数据在处理、传输和存储过程中得到保护。
鲁棒性和抗攻击能力:AI系统应具备对抗对手的能力,包括识别和抵御对抗性攻击、性输入等。研究鲁棒性训练方法,提高系统的抗干扰能力。
可审计性:建立可审计的AI系统,以记录关键决策过程。这将有助于追踪潜在问题、确保合规性,并为未来纠正错误和不当行为提供依据。
伦理与法规遵循:确保AI系统符合伦理原则和法律法规,遵循公平、透明、可解释等原则。研究AI伦理,制定相应的政策和指导方针。
持续监控和更新:随着技术的进步和新的安全威胁的出现,需要不断监控和更新AI系统,以确保其安全性和有效性。
多学科合作:鼓励不同领域的研究人员、政策制定者、企业家和公众共同参与AI安全问题的讨论。跨学科合作将有助于制定更全面的安全策略。
开放研究和分享:开展开放、合作的研究,分享AI安全相关的知识、技术和最佳实践。这将有助于整个AI领域在安全问题上取得进展。
通过积极采纳这些措施和方法,我们可以降低AI领域的安全风险,推动人工智能的健康、可持续发展。
希望OpenAI在内的人工智能公司,都能为保障AI安全而多上心、多出力,AI行业才能够更加健康地发展。
作者:鹿人蒹葭ChatGPT排版:鹿人
郑重声明: 本文版权归原作者所有, 转载文章仅为传播更多信息之目的, 如作者信息标记有误, 请第一时间联系我们修改或删除, 多谢。