来源:钛媒体,作者|林志佳
图片来源:由无界AI工具生成
当ChatGPT引发中美科技行业狂热之后,它的缔造者美国OpenAI公司如今又在人工智能可解释性研究领域获得重大突破。
钛媒体App5月10日消息,OpenAI今晨发布一个关于GPT-4语言模型解析神经元的对齐性研究成果,利用自研基于GPT-4技术的开源工具,来尝试计算其他架构、更简单语言模型上神经元的行为并对其进行评分,而且可以将其应用于另一种语言模型中的神经元——本次选择4年前发布、包含307200个神经元的大模型GPT-2为实验样本,公开了这些GPT-2神经元解释和分数的数据集。
Web3浏览器Opera正式上线AI浏览器Opera One:6月21日消息,Web3浏览器Opera宣布AI浏览器Opera One结束测试并正式上线,目前支持 Windows、macOS和Linux操作系统。Opera One是一款配备集成人工智能服务Aria的浏览器,Aria于五月推出,基于Opera的Composer基础架构并可连接到OpenAI的GPT。[2023/6/21 21:51:36]
“我们的目标是使用Al来帮助我们理解Al”,OpenAI的这一研究对AI行业意味着,利用GPT-4和机器学习技术就能定义、测量AI可解释性,未来在神经元层将会产生“大模型比人脑更会思考”技术趋势。
OpenAI联合创始人GregBrockman则表示:我们迈出了使用AI进行自动化对齐研究的重要一步。
GitHub将OpenAI聊天功能添加到编码工具中:金色财经报道,微软旗下代码托管平台GitHub使用OpenAI的语言生成工具创建了首批被广泛部署的程序之一,该应用程序名为Copilot,它帮助软件开发人员编写计算机代码。现在GitHub正在为该应用增加聊天和语音功能,让程序员可以询问如何完成特定的编码任务。周三公布的新版本被称为Copilot X,GitHub CEO表示,(新加的)聊天窗口可以解释代码段的用途,创建测试代码的方法,并提出错误修复建议。开发人员还可以用他们的声音给出指令或提出问题。他还表示,开发人员可以注册一个等待列表来预览新服务。他希望该软件可以用于教育。(金十)[2023/3/22 13:20:07]
与此同时,OpenAI对此依然是一如既往的谦虚,文章称目前GPT-4生成的可解释实验还不完美,当比GPT-2更大模型时解释表现效果很差。OpenAI可拓展对齐团队的JeffWu直言,本次研究中大多数解释的得分很低,GPT-4或无法解释实际神经元那么多的行为,未来仍有技术改进空间。
Azuki碎片化项目Bobu完成铸造发行,现已上线OpenSea:3月7日消息,Azuki碎片化项目Bobu, theBean Farmer以0.01ETH的价格完成铸造发行,现已上线OpenSea,成交额454ETH。Bobu,the Bean Farmer是由Azuki社区主导的NFT碎片化试验性项目,目的是将更多人带入Azuki社区。项目将Azuki#40分为5万个碎片,此次铸造释放2万个,每个BODUToken代表一份碎片。为保证足够去中心化,铸造时每个地址仅限铸造一枚BODUToken。[2022/3/7 13:42:46]
Opensea以133亿美元投后估值完成3亿美元融资,Paradigm和Coatue领投:金色财经报道,Opensea宣布以133亿美元的投后估值完成3亿美元的C轮融资,由Paradigm和Coatue领投。据悉,该笔资金的主要用途包括加速产品开发、显著改善客户支持和客户安全、对更广泛的NFT和Web3社区进行有意义的投资,以及发展团队。
同时,Opensea还宣布Meta前商务副总裁Shiva Rajaraman现已担任该公司产品副总裁。该公司将继续专注于通过引入抽象出区块链复杂性的功能和简化流程来降低NFT的进入门槛,以帮助人们使用更好的工具、分析和演示来发现、管理和展示他们的NFT。此前报道,Opensea在去年7月完成的B轮融资中,估值为15亿美元。(coindesk)[2022/1/5 8:26:25]
据悉,自去年11月底至今,人工智能聊天机器人大模型ChatGPT风靡全球。根据Similarweb公布的最新数据,截至今年4月,ChatGPT平台访问量达到17.6亿次,比3月份增长了12.6%,同时已达到谷歌的2%。
雅虎通过子公司Zcooperation对BitARG加密货币交易所进行资本参与:Yahoo股份公司的全资子公司Zcooperation,今天对BitARG加密货币交易所进行资本参加,取得了40%股份。股份由BitARG的母公司以及BitARG的股东现金增资,目前Zcooperation已经成为BitARG法定持股公司。[2018/4/13]
ChatGPT背后的大型语言模型,是基于大量文本数据训练、包含数千亿参数的语言模型。在大数据时代,这类AI机器学习模型可以在提升产品销售、辅助人类决策过程中能够起到很大的作用,但是计算机通常不会解释它们的预测结果,而语言模型想要变得更强大,部署更广泛,就需要研究可解释性,因为人类对模型内部工作原理的理解仍然非常有限,例如可能很难从中检测到有偏见、性内容输出。
站在OpenAI的角度看,大模型未来将和人脑一样拥有“神经元”,这些神经元会观察文本中的特定规律,进而影响到模型本身生产的文本。所以可解释性就是将模型能用通俗易懂的语言进行表达,把模型的预测过程转化成具备逻辑关系的规则的能力,从而通过查看模型内部来发现更多信息。
例如,如果有一个针对“漫威超级英雄”的神经元,当用户向模型提问“哪个超级英雄的能力最强”时,这个神经元就会提高模型在回答中说出漫威英雄的概率,或者是弄清楚为什么人类神经元,可以决定进行某些搜索引擎查询或访问特定网站,即逐步转化一种有数据可解释性的“无监督学习”模式。
OpenAI这次使用GPT-4来解决可解释性的问题,就是希望能够使用自动化的方式,让机器提高AI数据准确性,文章称这是其对齐研究的第三支柱的一部分。据悉,“第三支柱”是公司2022年发布的《我们做对齐研究的方法》,具体对齐研究将由三大支柱支撑:利用人工反馈训练AI;训练AI系统协助人类评估;训练AI系统进行对齐研究。
具体到本次研究成果上,OpenAI开发了一套包含自动化工具和测试方法的评估流程:
首先,研究人员让GPT-2运行文本序列,等待某个特定神经元被频繁“激活”;
然后让GPT-4针对一段文本生成解释,例如通过GPT-4接收到文本和激活情况判断漫威是否与电影、角色和娱乐有关;
随后用GPT-4模拟GPT-2的神经元接下来会做什么,预测行为;
最后评估打分,对比GPT-4模拟神经元和GPT-2真实神经元的结果的准确度,在下图这个例子中,GPT-4的得分为0.34。
使用上述评分方法,OpenAI开始衡量他们的技术对网络不同部分的效果,并尝试针对目前解释不清楚的部分改进技术。OpenAI表示,他们正在将GPT-4编写的对GPT-2中的所有307,200个神经元的解释的数据集和可视化工具开源,同时还提供了OpenAIAPI公开可用的模型进行解释和评分的代码,从而希望学术界能开发出新的技术来提升GPT模型解释分数。
OpenAI还发现,有超过1000个神经元的解释得分至少为0.8分,这意味着GPT-4模型可以解释大部分人类神经元,同时目前GPT理解的概念似乎和人类不太一样。该团队称,希望随着技术和研究方法的改进,进一步提高AI模型可解释性能力:如通过迭代解释,可以让GPT-4想出可能的反例在根据激活情况修改解释;使用更大的模型作出解释;以及调整已解释模型结构等,用不同的激活函数训练模型有助于提高解释评分。
对于本研究局限性,OpenAI表示,目前GPT-4生成的解释还不完美,尤其要解释比GPT-2更大的模型时,表现效果很差;神经元复杂行为无法用简短的自然语言描述;OpenAI解释了神经元的这种行为,却没有试图解释产生这种行为的机制;而且整个过程算力消耗极大等。OpenAI希望在未来的工作中可以解决上述这些问题。
最终,OpenAI希望使用模型来形成、测试和迭代完全一般的假设,从而比肩人类大脑的想法和行为,以及将其大模型解释为一种在部署前后检测对齐和安全问题的方法。然而在这之前,OpenAI还有很长的路要走。
“我们希望这将开辟一条有前途的途径。”JeffWu表示,这一技术可以让其他人可以在此基础上构建并做出贡献的自动化方案,从而解决AI模型可解释性问题,很好地解释这些模型行为,比如AI如何影响人类大脑中的神经元等。
郑重声明: 本文版权归原作者所有, 转载文章仅为传播更多信息之目的, 如作者信息标记有误, 请第一时间联系我们修改或删除, 多谢。