GPT:OpenAI官方解读ChatGPT插件:语言模型的“眼睛和耳朵”

根据我们的迭代部署理念,我们正在逐步推出ChatGPT插件,以便我们可以研究它们在现实世界中的使用、影响以及安全和协调方面的挑战——所有这些我们都必须做好,才能实现我们的使命.

自从我们推出ChatGPT以来,用户一直要求插件,因为它们可以解锁大量可能的用例。我们从一小部分用户开始,并计划随着我们了解更多逐步推出更大规模的访问。我们很高兴能够建立一个塑造人机交互范式未来的社区。

被邀请的插件开发人员可以使用我们的文档为ChatGPT构建插件,然后在向语言模型显示的提示中列出已启用的插件以及指导模型如何使用每个插件的文档。第一批插件由Expedia、FiscalNote、Instacart、KAYAK、Klarna、Milo、OpenTable、Shopify、Slack、Speak、Wolfram和Zapier创建。

我们自己也开发了两个插件,一个网络浏览器和代码解释器。我们还开源了知识库检索插件的代码,任何开发人员都可以自行托管他们想要用来增强ChatGPT的信息。

今天,我们将开始将插件alpha访问权限扩展到候补名单中的用户和开发人员。虽然我们最初会优先考虑少数开发人员和ChatGPTPlus用户,但我们计划随着时间的推移推出更大规模的访问。

如何使用ChatGPT插件的示例

概述

今天的语言模型虽然对各种任务有用,但仍然有限。他们可以从中学习的唯一信息是他们的训练数据。此信息可能已过时,并且适用于所有应用程序。此外,语言模型唯一可以开箱即用的就是发出文本。此文本可能包含有用的说明,但要真正遵循这些说明,需要另一个过程。

Scopescan:CyberConnect已于链上部署CYBER合约:8月1日消息,据Scopescan监测显示,Web3社交图谱协议CyberConnect已于3小时前在链上部署CYBER合约,合约地址为0x14778860E937f509e651192a90589dE711Fb88a9,目前尚未进行转账。[2023/8/1 16:11:36]

虽然不是一个完美的类比,但插件可以成为语言模型的“眼睛和耳朵”,使它们能够访问太新、太私人或太具体而无法包含在训练数据中的信息。为了响应用户的明确请求,插件还可以使语言模型代表他们执行安全、受限的操作,从而提高整个系统的实用性。

我们预计开放标准将会出现,以统一应用程序接入AI界面的方式。我们正在对这样一个标准的外观进行早期尝试,我们正在寻找有兴趣与我们一起构建的开发人员的反馈。

今天,我们开始逐步为ChatGPT用户启用早期合作者的现有插件,首先是ChatGPTPlus订阅者。我们还开始推出开发人员为ChatGPT创建自己的插件的能力。

在接下来的几个月里,随着我们从部署中学习并继续改进我们的安全系统,我们将迭代这个协议,我们计划让使用OpenAI模型的开发人员能够将插件集成到他们自己的应用程序中,而不是ChatGPT。

安全性和更广泛的影响

将语言模型连接到外部工具会带来新的机会,同时也会带来重大的新风险。

插件提供了解决与大型语言模型相关的各种挑战的潜力,包括“幻觉”,跟上最近的事件,以及访问专有信息源。通过集成对外部数据的显式访问——例如在线最新信息、基于代码的计算或自定义插件检索信息——语言模型可以通过基于证据的参考来加强它们的响应。

OpenSea Pro上线“收益列表”功能:金色财经报道,NFT市场OpenSea Pro(原Gem)在社交媒体宣布已正式上线“收益列表”功能,用户可以通过在在NFT上架过程中切换“收益”来控制收益计算,OpenSea Pro平台会自动计算费用并根据用户想要的收益设置标价。据悉,OpenSea Pro的竞争对手Blur已有类似功能,允许用户根据所需的收益(并考虑每个平台的不同费用)在各个市场上创建不同的列表价格。[2023/6/3 11:56:01]

这些参考资料不仅增强了模型的实用性,还使用户能够评估模型输出的可信度并仔细检查其准确性,从而有可能减轻与我们最近的GPT-4系统卡片中讨论的过度依赖相关的风险。最后,插件的价值可能远远超出通过帮助用户处理各种新用例的现有限制。

与此同时,插件可能会采取有害或无意的行动,增加不法分子欺诈、误导或虐待他人的能力,从而增加安全挑战。通过增加可能的应用范围,插件可能会增加因模型在新领域中采取的错误或错误协调操作而产生负面后果的风险。从第一天起,这些因素就指导了我们插件平台的开发,我们实施了多项保障措施。

从第一天起,这些因素就指导了我们插件平台的开发,我们实施了多项保障措施。

我们已经在内部和与外部合作者进行了红队演练,揭示了许多可能的相关场景。例如,我们的红队发现了插件的方法——如果在没有安全措施的情况下发布——执行复杂的提示注入、发送欺诈和垃圾邮件、绕过安全限制或滥用发送到插件的信息。我们正在使用这些发现来通知安全设计缓解措施,这些缓解措施限制了有风险的插件行为,并提高了它们作为用户体验的一部分运行的方式和时间的透明度。我们还使用这些发现来告知我们逐步部署对插件的访问的决定。

LooksRare:OpenSea在Moonbirds交易中通过高收费获利150万美元:金色财经报道,4 月 17 日,NFT市场LooksRare在其社交媒体账户上指责OpenSea在“像素猫头鹰” NFT项目Moonbirds交易中收费过高。此前Moonbirds公开铸造的7875枚NFT中已全部售罄,并在过去24小时内创造了超过1.1亿美元的交易额。LooksRare指出,Moonbirds交易量已经达到2万枚ETH,这意味着OpenSea获得了高达150万美元的费用收入,如果相同的交易量发生在LooksRare上,不仅可以帮助卖家节省30万美元,而且卖家和买家还能赚取价值70万美元的LOOKS Token。[2022/4/17 14:29:53]

如果你是一名研究人员,有兴趣研究该领域的安全风险或缓解措施,我们鼓励你使用我们的研究人员访问计划。我们还邀请开发人员和研究人员提交与插件相关的安全和功能评估,作为我们最近开源的Evals框架的一部分。

插件可能会产生广泛的社会影响。例如,我们最近发布了一份工作论文,其中发现能够使用工具的语言模型可能比没有工具的语言模型产生更大的经济影响,更普遍地说,根据其他研究人员的发现,我们预计当前的人工智能技术浪潮将对工作转变、替代和创造的速度有很大影响。我们渴望与外部研究人员和我们的客户合作研究这些影响。

浏览Alpha

一个知道何时以及如何浏览互联网的实验模型

受过去工作的启发,允许语言模型从互联网上读取信息严格扩展了他们可以讨论的内容量,超越了训练语料库的新鲜信息。

这是向ChatGPT用户开放浏览体验的一个例子,以前会让模型礼貌地指出它的训练数据没有包含足够的信息来让它回答。在这个示例中,ChatGPT检索有关最新奥斯卡颁奖典礼的最新信息,然后执行现在熟悉的ChatGPT操作,这是浏览可以成为一种附加体验的一种方式。

价值220万美元的被盗BAYC被NFT市场OpenSea“冻结”:金色财经报道,NFT收藏家Todd Kramer今天宣布,他收藏的价值220万美元的Bored Ape Yacht Club NFT被“黑客入侵”,NFT市场OpenSea已经为他“冻结”了这些资产。该收藏家在纽约经营Ross+Kramer艺术画廊。Kramer在推特上说,他点击了一个链接,该链接看起来是一个真的NFT dapp。但结果证明这是一次网络钓鱼攻击,导致他的16个NFT被盗,包括1 个 Clonex、7 个 Mutant Ape Yacht Club 和 8 个 Bored Ape Yacht Club NFT 。目前价值约 615 ETH(228 万美元)被盗,现在无法在 OpenSea 上交易。[2021/12/31 8:15:50]

ChatGPT浏览插件演示

除了为最终用户提供明显的实用性之外,我们认为使语言和聊天模型能够进行彻底和可解释的研究具有可扩展对齐的令人兴奋的前景。

浏览最新信息

安全考虑

我们已经创建了一个网络浏览插件,它可以让语言模型访问网络浏览器,其设计将安全性和作为网络良好公民的操作放在首位。该插件的基于文本的Web浏览器仅限于发出GET请求,这减少某些类别的安全风险。这将浏览插件的范围限定为可用于检索信息,但不包括“事务性”操作,例如表单提交,这些操作具有更大的安全性和安全性问题。

FTX:计划一个月内推出NFT市场,与OpenSea竞争:金色财经报道,加密衍生品交易所 FTX 的首席执行官 Sam Bankman-Fried在接受彭博社采访时透露,该交易所正计划推出自己的NFT市场,旨在与市场领导者 OpenSea 展开竞争。FTX.US 总裁布雷特哈里森已经告知彭博社,FTX目前处于较有利的位置,能够在近期推出NFT平台,因为基础设施已经建成,预计会在大约一个月内推出。(coindesk)[2021/9/21 23:39:25]

浏览插件使用bing搜索API从Web检索内容。因此,我们继承了Microsoft在(1)信息来源可靠性和真实性以及(2)防止检索有问题内容的“安全模式”方面的大量工作。该插件在一个独立的服务中运行,因此ChatGPT的浏览活动与我们基础设施的其余部分是分开的。

为了尊重内容创作者并遵守网络规范,我们的浏览器插件的用户代理令牌是ChatGPT-User,并配置为尊重网站的robots.txt文件。这可能偶尔会导致“点击失败”消息,这表明该插件正在遵守网站的指示以避免对其进行抓取。此用户代理将仅用于代表ChatGPT用户采取直接操作,而不用于以任何自动方式抓取网络。我们还发布了IP出口范围。此外,已实施限速措施以避免向网站发送过多流量。

点击失败

您可以使用robots.txt文件阻止ChatGPT抓取你的网站,当发生这种情况时,ChatGPT将显示此错误消息。

我们的浏览插件显示访问过的网站,并在ChatGPT的回复中引用其来源。这种增加的透明度层有助于用户验证模型响应的准确性,并回馈内容创建者。我们赞赏这是一种与网络交互的新方法,并欢迎就其他方法将流量拉回来源并增加生态系统的整体健康状况提供反馈。

代码解释器

一个可以使用Python处理上传和下载的实验性ChatGPT模型

我们为我们的模型提供了一个在沙盒、防火墙执行环境中工作的Python解释器,以及一些临时磁盘空间。由我们的解释器插件运行的代码在一个持久会话中进行评估,该会话在聊天对话期间一直有效,后续调用可以相互构建。我们支持将文件上传到当前对话工作区并下载您的工作结果。

执行逻辑计算的代码解释器插件

我们希望我们的模型能够使用它们的编程技能为我们计算机的最基本功能提供更自然的接口。接触到以指尖的速度工作的非常热心的初级程序员可以使全新的工作流程变得轻松高效,并向新的受众开放编程的好处。

从我们最初的用户研究中,我们确定了使用代码解释器特别有用的用例:

解决定量和定性的数学问题

进行数据分析和可视化

在格式之间转换文件

我们邀请用户尝试代码解释器集成并发现其他有用的任务。

ChatGPT解释器插件演示

安全考虑

将我们的模型连接到编程语言解释器的主要考虑因素是对执行进行适当的沙盒处理,以便AI生成的代码不会在现实世界中产生意外的副作用。我们在安全环境中执行代码,并使用严格的网络控制来防止外部互联网访问执行代码。此外,我们对每个会话都设置了资源限制。禁用互联网访问限制了我们代码沙箱的功能,但我们相信这是正确的初始权衡。第三方插件被设计为将我们的模型连接到外部世界的安全第一方法。

检索

开源检索插件使ChatGPT能够访问个人或组织信息源。它允许用户通过提问或用自然语言表达需求,从他们的数据源中获取最相关的文档片段,例如文件、笔记、电子邮件或公共文档。

作为一个开源和自托管的解决方案,开发人员可以部署他们自己的插件版本并在ChatGPT上注册。该插件利用OpenAI嵌入并允许开发人员选择矢量数据库来索引和搜索文档。信息源可以使用webhooks与数据库同步。

首先,访问检索插件存储库。

ChatGPT检索插件演示

安全考虑

检索插件允许ChatGPT搜索内容矢量数据库,并将最佳结果添加到ChatGPT会话中。这意味着它没有任何外部影响,主要风险是数据授权和隐私。开发人员应该只将他们有权使用的内容添加到他们的检索插件中,并且可以在用户的ChatGPT会话中共享。

第三方插件

一个知道何时以及如何使用插件的实验模型

ChatGPT中的第三方插件

第三方插件由清单文件描述,其中包括插件功能的机器可读描述以及如何调用它们,以及面向用户的文档。

示例:用于管理todo事项的插件的清单文件

创建插件的步骤是:

使用您希望语言模型调用的端点构建API。

创建一个记录您的API的OpenAPI规范,以及一个链接到OpenAPI规范并包含一些特定于插件的元数据的清单文件。

在chat.openai.com上开始对话时,用户可以选择他们想要启用的第三方插件。有关已启用插件的文档作为对话上下文的一部分显示给语言模型,使模型能够根据需要调用适当的插件API来实现用户意图。目前,插件是为调用后端API而设计的,但我们正在探索也可以调用客户端API的插件。

ChatGPT第三方插件演示

ChatGPT插件开发者体验

未来

我们正在努力开发插件并将它们带给更广泛的受众。我们有很多东西要学,在大家的帮助下,我们希望构建一些既有用又安全的东西。

郑重声明: 本文版权归原作者所有, 转载文章仅为传播更多信息之目的, 如作者信息标记有误, 请第一时间联系我们修改或删除, 多谢。

地球链

[0:0ms0-0:501ms