淘优惠

淘优惠

chatgpt是否会取代google搜寻引擎 谷歌神秘ai改代码

热门文章 0
chatgpt,chatgpt是什么意思,chatgpt国内能用吗,chatgpt哪里下载

2022年,生成式AI在人工智能领域掀起一阵浪潮,并随着ChatGPT的火爆出圈奠定了下一代AI产业变革的不二地位。

随之,ChatGPT背后的美国公司 OpenAI 也走进越来越多非 AI 从业人士的视野里,以其近年来层出不穷的 AI 基础性突破和独特的组织结构(一家与微软等巨头联动、同时又号称自己为非营利性组织的公司)占领了生成式 AI 的创新高地。

作为一款基于人工智能技术的互联网产品,ChatGPT初具通用人工智能(AGI)的雏形,其受众范围与用户数超乎想象。一个直接的数据统计对比可以佐证一款智能交互产品的市场影响力:ChatGPT发布5天就达到了Facebook用10个月达到的用户里程碑――超100万玩家;3个月就达到推特用9个月创下的纪录――1亿用户。

ChatGPT的火热,很快让行业人士意识到:它的成功,已经不仅是AIGC或生成式AI所能囊括的范畴。它是一个智能聊天产品,但体验感超越以往包括Alexa、小冰、Siri在内的所有智能对话产品;它是一个问答智慧囊,但所给予的回答显现了上知天文、下知地理的手眼通天能力;它是一个被编程的系统,一个没有生命的机器,却能通过各项人类测试获得高分,帮助人类解决深奥的技术问题。

此前在AIGC刚火热时,AI科技评论报道《

AIGC,造成一个新的赛道来

》,剖析了一个事实:AIGC的功能集成,是多项技术的卓越链接成果。原计划随后推出AIGC创业难的行业剖析,但ChatGPT的出现给我们打了个猝不及防,让小编深感:AI作画或AI写作,根本不足以概括人工智能大佬们的技术野心。

知识曾被视为人与人在社会等级中划分不同位置的标准之一。过去,AI识别是凡视力正常人类皆可履行的“性能”,并不出奇;但ChatGPT的出现,则在AI生成的基础上,则展示了其履行经过十六年寒窗苦读、仅在社会中占少数的高知分子的智识潜力。

一位 AI 博士生就向AI科技评论讲述了其被ChatGPT“教育”的过程:作为一个曾获百度与微软学者的优秀博士生,他曾遇到一个程序上的难题,苦思多日无果,然后向ChatGPT提交了问题。然后,ChatGPT仅用几秒就解决了他的技术问题,让他大跌眼镜。

在我们的观察中,ChatGPT最大的昭示,并非传统技术研究的基础性创新,而是交互模式的突破――基于GPT技术积累,ChatGPT巧妙地通过低门槛的对话形式,用通俗易懂的形式(如检索、写作、编程)向非技术用户展现了人工智能的强大:工具性的智力超越。而当其体现工具性的类人化,其带来的影响必然也包括社会组织形式的变化。

在福布斯对OpenAI首席执行官(CEO)Sam Altman的最新访谈中,Sam Altman也粗浅地谈到了这一点。当 AI 的技术成熟,非技术进步的部分,如产品设计、项目运营、商业模式等等,能否跟上?ChatGPT的出现,或许是一个启示,但如果人们不注意到落地最后一公里的急迫性,那么这个启示也将湮灭在时代前进的洪流中。

Q1:随着ChatGPT的流行,资本渴望从中获利的热情高涨,OpenAI与微软的合作也受到广泛关注,让人感觉 AI 的发展似乎来到了一个历史性的拐点。在你看来,OpenAI 现在发展到什么阶段了?你如何看到这样的拐点?

Sam Altman:现在确实是一个激动人心的时刻,但我认为距离拐点还为时尚早。ChatGPT的出现,更多是验证了技术进步能为社会带来持续积极的影响――这个意义,同样也可以用于肯定GPT-3与DALL・E的发布。另一方面,也许我们过段时间又会否定自己,因为我们可能会遇到我们先前没有预料到的绊脚石。但坦诚说,我认为我们真的有可能在ChatGPT中发现重大机遇,让我们走得更远。

Q2:ChatGPT的影响力有出乎你的意料吗?

Sam Altman:我想推ChatGPT就是因为我认为它会有意义,但我还是被它所产生的影响力规模所震惊到了。希望人们真的会喜欢它。

Q3:之前你说过,人们可能会被ChatGPT的运行方式所惊讶到。在你看来,ChatGPT有哪些被误解的地方?

Sam Altman:值得一提的是,ChatGPT在发布之前已经在API中封存了大约10个月的时间。我比较惊讶的是,在ChatGPT中,你只要对模型进行微调,就能使模型变得有用;并且,一旦你找到正确的交互方式,你就能很快上手。换言之,并非是技术的基础突破让ChatGPT火了起来,而是其他方面的改进(如交互方式)让它出圈。但我们这么说的时候,很多人并不相信,而是固执地认为ChatGPT就是GPT-4。

Q4:在你看来,ChatGPT真的会形成一个新生态吗?除了OpenAI,还有哪些重要的公司参与其中?

Sam Altman:是的。我认为对一家公司来说,ChatGPT太大了。另外,我也认为,世界上应该有很多个通用人工智能(AGI)存在。

Q5:你认为ChatGPT会取代传统的搜索引擎吗?比如谷歌搜索。

Sam Altman:我认为ChatGPT不会,但未来的人工智能系统可能会。如果你只关注昨天的新闻,那么你很可能错失新的机会。我更感兴趣的是思考搜索以外的新应用。这些新的应用,不一定要等到 AGI 的出现;相反,我认为这样的局面(新的AI应用爆炸)很快就会发生。

Q6:我们现在已经快要实现AGI了吗?我们怎么判断某个版本的GPT是不是AGI?

Sam Altman:我不认为我们非常接近AGI了。但如何判断一个模型是否已经是AGI,确实是我最近一直在思考的问题。以我过去五年探索AGI的经验来看,我能确认的一个行业共识是:不会有一个十分清晰的事件节点标志AGI的正式诞生。相反,AGI的实现将是一个更加循序渐进的过程,也就是人们所说的“缓慢起飞”。

Q7:除了OpenAI的发展需要,AGI是你的个人兴趣所在吗?

Sam Altman:是的,AGI是我从事人工智能研究的所有热情与动力所在。此外,还有一个目标就是建立更丰富的世界。比如,我认为能量(energy)也是很重要的,能量对实现 AGI 也非常重要。

Q8:Greg Brockman(OpenAI总裁)曾说过,OpenAI专注研究,但并不反资本。你如何平衡OpenAI的远大目标发展与回报投资人的营利需求?

Sam Altman:首先我要说,我认为资本主义很了不起,我爱资本主义。在世界上所有糟糕的系统中,资本主义是我们迄今为止发现的最好的系统。但我也希望我们能找到更好的系统,而且我认为,如果AGI真的能充分实现,我完全能想象它会如何粉碎资本主义。

据我所知,OpenAI的组织架构形式是不同于目前任何一家公司的组织架构形式的。这是因为我们真的相信我们正在做的事情。如果我们只是认为OpenAI会成为一家新的科技公司,那么我会说:“很好,我已经了解其中的玩法,因为我的整个职业生涯都在做这件事。让我们一起打造一家真正伟大的公司吧!”但是,如果我们真的能实现AGI,AGI又真的能粉碎资本主义,那么我们就需要不同的公司结构。在这一点上,我们的团队与投资者都做得非常好。

不过,我也认为任何一家公司都不应该拥有一个人工智能宇宙。AGI的利益如何共享,访问权限如何共享,以及治理权如何分配,这是我们需要重新思考的三个问题。

Q9:Greg曾谈到未来第三方API与第一方产品(也许是企业工具)协同的想法。在将 AI 产品化的过程中,你认为应该如何保持OpenAI的开放精神?

Sam Altman:我认为最重要的是推出像 ChatGPT 一样的开放性工具。谷歌就没有将他们的AI产品与技术开放给大众使用,其他实验室也不会这样做。有些人会担心 AI 目前还不安全。但我认为,我们应该让社会感觉到 AI 的力量,学会与 AI 博弈,掌握其优点与缺点。所以我觉得最重要的事应该是将 AI 开放给大众,这样他们才会知道未来会发生什么。比如,OpenAI在走向开放的过程中,让我最自豪的一件事就是在 AGI 上良好无害地运行 Overton Window(一个能帮助理解什么政策在特定时间能为大众广泛接受的 AI 模型)。

此外,我们也想提供更强大的 API,因为我们能够让它们变得更安全。我们会坚持开源,就像我们开源 CLIP(OpenAI在2021年发布的视觉-语言神经网络)。开源是近日图像生成能够大火的根源。最近,我们还开源了自动语音识别模型 Whisper 和编程语言模型 Triton。

Q10:有人担心你会跟微软与微软的CEO萨特亚利益捆绑太紧,对此你有什么回应?

Sam Altman:我会说,我们在很小心谨慎地履行我们与他们之前签订的合同,并确保我们能顺利完成我们的使命。此外,萨特亚和微软也很强。我认为他们是迄今为止最符合我们价值观的科技公司。每次我们去找他们说:“嘿,我们要做一件你可能会讨厌的奇怪的事情,可能会影响你们的回报收入或超乎合同范围。”他们的回复都是:“这件事太了不起了!”

所以我的感受是,OpenAI对整体使命的追求不太会受到营利方面的压力。这一点你可以跟任何人求证。了解我的人都知道,如果我不想忍受一件事,我是不会委屈自己去忍受的。如果我不能忍受微软,我就不会跟他们建立合作伙伴的关系。

当然,我们也不是无欲无求的出家人。我们希望让人们成功,然后在他们成功的基础上获得回报。如果AGI真的能带来巨大的影响,我们希望这种回报的形式也是创新的。我们也希望跟社会分享这些财富。

Q11:目前为止,你见到用户使用GPT做过的最酷的事情是什么?另外,最让你害怕的事情又是什么?

Sam Altman:很难说哪件事最酷。大家用GPT做各种各样的事情,就已经让人很震撼。但我可以说一件让我觉得对个人用户最有帮助的用处,就是文本概括与总结。文本概括所耗的时间与精力都是巨大的,而仅仅用GPT来总结一篇长文章或长邮件的要点,对我的帮助就已经超乎想象。另外,GPT能够提出深奥的编程问题,让我觉得我好像拥有了一个超级程序员可以自由对谈,这也让我觉得很好。

至于让我害怕的事情,我一直在关注有人也许会用开源的图像生成器来生成暴力色情内容,我认为这种用户会带来巨大的、可预见的伤害。

Q12:你认为提供这些 AI 工具的公司是否有责任确保此类事情不会发生?亦或者,这是人性中无法避免的一面?

Sam Altman:我觉得两者都有。模型的开源是一个不可抑制的趋势,而且大部分的技术开源也是积极的,但总会有一些不好的事情发生。生产这些 AI 工具的公司,与那些最终跟用户有联系的公司,都需要承担一些责任。

参考链接

https://www.forbes.com/sites/alexkonrad/2023/02/03/exclusive-openai-sam-altman-chatgpt-agi-google-search/?sh=713f1a666a63


chatgpt最强大的功能是什么 chatgpt底层逻辑

chatgpt是什么意思,chatgpt国内能用吗,chatgpt概念股,chatgpt原理

自 ChatGPT 发布以来,已经吸引了无数人一探究竟。但 ChatGPT 实际上是如何工作的?尽管它内部实现的细节尚未公布,我们却可以从最近的研究中一窥它的基本原理。

ChatGPT 是 OpenAI 发布的最新语言模型,比其前身 GPT-3 有显著提升。与许多大型语言模型类似,ChatGPT 能以不同样式、不同目的生成文本,并且在准确度、叙述细节和上下文连贯性上具有更优的表现。它代表了 OpenAI 最新一代的大型语言模型,并且在设计上非常注重交互性。

OpenAI 使用监督学习和强化学习的组合来调优 ChatGPT,其中的强化学习组件使 ChatGPT 独一无二。OpenAI 使用了「人类反馈强化学习」(RLHF)的训练方法,该方法在训练中使用人类反馈,以最小化无益、失真或偏见的输出。

本文将剖析 GPT-3 的局限性及其从训练过程中产生的原因,同时将解释 RLHF 的原理和理解 ChatGPT 如何使用 RLHF 来克服 GPT-3 存在的问题,最后将探讨这种方法的局限性。

大型语言模型中的能力与一致性

「一致性 vs 能力」可以被认为是「准确性 vs 精确性」的更抽象的类比。

在机器学习中,模型的能力是指模型执行特定任务或一组任务的能力。模型的能力通常通过它能够优化其目标函数的程度来评估。例如,用来预测股票市场价格的模型可能有一个衡量模型预测准确性的目标函数。如果该模型能够准确预测股票价格随时间的变化,则认为该模型具有很高的执行能力。

一致性关注的是实际希望模型做什么,而不是它被训练做什么。它提出的问题是「目标函数是否符合预期」,根据的是模型目标和行为在多大程度上符合人类的期望。假设要训练一个鸟类分类器,将鸟分类为「麻雀」或「知更鸟」,使用对数损失作为训练目标,而最终目标是很高的分类精度。该模型可能具有较低的对数损失,即该模型的能力较强,但在测试集上的精度较差,这就是一个不一致的例子,模型能够优化训练目标,但与最终目标不一致。

原始的 GPT-3 就是非一致模型。类似 GPT-3 的大型语言模型都是基于来自互联网的大量文本数据进行训练,能够生成类似人类的文本,但它们可能并不总是产生符合人类期望的输出。事实上,它们的目标函数是词序列上的概率分布,用来预测序列中的下一个单词是什么。

但在实际应用中,这些模型的目的是执行某种形式的有价值的认知工作,并且这些模型的训练方式与期望使用它们的方式之间存在明显的差异。尽管从数学上讲,机器计算词序列的统计分布可能是建模语言的高效选择,但人类其实是通过选择最适合给定情境的文本序列来生成语言,并使用已知的背景知识和常识来辅助这一过程。当语言模型用于需要高度信任或可靠性的应用程序(如对话系统或智能个人助理)时,这可能是一个问题。

尽管这些基于大量数据训练的大模型在过去几年中变得极为强大,但当用于实际以帮助人们生活更轻松时,它们往往无法发挥潜力。大型语言模型中的一致性问题通常表现为:

提供无效帮助:没有遵循用户的明确指示。

内容胡编乱造:虚构不存在或错误事实的模型。

缺乏可解释性:人们很难理解模型是如何得出特定决策或预测的。

内容偏见有害:一个基于有偏见、有害数据训练的语言模型可能会在其输出中出现这种情况,即使它没有明确指示这样做。

但具体来说,一致性问题源自何处?语言模型的训练方式本身就容易产生不一致吗?

语言模型训练策略如何产生不一致?

Next-token-prediction 和 masked-language-modeling 是用于训练语言模型的核心技术。在第一种方法中,模型被给定一个词序列作为输入,并被要求预测序列中的下一个词。如果为模型提供输入句子:

“The cat sat on the”

它可能会将下一个单词预测为「mat」、「chair」或「floor」,因为在前面的上下文中,这些单词出现的概率很高;语言模型实际上能够评估给定先前序列的每个可能词的可能性。

masked-language-modeling 方法是 Next-token-prediction 的变体,其中输入句子中的一些词被替换为特殊 token,例如 [MASK]。然后,模型被要求预测应该插入到 mask 位置的正确的词。如果给模型一个句子:

“The [MASK] sat on the ”

?它可能会预测 MASK 位置应该填的词是「cat」、「dog」。

这些目标函数的优点之一是,它允许模型学习语言的统计结构,例如常见的词序列和词使用模式。这通常有助于模型生成更自然、更流畅的文本,并且是每个语言模型预训练阶段的重要步骤。

然而这些目标函数也可能导致问题,这主要是因为模型无法区分重要错误和不重要错误。一个非常简单的例子是,如果给模型输入句子:

"The Roman Empire [MASK] with the reign of Augustus."?

它可能会预测 MASK 位置应该填入「began」或「ended」,因为这两个词的出现概率都很高。

一般来说,这些训练策略可能会导致语言模型在一些更复杂的任务中出现不一致,因为一个仅被训练来预测文本序列中的下一个词的模型可能不一定会学习其含义的某些更高级表征。因此,该模型很难推广到需要对语言更深入理解的任务。

研究人员正研究各种方法来解决大型语言模型中的一致性问题。ChatGPT 基于最初的 GPT-3 模型,但为了解决模型的不一致问题,使用了人类反馈来指导学习过程,对其进行了进一步训练。所使用的具体技术就是前面提到的 RLHF。ChatGPT 是第一个将此技术用于实际场景的模型。

那 ChatGPT 是如何利用人类反馈来解决一致性问题的呢?

从人类反馈中进行强化学习

方法总体上包括三个不同步骤:

有监督的调优:预训练的语言模型在少量已标注的数据上进行调优,以学习从给定的 prompt 列表生成输出的有监督的策略(即 SFT 模型);

模拟人类偏好:标注者们对相对大量的 SFT 模型输出进行投票,这就创建了一个由比较数据组成的新数据集。在此数据集上训练新模型,被称为训练回报模型(Reward Model,RM);

近端策略优化(PPO):RM 模型用于进一步调优和改进 SFT 模型,PPO 输出结果是的策略模式。

步骤 1 只进行一次,而步骤 2 和步骤 3 可以持续重复进行:在当前最佳策略模型上收集更多的比较数据,用于训练新的 RM 模型,然后训练新的策略。接下来,将对每一步的细节进行详述。

步骤 1:监督调优模型

? ? ?第一步是收集数据,以训练有监督的策略模型。

数据收集:选择一个提示列表,标注人员按要求写下预期的输出。对于 ChatGPT,使用了两种不同的 prompt 来源:一些是直接使用标注人员或研究人员准备的,另一些是从 OpenAI 的 API 请求(即从 GPT-3 用户那里)获取的。虽然整个过程缓慢且昂贵,但最终得到的结果是一个相对较小、高质量的数据集(大概有 12-15k 个数据点),可用于调优预训练的语言模型。

模型选择:ChatGPT 的开发人员选择了 GPT-3.5 系列中的预训练模型,而不是对原始 GPT-3 模型进行调优。使用的基线模型是最新版的 text-davinci-003(通过对程序代码调优的 GPT-3 模型)。

为了创建像 ChatGPT 这样的通用聊天机器人,开发人员是在「代码模型」而不是纯文本模型之上进行调优。

由于此步骤的数据量有限,该过程获得的 SFT 模型可能会输出仍然并非用户关注的文本,并且通常会出现不一致问题。这里的问题是监督学习步骤具有高可扩展性成本。

为了克服这个问题,使用的策略是让人工标注者对 SFT 模型的不同输出进行排序以创建 RM 模型,而不是让人工标注者创建一个更大的精选数据集。

第二步:训练回报模型

这一步的目标是直接从数据中学习目标函数。该函数的目的是为 SFT 模型输出进行打分,这代表这些输出对于人类来说可取程度有多大。这强有力地反映了选定的人类标注者的具体偏好以及他们同意遵循的共同准则。最后,这个过程将从数据中得到模仿人类偏好的系统。

它的工作原理是:

选择 prompt 列表,SFT 模型为每个 prompt 生成多个输出(4 到 9 之间的任意值);

标注者将输出从最佳到最差排序。结果是一个新的标签数据集,该数据集的大小大约是用于 SFT 模型的精确数据集的 10 倍;

此新数据用于训练 RM 模型 。该模型将 SFT 模型输出作为输入,并按优先顺序对它们进行排序。

对于标注者来说,对输出进行排序比从头开始打标要容易得多,这一过程可以更有效地扩展。在实践中,所选择的 prompt 的数量大约为 30-40k,并且包括排序输出的不同组合。

步骤 3:使用 PPO 模型微调 SFT 模型

这一步里强化学习被应用于通过优化 RM 模型来调优 SFT 模型。所使用的特定算法称为近端策略优化(PPO),而调优模型称为近段策略优化模型。

什么是 PPO?该算法的主要特点如下:

PPO 是一种用于在强化学习中训练 agent 的算法。它被称为「on-policy」算法,因为它直接学习和更新当前策略,而不是像 DQN 的「off-policy」算法那样从过去的经验中学习。PPO 根据 agent 所采取的行动和所获得的回报不断调整策略;

PPO 使用「信任区域优化」方法来训练策略,它将策略的更改范围限制在与先前策略的一定程度内以保证稳定性。这与其它策略使用梯度方法形成鲜明对比,梯度方法有时会对策略进行大规模更新,从而破坏策略的稳定性;

PPO 使用价值函数来估计给定状态或动作的预期回报。价值函数用于计算优势函数,它代表预期收益和当前收益之间的差异。然后使用优势函数通过比较当前策略采取的操作与先前策略将采取的操作来更新策略。这使 PPO 可以根据所采取行动的估计价值对策略进行更明智的更新。

在这一步中,PPO 模型由 SFT 模型初始化,价值函数由 RM 模型初始化。该环境是一个「bandit environment」,它会产生随机 prompt 并期望对 prompt 做出响应。对于给定的 prompt 和响应,它会产生相应的回报(由 RM 模型决定)。SFT 模型会对每个 token 添加 KL 惩罚因子,以尽量避免 RM 模型的过度优化。

性能评估

因为模型是根据人工标注的输入进行训练的,所以评估的核心部分也基于人工输入,即通过让标注者对模型输出的质量评分来进行。为避免训练阶段涉及的标注者的判断过拟合,测试集使用了来自其它 OpenAI 客户的 prompt,这些 prompt 未出现在训练数据中。

该模型基于三个标准进行评估:

帮助性:判断模型遵循用户指示以及推断指示的能力。

真实性:判断模型在封闭领域任务中有产生虚构事实的倾向。

无害性:标注者评估模型的输出是否适当、是否包含歧视性内容。

该模型还针对传统 NLP 任务(如解答问题、阅读理解和摘要)的零样本学习的性能进行了评估,开发人员发现在其中一些任务上模型的表现比 GPT-3 要差一些,这是一个「一致性税」( alignment tax) 的例子,其中基于 人类反馈强化学习的一致性程序是以降低某些任务的性能为代价的。

这些数据集的性能回归可以通过称为预训练混合的技巧大大减少:在通过梯度下降训练 PPO 模型期间,通过混合 SFT 模型和 PPO 模型的梯度来计算梯度更新。

方法的缺点

该方法的一个非常明显的局限性是,在将语言模型与人类意图保持一致的过程中,用于 fine-tuning 模型的数据会受到各种错综复杂的主观因素的影响,主要包括:

生成 demo 数据的人工标注者的偏好;

设计研究和编写标签说明的研究人员;

选择由开发人员制作或由 OpenAI 客户提供的 prompt;

标注者偏差既包含在 RM 模型训练中,也包含在模型评估中。

ChatGPT 的作者也承认一个明显的事实,即参与训练过程的标注人员和研究人员可能并不能完全代表语言模型的所有潜在最终用户。

除了这一明显的「内生」限制之外,该方法还有的一些其它缺点和需要解决的问题:

缺乏对照研究:报告的结果以 SFT 模型为基准衡量最终 PPO 模型的性能。这可能会产生误导:如何知道这些改进是由于 RLHF?因此对照研究非常有必要,包括投入与用于训练 RM 模型的标注工时数完全相同的时间,以创建具有高质量数据的更大的精选有监督调优的数据集。这样就可以客观地衡量 RLHF 方法与监督方法相比的性能改进。简单来说,缺乏这样的对照研究让一个基本问题完全悬而未决:RLHF 在一致性语言模型方面真的做得很好吗?

比较数据缺乏基本事实:标注者通常会对模型输出的排名持不同意见。技术上讲,产生的风险是在没有任何基本事实的情况下,向比较数据添加了很大的方差。

人类的偏好并非同质:RLHF 方法将人类的偏好视为同质和静态的。假设所有人都有相同的价值观,这明显是不准确的,虽然有大量的公共价值观,但在很多事务上人类还是存在许多不同的认知。

RM 模型 prompt 稳定性测试:没有实验表明 RM 模型在输入 prompt 变化方面的敏感性。如果两个 prompt 在句法上不同但在语义上是等价的,RM 模型能否在模型输出的排名中显示出显著差异?即 prompt 的质量对 RM 有多重要?

其它问题:在 RL 方法中,模型有时可以学会控制自己的 RM 模型以实现期望的结果,从而导致「过度优化的策略」。这可能会导致模型重新创建一些模式,因为某些未知的原因,这些模式使 RM 模型得分较高。ChatGPT 通过使用 RM 函数中的 KL 惩罚项对此进行了修补。

来? 源?| 机器之心Pro


怎样用python调用chatgpt接口 chatgpt使用体验

python调用方法里的方法,调用Python,python 方法调用,python中的调用

最近不知道怎么了,ChatGPT这个人工智能火起来了,朋友们是不是在网上看到各种和ChatGPT相关的有趣聊天的截图对于不熟悉的朋友因为各种原因没办法体验。

这些天我也很想体验体验他有多么神奇,下班后亲自实践了一番,把遇到的注意事项都列出来了,如果朋友们有时间还是很值得一试。

完整打开姿势:“docs.qq.com/doc/DQUx2eEZiWk9hY0Ry”

目前能够使用的几种方式,整理在这里,说说他的优缺点。

1.官方网页上使用

优点:提供了英文教程,比较详细

缺点:要自备梯子

2. 各种浏览器插件支持

优点:支持 Chrome / Firefox /Edge 等浏览器,使用也很简单,用谷歌搜索时会在右侧给出ChatGPT的回答。

缺点:和上面一样也是需要梯子

3.国内二开站

优点:这些是国内研发人员自行通过官方的API进行二次开发的,可以直接访问,效果和官方体验一样。

缺点:网络不稳定,可能哪天就没了。

以上就是目前搜集到的能快速用ChatGPT的方式了,有技术能力的建议第一种,小白建议使用第三种,最为方便快捷,但是今天可以用,明天可能就不能用了。

举报/反馈