淘优惠

淘优惠

chatgpt注册不可用什么意思 chatgpt登录受限怎么解决

热门文章 0

淘宝搜:【天降红包222】领超级红包,京东搜:【天降红包222】
淘宝互助,淘宝双11微信互助群关注公众号 【淘姐妹】

potato chat注册一直转圈,chat怎么注册账号,ctid无法注册,potato chat账号注册

ChatGPT是由OpenAI开发的一种新的AI驱动的聊天机器人,几乎可以做任何事情。无论是生成代码,还是写论文和诗歌等等。但许多人报告说,ChatGPT在他们的国家不可用。

请记住,关于使用ChatGPT背后的公司Open AI的区域限制已经到位。但是您始终可以使用正确的方法绕过地理封锁。所以,让我们找出来。

ChatGPT 在大多数发达国家都可用,除了少数国家,如俄罗斯、中国、伊朗、埃及,以及令人惊讶的是乌克兰。

ChatGPT可用的国家列表可以在Open AI的官方网站上找到。如果您居住在其中任何一个,ChatGPT 应该立即开放。如果没有,这可能是网络问题的罪魁祸首。

对于那些不居住在提供 ChatGPT 的国家/地区的用户,下一节中列出的方法应该会有所帮助。

您可以随时使用 VPN 绕过区域限制,但有了聊天 GPT,事情现在变得更加棘手。

早些时候,用户可以通过位于聊天机器人可用的国家/地区的服务器访问它,但现在它要求提供电话号码。不幸的是,最糟糕的是,它似乎不接受VoIP(互联网协议语音)号码。

虽然一些用户设法使用有效的VoIP软件和可靠的VPN运行,但如果可能的话,我们仍然会推荐后者以及来自提供聊天GPT的国家/地区的实际电话。

我们对VPN的首选是ExpressVPN,它以其快速的速度和广泛的服务器网络而闻名,使其在流媒体和其他高带宽活动中很受欢迎。它还提供额外的安全功能,例如终止开关和拆分隧道。

获取快速VPN

另一个对许多人有用的修复是将VPN与隐私浏览模式(Chrome中的隐身模式)相结合。

在配置 VPN 和同一地区的号码登录时,请尝试使用位于美国或法国的服务器,同时使用 Chrome 的隐身模式或其他浏览器中的类似模式。

如果您所在的国家/地区支持聊天 GPT,但屏幕仍显示“您所在国家/地区不提供 Open AI 服务”,请联系?OpenAI 的支持团队。

他们应该能够帮助确定根本原因并提供解决方案。在此之前,您可以在您所在的国家/地区使用好友的 Open AI 帐户和聊天 GPT,即使它不可用。只要记住使用VPN。

一旦您设法访问了 AI 驱动的聊天机器人,请提高 PC 上的互联网速度以获得更好的体验。

  • ChatGPT Professional:它是什么以及你为什么需要它?

    ChatGPT 是一个基于 OpenAI 的 GPT-3 构建的人工智能聊天机器人,具有大型问答模型,可帮助它理解和响应人类对话。自试用阶段以来,它一直对用户免费。 但是,OpenAI计划发布ChatGPT Professional的高级版本。继续阅...

原创文章,作者:校长,如若转载,请注明出处:https://www.yundongfang.com/Yun212621.html


chatgpt所引发的人工智能新浪潮 chatgpt在ai上实现了哪些突破

chatgpt,chatgpt国内能用吗,chatgpt账号,chatgpt注册

你最近刷到 ChatGPT 了吗?这究竟是什么,能引起如此大轰动?是真有前景,还是单纯炒作?

别着急,谈 ChatGPT 之前,让我们先 " 老生常谈 ",再回顾一下人类科技史。

18 世纪,蒸汽机的出现让人类从依赖人力延伸到使用机器,开启了人类有史以来最大的技术革命。19 世纪,以电力技术和内燃机的广泛应用为标志,世界进入 " 电气时代 ",极大超越了人的体能边界。20 世纪第三次科技革命,则在原子能、航天、计算机、分子生物学等领域多点开花,取得最显性的成果之一,即:互联网兴起、普及,信息处理能力急速提升 , 实现了对简单脑力劳动的替代。

发现了吗?科技革命是 " 人 " 的延伸,从人力到机器,从体力到脑力,从简单计算到海量计算,从单一领域到全面开花,人类科学技术的发展趋势大抵如此。

第三次科技革命之后,21 世纪以来,我们对下一次全球创新浪潮有过各种猜想,是 AI、能源(可控核聚变)还是量子计算、生物科技?ChatGPT 的出现,让我们猜想,新一轮创新浪潮大概率将首先发生在 AI 领域。

ChatGPT 为什么是划时代之作?

简单来说,ChatGPT 是一个由 OpenAI 开发的一个大型语言模型,通过训练大量文本数据来生成文本,它能够通过学习和理解人类的语言来对话,还能根据聊天的上下文进行互动,像人类一样聊天交流。

更具体来说,它目前的呈现形态是一款聊天机器人,和它对话起来,你会觉得比较顺畅,它上知天文下知地理,文能写广告语、推荐信,理能改 bug、编程序,还具有极强逻辑性,甚至情商还不错。

曾经被 " 人工智障 " 困扰过的人,大概能更加理解,以上功能同时具备有多难得。这一切来自于 ChatGPT 背后算法 + 算力的加持,以海量数据集带来了从量变到质变的升华。这很容易理解:如果能用目前能够收集到的所有文本来训练 AI,理论上,AI 拥有无限学习力,迟早能成为集合从古至今所有人类知识的那样一个存在。

根据国泰君安研报,ChatGPT 用来进行机器学习训练的参数量已经达到了恐怖的 1750 亿,预训练数据量也达到了 45TB。并且这些数字还在增长。

更关键的是,GPT 属于生成式 AI,也就是不仅能 " 复制粘贴 ",还能 " 创作 " 出以前根本不存在的信息。还记得去年火过一阵的 AI 绘画吗?目前来看,生成式 AI 在生成内容的质量、逻辑性和安全性方面都已经有了极大提升,而且能应用在多种领域,包括但不限于文本、图像、代码、视频、3D 建模和游戏。

照此推理,未来,ChatGPT 或完全可能具有作家、画家、音乐家、程序员甚至是律师、翻译和老师的能力。这就是前面说的,从人力到机器,从简单计算到海量计算,从单一领域到全面开花。凡此种种,大抵实在算得上 " 划时代 "。

有哪些投资机会值得关注?

ChatGPT 爆火之前,AI 这个话题已经在投资圈沉寂了一段时间,主因是不够智能、能应用的场景也不够多,落地困难。

那么抛开热点,站在当下,我们更务实一点,落到产业上,ChatGPT 的商业空间究竟怎么样?

我们能看到的是,ChatGPT 已经实现从辅助索引到内容呈现,极大提高了内容创作者阅读和搜集材料的效率,也能为创作者的思考与创作提供灵感。因此,ChatGPT 完全适用于一些重复度强、机械性强的工作,可以直接为创作者服务,也能运用在搜索引擎里。事实是,微软已经在这么干了,不仅 ChatGPT 已经开始收费,还官宣了 Bing 搜索将会集成 ChatGPT。这或是其真正走向应用的重要拐点。

对应到国内,百度正在开发与 ChatGPT 对标的 " 文心一言 ",将在 3 月份完成内测,面向公众开放。360 也发布公告:目前公司的类 ChatGPT 技术的各项指标已实现强于 GPT 2 的水平。另外,集成了海量数据的社区如知乎,也有利于 AIGC 模型的训练和开发,毕竟,在 2 月 8 日微软公布的新版 Bing 搜索,在其中文网页回答的问题中,就有不少答案来自知乎。

延伸一点来看,在搜索引擎之外,如认知智能领域,计算机 ETF(159998)前三大重仓股之一――科大讯飞是国产厂商里拥有独特优势的存在。其多年来始终保持自然语言处理等核心技术处于世界前沿水平,并在去年获得 CommonsenseQA2.0 、OpenBookQA 等 12 项认知智能领域权威评测的第一。更关键的或许是,科大讯飞拥有长期建立起来的核心应用场景:包括教育、数字政府、政法、汽车等等,这些都是从模型走向应用的关键入口,用过讯飞快传这一类产品的朋友,对人工智能的应用场景会有更切身的感受

另外,譬如聊天机器人、办公软件、AIGC 等领域,都可能会是中国的类 ChatGPT 产品率先落地的产业。

客观事实是,作为新生事物,ChatGPT 还存在准确度、专业度和及时度不够的问题,开发和运营成本目前也还比较高。不过可以预见,未来算法迭代和提升后这些问题有望解决,开发 ChatGPT 的 OpenAI 就曾指出 ," 高级人工智能所需的计算能力每三个半月就会翻一番 "。

另一方面,国内厂商的技术也还存在一些差距,例如单颗芯片的算力无法达到欧美水准。不过国内厂商有本土的海量数据优势,加上通过组建多个算力集群叠加多员工迭代的加持,进一步抹平算力上的差距,仍然是值得期待的。

值得一提的是,去年 11 月以来,ChatGPT 已经带火了一批计算机 / 人工智能板块投资品种。但我们可以看得远一点,以计算机为例,作为整个科技板块的估值洼地,它已经沉寂了两年之久,并且中长期逻辑本身具有更丰富的意涵:智能汽车高速增长带来增长空间,行业利润受公共卫生防控影响减弱、增速回升,也为这个板块带来了更高景气度。更何况,还有一个具有万亿空间的细分赛道――信创,正在蓄势待发。这部分,我们留到下篇消息细聊。

短期有热点,长期有机会,整体估值不高,大抵正是目前计算机和人工智能板块的写照。

看好 AI 相关技术在国内落地应用的投资者,不妨关注天弘中证人工智能(A:011839;C:011840),其囊括了国内人工智能龙头如科大讯飞、德赛西威、四维图新、科沃斯等;若青睐计算机板块投资机会,场内投资者可关注计算机 ETF(159998),场外投资者可关注天弘中证计算机主题 ETF 联接(A:001629;C:001630),目前其为深交所规模头部的计算机指数基金,且简单清晰、费率较低,或是投资者捕捉计算机市场行情的优质品种。

(来源 : 界面 AI)

声明:本条内容由界面 AI 生成并授权使用,内容仅供参考,不构成投资建议。AI 技术战略支持为有连云。


chatgpt苹果手机可以下载吗 chatgpt手机版在哪可以下载

ChatGPT苹果手机可以用吗,chatGPT苹果手机可以下载吗,ios chat,iphone keychain

翻译自 Rajani et al., "What Makes a Dialog Agent Useful?", Hugging Face Blog, 2023.

几周前,ChatGPT横空出世,使得热点都集中到ChatGPT背后的新技术,即一系列晦涩的缩写术语:RLHF、SFT、IFT、CoT等。这些缩写是什么,为什么如此重要?我们调查了所有关于这些主题的重要论文,将其进行分类,总结已经完成的工作,并分享仍有待挖掘的内容。

让我们从语言模型对话机器人的视角开始。事实上,ChatGPT并不是第一个语言模型对话机器人,在OpenAI之前,有许多组织发布了他们的语言模型对话机器人,包括Meta的BlenderBot、Google的LaMDA、DeepMind的Sparrow和Anthropic的Assistant(这个机器人仍处于持续开发并没有定型的版本也被称为Claude)。一些团体也宣布了他们计划建立一个开放领域对话机器人并公开分享技术方案(LAION的Open Assistant);肯定也有很多人在研究之中,尚未宣布。

以下表格根据是否可公开访问、训练数据、模型架构、评估方向等细节对比了这些AI对话机器人。ChatGPT并未公布细节,所以我们用InstructGPT来代替。因为它是OpenAI的指令微调模型,且据信是ChatGPT的底层服务。

LaMDABlenderBot 3SparrowChatGPT/ InstructGPTAssistant
组织GoogleMetaDeepMindOpenAIAnthropic
是否公开?有限度的
模型参数量137B175B70B175B52B
预训练基础模型UnknownOPTChinchillaGPT-3.5Unknown
预训练语料数量 (词数)2.81T180B1.4TUnknown400B
模型可在线访问???
有监督微调?????
微调数据量Quality:6.4KSafety: 8KGroundedness: 4KIR: 49K20 NLP datasets ranging from 18K to 1.2MUnknown12.7K (for InstructGPT, likely much more for ChatGPT)150K + LM generated data
人工反馈强化学习???
安全性的规则???
评价方向1. Quality (sensibleness, specificity, interestingness)2. Safety (includes bias) 3. Groundedness1, Quality (engagingness, use of knowledge)2. Safety (toxicity, bias)1. Alignment (Helpful, Harmless, Correct)2. Evidence (from web)3. Rule violation4. Bias and stereotypes5. Trustworthiness1. Alignment (Helpful, Harmless, Truthfulness)2. Bias1. Alignment (Helpful, Harmless, Honesty)2. Bias
使用该模型的数据标注的众包平台U.S. based vendorAmazon MTurkUnknownUpwork and Scale AISurge AI, Amazon MTurk, and Upwork

我们观察到,尽管训练数据、模型和微调之间存在许多差异,但也存在一些共同之处。上述所有对话机器人的共同目标都是遵循用户指定的指令,例如用户指令ChatGPT写一首关于微调的诗。

通常,以语言模型为目标的基础模型对人类指示的回复效果并不好,因此模型创建者使用了指令微调Instruction Fine-Tuning,IFT,其包括在一些非常不同的任务(包括情感、文本分类、摘要等经典NLP任务)上对基础模型进行微调。这些指令数据由三个主要组成部分组成:指令、输入和输出。输入是可选的,有些任务只需要诸如ChatGPT示例中的开放式生成等指令。对于给定的指令,可以有多个输入和输出实例。有关示例,请参见下面(引自[Wang et al。,“22“))。

IFT的数据通常是由人工手写指令和语言模型引导的指令实例的集合。对于引导,语言模型以少量样本示例的形式提示,并指示生成新的指令、输入和输出。在每轮中,模型提示既有人工编写的,也有模型生成的样本。人与模型在创建数据集方面所做出的贡献图如下。

一端是完全由模型生成的 IFT 数据集,如Unnatural instructions(Honovich et al., 22),另一端则是社区大量的手工指令,如Super-natural instructions(Wang et al., 22)。在这两者之间的工作是使用一小组高质量的种子数据集,然后进行语言模型的自监督,如Self-instruct(Wang et al., 22)。另一种收集IFT数据集的方法是采用现有的高质量人工智能数据集(包括Prompt提示),并使用统一的模式或多种不同模板将其转换为指令。该工作线包括T0(Sanh et al., 22),Natural instructions dataset(Mishra et al., 22),FLAN LM(Wei et al., 22)和OPT-IML(Iyer et al., 22)。

然而,经过指令微调的语言模型可能并不总是产生有用安全的回复。例如模型回复避而不谈,总是给出一个无用的响应,如“对不起,我不明白”;或者对于敏感话题产生不安全的回复。为了缓解这种问题,模型开发者使用Supervised Fine-tuning(SFT),对高质量人工标记数据进行基础语言模型微调,以期取得有用且无害的回复。例如,参见下面从Sparrow论文(附录F)中提取的表格。

SFT和IFT密切相关。指令调优可以看作是监督微调的一个子集。在最近的文献中,SFT阶段常常用于安全话题,而不是IFT阶段已完成的指令特定话题的微调。未来,这种划分应该会发展成为更清晰的用例和方法。

Google的LaMDA也根据一套规则(附录A)进行了基于对话数据集的微调。这些规则通常是由模型创建者预先定义和开发的,这些规则涵盖了广泛的主题,包括暴力、歧视、虚假信息。

另一方面,OpenAI的InstructGPT,DeepMind的Sparrow和Anthropic的Constitutional AI都使用了人工标注偏好,即大名鼎鼎的reinforcement learning from human feedback (RLHF)。在RLHF中,把一组模型回复根据人类反馈(例如,选择优先于另一个的文本片段)进行排序。然后,偏好模型在这些标注回复中进行训练,以便对RL优化器返回标量奖励。最后,使用强化学习训练对话机器人来模拟偏好模型。有关RLHF的更多详细信息,请参阅先前的博客文章。

Chain-of-thought (CoT) Prompting(Wei et al., 22)是一种特殊情况的指令操作,它通过在对话机器人中通过逐步推理生成输出。CoT微调模型是使用具有人类标注的步骤推理的指令数据。这就是著名的prompt let's think step by step的起源。下面的示例来自Chung et al., 22。橙色表示指令,粉色表示输入和输出,蓝色表示CoT推理。

经过CoT 微调的模型在涉及常识、算术和符号推理的任务中表现得更好,如Chung et al., 22所示。

CoT 微调也表明对于无害性也非常有效(有时比RLHF做得更好)。而且它不会直接逃避问题,不会为敏感的提示生成“抱歉,我无法回答这个问题”,如Bai et al., 22所示。参见他们论文的附录D以获取更多示例。

  1. 指令微调只需要非常少量的数据(几百个程度)相比预训练数据
  2. 有监督微调使用人工标注,使模型输出更加安全和有用
  3. CoT微调可以提高模型在需要逐步推理的任务上的性能,并使它们对敏感主题不那么回避。

本博客总结了一些有关如何使对话机器人有用的现有工作。但仍有许多未被探索的开放式问题。我们在这里列出一些问题。

  1. RL在从人类反馈中学习中有多重要?我们能否在IFT或SFT中以更高质量的数据获得RLHF的性能?
  2. Sparrow中的SFT + RLHF与仅使用LaMDA中的SFT来提高安全性相比如何?
  3. 鉴于我们拥有IFT,SFT,CoT和RLHF,需要多少预训练?有何权衡?大家应该使用什么样的基础模型(包括公开可用的和不公开可用的)?
  4. 本文中提到的许多模型都经过了仔细的红队测试,其中工程师会特别搜索失败模式,并根据暴露的问题规划未来的训练(促进和方法)。我们如何系统地记录这些方法的效果并重现它们?

欢迎阅读我的其他知乎博客:

人工反馈的强化学习

欢迎访问我的站点:

知乎 - 安全中心

关于我:

微软最有价值专家是微软公司授予第三方技术专业人士的一个全球奖项。30年来,世界各地的技术社区领导者,因其在线上和线下的技术社区中分享专业知识和经验而获得此奖项。

MVP是经过严格挑选的专家团队,他们代表着技术最精湛且最具智慧的人,是对社区投入极大的热情并乐于助人的专家。MVP致力于通过演讲、论坛问答、创建网站、撰写博客、分享视频、开源项目、组织会议等方式来帮助他人,并最大程度地帮助微软技术社区用户使用Microsoft技术。

更多详情请登录官方网站

ChatGPT再一次掀起了AI的热潮,是否还会像BERT一样成为AI进程上的里程碑事件,还是噱头炒作,持续关注,让时间流淌~

整理汇总了最近ChatGPT的资源,还在持续更新中......

  • GPT论文:Language Models are Few-Shot Learners Language Models are Few-Shot Learners
  • InstructGPT论文: Training language models to follow instructions with human feedback Training language models to follow instructions with human feedback
  • ChatGPT: Optimizing Language Models for Dialogue ChatGPT: Optimizing Language Models for Dialogue
  • TAMER框架论文:Interactively Shaping Agents via Human Reinforcement
  • PPO算法: Proximal Policy Optimization Algorithms Proximal Policy Optimization Algorithms
  • huggingface解读RHLF算法:Illustrating Reinforcement Learning from Human Feedback (RLHF) Illustrating Reinforcement Learning from Human Feedback (RLHF)
  • RHLF算法论文:Augmenting Reinforcement Learning with Human Feedback
  • GPT-1:2018年6月发布,参数量达1.17亿,预训练数据量约5GB。
  • GPT-2:2019年2月发布,参数量达15亿,预训练数据量约40GB。
  • GPT-3:2020年5月发布,参数量达1750亿,预训练数据量约45TB。
  • ChatGPT(GPT-3.5):2022年11月发布,参数量达未知(估计千亿级),预训练数据量未知(估计百T级)。

GPT-3 能合理地回应某些特定查询,也在一些任务上达到了很不错的性能,但在某些任务上的性能不如小模型T5.经过代码训练、指令微调和基于人类反馈的强化学习后,chatgpt能以不同样式、不同目的生成文本,并且在准确度、叙述细节和上下文连贯性上具有更优的表现。

  • 语言生成:该能力源自于语言建模的训练目标;遵循提示词(prompt),然后生成补全提示词的句子。
  • 上下文学习(in-context learning):遵循给定任务的几个实例,然后为新的测试用例生成解决方案
  • 世界知识:该能力源于训练语料,包括事实性知识和常识。

Instruction tuning是在多个任务上微调,在其他任务上zero-shot测试。

第一代GPT3.5: Code-Davinci-002和 Text-Davinci-002

  • 响应人类指令:以前,GPT-3的输出主要训练集中常见的句子。现在的模型会针对指令/提示词生成更合理的答案(而不是相关但无用的句子)。
  • 泛化到没有见过的任务:当用于调整模型的指令数量超过一定的规模时,模型就可以自动在从没见过的新指令上也能生成有效的回答,这种能力对于上线部署至关重要,因为用户总会提新的问题,模型得答得出来才行。
  • 代码生成和代码理解:这个能力很显然,因为模型用代码训练过。
  • 利用思维链(chain-of-thought)进行复杂推理:初代 GPT3的模型思维链推理的能力很弱甚至没有。code-davinci-002 和 text-davinci-002 是两个拥有足够强的思维链推理能力的模型。

第二代GPT3.5: text-davinci-003和 ChatGPT

ChatGPT &Text-davinci-003:

基于人类反馈的强化学习(Reinforcement Learning from Human Feedback, RLHF) 的威力

  • 翔实的回应:text-davinci-003 的生成通常比 text-davinci-002长。ChatGPT的回应则更加冗长,以至于用户必须明确要求“用一句话回答我",才能得到更加简洁的回答,这是 RLHF 的直接产物。
  • 公正的回应:ChatGPT 通常对涉及多个实体利益的事件(例如政治事件)给出非常平衡的回答。这也是RLHF的产物。
  • 拒绝不当问题:这是内容过滤器和由 RLHF 触发的模型自身能力的结合,过滤器过滤掉一部分,然后模型再拒绝一部分。
  • 拒绝其知识范围之外的问题:例如,拒绝在2021 年6月之后发生的新事件(因为它没在这之后的数据上训练过)。这是 RLHF 最神奇的部分。因为它使模型能够隐式地区分哪些问题在其知识范围内,哪些问题不在其知识范围内。

一个例子是严格的数学证明,要求中间步骤中不能跳,不能模糊,不能错。

但这种严格推理到底是应该让语言模型做还是让符号系统做还有待讨论。一个例