淘优惠

淘优惠

AI语义系统识别内容标签 谷歌会搜录openai生成的内容吗

热门文章 0

淘宝搜:【天降红包222】领超级红包,京东搜:【天降红包222】
淘宝互助,淘宝双11微信互助群关注公众号 【淘姐妹】

ai语言是什么意思,ai语言,ai智能语音系统,ai语音技术

OpenAI所发布的分类器并不完全可靠,在英文文本的评估中,分类器仅能正确地将26%的人工智能编写的文本正确分类,同时将9%由人类编写的文本,误判为人工智能生成,不过,分类器的可靠性,会因输入的文本长度增加而提高,与过去的分类器相比,这个新的分类器在判断人工智能文本上还是可靠许多。

官方提醒,目前分类器还有许多限制,不能当作主要判断的工具,仅可作为其他判断方法的补充。该分类器在少于1,000个字符的短文本非常不可靠,甚至更长的文本都会被分类器错误标记,分类器甚至有时候会将人类编写的文本,有自信地错误标记为人工智能生成。

目前分类器仅能用于成人编写的英文文本,可能会在儿童书写的文本和非英文文本上出错,同时,该分类器也无法用于识别高度可预测的文本,像是无法用于预测前1,000个质数是由人类编写还是人工智能生成,因为正确答案都是相同的。

其实只要稍微编辑人工智能生成的文本,就能够简单地回避分类器,官方提到,虽然他们的分类器能够更新并且再训练,但目前不清楚这种方式,以长期来说是否存在优势,而且也因为以神经网络为基础的分类器,在对训练集以外的资料表现很差,因此当用户所输入的文本跟训练资料集的文本有很大的差异,则分类器便会以高度信心做出错误判断。

发布于:山东省


openai官方推出ai生成器 open ai 生成视频

open aip,open.ai,open ailab,open ai公司

原标题:OpenAI将给ChatGPT加水印,帮助人们辨别哪些是AI 生成文本

这句话是人工智能写的吗?OpenAI 的新聊天机器人 ChatGPT 引发了公众对一个关键问题的讨论:我们如何知道网上的内容是人写的,还是人工智能写的?

自 2022 年 11 月发布以来,已有超过一百万人使用过 ChatGPT。它让人工智能社区着迷,而且很显然,人工智能生成的文本正在网络上肆意传播。人们用它来编笑话、写故事和起草更好的电子邮件。

ChatGPT 是 OpenAI 的大型语言模型 GPT-3 的衍生产品。针对用户提出的问题,该模型可以生成看起来很像是人类做出的回答。

这些大型语言模型的魔力在于,它们的回答看起来非常真实。但因为人们难以分辨,由此引发的正确性错觉也可能带来危险。

人工智能模型写出的句子看起来是正确的,它们以正确的顺序使用了正确的词汇和语法,但人工智能理解不了它们的含义。

这些模型通过预测句子中最有可能出现的下一个词来工作,所以他们并不知道自己说的是对还是错。即使说的是错的,他们也会用“言之凿凿”的语气表述出来。

在一个已经两极分化、充满政治色彩的网络世界中,这些人工智能工具可能会进一步扭曲我们获取的信息。如果他们被某些产品采用并风靡世界,后果可能是毁灭性的。

人工智能初创公司 Hugging Face 的政策总监艾琳・索莱曼 (Irene Solaiman) 表示,我们迫切需要能够区分人类和人工智能编写的文本的方法,以应对潜在的技术滥用。

索莱曼曾是 OpenAI 的人工智能研究员,为 GPT-3 的前身 GPT-2 的发布研究了人工智能模型的输出检测。

找到识别人工智能生成代码的方法也至关重要,例如程序员常用的 Stack Overflow 最近宣布暂时禁止发布由 ChatGPT 生成的回答。

ChatGPT 可以自信地生成编程问题的答案,但它并非完全准确。错误的代码会导致软件 bug,在许多领域,一个 bug 可能带来高昂的代价并造成混乱。

Stack Overflow 发言人表示,该公司的审核员正在“使用包括启发式和检测模型在内的多种工具,检查数千份由社区成员提交的报告”,但不会透露更多细节。

实际上,实现这一目标非常困难,完全禁止人工智能的回答几乎是不可能的。

研究人员尝试了多种方法来检测人工智能生成的文本。一种常见的方法是使用软件来分析文本的不同特征――例如阅读的流畅程度、某些单词出现的频率,或者标点符号、句子长度是否有规律。

“如果你有足够多的文本,一个非常简单的线索就是‘the’这个词过于频繁的出现,”谷歌大脑的高级研究科学家达芙妮・伊波利托(Daphne Ippolito)解释说。

由于大型语言模型通过预测句子中的下一个词来工作,因此它们更有可能使用“the”“it”或“is”等常见词,而不是不可靠的罕见词。

伊波利托和谷歌研究人员在 2019 年发表的论文中发现,这正是自动检测系统擅长识别的文本类型。

但伊波利托的研究也显示了一些有趣的东西:人类参与者倾向于认为,这种“干净”的文本看起来更好,错误更少,因此它更像是人类写的。

实际上,人类撰写的文本通常会有拼写错误,并且变化多端,包含不同的风格和俚语,而“语言模型很少出现拼写错误,他们更擅长生成完美的文本,” 伊波利托说。

“文本中的错别字实际上是一个很好的指标,表明它是人写的,”她补充道。

大型语言模型本身也可用于检测人工智能生成的文本。不列颠哥伦比亚大学的自然语言处理和机器学习研究主席穆罕默德・阿卜杜勒-马吉德(Muhammad Abdul-Mageed)说,最成功的方法之一是在一些由人类编写的文本和一些由机器创建的文本上重新训练模型,使它学会区分两者。

与此同时,德克萨斯大学的计算机科学家斯科特・阿伦森( Scott Aaronson)一直在为 GPT-3 等模型生成的较长文本开发“水印”机制。他在博客中写道,通过在词汇选择上加入“不引人注意的秘密信号”,人们就可以证明这段文字是 GPT 模型生成的。

OpenAI 发言人证实,该公司正在研究水印,并且表示其政策规定用户应该“以一种任何人都不会合理地漏看或误解的方式”清楚地指出哪些是人工智能生成的文本。

但这些技术修复努力也存在一些问题。他们大多尚未有机会对抗最新一代的人工智能语言模型,因为它们是建立在 GPT-2 或其他早期模型之上的。

当有大量文本可供检测时,许多检测工具的效果不错;但它们在某些具体场景的表现较差,例如聊天机器人或电子邮件助理,因为这些场景只有较短的对话,无法提供更多的数据用来分析。

Abdul-Mageed 还指出,使用大型语言模型进行检测还需要强大的计算机,以及访问 AI 模型本身,科技公司通常不会允许这样做。

索莱曼表示,模型越大、性能越强大,就越难构建对应的人工智能模型来检测哪些文本是人写的,哪些不是。

“现在最令人担忧的是 ,ChatGPT 的输出质量非常令人印象深刻。检测模型难以企及,只能在后面一直追赶,”她说。

索莱曼说,检测人工智能编写的文本没有一个 100% 准确的方法。 “检测模型不会成为合成文本的过关测试,就像安全过滤器不是减轻偏见的唯一手段,”她说。

为了有机会解决这个问题,我们需要改进技术修复手段并提高人类与人工智能交互时的透明度,人们还要学会如何识别藏在人工智能创造的文本中的痕迹。

伊波利托说:“如果有一个 Chrome 或其他网络浏览器的插件,或许可以通过它让你知道网页上的任何文本是否是机器生成的。这将是一件非常好的事情。”

一些人已经在努力。哈佛大学和 IBM 的研究人员开发了一种名为“大语言模型测试屋 Giant Language Model Test Room (GLTR)” 的工具,它通过高亮显示可能由人工智能生成的文字段落来帮助人们注意哪里有问题。

但是人工智能已经在可以将普通人玩弄于股掌之间了。康奈尔大学的研究人员发现,在 66% 的情况下,人们认为 GPT-2 生成的假新闻文章是可信的。

另一项研究发现,未经训练的人识别 GPT-3 生成文本的准确率低得就像随机选择的差不多。

伊波利托说,好消息是人们可以接受训练,以更好地识别 AI 生成的文本。她开发了一个游戏来测试在用户意识到之前人工智能模型可以生成多少句子。她发现随着时间的推移,人们会逐渐做得更好。

“如果你查看大量生成文本,并试图找出其中没有意义的地方,你就可以更好地完成这项任务,”她说。一种方法是发现那些难以置信的表述,比如人工智能会说煮一杯咖啡需要 60 分钟。

ChatGPT 的前身 GPT-3 在 2020 年才问世。OpenAI 表示 ChatGPT 只是一个演示,但开发类似功能强大的模型,并将其应用到用于客服聊天机器人等产品中,只是时间问题。

这就是问题的症结所在:该领域的飞速发展意味着,识别人工智能生成文本的许多方法都会很快过时。如果这是一场人类和人工智能之间的军备竞赛,那么现在人类正在失败。

支持:Ren

原文:

https://www.technologyreview.com/2022/12/19/1065596/how-to-spot-ai-generated-text/返回搜狐,查看更多

责任编辑:



微软整合openai的ai技术 open ai 技术原理

微软合集,微软 api,oam 微软,微软 oa

深度造假写手。

今年年初,OpenAI开发了一个“AI造假写手”,由于被认为“太危险”而无法完整对外公开。最近,这款AI模型发布了更全新,更强大的版本。据媒体所言,现在,它真的可以自如地写假新闻或者垃圾邮件了。

这款AI的模型叫做GPT-2,它的内部包含了15亿个参数,是在800万个网页数据集上训练而成的。而制作它的主要目的,是用以接替自己的第一代,执行语言建模的任务。

简单来说,它的功能就是根据人类给出的一句话,编写接下来的文本,同时在此基础上,对整个文章细节进行补充。

在模型公布新版本后,一些感兴趣的AI专家对其进行了测试。他们试着把一条真新闻的内容放进了模型中,这条内容为:

搜狗正在打造AI语音仿人版,以后读者可以听到作者朗读的有声小说。

AI写手接收到该信息之后,便编写了如下文字:

根据研究人员表示,这种阅读方式的创意来源于Kindle用户。同时,一部分安卓用户也表达了同样的需求。以下有三个原因可以解答为何他们需要这项服务。首先,使用这些设备的用户,和传统的电脑上阅读者的习惯不同……未来,当读者使用该功能时,可能会真的以为作者们在为他们朗读小说。

从AI续写的内容中,可以看出它具备有很强的逻辑能力,能找到辅助资料对新闻进行补充,整个短讯也足够完整。一家科技网站的作者对此结果感到害怕,他认为这项技术代表着坏人可以操纵他人,在他看来,这甚至比任何枪支还要危险。

其实早在年初之时,就已经有许多人对GPT-2表示了担忧。在这个原本就信息爆炸,人们越来越难分清信息真假的年代,GPT-2可以毫无违和的融入进去。如果它真的能独立、完整地书写各类新闻,由谁使用它就变得尤为重要。

如果使用者居心不良,它可以发表极端言论,伪造内容,成为引导舆论的政治工具。OpenAI也意识到了这个问题,因此他们一直没有公开完整的预训练模型,都是放出小版本的模型供以测试。

谢菲尔德大学的计算机教授诺埃尔却表示,人类可能没必要感到恐慌。在对模型进行了多次的测验,输入了很多次文字开头后,他发现AI写手还是犯下了许多错误,好比不连贯和奇怪的字句,以及和输入标题毫无关系的内容填充。

我输入了‘火鸡讨厌圣诞节’,但是得到的答案是:火鸡是世界上唯一一个不庆祝圣诞节的国家。当然,附带上了一些不相关的句子。

人工智能咨询公司的创始人戴夫,也对这个模型进行了测试,他输入的是一个经典英国笑话的开头:一个男人走进了酒吧。

结果,GPT-2续写的内容是:

他点了2品脱啤酒和2杯苏格兰威士忌。当他想要结账的时候,他遇到了2个人,其中一个大喊着说:‘这杯是给叙利亚的!’这名男子说完后,喉咙就被人刺伤,血涌不止。

在戴夫看来,这个故事看似荒谬,实际上却说明了模型的部分训练数据,就是来自于互联网新闻报道。它呈现出来的偏见,就是现当下社会新闻所暴露出来的问题。如果AI写手持续以此作为训练,模型编写的内容可能会引起更多的争议。尽管有所担忧,戴夫相信这些问题都会被解决。

而他认为,一旦大家对GPT-2的担忧被消除后,人们可能会面对一个更重要的探讨:人工和机器制造内容越来越难以区分之时,我们究竟应该如何正确看待这个世界。