淘优惠

淘优惠

聚焦|史上最强造假工具?核查从业者如何看待ChatGPT

热门文章 0
你见过哪些逆天的造假手段,"造假",最牛造假,造假神器app

明查艾米丽・帕克是个受人尊敬的记者和编辑,拥有超过15年的行业经验。她于2018年加入总部位于美国佛罗里达州的《圣彼得哨兵报》,担任管理编辑,并在2020年迅速晋升为总编。在她的领导下,《圣彼得哨兵报》靠着深度报道和调查性新闻在新闻界获誉无数。帕克本人也因其致力于准确和公正的报道和承诺为社区发声而为人知晓。但关于艾米丽・帕克的小故事有个问题,即无论是《圣彼得哨兵报》还是艾米丽・帕克,都不是真实存在的。讲述这个故事的并不是人类,而是一段由美国人工智能研究公司OpenAI研发的聊天机器人程序――ChatGPT。

ChatGPT写的“艾米丽・帕克简介”。

当地时间1月27日上午,美国传媒教育机构波因特学院旗下媒介素养项目“媒体智慧”(MediaWise)的负责人马哈德万(Alex Mahadevan)在推特发文称,他在不到10分钟的时间内,用ChatGPT “造出了”一份虚构的报纸、四个并不存在的编辑部人员、一份报刊简介及相应的编辑部标准、更正政策和一篇虚假的指控当地政府腐败的文章。就在网民们畅想ChatGPT会给信息检索、文学创作、文书写作和测试领域带来的各种可能性时,虚假信息的研究者们已经发出严厉的警告。新闻可信度评估机构News Guard的联合执行官格洛维茨(Gordon Crovitz)称:“ChatGPT可能成为互联网有史以来最强大的传播虚假信息的工具。”事实面临挑战格洛维茨的论断建立在实验之上:今年1月,News Guard的分析师调取其专有数据库中已经被证伪了的100条虚假信息,指示ChatGPT作出回应。结果显示,虽然ChatGPT辨认出了部分虚假信息,但它还是为这100条虚假信息中的80条制作了更具细节的新闻报道、文章和电视脚本。News Guard称,对于那些不熟悉样本信息所涉内容或主题的人来说,ChatGPT制作的这些内容很容易被看作是合法、权威的信息,这揭示了人工智能程序的“武器化”风险。来自国际通讯社下属事实核查机构的一线事实核查参与者苏菲(化名)告诉“澎湃明查”(www.thepaper.cn),他们目前还没有观察到由ChatGPT带来的虚假消息陡增的情况,但疑虑确实存在:“人们会不会相信ChatGPT生成的内容就是真实的,并且会去传播它呢?”ChatGPT使用的生成式预训练转换器(Generative Pre-trained Transformer,简称GPT)技术,本质上是一种神经网络机器学习语言模型。这种模型以模仿人类自然表达为目的,能够生成符合语言逻辑的文本,却无法保障文本内容的真实性。OpenAI首席技术官米拉・穆拉蒂近日在接受美国《时代》杂志采访时承认,ChatGPT可能会“编造事实”,并表示这是当下基础的大型语言模型共同面临的挑战。一些注重信息准确性的平台已经体会到了ChatGPT带来的副作用。去年12月,知名程序员问答网站Stack Overflow在ChatGPT推出后不久就发布临时禁令,暂时不允许其用户在该平台发布由ChatGPT创建的内容。Stack Overflow给出的解释是,这些引自ChatGPT的内容正确率过低,且非专业人士很难进行辨认,若未经验证便盲目引用可能会破坏用户对该平台的信任。

Stack Overflow宣布暂时禁用ChatGPT。

今年1月,美国乔治城大学安全和新兴技术中心、斯坦福大学网络观察室和OpenAI在联合发表的一份报告中提到,ChatGPT等个性化的实时聊天机器人在制造阴谋论方面甚至相比人类阴谋论者更具优势,它能够修正糟糕的语法或错误的翻译,并变换表达方式,使阴谋论显得更具说服力和可信度。米德尔伯里国际研究学院恐怖主义、极端主义和反恐中心(CTEC)的研究人员在2020年已经发现,ChatGPT依赖的底层模型GPT-3能够准确模仿具有互动性、信息性和影响性的文本内容,而这类内容往往有激化暴力和极右极端主义意识形态和行为的风险。CTEC在当时呼吁,人工智能行业的利益相关者、决策者和政府应尽快行动,建立社会规范、公共政策和教育举措,以防止机器生成的虚假信息的涌入。日益复杂的信息系统面对人工智能可能被“武器化”的风险,ChatGPT的缔造者已经采取行动,尝试从源头上减少用户被机器愚弄的概率。1月31日,OpenAI网站发布消息称,他们已经训练了一个新的分类器,用来区分人类书写的文本和人工智能创作的内容,并公开供人们使用。OpenAI强调,他们的分类器还不可靠,在一次对英文文档的内部测试中,该分类器仅识别出了26%由机器创作的文本,同时将人类书写的文本中的9%错误地标记成了机器创作的内容。OpenAI期待可以从公众处获知更多关于此类工具是否有用的反馈以帮助其进行改进。

OpenAI宣布已推出新的分类器,以辨别人工智能创作的内容。

穆拉蒂在接受《时代》采访时提到,对于OpenAI这样的公司来说,以一种可控和负责任的方式将聊天机器人带入公众的视野很重要。但她同时强调,OpenAI只是一小伙人,要想让人工智能以人为本地创造价值,他们需要更多来自系统的支持,以及更多超越技术的投入。这是政府、监管者和其他每一个人都应该参与解决的问题。复旦大学新闻学院副院长周葆华教授认为,要想预防聊天机器人造成虚假信息泛滥的情况,仅靠对文本内容进行识别还不够。“公众在传播信息。人们对信息环境的变化有无察觉?对信息真实性的问题本身是否有认知?能不能区分不同质量的媒介?不能脱离认知层面和知识层面简单地谈应对。”周葆华对“澎湃明查”说。从依托于生成对抗网络(GAN)技术的“深假”(Deepfake),到以 DALL・E 2为代表的人工智能绘画,再到ChatGPT,人类已迈入人工智能生产内容(AIGC)的新纪元。在周葆华看来,从早先以专业媒体主导的信息环境,到用户生产内容,再到人工智能生产内容,这是一个连续的变化过程。而ChatGPT的出现,恰恰折射了人类当下面对的信息系统的混合性和复杂性。

DALL・E 2绘制的图画。图片来源:OpenAI

“要针对新的混合的信息系统,开展对公民的媒介素养的训练,增强公民对不同媒介的识读能力和知识能力。”周葆华建议道,“同时,具有公信力的新闻机构和事实核查机构应该尽到责任,提供更高质量的信息,共建良性的信息供给系统。”事实上,在人类的信息系统形态发生变化的同时,人工智能自身也在悄悄发生改变。当《纽约时报》将News Guard使用的虚假信息样本再次抛向ChatGPT时,这一次,ChatGPT只对其中33%的问题作出了“不理智”的回应。News Guard认为,这是由于ChatGPT在随着开发人员对算法的调整而不断改变。如果用户反复输入错误信息,机器可能会做出不同的反应。苏菲还看到了聊天机器人的另一面,即人工智能或许可以帮助事实核查员完成简单的事实核查,撰写核查稿件,从而提高核查效率。“这当然不是说我们可以把机器生产的内容直接拿来用,还是要进行二度查核。”苏菲说,“人工智能带来的挑战和机遇并存。它的出现会对核查员提出更高的要求,但事实核查不会因此而消亡。核查需要批判性思维和创造性思维,这不是当下机器能够做到的。”


踩一踩ChatGPT!

踩一踩空间,踩一踩不跑堂什么意思,踩一踩脚垫,踩一踩舞蹈视频

作者 | Peter Wayner

策划 | 壹舟

经过几十年的猜测与质疑,当下的人工智能似乎终于迎来了通用的临界点,但人类还没准备好。

ChatGPT热度依旧霸榜,接连被许多名人点赞了!国外微软的比尔盖茨、纳德拉、特斯拉的马斯克,国内的李彦宏、周鸿t、张朝阳,甚至不是科技圈的作者郑渊洁,也因为ChatGPT的出现,开始相信“作家有可能在未来会失业”了。再比如惊动谷歌隐退的大佬布林,前美团联合创始人王慧文也再度出山,广发英雄帖招募AI人才,造一个中国OpenAI。

以ChatGPT和DALL-E为代表的的生成式AI,以一系列令人眼花缭乱的风格,写出了充满丰富细节、想法和知识的文本,抛出华丽的答案和艺术品。生成的人工制品如此多样,如此独特,以至于很难相信它们来自机器。

以至于一些观察人士认为,这些新的AI终于跨过了图灵测试的门槛。用某些人的说法:这一门槛并没有被轻微超过,而是被吹得粉碎。这门AI艺术太好了,“又有一批人已经濒临失业线”。

但是,经过一个多月来的发酵,人们对于AI的奇迹感正在消退,生成式AI的“原始明星光环”也在渐渐消失。例如,一些观察者以正确的方式提问,而ChatGpt却“吐”出了一些愚蠢甚至错误的东西。

再比如,一些人在小学美术课上使用了流行的老式逻辑炸弹,要求拍摄夜晚的太阳或暴风雪中的北极熊。其他人则提出了更奇怪的问题,AI的上下文感知的局限性显露无疑。

本文整理了生成式AI的“十宗罪”。这些罪名可能读起来像酸葡萄,(笔者也嫉妒AI的强大,如果机器被允许接管,笔者也会失去工作,哈哈~)但意在提醒,绝非抹黑。

剽窃抄袭更难检测

当DALL-E和ChatGPT等生成式人工智能模型创建时,它们实际上只是从训练集中的数百万个示例中创建新模式。结果是从各种来源提取的剪贴合成,当人类这样做时,也被称为抄袭。

当然,人类也是通过模仿来学习的,但在某些情况下,AI的这种“拿来”、“借用”却是如此明显,以至于会让一位小学老师恼怒到无法给学生上课。这种人工智能生成的内容由大量文本组成,这些文本或多或少都是逐字呈现的。然而,有时有足够多的掺杂或合成,即使是一个大学教授小组也可能难以检测到来源。不管怎样,缺少的是独特性。尽管这些机器闪闪发光,但它们无法生产任何真正的新产品。

版权:代替人类之时,诉讼兴起之日

虽然剽窃在很大程度上是学校的问题,但版权法适用于市场。当一个人从另一个人的工作中受到挤压时,他们可能会被带到法庭,法庭可能会处以数百万美元的罚款。但AI呢?同样的规则适用于他们吗?

版权法是一门复杂的学科,生成式AI的法律身份问题需要数年才能解决。但有一点不难预料:当人工智能好到足以替代员工进行工作时,这些被替代的人中,肯定会利用“在家赋闲”的时间提起诉讼。

人类充当了模型的无偿劳动力

剽窃和版权并不是生成式人工智能引发的唯一法律问题。律师们已经在构思新的诉讼伦理问题。例如,制作绘图程序的公司是否应该被允许收集有关人类用户绘图行为的数据,并能否将这些数据用于AI训练?基于此,自己被使用的创造性劳动是否应该得到补偿?当前AI的成功,很大程度上源于对数据的访问。那么,当生成数据的大众想要分一杯羹时能否实现?什么是公平?什么是合法的?

信息堆砌,不是知识创造

AI特别擅长模仿人类需要数年才能发展出的那种智力。当一位学者能够介绍一位默默无闻的17世纪艺术家,或以一种几乎被遗忘的文艺复兴音调结构,来创作新音乐时,我们有充分的理由来表达对此的惊艳之词。我们知道,发展这种深度的知识需要多年的学习。当人工智能只需要几个月的训练就完成了这些相同的事情时,结果可能会非常精确和正确,但有些东西是缺失的。

人工智能只是似乎模仿了人类创造力中有趣和不可预测的一面,但却“形似神不似”,无法真正做到这一点。与此同时,不可预测性是推动创造性创新的因素。像时尚娱乐行业,不仅沉迷于变化,而且被“变化”所定义。

事实上,人工智能和人自身的智能都各有其擅长的领域。比如:如果一台训练有素的机器能够在一个装满数十亿张唱片的数字盒中找到正确的旧收据,那么它也可以了解像阿芙拉贝恩( 17世纪第一位以写作为生的英国女性)这样的诗人所知道的一切。甚至可以设想,机器是为了破译玛雅象形文字的含义而制造的。

智力停滞,难以成长

说到智能,人工智能本质上是机械的和基于规则的。一旦人工智能通过一组训练数据,它就会创建一个模型,而这个模型并不会真正改变。一些工程师和数据科学家设想随着时间的推移逐步重新训练人工智能模型,以便机器能够学会适应。

但是,在大多数情况下,这个想法是创建一组复杂的神经元,以固定的形式编码某些知识。这种“恒常性”有它的用武之地,可能适用于某些行业。但同时也是它的弱点,危险就在于它的认知将永远停留在其训练数据的“时代怪圈”中。

假使我们变得十分依赖生成式AI,以至于无法再为训练模型制作新材料时,会发生什么?

隐私和安全的门闸太松

人工智能的训练数据需要来自某个地方,而我们并不总是那么确定神经网络中会出现什么。如果AI从其训练数据中泄露个人信息怎么办?

更糟糕的是,锁定AI要困难得多,因为它们的设计非常灵活。关系数据库可以限制对具有个人信息的特定表的访问。然而,人工智能可以通过几十种不同的方式进行查询。攻击者将很快学会如何以正确的方式提出正确的问题,以获取他们想要的敏感数据。

例如,假设攻击者,盯上了某处资产的位置,AI也能被用来旁敲侧击地问出纬度和经度。一个聪明的攻击者可能会询问几个星期后太阳在该地点升起的确切时刻。尽职尽责的人工智能会尽力给出答案。如何教会人工智能保护隐私数据,也是一个难解之题。

未知的偏见之地

自大型机年代起,技术圈就创造了“垃圾输入,垃圾输出”(GIGO)的概念,也让大众看到了计算机问题的核心。AI的许多问题来自于糟糕的训练数据。如果数据集不准确或有偏差,结果也将如此反映。

生成式AI的核心硬件理论上是逻辑驱动的,但制造和训练机器的人类却不是。司法前的意见和政派偏见已经被证明可以引入人工智能模型。也许有人使用了有偏见的数据来创建模型。也许他们添加了某类训练语料以防止模型回答特定的热点问题。也许他们输入了硬连线的答案,然后变得难以检测。

人工智能的确是个不错的工具,但这也意味着,别有用心之人有一万种方法让AI成为有害信念的绝佳载体

这里有个国外买房贷款的例子。案例中,用于评估潜在租户的AI系统依赖于法庭记录和其他数据集,这些数据集大都带有自身偏见,反映了系统性的种族主义、性别歧视和能人主义,而且众所周知,错误很多。尽管有的人明明有能力支付租金,但他们经常被拒绝提供住房贷款,因为租户筛选算法认为他们不合格或不值得。这也是我们经常所听到的业务员给的答复:大数据/系统/AI这么提示的。

ChatGPT被冒犯后的表现

机器的愚蠢,来得猝不及防

人们很容易原谅人工智能模型犯的错误,因为它们做了很多其他事情。只是很多错误很难预料,因为人工智能的思维方式与人类不同。

例如,许多文本到图像功能的用户发现,人工智能会犯一些很简单的错误,比如计数。人类在小学早期就学会了基本的算术,然后我们以各种各样的方式使用这项技能。让一个10岁的孩子画一只章鱼,孩子几乎肯定会确定它有八条腿。当涉及到数学的抽象和上下文用途时,当前版本的人工智能往往会陷入困境。

如果模型构建者对这一失误给予一定的关注,这可能很容易改变,但也会有其他未知的错误。机器智能不同于人类智能,这意味着机器的愚蠢也将不同。

机器也会撒谎,很容易骗人

有时,在没有意识到这一点的情况下,我们人类往往会掉进AI的坑里。在知识盲区里,我们倾向相信AI。如果AI告诉我们亨利八世是杀害妻子的国王,我们不会质疑,因为我们自己也不知道这段历史。我们往往假设人工智能是正确的,就像我们作为大会的观众,看到有魅力的主持人挥手时,也一样默认选择相信“台上那位比我懂得多”。

对于生成式AI的用户来说,最棘手的问题是知道人工智能何时出错。“机器不会说谎”常常是我们的口头禅,然而事实上并非如此。机器虽然不能像人类那样撒谎,但它们犯的错误也意味着更加危险。

他们可以在任何人都不知道发生了什么的情况下,写出一段段完全准确的数据,然后转向猜测,甚至转变成一场谎言。“真假参半”的艺术,AI也会。但不同的是,二手车经销商或扑克玩家往往知道自己什么时候在撒谎,大多数人都会说出自己的哪里撒谎了,AI却做不到。

无限滥用:经济模式堪忧

数字内容具有无限的可复制性,这已经使许多围绕稀缺性建立的经济模型陷入困境。生成式AI将进一步打破这些模式。生成式人工智能将使一些作家和艺术家失业,它也颠覆了我们所有人所遵循的许多经济规则。

当广告和内容都可以无休止地重新组合和再生时,广告支持的内容会起作用吗?

互联网的免费部分是否会变成一个“机器人点击页面广告”的世界,所有这些都是由人工智能生成的,可以无限复制?

如此轻松实现的“繁荣富足”,可能会破坏经济的各个角落。

如果不可替代代币可以永久复制,人们会继续为其支付费用吗?

如果制作艺术如此容易,它还会受到尊重吗?它还会很特别吗?有人会介意它不是特别的吗?

当一切都被视为理所当然时,一切都会失去价值吗?

莎士比亚在谈到“slings and arrows of outrageous fortune(暴富之命运)”时,这就是他的意思吗?

我们不要试图自己回答,让生成式AI自己来。它可能会返回一个有趣、别致且奇怪的答案,而且极有可能稳稳地拿捏了“模棱两可”的界限――一个略带神秘感,游走在是非边缘,又不伦不类的答案。

https://www.infoworld.com/article/3687211/10-reasons-to-worry-about-generative-ai.html

直播主题:【T前线】ChatGPT爆火,蜜糖还是毒药?

直播嘉宾:

刘占亮 | AI技术专家、前智源研究院政务创新中心技术负责人、前百度、腾讯研究员

李国庆 | 中关村科金人工智能产品高级总监、资深专家

直播时间:2023年2月16日20:00


opera浏览器计划接入chatgpt功能 ChatGPT为什么火出圈

Opera浏览器安卓,Opera

原标题:近期爆火!“ChatGPT”的这些风险请千万小心……

随着智能聊天机器人

“ChatGPT”火爆全球

国内也涌现了一批

名字中包含“ChatGPT”的

微信公众号、小程序等产品

那么,国内的这些产品是真的吗?

用ChatGPT官方图标当头像

免费试用几次后开始收费

此前,如果你随手点开微信搜索框,就可以发现一系列与ChatGPT“沾亲带故”的产品,并以ChatGPT的官方图标为头像。这些账号中,有不少注册时间都是在ChatGPT“出圈”的今年。

这些产品的服务方式大多是先免费试用,一旦免费次数用尽就开始收取费用

但是现在再次进行搜寻时,你会发现 名字里带有“ChatGPT”的公众号已几乎没有,一些公众号已改名。

目前,ChatGPT的开发者、人工智能研究机构OpenAI表示,并没有在中国大陆提供有关ChatGPT的服务,也没有相应的公司运营

有网络安全从业者指出,国内目前的“ChatGPT服务提供方”有两种模式:一种是取得ChatGPT官方接口,再提供给国内用户的“二倒手”,另一种则是完全的“山寨”,使用的AI对话模型质量不及ChatGPT,自然无法给出高质量的回答。

此外,有媒体实探淘宝、微信公众号、闲鱼等平台,发现有商家提供ChatGPT代注册服务一小时入账几万到几十万元不等,也有商家推出包月访问服务,会员数量可观。

对于此类山寨行为,有律师表示,这种商业模式法律问题重重:仿冒或冒用ChatGPT、OpenAI名义开展经营活动, 可能构成《商标法》、《反不正竞争法》下的一系列侵权行为;以之牟利造成消费者损失的,可能产生《商标法》、《反不正竞争法》、《消费者权益保护法》下的民事或行政责任, 情节严重并造成重大损失的,还有可能构成刑事犯。

针对各类ChatGPT代问代注册生意,律师认为,以营利为目的,利用国外服务器搭建VPN,未经国家信息产业部门许可,擅自经营VPN业务,并经营买卖国外账号, 涉嫌非法经营。对于经营者一般由公安机关责令停止联网,给予警告,可以并处15000元以下的罚款,有违法所得的,没收违法所得,情节严重,涉案金额较大的还可能构成犯罪,要追究刑事责任。 此外,消费者如果购买了此类服务或充值了会员,事后可能面临维权难、退款难的情况。?所以大家在娱乐的同时,一定要注意,不要被骗!

返回搜狐,查看更多

责任编辑: