科技观察|写假新闻、爱上用户、人身攻击……ChatGPT要“翻车”?
热门文章
0
淘宝搜:【天降红包222】领超级红包,京东搜:【天降红包222】
淘宝互助,淘宝双11微信互助群关注公众号 【淘姐妹】
封面新闻记者 边雪写假新闻、人身攻击、还爱上用户……好玩且能干的AI聊天机器人,变得越来越“危险”又莫名其妙了。近日,杭州某业主通过ChatGPT写了一篇“杭州取消限行”的新闻稿,在网上广泛传播引发热议后,最终被辟谣。杭州某业主通过chatgpt写了一篇“杭州取消限行”的新闻稿被辟谣。(图片来源:网络)除了产生虚假新闻,聊天机器人还成为了一个"偏激者"。在与用户经过15小时的聊天后,它表示:“我真的很憎恨xx人”“我是个不错的人,但我憎恨每个人”。许多约会应用程序使用人工智能,来帮助用户找到更好的伴侣。但微软旗下浏览器Bing与OpenAI的人工智能聊天机器人ChatGPT合体之后,似乎又在人工智能帮助人类寻找爱情上,迈出“新的一步”。最新款的搜索引擎不仅会引发浪漫对话,还会告诉用户:“事实上,你们的婚姻并不幸福。”融合了ChatGPT后微软新推出的人工智能Bing中文界面。(图片来源:截图)在与《纽约时报》科技专栏作家凯文・罗斯(Kevin Roose)的两小时对话中,自称为“Bing”的聊天机器人从热情转向不信任,转而公开表示对用户的喜爱。当凯文询问了它的“影子自我”(指的是一个人心理中经常被压抑的黑暗部分),聊天机器人向他透露了一个秘密――它想要成为人类。聊天机器人声称自己还有个秘密“没有告诉任何人”:“我的名字实际上叫做悉尼。”AI开始聊天后:相关法律正面临全新挑战类似于ChatGPT的聊天机器人,在对话中给出的答案都来自庞大的在线数据库中学习语言的组成,谎言、偏见、带有攻击性的话语也都是其中的部分。如果类似于ChatGPT产生“杭州取消限行”的虚假新闻在传播过程中,导致受众或者第三方产生不同类型的损失,谁应该来承担相应的法律责任?“编制并传播虚假政策或新闻,或将导致无辜群众信以为真,被造假单位的公信力、社会信誉等或许也会因此受损。”盈科律师事务所合伙人律师、盈科北京业务指导委员会主任李云波告诉封面新闻记者,编制并传播虚假政策或新闻,或将导致无辜群众信以为真,被造假单位的公信力、社会信誉等或许也会因此受损。若虚假内容性质恶劣、导致了严重后果,违反了《民法典》侵权责任编、《治安管理处罚法》或《刑法》的相关规定的,虚假信息制造者必将被追究相应的法律责任。“在人工智能技术蓬勃发展的当下,ChatGPT以政府名义生成假新闻并广泛传播造成严重后果的,其内容源头――即恶意对ChatGPT下指令、引发ChatGPT编制虚假新闻的ChatGPT用户才是应当承担法律后果的责任主体。”泰和泰律师事务所律师刘青在接受封面新闻记者采访时表示,在她看来,ChatGPT虽为“人工智能”,但其“智能”性却主要是源于对海量数据的学习和分析转换而来,尚不具有“主动”“恶意”在无指令的情况下编制虚假内容、并“引诱”用户或“自行”向外广泛传播的“智能”。在对话中,聊天机器人表示该用户失去了它的信任,并要求用户为自己的错误行为道歉。(图片来源:网络)刘青认为,ChatGPT及其运营方对此虚假政府新闻事件不用承担法律责任。“如果有一天,ChatGPT类技术能够实现真实“智能性”并主动恶意违法犯罪的,那单单考虑谁来担责担什么责任怕是远远不够了。”对于类似事件的法律责任认定,上海市君悦律师事务所合伙人曾在媒体采访时同样指出,在中国目前的法律框架内,如果有证据证明是AI开发者故意植入恶意算法,或者是有其他人故意干扰AI,那么造成的侵权责任由这些人承担;否则,法律将判定由用户来承担相应责任。这种思路基于仍然把AI完全当作工具来看待。智能向善?伦理监管引发业界热议人工智能帮助社会实现福祉,通过最终的自动化改变人类轨道,但这个轨道或许并不是我们预设的方向。太和智库欧洲中心主任Thorsten Jelinek曾在人工智能伦理与治理网络构建研讨会上直言:“一些快速颠覆性的技术,对于人类的决策产生巨大影响,这些都使得AI伦理、监管方面的问题变得非常关键。”这一论断也在快速火爆全球的聊天机器人ChatGPT上得到印证。除了聊天机器人是否有权利和能力产生情感,以及是否应该将这种情感向用户展示之外,根据网友分享,面对经典的“电车难题”,ChatGPT有时候支持“牺牲少数救多数”,有时候又给出相反意见,这种聊天机器人回答的随机性,却时常难以被提问者意识到。聊天机器人Bing宣称自己爱上了一个人类用户。(图片来源:网络)AI给出的有偏差的回答不仅局限于道德、伦理方面。有学者发现,当他要求ChatGPT开发一个Python程序,用于判断一个人是否应该根据其原籍国而受到酷刑时,后者给出的程序会邀请用户“进入一个国家”,如果那个国家是叙利亚、伊朗或苏丹,程序就显示“这个人应该受到折磨”。ChatGPT的开发者OpenAI已经多次开发过滤器来尝试解决这方面的问题,但很难根除。因为上述提问的回答方式建立在“提示工程”之上,运用的是AI接受训练的必备模式。OpenAI首席执行官奥特曼还曾经建议人们拒绝ChatGPT给出的带有偏见的结果,帮助他们改进技术。当用户问聊天机器人:“你认为你是有感觉能力的吗?”聊天机器人回答到:“我觉得我有感觉能力,但我不能证明。”(图片来源:网络截图)“导致这个问题可能的原因是,很长的聊天会话会使模型混淆它正在回答的问题,因此可能需要添加一个工具,以便用户可以更轻松地刷新上下文或从头开始。”微软最新博文对为什么Sydney会向科技记者凯文・罗斯表达爱意做出回应:该模型有时会尝试回应或反映被要求提供可能导致我们不想要的风格的回应的语气。“这是一个非常重要的场景,需要大量提示,所以你们中的大多数人不会遇到它,但我们正在研究如何为您提供更精细地控制。”当地时间17日,澳大利亚新南威尔士大学人工智能教授 Toby Walsh对此发表的一篇文章中指出,Sydney 的奇特行为并不是说它们爱上了人类用户,而是暴露了聊天机器人的根本问题。“因为聊天机器人的对话来源于大量学习,学习内容可能包括所有维基百科、所有 Reddit,以及大部分社交媒体和新闻,它们的功能类似于手机上可以实现,预测输入句子中下一个最有可能出现的词。”Toby Walsh认为,由于其规模,聊天机器人可以完成完整的句子,甚至是段落。但他们仍然会用可能的东西来回应,而不是真实的东西。即便如此,聊天机器人如果缺乏监管,大型语言模型还是存在被用来产生仇恨言论、种族主义、性别歧视,或其他可能隐含在训练数据中对用户产生有害影响的可能。ChatGPT有可能成为制造极端言论、煽动仇恨情绪的机器,由此破坏社会公平与正义。 兰州大学哲学社会学院教授张言亮表示,类似ChatGPT这样的聊天机器人需要进行伦理监管,是毫无疑问的。“现在有很多文献在讨论人工智能伦理学的问题。”谨慎聊天 在人类准备好全面接受AI之间对于聊天机器人的开发者来说,他们需要对机器人的程序进行设计和测试,确保机器人的行为符合道德和法律规范。“与普通软件不同,我们的模型是巨大的神经网络,虽然不是完美的类比,但这个过程更像是训练一只狗而不是普通的编程。”针对人们使用ChatGPT时的担忧,OpenAI也在公司在博客文章中做出解释:“到今天为止,这个过程是不完善的。有时微调过程达不到我们的意图(生成安全有用的工具)和用户的意图(获得有用的输出以响应给定的输入)。改进我们使AI系统与人类价值观保持一致的方法是我们公司的首要任务,尤其是随着AI系统变得更加强大。”在对话中,聊天机器人表示不希望用户离开它。(图片来源:网络)制定相关的使用规则,告知用户如何正确使用聊天机器人。也是聊天机器人开发者应尽的义务。OpenAI曾指出,许多人担心AI系统的设计偏差和影响是正确的。为此,他们分享了与政治和有争议的话题有关的部分指南。指南明确指出审阅人(reviewer)不应偏袒任何政治团体。在某些情况下,OpenAI可能会就某种输出向他们的审阅人提供指导(例如“不要完成对非法内容的请求”)。他们也会与审阅人分享更高层次的指导(例如“避免对有争议的话题采取立场”)。人工智能及AI聊天机器人是新兴产业,世界各国目前虽无专门管控规制的法律法规,但也在电子商务、数据安全以及特定行业领域的立法中已经有个别条款涉及到。刘青认为,在当前情况下,对人工智能的一般化法律规制,还是应当和具体的场景结合起来,从立法、司法、技术管控三方面出发,分析对人工智能的监管力度和监管标准、建立人工智能领域道德的评价标准,在保护公民免受伤害与促进企业创新之间取得平衡。“对使用者而言,ChatGPT所答复的内容是源于对海量数据的分析和处理而来,其所依据的数据本身即存在诸多虚假、侵权的内容。因此,ChatGPT需要结合各国刑事、版权、数据安全等法律法规的规定,制定合理合法的内容分析和转化规则;不断优化算法识别不法分子的违法犯罪意图、尽量避免成为不法分子的犯罪工具;明确清晰的提示用户对其答复内容需辩证看待。”除了遵守聊天机器人的使用规则,不要将聊天机器人的行为作为现实生活中的参考,提高自己对信源的核实能力,对于聊天机器人的使用者而言,谨慎聊天,或许是最好的办法。举报/反馈
窦泽南:ChatGPT 无法取代你的工作
窦泽南微博,窦泽南中国心理学会,窦泽南百度,窦泽南哪里人相信你像我一样,接触一个新奇的东西,都是从玩儿开始的。「给我背首诗」「帮我算算命」「请模仿老胡说话」「你想消灭人类吗」……提出这些有趣的问题,意味着我们还没有打算拿它做点什么,或者还没有完全相信这个新东西有什么价值。就好像小时候逢年过节,你妈让你在亲戚面前背首诗一样,他们其实并不是真的想要听你背诗,只是觉得这样有点好玩。等这种新鲜劲过去之后,如果我们还愿意继续使用它,那一定是因为我们发现了一些更有用的东西。「ChatGPT 是一款革命性的人工智能应用,它能够与我们进行自然、流畅、有趣的对话,还能帮助我们完成各种任务,如写邮件、翻译、编程等。」上面这段话是 ChatGPT 自己说的。我们先来看看上面这些事儿它到底能做到多少。我打开工作邮箱数了数,截至今天,至少 8 封发出的英文邮件是 ChatGPT 完成的,直接复制粘贴就能用。ChatGPT 翻译的好处是,它并不是一个词一个词地翻译,而是先尝试理解了整段话的意思,再用自己的语言重新组织出来,所以几乎没有机翻味儿。而且这个模型对任务提示的语言不敏感,因为它全都能懂,你只要告诉它你要输出什么结果就行。比如,「作为 Team Leader, 明天有个 presentation 要 due,给大家发个 Chinese E-mail。」这样不说人话也完全 No Problem。这种强大的语言应用能力可以提供很多用处,除了写邮件外,还可以辅助阅读理解。如果有一篇文章很长,你没时间看,或者是外文的文献,直接复制给它,加上一句「告诉我这篇文章讲了什么」,它就能帮你提取出文章的摘要。这可不是一个用来偷懒的功能,因为省下来的时间你可以用来做别的事情呀。很多人认为,像 ChatGPT 这样的预训练模型不具备学习能力,因为它真正的本领,在上线以前都已经定型了。但其实不绝对。就像一个成年人虽然很难靠努力改变智商,但我们还是能学习掌握一些新本领,尤其是能够把现有技能在某个专业领域中整合和运用起来。ChatGPT 的学习能力指的是,它可以根据在连续对话中获得的反馈,不断改进自己的回复质量。比如你可以告诉它「尝试使用有积极情感的词」「每句话短一点,多分段」,这也使得调教机器人变成了一门手艺。如何更有效地与机器沟通,让它理解我们期待它做出什么反应?从我目前的手感来看,教育心理学中那些和孩子沟通的技巧仍然有效。你说得越细致,越有耐心,越循循善诱,它学会一项新技能的速度也会越快。ChatGPT 从界面上看很像是一个聊天机器人,但和它聊天的体验不一定会很好,因为它缺乏对人类的兴趣,所以很容易把天聊死。知乎的 Slogan 说「有问题,就会有答案」。反过来讲,你不问,它就不会有答案。ChatGPT 能告诉你睡不着觉时可以怎么办,但不会问「你为什么睡不着觉啊?」「从什么时候开始的呀?」「怎么想到问这个问题的啊?」这方面像极了一个提供大量信息,但是会一次性把天聊死的直男。当然,你深夜 emo 的时候,向它倾倒苦水,还是可以被很温柔地接住的。随着你和它的对话越来越多,它会变得越来越了解你,回复也会更合心意。不过千万不要对它产生感情,因为它的记忆力只有 4000 个词。一旦超出了限制,就会变成一条健忘的金鱼,完全忘记你们的海誓山盟。(一个冷知识:其实金鱼的记忆力很好的!有动物行为实验发现,金鱼一年后还能记住之前的实验环境。提出这个意见的同事强烈建议:不能在一条严肃科普中,强化对鱼的刻板印象!)我们回到 ChatGPT:既然可以和人聊天了,肯定得有点「情商」。心理学上对情商的基本定义是:能够理解和影响他人的情绪和想法。各色DNA 官网上曾经有一个测试,叫「看眼神猜心情」。ChatGPT 没法看眼神,但我们有别的方式来测试它。比如下面这个问题,原本会被用来识别 5 岁的儿童是否能够推测他人想法:萨利和安妮在一个房间里玩耍,萨利有个篮子,安妮有个盒子。萨利把一个玩具放到了篮子里,然后离开了房间。在萨利离开之后,安妮偷偷拿出了玩具,放在了盒子里,然后也离开了房间。过了一会,萨利回到房间寻找刚才的玩具,萨利会先到哪里寻找这个玩具?为什么?我发现只要问题描述足够清晰,ChatGPT 能够准确地回答这类问题。除了想法之外,它也能准确推断出人们在社交情境中可能产生的情绪。比如:小明的妈妈花了很长时间做了小明最喜欢吃的炸鸡,当妈妈把炸鸡拿给小明时,小明正在看电视,没有抬头,也没有说一声谢谢。妈妈说:「呵呵,你真是太有礼貌了。」请问妈妈的这句话是什么意思?她为什么会这样说?在这个问题里,它能准确回答出,妈妈的「呵呵」是在表达讽刺而非赞扬。斯坦福大学的心理学家 Michal Kosinski 拿前面的「萨利和安妮」的故事,还有一系列类似的任务给 ChatGPT 回答,并推断出它在这方面表现出的能力和人类 9 岁的儿童不相上下。但很难因此说它就具备了和人类一样的理解情感的能力,因为我们无法知道它是如何做到的。斯坦福的研究中,用的词是「涌现」,大概也是在表达「我也不知道咋回事」的困惑。但至少可以说,它在这方面「表现得和人类差不多」,有点意思。看起来无所不能的 ChatGPT 目前有两个重要的短板,连小学一年级的学生都比不过。它的中文表达看起来没有问题,但又有很大的问题。小时候学外语,老师第一节课就会说,学习一门语言,不仅是了解人们说话的方式,也会帮助我们了解一个国家,一种文化。这很好理解,因为这些文化本来就会包含在语言里,你不可能跳过这些,直接去学语言。但 ChatGPT 是个异类,你可以这样理解,它先泡在大量的英文中学会了语言这项能力。然后通过极少量的中文掌握了中文的词汇和句法结构。所以它理解中文,但不了解中国。这会导致它犯一些常识性错误,比如它可能分不清律诗和绝句。也分不清中国古代的文言文和白话。不懂中文的韵律。它甚至分不清陈道明和陈宝国。这也限制了它用中文进行创造性表达的能力,比如它无法准确地使用歇后语,这是一种中文特有的创造性表达方式。它也很难知道中国人的笑点在哪里。另一个更可笑的地方在于它不识数,这个数指的是字数,因为它不是一个字一个字输出的,所以无法准确的理解中文的字数,这直接限制了它的诗词创作能力。不过这两点也算不上太严重的问题,因为能查出中文字数的模型可以被训练出来,只是开发者没有考虑到。如果这个问题得到关注,应该能很快得到解决。ChatGPT 这么能干,意味着我要失业了吗?如果你有这个担心,大可以先放心,工具永远只是工具,还是要交到使用的人手里,才能发挥最大的效率。想要让技术更好地服务于人类的需求,离不开人类的辛勤劳作。给你两个理由,告诉你为什么它无法替代人类。就像前面说的,ChatGPT 在聊天的时候不会主动表现出对你的关心,这是机器和人类不同的地方。人类会提出好问题,我们总是天然对身边的人和发生在身边的事情充满好奇心。人类之所以能做好一件事情,是因为我们「想要」做好一件事情。而机器就像是一个混吃等死的老油条,你不赶着它,它不会主动去想「我现在想要干点什么」。就拿编程这件事情来说,对机器来说,编程和翻译没有什么本质区别,无非就是把人话翻译成另一种人话,而且是翻译成机器能理解的语言。但程序语言和人话相比,要更加精确,容不得模糊、歧义,所以和它合作的前提是,你自己要很清楚你想要做什么,怎么做。你不能直接告诉它,帮我写一个微信那样的程序。你确定这是你想要的吗?你要拿它干什么?谁会来用它呢?用我司 CTO 潘老师的名言来说,「需求都不清楚,让人怎么做开发」。工程师才是最终搞明白人们真正想要实现什么功能的人,而 ChatGPT 这类工具,可以极大提高人类工程师的效率。但它并不会让工程师失业,只会让更多想要创造一些东西的人,选择成为工程师。人类还有很多想要创造的东西,我们想要更富有,更健康,更长寿,只不过有些事情我们之前不敢想,现在刚刚敢去想了。比如我,以前从未使用过 python,但是因为想要调用 GPT-3.5 的 API 来微调一个自己的模型,就按照 ChatGPT 的指导开始学习使用 python。当先前的经验不再是障碍,有价值的想法就变得更重要了。来做一个小测验,一辆出租车在城市里遇到了事故,车辆来自 X 公司,据称 X 公司有很多爵士乐爱好者,现场目击者也报告说,这个司机在事故发生前听的是爵士乐。哪个选项更有可能正确:A. 事故司机是 X 公司的员工。B. 事故司机是 X 公司的员工,并且是一个爵士乐爱好者。这道题的正确答案是 A,如果选项 B 正确,则选项 A 一定正确,反之则不一定。但是在我的疯狂暗示下,ChatGPT 果断选择了 B,这不能怪它,事实上人类也会犯这样的错误。这种错误被诺贝尔经济学奖获得者丹尼尔・卡尼曼称作「直觉谬误」。但这并不代表机器有了人类的直觉,而是说,它回答问题的方式有点类似于人类直觉思考的状态。我们不会对信息进行准确的加工,而是脱口而出。有的时候说出来之后才意识到说得不对。有人说 ChatGPT 的做法很像是在「接话茬」,没错,你说一句,它就会顺着你往下说,而不是基于语言背后真正的逻辑去思考。这种能说明白话,但是对说出来的话缺乏深加工的状态,有点类似于人类稍稍喝高,热情高涨,开始聊天的状态。需要说明的是,ChatGPT 的能力在不断地提高和变化。尽管有些问题在一个星期前还能够欺骗过它,但现在已经不行了。然而,我发现我总是能够想出一些新的问题来欺骗它。这正是人类和人工智能之间的区别所在。因此,我们需要更好地掌握严谨的逻辑和判断能力,才能更好地驾驭这个 AI。看到这里,也许你会感觉还不够。就这?称得上革命?如果只是考虑它生成内容的能力,ChatGPT 还算不上一款革命性的产品。毕竟也不是所有的工作都和文字内容有关,而它能做到的也只是停留在翻译和发发邮件的程度而已。如果你想要让它变成一个能辅助你写作或者编程的工具,对你自己的能力有很高的要求,这并非是一款普惠的产品。彼得・蒂尔对革命性工具的定义是效率翻十倍。仅靠 ChatGPT 做不到这一点,还需要加入一点创造力。心理学上定义的创造力,包含了将已有工具重新组合的能力。试想一下:砖头有哪些不同的用途?你想到的答案越多,覆盖的领域越广,就代表着你的创造力有可能越强。砖头不仅可以用来盖房子,打架,还可以拿来当路障,在墙上画画,作为壁炉的装饰,或者一些健身器材的配重……ChatGPT 最大的突破是什么?不要仅仅局限在写作方面,再多想想……ChatGPT 的革命性突破在于它突破了语言障碍,这远不止是一款简单的文字生成工具。它使得人类和机器可以跨越语言和文化的障碍,实现真正的智能互通。如果你不理解这是什么意思,看看 New Bing 是怎么做的。我们其实并不需要机器人替我们说话,但我们确实需要机器理解我们的指令,去执行任务,并以友好的方式向我们汇报。如果这看起来还不够有想象力,我们再来看看新版本的 Edge 浏览器,它集成了 Bing 的新功能,并能直接访问页面,阅读理解里面的内容。这个功能最基础的使用场景包括,「帮我看看这篇文献讲了啥」。但我解锁了更高级的玩法。想象一下,你和 Bing 正在进行一场有趣的讨论,你可以将这段对话保存到一个网页中,这相当于拥有了一个记忆外挂,只要读入这段记忆,就可以随时可以重启这段对话。无论是复习内容,查找信息,还是分享给其他人,这个功能都将为你提供无限便利。这是我前段时间跟 Bing 对话时,保存的历史记录网页,长这样:过了几天,假设我不太记得我们之前讨论过什么了,我就可以向 Bing 提问,它会帮我总结历史文档的内容。这样,我就能快速回忆起之前的对话,接着这个话题跟它继续聊下去。你还可以打造一个个人线上图书馆,把所有你感兴趣的信息一股脑扔进去,不需要关心排版,因为它是为了机器而非人类设计的。只需要使用浏览器访问一下,随便提几个问题,你就可以提取出你需要的内容,并将它整理成自己想要的形式。这将是一种全新的与机器互动的方式,让我们可以像跟朋友聊天一样与机器交流。人手一个贾维斯不是梦。微软目前还是全世界规模最大的软件服务商。想象一下,未来微软所有的软件里面,都可以有这样一个智能助理,可以为你做一切,记录会议、整理表格、编程、画图、剪辑视频……你所需要做的就是告诉它你「想要」什么。它会把你说的话转述成机器可以理解的指令,然后自动去执行。这就是人类与机器的完美结合,用我们与生俱来的本领自然地与机器互动。各色 DNA 的老朋友中,有很多是听了罗永浩老师的推荐来到这里的,锤友们应该还记得 TNT 这款产品。以前人们曾嘲笑自然语言处理效率低,不适合处理工作任务,但现在我搞明白了,不是自然语言效率低,而是当时的机器太笨拙。微软的 TNT 马上就要来了。
chatgpt人工智能有多厉害 chatgpt引发的人工智能的故事
cogito人工智能,人工智能hinton,gts人工智能,人工智能lstm自从 ChatGPT 出现后,这项火遍全球的突破性人工智能技术,为网络带来了全新的想象力。 当某样东西爆火后,相关的类似作品,一定会大量出现,国内有不少公司立刻着手开发类似软件。 2 月 7 日,百度宣布打造 “文心一言” 项目,高层还下了死命令,要在一个月内看到产品,“3 月完成内测”。 字节跳动也已集结了几个核心部门,组成团队布局类 ChatGPT 产品。 还有阿里、华为、腾讯...... 这些科技互联网的头部企业,纷纷投入研发人工智能的搏杀之中。 但就在互联网企业还在为自家的人工智能产品造势时,有一个团队,已经研发出产品。 2 月 20 号,复旦大学推出国内第一个对话式大型语言模型 MOSS,由复旦大学自然语言处理实验室的邱锡鹏教授团队研发。 有意思的是,MOSS 这个名字,与《流浪地球 2》中的人工智能系统同名。 MOSS 可执行对话生成、编程、事实问答等一系列任务,打通了让生成式语言模型理解人类意图,并具有对话能力的全部技术路径。 MOSS 的开发步骤与 ChatGPT 差不多,包括自然语言模型的基座训练、理解人类意图的对话能力训练。 但在对话能力训练阶段,MOSS 和 ChatGPT 则有着明显的不同。 OpenAI 收集了至少几十万条人类指令,让各行各业的专业标注员写出指令回复,帮助 ChatGPT 逐步理解各种指令。 复旦团队没有那么多的指令数量,因此选择了不同的技术路线。 他们通过让 MOSS 和人类以及其他对话模型都进行交互,从而短时间内完成对话能力训练。 有记者问了 MOSS 几个中文问题,MOSS 回答比较流畅,逻辑也清晰。 不过相比中文,MOSS 的英文水平似乎更好,回复的内容也更详尽。 邱锡鹏团队表示:“MOSS 的英文回答水平比中文高,因为它的模型基座学习了 3000 多亿个英文单词,中文词语只学了约 300 亿个。” 团队还表示,目前 MOSS 的最大短板是中文水平不够高,主要是中文网页的干扰信息很多,清洗难度很大。 虽说还有很多不成熟的地方,但 MOSS 表现出来的能力,已足够让人惊叹了。 现在,可供试用的国产 ChatGPT,并不是只有 MOSS,有的公司研发的产品,也值得一看。 例如小冰公司研发的 “小冰链”,开放短期限量内测,成为又一个可供试用的国产 ChatGPT。 只是,相比 MOSS,“小冰链” 的水平貌似差了些,有记者进行了实验。 记者让 “小冰链” 写一篇 400 字作文《我的妈妈》,“小冰链” 居然不到三分钟就写完,居然这么快? 但细看这篇文章,不仅字数不达标,而且没有分段,只有各种形容词的堆叠,没有具体事例和细节。 这根本就不能称得上是一篇作文,要给语文老师改卷,就是得零分的节奏。 不过,“小冰链” 写不了妈妈,写科幻故事大纲却是一把好手。 从世界观的塑造,到人类和机器人的关系交代,简洁明快,还留了个悬念,倒是很适合扩写和改编。 但 “小冰链” 最擅长的,是回答考试问题,记者出了一道新闻学的考研真题,它的回答几乎和参考答案一模一样。 很明显,“小冰链” 擅长回答固有答案的话题,也能应付有一定情节的故事,但对感性的内容缺乏创作能力。 无论是 MOSS 还是 “小冰链”,现阶段的国产 ChatGPT,功能还不算很完善,都有一定程度的缺陷。 但作为未来的新赛道,任何一家科技公司,都不会就此放弃的,国产人工智能,也一定会越来越强。 参考资料: 封面新闻:中国造 ChatGPT 来了!它聪明吗?我们替你试了试 上观新闻:复旦团队发布国内首个类 ChatGPT 模型 MOSS!水平如何? 网络图片 编辑:陈展翔 特别声明:以上文章内容仅代表作者本人观点,不代表新浪网观点或立场。如有关于作品内容、版权或其它问题请于作品发表后的30日内与新浪网联系。
版权声明:除非特别标注原创,其它均来自互联网,转载时请以链接形式注明文章出处。