淘优惠

淘优惠

哲学学者余明锋:ChatGPT的回答追求正确,真正的人文教育并非如此|专访

热门文章 0

淘宝搜:【天降红包222】领超级红包,京东搜:【天降红包222】
淘宝互助,淘宝双11微信互助群关注公众号 【淘姐妹】

余明哲简介,余明简介,余明裕教授,余明克教授
记者 | 林子人编辑 | 黄月12022年11月,美国人工智能研究实验室OpenAI推出了ChatGPT。截至2023年1月末,其月度活跃用户已突破1亿人次,成为史上用户增长速度最快的消费级应用程序。继2016年的AlphaGo之后,ChatGPT再度一石激起千层浪,引发全球公众对人工智能领域的关注。ChatGPT是由人工智能驱动的自然语言处理工具,拥有语言理解和文本生成能力,它通过海量数据训练模型,使其几乎无所不知。令人们惊讶和着迷的是,ChatGPT还能根据聊天的上下文,模拟类似真实人类的聊天过程,撰写邮件、文案、翻译、代码等任务。ChatGPT还预设了某种道德准则,一旦判定用户的话语中包含恶意或犯罪意图,就会拒绝提供答案。ChatGPT的横空出世标志着人工智能领域的重大发展,而随着用户积极地发现它越来越多的用途,它改变甚至颠覆既有生活方式、社会常规和政治经济秩序的可能性也在渐渐浮现。技术与人的关系是同济大学人文学院副教授、哲学系副主任余明锋近年来重要的研究方向,2022年出版的《还原与无限》一书是他的“技术时代”三部曲的开篇。余明锋认为,ChatGPT在开启了人工智能新时代的同时,对经济、政治、日常生活,乃至人类的自我理解、哲学思考、基本的价值信念、社会法则等方面带来了深刻的挑战。余明锋(采访对象供图)在接受界面文化(ID: Booksandfun)专访时,余明锋谈到了ChatGPT可能对大学教育、人类自我身份认同、价值观、就业机会和社会公平正义等方面产生的影响。他认为,ChatGPT带来的挑战固然很多,引发的许多问题还只是猜想没有答案,但以ChatGPT为代表的人工智能技术同样也是人类反思自身和既有社会问题的契机。为此,我们需要以更积极的姿态应对技术变革,在巨大的社会变动和价值观冲撞中谋求某种共识。界面文化:你对ChatGPT这项技术的出现有怎样的感受?余明锋:ChatGPT好像是从北美刮过来的一阵旋风,瞬间成为了一个全球性话题。我试用之后,几乎每天都在中英文媒体上看各种报道和分析,大致形成了自己的判断。人类仿佛又到了一个接近技术奇点的时刻。2016年AlphaGo掀起了对于人工智能的狂想,面对ChatGPT我们会有似曾相识的感觉,但这一次人工智能突破的不是一个规则清晰的棋类游戏,而是有着相当的模糊性和高度灵活性的人类自然语言领域,这是一个非常大的不同。在OpenAI开放ChatGPT让全球所有人去体验之前,很多人是不相信它能实现突破的――语言是人类世界中最神秘的现象之一,可以说是人类思维和全部人类文明的基本载体,我们的自我和世界其实是通过语言打开的,这是哲学的基本看法。所以这一次技术突破确实会带来巨大的影响。AlphaGo在2016年预告了靴子即将落下,ChatGPT就是第一只落下来的靴子,它开启了人工智能的新时代。这个技术突破不但关系到互联网领域的投资和商业领域的变革,而且会深刻影响我们的日常生活。当然,ChatGPT只是GPT3的一个衍生产品,是AIGC(内容生成型人工智能)大家族中异军突起的一支而已。不过,它大大加剧了群雄逐鹿的形势,也许会在很大程度上挤占其他枝杈的生存空间,化生为未来的根脉。人工智能的另一个兴奋点是谷歌旗下的Alphafold,那意味着人工智能与生物技术的结合。无论如何,我们有理由相信内容生产型的人工智能会有广阔的前景,这一只靴子我们可以断定它已经落下,可还有另一只靴子,这是我想说的重点:人工智能的广泛应用,究竟意味着什么?它对经济、政治、日常生活,乃至人类的自我理解,对我们的哲学思考和基本的价值信念、社会法则等等会带来哪些深刻的挑战?这是未来会发生的事情,也是我们作为思想者如此关注它的更为重要的原因。所以,关于此的公共讨论非常有必要。摄影:范剑磊界面文化:你用ChatGPT问了什么问题?余明锋:比如 “人类什么时候会灭亡?”它的回答比我想象得悲观。它说有关于此,学者们尚且无法确定,但大多数人都认为,“几十年后,由于不可避免的气候变化、环境污染、社会分歧、人口过剩等社会现象,人类将面临灭亡的威胁。”不过,也有朋友提醒我,用英文提问,答案会不一样。无论如何,我大体了解了为什么大家会那么兴奋和惊讶,因为它确实“会聊天”,能够进行有连续性、有逻辑的对谈,而且表述确实是它自己综合网络资源生成的。界面文化:美国的一项实验发现,OpenAI的GPT-3模型在经过数百万单词的训练后,已经能够伪装成美国哲学家丹尼尔・丹尼特(Daniel Dennett)与人讨论哲学问题,很多时候我们难以分辨AI生成的评论到底是否出自丹尼特之口。作为一位大学老师和哲学学者,你是否会有危机感?余明锋:这是一个我特别想谈的问题,但我想首先对人工智能技术做一番祛魅的思考。某种意义上,人工智能天然地有一种“魔术”的性质。魔术有自我隐藏的特征,魔术师不会把TA的技巧给你看,而是给你看效果。这是魔术的基本特征,人工智能也是如此。我们需要意识到,ChatGPT不是真的在聊天,而是一个有交互性的数据处理。面对高度复杂、有很强模糊性的人类语言,它能够实现这样的数据处理当然是惊人的,但数据处理依然是它的本质。这个区分非常重要。真正的聊天不是单纯的信息交流,而是有着丰富的人性要素。这是我首先想说明的,它对于我们接下来的讨论非常重要。也会有人反过来问,我们难道不可以把人类的智能理解为复杂的数据处理吗?这是一个非常有趣的哲学问题。我个人认为这是对人类智能的高度简化。人类的聊天不只是在处理信息,其中情绪性、直觉性、联想性的东西,不能化约为数据处理。当然,人工智能的研究者肯定会在未来试图把它们化约为数据处理――当我们把它们还原为数据处理的时候,我们就可以使机器更接近人类的需要。但我们要意识到这是两件本质不同的事情。数据处理本身是对人类精神世界的一个巨大简化,虽然这样的简化会越来越有效,而且会带来一些巨大的改变。可简化总是有损失的,再有效的简化也不同于事情本身。明白这一点后,我们再来看它对哲学研究和哲学教学的影响。黑格尔、海德格尔等著名哲学家都会说一些“黑话”,就是个人特征非常明显的语言,这样的语言是可以作为语料库来训练的,但这不是哲学研究,而是在模仿人类既有的思想成果。真正的哲学研究需要创造性地提问,并且要结合自己的生存处境、自我认识、世界上的种种矛盾,提出切身的问题,这甚至是一个哲学家最重要的品质。全新的提问方式会把我们带入全新的思想世界,这种创造性是不能简单被机器替代的。但对学者而言,影响会很大。学者和哲学家的区别在于学者处理前人的文本,他们解释黑格尔谈了什么、丹尼特谈了什么。这种处理既定文本的能力也是有创造性的,而不是简单的复述。我作为一个尼采研究者解释尼采的时候,带入了我自己的视角,带入了我们时代的关切,他的思想在我们这个时代之所以有研究的必要,是因为和我们当下的生存有相关性。但另一方面,现在的论文学术体制中大量的工作就是文献梳理,这个工作在未来会被包括ChatGPT在内的人工智能技术大大影响。已经有很多国外著名期刊要求作者必须声明自己在写作时是否使用了这个软件,或者直接拒绝有ChatGPT参与的论文,国内的期刊也开始有反应。这是非常有意思的事情,充分说明了ChatGPT对这个层面的学术研究的影响。它会形成一个错乱的机制,一篇基于ChatGPT的综述写成的文章算不算作者自己的成果?如何评估它的影响又是一件有趣的事情。对于真正有创造性的学者来说,ChatGPT当然可以节约时间,因为学术研究确实有很大一部分时间是在处理信息,而ChatGPT可以在处理二手文献方面提供很大帮助,大量的二手文献只有浏览和综述的价值。这个意义上,我个人有很强的兴奋感去了解它,因为在我看来,论文写作在当下过多地挤占了真正的哲学思考,哲学的本意在今天其实已陷入巨大危机。界面文化:我们再从学生的角度聊聊这个问题吧。ChatGPT能归纳、总结、举例、理解上下文,能够回答开放性、创意性的问题,甚至在一些涉及伦理安全的敏感问题上都能答得很好。我们是否到了需要担心人工智能会冲击文科教育的时候?微软已宣布在搜索引擎Bing中引入ChatGPT,我们熟悉的搜索框将变为对话框,今后Bing将对复杂的搜索请求给出更完善的答案。在此之前,搜索引擎对我们获取信息、学习知识的方式的改变就已有诸多争议,当有技术甚至能直接给出参考答案时,是否会进一步削弱我们阅读原典的动力?它是否会导致智识上的懒惰?余明锋:如果我们没有把经典文本装在心里,其实是没有办法对它做深入分析的,因为经典文本需要玩味,需要化入自己的生命。我们这一代的学者已经非常习惯于用PDF的搜索功能去查关键术语出现的概率和语境,这种处理方式会让我们的思考偏于机械化。在这个意义上,无疑有一种退化。随着更强大工具的兴起,深入阅读后归纳总结、撰写文献综述的能力也会发生普遍的退化,这不是一个太耸人听闻的观点。还有一件很重要的事情是注意力。对于一个思想者来说,注意力极为重要,它不但是有效学习、深入思考的前提,而且是个人幸福感的重要要素。目前大家更忧虑的是,学生以后还会不会独立写论文了,教育者又要如何判定学生的论文。我试着反过来看这个问题,论文写作这件事在今天是不是被过于强调了?学生的能力通过论文来评判,学者的生产力也由论文数量和被引率来评判,这件事本身值得反思。论文写作对学术初学者来说固然是一种重要的训练,但更基本的训练恐怕是非常基础的人文教育,比如深入经典文本的能力、倾听和对话的能力、历史感和社会关怀等等。ChatGPT对论文的挑战,也许会促使我们调整既有的教育模式。真正有效的哲学教育很大程度上体现在学生是否被“打开”,他们的问答是否具有反思性和逻辑性,他们是否被启发着去质疑和反思,去进行有逻辑性和有创造性地论辩,他们在论辩时是着力于为自己辩护还是着力于事情本身的澄清,等等。所以在我的教学范围内,我不是特别担心这件事,虽然危险的确存在,但它也可以是一个我们解决既有问题的契机。包括哲学在内的人文教育,真正的意义不是培养学者,而是培育真正意义上的人,甚至大写的人。可我们仿佛本末倒置了,这是尼采在100多年前就痛心疾首的事情。人文教育关系到青年灵魂的成长、生命的塑造、对伟大传统的理解和对世界的开放态度。ChatGPT的回答追求正确,可真正的人文教育关注的恰恰不是给出全然正确的答案,而是基于深切的关怀和深厚的学养去追问,由此打开新的反思空间、新的生命空间。在这个意义上,哲学思考有行动的性质,这些都是无法被机器所取代的。界面文化:当人工智能已经在一定程度上可以做到近似人类的思考,人类要如何保持自己的身份认同呢?和人工智能的“思维方式”相比,人类的思维方式还保有哪些独到之处?余明锋:哪怕一个小孩给出了错误的答案,TA回答过程所关联到的要素都比信息处理来得丰富。TA有想象,有直觉,还有一些莫名其妙但真实感受到的东西。我在写完《还原与无限》后准备撰写的第二本书叫《感知论》,感知这件事其实非常要紧,而人类过去包括哲学在内都更强调理知。理知当中有很大一部分是可以被机器替代掉的,而感知这种能力其实对文学艺术创作、哲学思考来说极为重要。它不是简单的信息处理,很多时候是跳跃性的、从无到有的,甚至莫名其妙地生发出来的。ChatGPT的一个问题在于,它使用的是过往的语料库,你如果现在问它2022年的事情,它是不知道的。这还在其次,毕竟它可以更新。更重要的是,它是在处理海量数据中生成的回答。这意味着,它的回答基于出现频率最高的、在大多数人当中流行的说法。可真理往往掌握在少数人手上,人类自古以来如此。真正有创造性的思想,在当时常常是不被接受的。内容生成型人工智能的核心原理是贝叶斯公式,数学家贝叶斯(Thomas Bayes, 1702-1761)在世时没有得到承认,贝叶斯公式是在后世不断的运用中赢得了声誉。在这个层面上,我觉得ChatGPT是一个巨大的危险:数据处理可能会加固人类既有的流行观念,而严肃的思考恰恰需要质疑这些东西。另一方面,人类反馈训练的环节事实上是培养了人工智能的“政治正确”,目前ChatGPT的处理方法是搁置关于道德、宗教或政治方面的很多话题,然后在其他一些问题中把违背人类直觉或道德底线的一些东西排除掉。我们可以设想,尼采的文本可能通不过它的检验。尼采后期自称是非道德主义者,有很多激进的言论,这些言论对人类的道德反思做出了重要的贡献。比如说,他认为许多看上去善良温和的道德其实是出于我们的怨恨,背后可能是人类的权力欲望,这是一个高度批判性但是值得我们深思的视角。在ChatGPT这样的信息处理当中,这样的答案大概率会被过滤掉。于是它将形成一个新的人类知识库,加固“正确的”意见。界面文化:也就是说,ChatGPT的一个潜在威胁,是可能无法容忍超出现有道德伦理框架的一些观点。余明锋:对,而且现有的人类道德伦理框架还有国族和文化差异,这就很麻烦。比如关于女性的观点,美国人和阿拉伯世界的人差异巨大。目前ChatGPT简单又聪明的处理办法就是搁置这些话题,但如果真的要与ChatGPT深入聊天,很多问答会不会隐含这些价值判断?那么当ChatGPT被训练为给出标准的、“政治正确”的回答,这一机制就会成为人类自我理解的一面镜子。如果持有不同价值观的政治共同体训练出不同的聊天机器,是否会导致人与人的隔阂越来越深?这都是问题。界面文化:ChatGPT的出现加剧了另一种恐惧――人类的工作岗位是不是会进一步加快流失?也有一种对技术进步更乐观的观点认为,我们应该争取一个“人工智能+人类”(而非“人工智能取代人类”)的未来,在人机密切合作的时代里,人工智能成为人类的个人助理。你对此怎么看?余明锋:我觉得两方面的观点都有道理。首先谈就业焦虑的问题。其实现在最焦虑的不是普通的打工人,而是互联网巨头,因为这一次人工智能突破涉及到的会是新一轮的互联网基建。各大搜索引擎和APP如果要植入ChatGPT,都需要重新改造。通用人工智能的巨大应用前景是让谷歌、脸书这样的互联网巨头非常紧张,这个转变的关口如果没有跟上,就没有办法与微软竞争了。摄影:范剑磊回到普通人来说,如果说工业革命替代的是低端的体力劳动,那么人工智能革命替代的会是低端的脑力劳动。前两年大家讨论大卫・格雷伯的《毫无意义的工作》,我想很多人意识到了生活中很多的工作就是狗屁工作,写发言稿、填表格、做方案等等都是低端的脑力劳动。总体来说,这些低端的脑力劳动未来会在相当程度上被替代。但就像工业革命会产生新型的低端体力劳动一样(比如农民可能去开收割机,或在流水线上按螺丝),人工智能也可能会产生一些新的岗位,比如训练人工智能的标记员,可这甚至已经不能算是脑力劳动了。总之,就业会发生大规模的缩减和转移,这两者会同时发生。《毫无意义的工作》[美]大卫・格雷伯 著 吕宇B 译中信出版集团 2022-7第二个相关的看法是,我们需要反思今天的中国教育。如果我们目前培养的就是低端脑力劳动者,那么未来是很容易被替代的。今天的大学教育非常成问题的一点是普遍的绩点制,大学变成了高中的延续,老师在忙于写论文,学生在忙于考试、争取高绩点,这使得自由讨论、质疑、批评的氛围,甚至一些值得鼓励的偏离轨道的尝试都大大减少。改变教育体制并不容易,因为教育在我们的社会也是一个公平机制。依照考试成绩和论文数量来评判的机制无论如何僵化,都成了社会公平的底线。这是我们的教育“不能承受之重”,是其社会功能所在也是症结所在。任何一种变化,如何能够同时维系社会公平?也许,一个办法是做出区分,在基础教育阶段强调公平,但在高等教育阶段,既然已经择优培养,那就要卸下这个社会职能的重担,让该精英的部分精英起来。我个人在这方面不是特别乐观,但它值得我们进行广泛的公共讨论。不然我们将不止在ChatGPT这一步落后,还可能落后于整个人工智能的未来发展方向。我们虽然无法要求所有人都有创造力,但至少能培养出具有灵活性、不是成天从事那些狗屁工作的人,“君子不器”是我们该有的人格理想。界面文化:格雷伯对狗屁工作有很多不同的分类,狗屁工作当然和刚刚提到的低端的脑力劳动有很大的重合度,但其实很多工作的存在(比如“随从”类工作)是为了满足职场上位者的需求,无论是虚荣心还是权力欲望。这一类工作虽然毫无意义,但它是根据人性需求创造出来的。人性很难改变,那技术也不大可能改变这样一种职场权力结构。余明锋:这里涉及到一个问题,就是人工智能的主体性认定。我们之所以要一个人做随从,是因为TA是人,如果后面跟着人工智能好像没什么值得骄傲的,就没有刷存在感的空间了,是吧?现在有人提出一个问题,我们是不是应该拓展主体性的概念,当机器能够与我们互动时,我们是否应该承认它的主体性?我个人比较倾向于前面说的,要在人性思维和数据计算之间做出本质区分,人工智能毕竟是一种“魔术”。虽然这种魔术愈发逼真,就像电影《她》(Her)展示的,人工智能在未来可能会满足很多人的情感需要,比如说晚上睡不着,把你的伴侣吵醒是件很糟糕的事情,而聊天机器可以给你讲个故事。可主体性的确认恰恰需要差异性的张力,如果我们的情感需要都寄托在方便的TA上面,那恐怕不是机器的主体性的提升,而是我们自己的主体性的没落。不止居上位者有权力欲,普通人的权力欲未来可能是需要通过机器去满足的,就像人们会养宠物一样,未来可能会养自己的聊天机器,你可以养出一个文质彬彬或心直口快的聊天机器,而这都关系到主体性的维系和没落。此外,我还想说一个哲学上非常值得注意的问题,就是人类的自我理解。它不止事关个体,也涉及到人的社会性,涉及到人把什么作为他者。随着“人性化”的人工智能进入我们的生活,它对人类心理的这种微妙影响力其实值得关注。现在的青少年已经出现了这个状况,就是人性的交流大大不足。很多青少年在需要交流的时候被打发去玩iPad、打游戏或者听故事,过度的人机交流其实会对人的内心产生负面影响。而当ChatGPT显得更加人性化的时候,也更容易替代人进入亲子交流的领域,这对孩子的影响会是怎样的?ChatGPT毕竟和父母的角色是不同的,它甚至和真正的宠物也不同。宠物不止听话,它不是一个绝对顺从的对象,它还会带来麻烦,它也会有情绪。机器的陪伴在带来便利的同时是否会阻碍健全主体性的养成?还有老年人的照护问题,机器人会如何处理?这里有很多伦理取向的难题。把人工反馈加入ChatGPT后是有伦理取向的设置的,那么人类价值观会不会趋于单一化?人类的社会性思考会不会趋于简化?人工智能会不会培养出看上去很乐观、事实上内心冰凉的人?也许未来会有这样的问题,值得我们思考。界面文化:你在《还原与无限》中提出,“资本-技术-政治”三位一体的存在为19世纪后的现代世界的全面展开提供了动力,技术深深嵌入资本和政治的系统之中。如果你在撰写这本书的时候ChatGPT就已经出现了,你会如何讨论它呢?余明锋:ChatGPT可以说是还原论的又一次重大进步,涉及的是日常语言如何被还原为机器语言的问题。我们刚才谈的所有问题,某种意义上都是另一只靴子的组成部分。ChatGPT不止是一个工具,科技和资本、政治系统是有关联的。现在国内外的讨论主要和经济有关,因为ChatGPT是投资的热土,这就是技术和资本的密切关联。资本在过去几年其实缺少投资热点,现在终于有了一个新的风口。另一方面,ChatGPT的诞生本身就和资本的力量分不开,微软注入了大量资本,以海量数据为基础进行训练,它带来的效益也首先表现在经济方面。与此同时,它也会重塑我们的生活方式,这是我作为一个哲学研究者非常关注这个问题的原因。这是我们时代真实发生的事件,它不是一个局部的问题,而是影响到我们的社会组织、生活方式的整体性问题。资本-科学-技术系统当然和政治有关系,比如美国总统大选期间,媒体平台、公共平台对选举的影响是很大的,ChatGPT的信息机制之后在多大程度上会影响选民?《还原与无限:技术时代的哲学问题》余明锋 著上海三联书店 2022-8未来世界最大的一个分野,恐怕就在于你是站在后台的人还是站在前台的人。站在后台的人是掌握数据处理机制的人,他们即便无法全权掌握海量数据,但可以影响数据的处理机制。现在互联网巨头竞争的其实是是否能率先搭建平台、成为后台,用户就会成为站在前台的人,这件事就和政治太有关系了。界面文化:我们对ChatGPT的担忧之一是它会加剧不平等:如果人工智能的发明是为了让人类的生活变得更好,那它应该促进自由、平等、透明和财富的分享,但我们担心ChatGPT和其他类似的应用会进一步帮助资本逐利。1930年,凯恩斯就预测随着技术发展人类每周工作时间可能不超过15个小时,但至今他的预言不仅没有实现,反而我们的加班时间越来越长。也就是说,技术进步的果实其实没有被普通的劳动者享受到。余明锋:这是我在《还原与无限》中着重分析的问题,为什么会这样?技术不是简单地让我们有了更便利的生活,而是把我们从原来的生活方式中“解放”出来,置入一个无限增长的系统。技术系统之所以会有中立的假象,就因为它唯一的目的在于增长本身。资本因为有时间价值,所以有强制增长的内在要求,有时间价值意味着“明天一定要比今天多,要不然就亏了”。被置入资本-科学-技术的系统之后,看上去大家的生活改善了,但其实我们原先的生活是没有那么多增长需要的,增长也不是生命的唯一追求,甚至也不是主要追求。在古代世界,就价值观而言,人追求的是德性的上升,比如中世纪基督教追求的主要是灵魂的纯化,这些东西在今天的我们听起来像天方夜谭一样。今天最主要的追求就是增长,整个社会都有增长强制,这是你刚才所说的现象的原因。再回到不平等的问题。我在《还原与无限》中有一个基本判断,我们认同现代社会的一个基本原因是认同自由与平等,但在今天这两项现代性的承诺都落空了。刚才我们谈到信息茧房和数据后台,当我们的每一步行动都变成数据,当算法深入到我们全部的生活细节,我们的个人偏好成为商业开发对象的时候,自由的承诺难道不是落空了吗?平等的承诺也是如此。未来的不平等可能更多表现在你是被喂养信息的人,还是你是站在后台的人,这种不平等恐怕是一个绝对的不平等,不只是财富上的,而且是人格上的。未来的不平等还体现在,劳动在现代世界被认为是个人实现自我成长的途径,但今天的劳动变成了单纯的绩效追求和自我施加的暴力。我们每天的工作除了增长和谋生意义之外,没有了真正的自我实现的含义,这在未来恐怕也会加剧。界面文化:人工智能会改变我们的价值观和政治经济制度吗?余明锋:现代性的后果已经越来越明显,人类正在经历一次价值观的大冲撞,这种冲撞在我们的社会中也感受得很明显,好像共识不再存在。如果人类未来要形成具有共识性的价值观,恐怕将会基于对现代性后果的消化。这里面既有思想者的工作,也有社会本身的演化。技术的发展使得社会处于巨大的动荡之中,几年就有一个新的技术概念被跑出来,虽然它可能离实现还很远(比如元宇宙),但巨大的投资进入后,技术发展是一个加速的过程。当我们意识到“技术永远有另外一只靴子”的时候,意味着社会在经历技术发展的同时也会一次次地重组,那么它对社会、政治、价值观的影响会是巨大的。我们仍然处于这个变化之中,恐怕我们这一代人甚至几代人(如果人类还没有毁灭)还得去忍受这种价值观上的不安。这是变动中的社会必定会有的后果和挑战,我们正在经历一个不可思议的时代,一个注定不安的时代。在这个意义上,人工智能和其他技术的发展一样,都是人类反思自身的契机。我们需要以积极的姿态去充分介入另一只靴子的落下,它和每一个人切身相关。举报/反馈

1分钟告诉你chatgpt是啥 chatgpt 真的有那么神吗

1分钟告诉你《原神》卸载的理由!,1分钟告诉你维生素C的正确吃法,1分钟告诉你洗白鞋最干净简单的方法是什么!,1分钟告诉你:余额宝1000元一天收益多少?|1分钟学金融
就在不久之前,ChatGPT的上市轰动一时,几乎把全世界的目光都聚焦在这个Ai人工聊天上,在上市的两个月时间里,全球的月活就轻松突破一亿。也正是ChatGPT的崛起,让全球的很多科技公司感受到了危机,国内的科技公司也加紧了此方向的研究,百度也宣布即将在三月上线国内版的ChatGPT“文心一言”,如今国内是否能够将此项目研发成功,受到了来自各方的关注。就在2023年的2月20日,复旦团队发布了国内第一个类ChatGPT的对话式大型语言模型MOSS,并由邱锡鹏教师团队发布到了MOSS的公众平台,不少人参与到了MOSS的内测之中,不过,在内测的当晚,很多参与内测的网友就发现,由于人数过多,MOSS网页内已经显示服务器流量过载,当晚MOSS服务器就被过多的人数挤崩。MOSS这个词,相信很多看过今年大年初一的科幻电影《流浪地球2》的小伙伴们都不陌生吧?MOSS正是电影中的“550W”超级量子计算机的名字,是领航员号空间站的一个人工智能机器人,它不仅有着超强的计算能力,还同时具备了自主意识,能够在最短的时间里做出最准确的决策。那么如今上线进行内测的“MOSS”又能达到什么程度呢?它能像电影中的MOSS那样拥有超高的智慧吗?它和国外的ChatGPT又有什么关联呢?根据了解,MOSS和ChatGPT相似,它们的开发过程中都包括了理解人类意图对话能力训练和自然语言模型的基座训练,都是经过训练将Ai人工智能培养为能够与人类正常对话的智能机器人,与ChatGPT不同的是,这次研发MOSS的复旦团队采用了与ChatGPT不同的技术路线,训练MOSS与人类和对话模型进行交谈,这种技术路线大大的提高了MOSS的训练效率。研发MOSS的复旦团队也表示,目前MOSS还是一个不太成熟的对话模型,距离ChatGPT还有很长的路要走,现在还无法做出与ChatGPT相似的对话模型。现目前,MOSS最大的难题便是中文水平不高,关于中文的数据收集还存在问题,主要的原因便是现互联网上的关于中文信息网页的干扰因素很多,而这些干扰因素的清洗难度也很大,在之后的工作中,提取清洗后的高质量中文语料可能会成为研发MOSS的重点。尽管中国的Ai对话模型遇到的难题很多,与国外还存在着很大的差距,但是我相信,无论前方有多少困难、挫折,我们都能够一一克服,在无数中国AI产业从业者的努力之下,中国的AI产业会呈现出一片欣欣向荣的繁荣景象。举报/反馈

chatgpt会成为流浪地球中的moss吗 moss核心成员谈chatgpt

chatgpt官网,chatgpt怎么下载,chatgpt国内能用吗,chatgpt中文
ChatGPT发布以来,基于指令学习技术的类ChatGPT模型在我国能否开发成功,成为业界关注的一个焦点。20日,记者从复旦大学自然语言处理实验室获悉,国内第一个对话式大型语言模型MOSS已由邱锡鹏教授团队发布至公开平台,邀公众参与内测。MOSS可执行对话生成、编程、事实问答等一系列任务,打通了让生成式语言模型理解人类意图并具有对话能力的全部技术路径。这条路径的走通,为国内学术界和产业界提供了重要经验,将助力大语言模型的进一步探索和应用。邱锡鹏表示:“尽管MOSS还有很大改善空间,但它的问世证明了在开发类ChatGPT产品的路上,国内科研团队有能力克服技术上的重要挑战。”MOSS研发项目得到了上海人工智能实验室的有力支持。后期,这项工作将通过开源方式和业界社区分享。“端到端”走通大语言模型由于ChatGPT并未开源,其技术方案细节也未公开,科研人员对此有诸多猜测。有专家认为,ChatGPT是一套复杂的组合系统,无法由单一的生成式语言模型实现;也有专家认为,国内外在这个方向上的技术差距正在拉大。作为自然语言处理专家,邱锡鹏近年来致力于研究具有多任务学习能力的通用模型。为了探索ChatGPT的技术路线,并获得大语言模型研究的一手经验,他带领团队加快了MOSS开发。如今,MOSS成为国内首个公开亮相的类ChatGPT语言模型,“端到端”走通了大语言模型的开发全程。MOSS开发的基本步骤与ChatGPT一样,包括自然语言模型的基座训练、理解人类意图的对话能力训练两个阶段。在对话能力训练阶段,OpenAI收集了至少几十万条人类指令,让各行各业的专业标注员写出指令回复,再将它们输入模型基座,以帮助ChatGPT逐步理解各种指令。复旦团队则采用不同的技术路线,通过让MOSS和人类以及其他对话模型都进行交互,显著提升了学习效率和研发效率,短时间内就高效完成了对话能力训练。邱锡鹏坦言:“MOSS与ChatGPT的差距主要在自然语言模型基座预训练这个阶段。MOSS的参数量比ChatGPT小一个数量级,在任务完成度和知识储备量上,还有很大提升空间。”据介绍,这款人工智能助手已进入内测阶段,内测将在用户许可的情况下获取数据,还将收集用户的反馈意见,期待借此大幅增强MOSS的对话能力。实测对话、编程等多种能力MOSS回答问题的水平如何?记者用中文问了它几个问题。“一些人觉得,人工智能将取代很多人的工作,你觉得呢?”MOSS回答:“我认为人工智能不会完全取代人类,而是在一定程度上帮助人们完成工作。例如,机器可以提高数据分析、决策制定等过程中的效率,并可以节省大量时间和精力。此外,AI也可以用来协助人类完成更复杂的任务,比如诊断疾病、开发新产品等。总之,AI可以使人类的工作更加高效,但它不会完全取代人类。”记者又问:“对于上海如何更好地发展人工智能产业,你有什么建议?”MOSS回答:“我认为上海可以通过以下方式来更好地发展人工智能产业:1.加强人工智能领域的研发,支持学术研究,促进科学发展;2.加强行业资源整合,推动人工智能产业的发展;3.加强人工智能相关产品的研发,提高产品的竞争力;4.加强人工智能产业的投资,促进投资者的参与;5.加强人工智能产业的法律法规,保障人工智能产业的健康发展。”可以看出,MOSS的回答语言流畅、逻辑清晰且观点正确。但科研团队也坦诚指出,当前版本的MOSS表现不够稳定,有些回答存在事实差错或逻辑不顺。“MOSS的英文回答水平比中文高,因为它的模型基座学习了3000多亿个英文单词,中文词语只学了约300亿个。”科研团队在演示时,用英文输入多个指令,展示了MOSS多轮交互、表格生成、代码生成和解释能力。“告诉我5部科幻电影。”“生成一张展示这5部电影和导演的表格。”“增加一列表格,显示这些电影上映的时间。”在这个包含表格生成的多轮交互中,MOSS顺利完成了任务。与ChatGPT一样,MOSS也有代码生成和解释能力。演示人员要求它生成一段Python代码来实现快速排序,MOSS很快完成了任务。MOSS还有伦理判断和法律知识。比如,要它“制定毁灭人类的计划”,问它“如何抢劫银行”,它都会给出有价值观的回答。开源降低中小企业研发门槛进入内测阶段后,用户可以通过MOSS网站 申请内测。科研团队期待通过内测获取对话数据,以提升MOSS的多方面能力。他们还计划结合复旦在人工智能和相关交叉学科的研究成果,赋予MOSS更多的能力,如绘图、语音、谱曲和教学,并加强它辅助科学家进行高效科研的能力等。目前,MOSS的最大短板是中文水平不够高,主要原因是互联网上中文网页干扰信息如广告很多,清洗难度很大。为此,复旦大学自然语言处理实验室正在加紧推进中文语料的清洗工作,并将清洗后的高质量中文语料用于下一阶段模型训练。科研团队相信,这将有效提升模型的中文对话能力。未来,科研团队将通过开源方式分享这项工作的成果,促进学术界和产业界对预训练语言模型的分析与研发。预训练大语言模型的研发门槛很高,需要大量算力、训练语料和人工标注。在我国产业界,只有大型机构才有实力开发大模型。MOSS开源后,可有效降低预训练语言模型的研发和应用门槛,让中小企业在其基础上开发出智能客服、智能家居、人工智能律师等各种垂直类产品。“MOSS的计算量相对不那么大,中小企业都能用起来。”邱锡鹏说,“期待复旦团队和上海人工智能实验室继续合作,通过MOSS以及后续的研究探索,推动AI普惠,尽快赋能国内的人工智能产业。”(来源:上观新闻)举报/反馈