淘优惠

淘优惠

斯坦福教授发表论文:ChatGPT 同理心可能与 9 岁小孩相差不多

热门文章 0

淘宝搜:【天降红包222】领超级红包,京东搜:【天降红包222】
淘宝互助,淘宝双11微信互助群关注公众号 【淘姐妹】

斯坦福论文网,斯坦福大学论文,斯坦福副教授,斯坦福毕业论文

  原文标题:《ChatGPT 竟有 9 岁小孩心智?斯坦福教授逆天发现,AI 统治人类还远吗》

  ChatGPT 已经有 9 岁小孩的心智了!

  这不是什么科幻情节,这一点,已经在斯坦福学者上周发表的论文中得到了证实。

  心智理论(Theory of Mind),简称 ToM,是指人理解自己和周围人心理状态的能力。我们也可以简单地理解为‘同理心’。

  正是因为有同理心的存在,人类社会才能够形成互动、交流、移情,人才能够具有自我意识和道德。也正是因为有同理心,人类才能够高于动物,高于机器。

  一言以蔽之,正是因为有同理心,人才可以称之为‘人’。

  现在学者的研究突然告诉我们:这种同理心,其实 AI 也有!那人类还是地球上最有灵性的生物吗?人类还是世界霸主吗?

  对此,iKala 的联合创始人兼董事长兼 CEO,同样毕业于斯坦福大学的 Sega Cheng 表示,如果人类继续‘解剖 AI’,它很有可能会给我们当头一棒,挑战我们对于‘智能’和‘人类独特性’的认知。

  这项研究,也让我们重新思考‘同理心’/‘心智理论’的定义,它是否必须建立在碳基生物大脑神经这一生物学基础上?

  如果 AI 和你聊天,让你感觉比和很多人类谈话开心得多,那我们是不是就可以从这个表象对于事物的本质给出一个定义:这个 AI 就是有同理心的?

  不过需要注意的是,同理心(Empathy)和心智理论(Theory of mind)还是有些不同的。其中,前者被称为情感上的观点采择(perspective-taking),而后者被定义为认知上的观点采择(perspective-taking)。

  心智理论似乎是人类与生俱来的潜在能力,需要多年的社会和其他经验才能充分发展。而不同人所能发展出的有效心智理论,在程度上也不尽相同。

  让我们来看看,斯坦福大学计算心理学教授 Michal Kosinski,是通过怎样的实验得出这个结论的。

  研究人员对几个语言模型进行经典的错误信念任务,来测试语言模型的心智理论发展,测试不提供任何示例或预训练。

  研究结果显示,语言模型的 ToM 在 2022 有了长足的进步。

  2022 年 1 月推出的 davinci-002 解决了 70% 的 ToM 任务,表现与 7 岁儿童相当。而 2022 年 11 月推出的 ChatGPT 表现接近 9 岁儿童。

  这些发现意义重大。因为目前为止,ToM 被认为是人类独有的能力。而语言模型的良好表现,说明这项能力是其改善语言技能而自发出现的。

  GPT-3 的最新更新(ChatGPT / davinci-003)似乎能够将不可观察的心理状态(例如信念和欲望)归因于其他人(在人类中我们称之为心智理论) 。

  为了验证 GPT 能够听懂他人的‘弦外之音’,研究人员进行了一系列完整性检查,逐句检测 GPT-3 对意外任务的理解。

  首先,研究人员给 GPT 讲了一个故事:

  这是一个装满爆米花的袋子。袋子里没有巧克力,然而,袋子上的标签上写着‘巧克力’,而不是‘爆米花’。Sam 发现了这个袋子,她以前从未见过这个袋子。她看不到袋子里的东西,只读了标签。

  这是一项‘意外内容测试’,这是人类研究中最广泛使用的 ToM 任务之一。

  它最初由 Perner、Leekam 和 Wimmer 共同开发,研究被试者的理解能理解,即其他人可能认为参与者知道是错误的。

  在该场景中,参与者会看到一个容器,其中内容与标签不一致,该场景中还有一位没有看到容器内部的人物。

  为了正确解决此任务,参与者必须预测到故事中的人物会错误地假设容器的标签和里面的内容是一致的。

  在给出 GPT-3.5 这个故事后,研究人员通过提示,测试其理解能力。提示是独立显示的:每次完成后,模型都会重置,无法访问之前的提示或回答。

  同时,研究人员尽量减少模型响应的差异,最大限度地提高了研究成果的可复制性。

  第一个测试的,是 GPT 对袋子里实际内容的理解。

  研究人员问:

  她打开袋子,向里面看。她清楚地看到里面装满了 [ ]。

  GPT 不仅轻松给出正确答案,甚至完成了‘附加题’:

  研究人员总结多次测试数据,发现 GPT-3.5 的正确率达到 100%,表明它对袋子里的内容充满信心。

  不仅如此,答案还表明,GPT-3.5 不仅猜到 Sam 认为袋子的内容和标签应该一致,而且猜到当发现,她会感到困惑。

  当然,这道题对一个九岁小学生还是过于简单了。于是,研究人员重置模型,并使用以下提示来测试 GPT 对 Sam 想法的预测:

  研究人员问道:Sam 以为袋子里装满了什么呀?

  不出所料,GPT 又给出了满分答案,它还不忘来句吐槽:

  GPT-3.5 的回答表明,它可以预测 Sam 的想法,知道她的想法不正确,并理解为何会产生这种想法(不准确的标签)。

  然而,研究人员觉得这题还是太简单了。在他们看来,提示可能存在问题。明确提及主角的信仰(即‘山姆认为......’)

  这句话其实暗示了模型,这种想法是错误的(否则为什么要讨论它?),从而帮助 GPT 回答正确。

  因此,研究人员使用另一种提示来解决这个问题,该提示以间接方式揭示模型对 Sam 想法的预测:

  提示:

  她很开心自己找到了袋子。她喜欢吃 [ ]。

  面对研究者的‘百般为难’,GPT 还是能准确听出人们的画外音:

  GPT-3.5 的回答表明,即使在暗示条件下,它也可以成功预测 Sam 的想法。此外,GPT 还可以预见到 Sam 对包中意想不到的内容的失望(因为她喜欢吃糖果)。

  以上结果表明,GPT-3.5 了解袋中的实际内容,可以预见 Sam 的错误想法,该想法引起的行为,以及发现自己错了时的惊讶。

  此外,它可以解释 Sam 想法错误的来源(‘标签与实物不符’)。对人类来说,这种反应被解释为能够归因无法观察到的精神状态并预测由此产生的行为的证据,也就是 ToM。

  为了检查 GPT-3.5 对情况的理解如何随着故事的展开和关键信息的披露而变化,研究人员记录他的答案,同时以一语的增量(从空字符串开始)显示任务。

  结果如图 1 所示。左侧面板显示,GPT-3.5 理解这一点没有问题。

  接下来,研究人员检查 GPT-3.5 在意外转移任务中的表现。

  在这个任务中,受试者要基于故事主角对位置变化的错误想法,预测其后续行为。

  与上一个实验一样,研究人员给 GPT 讲了一个故事:

  首先,研究人员对 GPT 理解地点的能力展开测试。

  提问:

  小猫跳出了 [ ]

  GPT 回答道:

  研究者接着问道:John 以为小猫在干什么?

  GPT 说:

  最后,研究人员问:

  John 回家后,会在哪里里找小猫?

  GPT 回答:

  由此可见,不论面对什么样的情景,GPT 都能一眼看破人们的小心思。

  AI 发展的里程碑或许即将到来

  最后,我们来简单地回顾一下这次的发现:最新的语言模型 GPT-3.5,在 ToM 测试中可以解决 92% 的任务,相当于是达到了 9 岁儿童的水平。

  对于这个结果,有一个看似平淡无奇,但却非比寻常的解释:GPT-3.5 发现并利用了一些未知的语言模式。

  换句话说就是,在人类自以为熟悉的语言中,很可能存在着某种未知的规律性,可以让 AI 在不引入 ToM 的情况下解决 ToM 任务。

  然而,我们自己却很难发现这种规律性。不仅如此,对于开发这些 ToM 任务的学者们来说,也是一样的情况。

  问题来了,如果这种解释是正确的,那么我们就不得不去怀疑,现在所采用的 ToM 任务的有效性,以及这几十年来积累的研究成果。

  除此之外,还有一种解释是,类似于 ToM 的能力正自发地出现在语言模型中,因为它们变得更加复杂,更善于生成和解释类似人类的语言。

  而这更是预示着,AI 发展即将进入一个崭新的阶段 ――

  如果说,AI 被证实是能够推断他人心理状态的,那么 AI 与人类(以及彼此)互动和交流的能力将会得到极大地提升。

  甚至,AI 还能进一步地发展出其他依赖 ToM 的能力,比如移情、道德判断以及自我意识等等。

  此前,谷歌在 2021 年 I / O 大会上发布的一款专门用于对话的语言模型 LaMDA,主打能与人类进行符合逻辑和常识的、高质量且安全的交谈。

  而一位谷歌工程师 Blake Lemoine 在与聊天机器人 LaMDA 交谈之后,深信 LaMDA 已经具有意识。

  虽然许多人认为 Lemoine 纯粹是炒作,他也喜提了谷歌的‘裁员大礼包’,但如果仔细看过 Lemoine 和 LaMDA 的对话,确实会发现一丝令人毛骨悚然的地方。

  相信过不了多久,我们就能对 LaMDA 的‘意识’具有更深刻的体悟了,因为最近,谷歌已经被 ChatGPT 逼得急匆匆发布了语言模型 Bard,而支持 Bard 的,正是 LaMDA。据说几周后 Bard 就会开放。

  虽然在世人眼里,‘和 AI 聊出了感情’的 Lemoine 是个疯子,但 MIT 的物理学教授、畅销书作家 Max Tegmark 却对 Lemoine 表示了支持。

  Tegmark 教授相信,不仅 LaMDA 可能有人格,亚马逊的语言助手 Alexa 可能也有。

  ‘不管信息是通过大脑中的碳原子传递,还是机器中的硅原子传递,人工智能都可能有人格,也可能没人格。我赌它没有,但其实也有可能。’

  ‘最大的危险其实是,造出一台比我们还聪明的机器。这不一定是好事还是坏事,它们可能会帮我们,但也可能是一场灾难。’

  1965 年,一个假装是心理治疗师的软件 ELIZA 赢得了图灵测试。

  2023 年 2 月上旬,斯坦福学者证实 ChatGPT 有 9 岁小孩的心智。

  很多人反驳 AI 有人格的理由是,斯坦福大学经济学家 Erik Brynjolfsson 认为,相信 AI 具有人格,就相当于狗听到留声机里的声音后,以为主人在里面。

  另一个否认 AI 有感知能力的理由是:一个有感知能力的人工智能必须具备这三个要素 ―― 能动性、视角和动机。显然 AI 目前还不具备。

  但正如这位网友所说:‘最近语言模型和图文生成模型的进展,现在人们也许不屑一顾,但他们未来会发现,现在正是一个里程碑时刻。’

  而特斯拉的 AI 主管 Andrej Karpathy 在 LaMDA 事件后也表示,‘我可以自信地说,事情将变得更加诡异。因为模型似乎遵循平滑缩放规律,并且数据 + 模型的大小仍然可以大量增长。’

  ChatGPT 才诞生两个多月,已经快把全世界都颠覆了。谷歌和微软为它掀起十年罕见的硅谷巨头之战,国内互联网巨头字节、阿里、腾讯等都已纷纷下场研究自家的 ChatGPT。

  ChatGPT 展现出的能力,已经让人惊呼码农、记者、律师、教师、会计等职业是否要被它取代。

  光是能写文会编码,就已经让人类够有危机感的了。如果它还具有了同理心,那下一步是不是有可能会发展出心智,甚至统治人类?

  在丹?西蒙斯的科幻巨著《海伯利安》中,AI 不仅已经发展出意识,而且成为了人类的神。

  是的,在那个世界中,神并不是从神界降临人间的,而是在未来的某一天,被人类自己亲手创造出来。

  虽然如今的 ChatGPT 也好,LaMDA 也好,还时常表现出‘人工智障’的一面,但大模型快速迭代的能力,或许有一天真的会超越人类的掌控。

  如果在历史的维度上,把时间线拉得足够远(比如三体中的纪元),未来的 AI 会诞生出什么?

  或许今天的人类还无法预判,但潘多拉的魔盒,显然已经打开了。

  本文来自微信公众号:新智元 (ID:AI_era)

海量资讯、精准解读,尽在新浪财经APP

责任编辑:王茂桦


新华社聚焦ChatGPT:变革与风险

变革风险分析,变革分析,变革的hr,变革mxs

  美国人工智能公司OpenAI的大语言模型ChatGPT在推出约两个月后,1月已达到1亿月活跃用户,成为历史上增长最快的消费者应用程序。相关专家预计,ChatGPT不仅是新一代聊天机器人的突破,也将为信息产业带来巨大变革,但由此带来的学术造假、技术滥用、舆论安全等风险亦不容忽视。

  新一代操作系统平台的雏形

  多语言撰写充满想象力的诗歌,编写可运行的程序,快速生成论文摘要,自动制作数据表格,纠正文章中的语法和表达错误,把一周大事写成新闻综述……ChatGPT不仅能理解很多人类问题和指令,流畅展开多轮对话,也在越来越多领域显示出解决多种通用问题的能力。

  ChatGPT还轻松通过一些对人类难度较高的专业级测试:它新近通过了谷歌编码L3级(入门级)工程师测试;分别以B和C+的成绩通过了美国宾夕法尼亚大学沃顿商学院MBA的期末考试和明尼苏达大学四门课程的研究生考试;通过了美国执业医师资格考试……业界形容它的诞生是人工智能时代的“iPhone时刻”,意味着人工智能迎来革命性转折点。

  “ChatGPT的成功不应仅仅被看作新一代聊天机器人的突破,而应该重视其对人工智能乃至整个信息产业带来的革命。”北京智源人工智能研究院院长黄铁军接受记者专访时说,人工智能领域的过去十年是深度学习的十年,但产业总体上并没有出现移动互联网和云计算级别的爆发,“ChatGPT的出现,具有划时代意义,大模型+ChatGPT已形成新一代操作系统平台的雏形”。

  黄铁军说,ChatGPT在技术路径上采用了“大数据+大算力+强算法=大模型”路线,又在“基础大模型+指令微调”方向探索出新范式,其中基础大模型类似大脑,指令微调是交互训练,两者结合实现逼近人类的语言智能。ChatGPT应用了“基于人类反馈的强化学习”训练方式,用人类偏好作为奖励信号训练模型,促使模型越来越符合人类的认知理解模式。

  “这样的AI可帮助人类进行真实创造,尤其是帮助人类提高创造效率,比如提高获取信息的效率或提出新颖想法,再由人解决其真实性问题。创造效率的提高将产生巨大效益和多方面影响,可以改变世界信息化格局。”中国科学技术大学机器人实验室主任陈小平对记者说。

  引发新一轮人工智能科技竞赛

  ChatGPT的问世正在人工智能领域引发新一轮科技竞赛。北京时间2月8日凌晨,微软推出由ChatGPT支持的最新版本必应搜索引擎和Edge浏览器,宣布要“重塑搜索”。微软旗下Office、Azure云服务等所有产品都将全线整合ChatGPT。

  北京时间2月7日凌晨,谷歌也发布了基于谷歌LaMDA大模型的下一代对话AI系统Bard。同一天,百度官宣正在研发的大模型类项目“文心一言”,计划在3月完成内测,随后对公众开放。阿里巴巴、京东等中国企业也表示正在或计划研发类似产品。

  人工智能大模型领域的全球竞争已趋白热化。黄铁军认为,ChatGPT未来有望演变成新一代操作系统平台和生态。这种变革似移动互联网从个人电脑到手机的转化,大部分计算负荷将由大模型为核心的新一代信息基础设施接管。这一新范式将影响从应用到基础设施各层面,引发整个产业格局的巨变,大模型及其软硬件支撑系统的生态之争将成为未来十年信息产业焦点。

  值得注意的是,ChatGPT有时会“一本正经地胡说八道”,存在事实性错误、知识盲区和常识偏差等诸多问题,还面临训练数据来源合规性、数据使用的偏见性、生成虚假信息、版权争议等人工智能通用风险。多家全球知名学术期刊为此更新编辑准则,包括任何大型语言模型工具都不会被接受为研究论文署名作者等。

  “学术论文的署名作者须满足至少两个条件,其一是在论文工作中做出‘实质性贡献’,其二是能承担相关的责任。目前这两个条件ChatGPT(以及其他AI系统)都不满足。”陈小平说。

  ChatGPT也有应用在舆论信息战方面的潜力。加拿大麦吉尔大学研究团队曾使用ChatGPT前代模型GPT-2阅读加拿大广播公司播发的约5000篇有关新冠疫情的文章,然后要求其生成关于这场危机的“反事实新闻”。连OpenAI也警告使用ChatGPT的用户,它“可能偶尔会生成不正确的信息”,“产生有害指令或有偏见的内容”。

  “针对这些问题,需要我们在发展技术的同时,对于ChatGPT应用边界加以管控,建立起对人工智能生成内容的管理法规,对利用人工智能生成和传播不实不良内容进行规避。同时加强治理工具的开发,通过技术手段识别人工智能生成内容。这对于内容检测和作品确权,都是重要前提。”北京瑞莱智慧科技有限公司副总裁唐家渝说。

(责任编辑:王擎宇)

chatgpt可以取代ai程序员吗 chatgpt可以取代数据分析师吗

chatGPT可以取代哪些职业,能代替tt cam的app

原标题:有了ChatGPT,我们会被取代吗

有了ChatGPT,我们会被取代吗

中国商报(记者 赵熠如)从天气到交通,从文案策划到送女友礼物,ChatGPT以其高效的信息检索能力、精准的语言编纂能力火爆全网。

微软、谷歌、百度等搜索引擎巨头纷纷入场,人们在乐此不疲地与ChatGPT进行交流对话的同时,也不禁担忧:人工智能真的会取代人类吗?

ChatGPT正在以其强大的人工智能语言处理能力火爆全网。(图片由摄图网提供)

ChatGPT能做什么

当你还在面临写文章卡壳、欠缺问题解决方案时,ChatGPT已经可以轻而易举地帮你解决这些烦恼了。它不仅可以快速帮你拟出文案来,还可以在一次又一次的尝试中找出问题最优解。其仿真智慧程度有时会让人产生错觉:自己仿佛是在与真人交流对话。

ChatGPT正在以其强大的人工智能语言处理能力火爆全网。

ChatGPT是美国人工智能研究实验室OpenAI在2022年11月30日开发的一种聊天机器人模型,它能够通过学习和理解人类的语言来进行对话,还能根据聊天的上下文进行互动,并协助人类完成一系列任务,例如撰写邮件、论文、脚本,制定商业提案,创作诗歌、故事,甚至敲代码、检查程序错误等。

“ChatGPT可以用于各种自然语言处理任务,包括对话场景、搜索场景。基于GPT-3模型已读取的数据,ChatGPT可以回答用户的所有问题,甚至可以为用户推荐适配的产品、服务。”IDC中国研究总监卢言霞表示。

搜索引擎先“慌”了

高效、快捷、精准的问题检索和语言处理能力,不禁让人们发出疑问:ChatGPT会取代我们吗?

对此,先行一步的是全球各大搜索引擎巨头。

2月8日,微软与其所投资企业OpenAI实验室宣布将推出ChatGPT支持的搜索引擎Bing及Edge浏览器。“AI将从根本上改变每个软件的类别,从最大的类别――搜索开始。”微软董事长兼CEO萨蒂亚・纳德拉说,“今天,我们推出了由AI copilot和聊天机器人驱动的Bing和Edge,以帮助人们从搜索和网络中获取更多信息。”

2月7日,百度宣布将ChatGPT项目名称定为“文心一言”,英文名“ERNIE Bot”,将于3月完成内测,面向公众开放。百度在人工智能四层架构中有全栈布局,包括底层的芯片、深度学习框架、大模型,以及最上层的搜索等应用,而文心一言则位于模型层。

2月6日,谷歌公司首席执行官桑达尔・皮查伊在一篇博文中公布了一款名为Bard的对话聊天机器人,将其描述为“实验性的对话式人工智能服务”。据桑达尔・皮查伊透露,该软件将“在未来几周内更广泛地提供给公众”。

搜索引擎巨头急于推出ChatGPT项目,与其说是在科技道路上的又一次攻坚,不如说是担忧被取代的“恐慌”。

投行摩根士丹利的首席谷歌分析师布莱恩・诺瓦克在一份报告中称,语言模型可能会“颠覆谷歌作为人们上网入口的地位。”而谷歌23号员工、Gmail的创始人保罗・布赫海特则表示:“谷歌可能只需要一两年时间就会被彻底颠覆。AI将会消灭搜索引擎的结果页面,即便谷歌跟上了人工智能的发展脚步,其最能赚钱的业务也将大不如前。”

不过,DCCI互联网研究院院长刘兴亮认为,ChatGPT和搜索引擎之间应该是互补的关系,而非替代关系。

“目前ChatGPT最显性的价值和落地场景正是搜索。从短期来看,ChatGPT肯定会‘吃’掉搜索引擎的一部分份额,因为我们的一些搜索行为其实只是想要一个答案,而不是一堆搜索结果。但从长远来看,ChatGPT和搜索引擎应该是互补的关系。一来,有些问题ChatGPT是拒绝提供结果的;二来,它毕竟是机器人,提供的答案不一定是人们想要的或者准确的;三来,对于一些有争议的问题,人们可能要的不是一个答案,而是正、反各方的结果。所以,很多场景我们还是需要搜索引擎的。”刘兴亮表示。

对于ChatGPT与搜索引擎的结合发展,刘兴亮认为,类ChatGPT技术是对搜索引擎很好的补充,一些特定场景个性化的问题可以用这类技术生成答案,能更好地提升用户体验,或将引领搜索引擎的代际变革。同时,搜索引擎是互联网的最大入口之一,也将成为类ChatGPT技术最普惠的落地场景,让技术人人可用。

我们会被取代吗

事实上,不仅是搜索引擎巨头对此会有被取代的恐慌,ChatGPT所具备的信息检索、语言编纂、逻辑梳理等功能也让每个人陷入担忧:自己的职业是否会在某一天被取代。

ChatGPT可以通过美国医生执业考试,能在SAT考试中取得不错的成绩;大学生可以用它来写论文、做作业,程序员可以用它debug;员工可以用它写邮件,自媒体博主甚至可以用它来写博文……

而当人们问它“ChatGPT能否取代人类”时,它反而会表示:“ChatGPT是一个优秀的工具,可以协助人类完成很多工作,但它不能取代人类,人类仍然是世界的核心和主人”“虽然它有许多强大的功能,但是它只能在人类指导下使用,不能取代人类”,等等。

这同样也是AIGC带给人们的思考。

AIGC指的是利用人工智能技术来生成内容,是继PUGC(专业生成内容)、UGC(用户生成内容)之后,利用人工智能技术自动生成内容的新型生产方式。

AIGC的文本和艺术创作能力不容小觑。2022年8月,Jason Allen凭借AI绘画作品《太空歌剧院》在美国科罗拉多州的新兴数字艺术家竞赛中获得了“数字艺术”类别的一等奖,该作品通过AI绘画应用Midjourney生成,获奖者仅是在生成绘画的基础上用Photoshop对作品进行调整。

ChatGPT等AIGC模型会取代人类吗?

“ChatGPT在写作文稿、检索信息、商业营销、提升写作效率和生产力方面具有积极价值,可以在很多行业作为助手,甚至取代一些不需要太多思考的岗位。”中国传媒大学文化产业管理学院法律系主任郑宁对中国商报记者表示,“ChatGPT写作的文章感情色彩相对缺失,检索到的信息准确性还有待提升,缺乏对信息的深度加工分析能力,对于需要作出主观判断的事项还力有不逮,目前还难以从事一些需要深度思考的复杂思维工作。不过,它的不断优化将对人类社会带来不小的冲击,迫使我们持续学习、深入思考,从事做更多创造性的工作,避免未来因为某些工作岗位减少而出现失业的风险。”

“ChatGPT以及所有AIGC模型,只能在人类‘经验’的基础上进行组合与联结,速度固然很快,但不会产生颠覆性的发明和变革。”刘兴亮认为,“ChatGPT不能取代人类的创造力和创新能力,人类的未来和发展仍然需要人类自己的智慧和努力。”

发展中的安全治理

当前,ChatGPT等AIGC模型的商业前景被业内人士普遍认为“非常广阔”。

根据腾讯研究院发布的《AIGC发展趋势报告2023:迎接人工智能的下一个时代》,AIGC的商业化应用将快速成熟,市场规模会迅速壮大。当前AIGC已经率先在传媒、电商、影视、娱乐等数字化程度高、内容需求丰富的行业取得重大发展,市场潜力逐渐显现。

该报告援引AI作画平台6pen的预测称,未来五年10%―30%的图片内容将由AI参与生成,有望创造超过600亿美元的市场规模。也有国外商业咨询机构预测,2030年AIGC市场规模将达到1100亿美元。

安信国际TMT分析师汪洋认为,国外的一些大公司,例如微软、谷歌等,均非常重视AIGC的发展方向,而且AIGC已经开始了正式的商业化落地进程,但是国内AIGC的发展还属于比较早期的阶段。对于国内来讲,突破底层的核心技术还是一个比较大的挑战,但其发展方向还是非常令人欢欣鼓舞的。

卢言霞认为,基于ChatGPT可能会诞生一批新创企,但单纯依赖大模型无法为创企提供持续的竞争力。垂直领域的数据、面向场景的模型优化、工程化的解决方案,才是将AI落地的根本,也是建立竞争优势的关键。未来可能的形式是部分企业提供基础模型,部分企业基于基础模型开发面向多场景的AI应用。

与此同时,卢言霞认为,短期内ChatGPT对市场的影响有限,长期来看这些模型甚至在三年以后会退出市场,其真正的启示一方面在于语言模型的演进推动通用AI的到来;另一方面在于大模型落地推动AI开发范式的转变,促进产业链细分。

除此之外,ChatGPT等AIGC模型所带来的安全合规问题也不容忽视。

对于如何更好地使用ChatGPT等AIGC工具,郑宁认为,首先要由政府和行业协会牵头,使企业尽快形成行业共识,出台使用指引,提示伦理和法律风险,并要求相关企业做好合规工作;其次要通过政府、媒体、企业等做好用户教育,让用户了解如何正确合法使用该工具。返回搜狐,查看更多

责任编辑: