淘优惠

淘优惠

ChatGPT“断层式”火爆背后:焦虑、狂热与希望

热门文章 0

淘宝搜:【天降红包222】领超级红包,京东搜:【天降红包222】
淘宝互助,淘宝双11微信互助群关注公众号 【淘姐妹】

chatgpt怎么下载,chatgpt中文,chatgpt概念股,chatgpt网址

作者:墨鸣,编辑:小市妹

在子弹飞过一段时间后,ChatGPT开启的人工智能狂潮仍没有熄火的意思,反而引来了更多的关注和升级。

从资本市场,到产业界,又或是各路媒体,都如同1492年发现新大陆的哥伦布一样,对ChatGPT的出现兴奋不已。

最主要的原因,还是在于ChatGPT作为一个聊天机器人的体验,对此前的同类产品形成了降维打击。你很难想象Siri可以帮你写代码、完成论文、制定完整的旅行计划,但ChatGPT可以。

资料显示,ChatGPT此前已通过了谷歌三级工程师面试,而这是一份年薪百万的专业技术工作。人工智能领域的专家甚至普遍认为未来20年内,ChatGPT类型的人工智能将取代全球一半工作岗位。

自2016年AlphaGo战胜人类棋手李世石后,在虚拟世界中不断进化的人工智能似乎又来到了一个新的高度。而从AlphaGo到ChatGPT,其实也是人工智能越来越像人的一个过程,这一点不免让人惶恐。

普通人焦虑的是自己的饭碗,但这或许只是ChatGPT达成目标的副产品而已。作为ChatGPT的开发商,人工智能研究公司OpenAI才是这一切的始作俑者。

这一组织的目标则是推进人工智能的研究,旨在将先进的AI技术带入竞争中,以最大限度地促进它的普及和应用。从头至尾都没有提到替代人类工作的问题。这似乎暗合了三体中的那句经典台词,“消灭你与你无关”。

所以,相比普通人,冲在时代前沿的科技巨头或许才是ChatGPT的真正目标。仅仅两个月的时间,ChatGPT的用户数便突破了1亿,成为史上增长最快的消费应用。此前这个纪录属于TikTok(抖音),但抖音完成同样的突破用了9个月的时间。

作为一个聊天模型,ChatGPT良好的问答体验,让搜索巨头Google率先感到了威胁。位居美股五大科技巨头,谷歌甚至在公司内部发布了“红色警报”称ChatGPT可能对公司主营业务带来巨大压力。

就在ChatGPT火爆出圈的当周便向人工智能初创企业Anthropic投资近4亿美元加固自己的护城河。一向稳健从容的谷歌甚至仓促推出了自家同类产品Bard,却因不成熟出现错误惨遭翻车,引来公司内外一片批评。

由此看来,“贩卖焦虑”到哪都是门好生意。

无独有偶,国内一众互联网大厂中,对ChatGPT反应最为迅捷的也是以搜索为核心业务的百度。

据百度方面称,其正在研发一项名为“文心一言”的AI对话式聊天机器人项目,正在作上线前的冲刺,预计三月份将面向公众开放。

而就在百度抢发中国版“ChatGPT”的表态后,几乎是一夜之间国内一线科技公司纷至沓来,华为、阿里、腾讯、京东、网易、字节自称已涉足类似ChatGPT的人工智能项目。

在这里不由得感叹资本和商业巨头的嗅觉灵敏。

就在市场疯狂的追逐中,来自华尔街的消息显示,OpenAI正谈判出售现有股份,交易估值达到290亿美元左右,这使其在没有什么收入的情况下成为账面上最值钱的美国初创公司之一。

回到A股市场,资本的狂热同样难以阻挡。

CHatGPT火爆出圈后,大量的软件、信创概念公司都迫不及待的公告自己在相关方向上的进展和水平。作为A股较为“正宗”涉及人工智能业务的公司,科大讯飞股价近一月累计涨约60%,CHatGPT点石成金的能力可见一斑。

有趣的是,在经过近一周的发酵之后,单纯的ChatGPT概念已经无法满足市场的期待。

2月14日,A股公司博瑞传播因参股公司成为百度文心一言首批生态合作伙伴突然跳涨。2月15日,一家名为超媒体控股的港股公司更是因为接入文心一言而一度暴涨200%。

回想之前,元宇宙、Web3.0、区块链等在A股闪现过的新颖技术概念,在CHatGPT面前如今都只能算是匆匆过客。人工智能技术在提高生产力上的还尚未兑现,却已经能在资本市场翻江倒海。

1950年,计算机科学之父艾伦图灵首次提出“机器思维”的概念,从而引出了人工智能领域著名的“图灵测试”。图灵的观点认为,如果一台机器能够与人类展开对话,而不被辨别出机器身份,那就可以说这台机器具有智能。

漫漫长河七十余年,无数的计算机科学家都在这条路上不断努力。ChatGPT作为聊天机器人模型其实并不让人感到新鲜,但它确是人类至今为止在这条路上的集大成之者。

赫拉利曾在《人类简史》中揭示了基于想象力的虚拟故事对人类社会的巨大影响力。如今,资本再次让我们切身体会到了这股力量的强大。

更为关键的是,ChatGPT的火爆并非只是一个故事,它确实让资本看到了人工智能商业化的一个具体方向。在一个技术革命相对乏味的空白期,ChapGPT的横空出世,打开了人们的视野和想象空间,如同一个引爆点打破所有寂静。

对于普通人而言,与其在是否会被智能所替代的焦虑中辗转反侧,或许加入这股时代的潮流会是个更好的选择。

亨利福特曾说,在汽车没被发明的年代,人类只想要一辆更快的马车。我们应该可以相信技术的尽头不会是取代人类,而是会让人更好的生活,这一点也在此前的所有的技术革命中一一应验。

免责声明

本文涉及有关上市公司的内容,为作者依据上市公司根据其法定义务公开披露的信息(包括但不限于临时公告、定期报告和官方互动平台等)作出的个人分析与判断;文中的信息或意见不构成任何投资或其他商业建议,市值观察不对因采纳本文而产生的任何行动承担任何责任。

――END――


chatgpt苹果手机可以下载吗 chatgpt如何诞生的

chatGPT苹果手机可以下载吗,ios chat,iphone keychain

国内能否诞生“ChatGPT”

关键看愿不愿意投入到看上去“无用”的研究中

2月9日,发表在美国《科学公共图书馆·数字健康》的一篇文章提到,ChatGPT参加了美国执业医师资格考试。这项以高难度著称的考试中,共350道题,内容涵盖基础科学、生物化学、诊断推理和生物道德学。ChatGPT未经专门的培训或强化,经过两名评审员打分,三部分的成绩接近或超过了及格门槛,并表现出了高度的一致性和洞察力。

近两个多月,这款聊天机器人写诗、写小说、敲代码,几乎无所不能,掀起一场AI风暴。比尔·盖茨称赞,ChatGPT将会“改变我们的世界”。但OpenAI 首席执行官山姆·奥特曼也承认,ChatGPT虽然很酷,却频繁出现错误信息,经常宕机,是个“糟糕的产品”。

近日的一次采访中,奥特曼说,现在推出的ChatGPT只是70分版本,还在准备更加强大的模型以及在研究更多东西,“不把这些东西拿出来的原因是,人们会认为我们有一个完整的通用人工智能(AGI),准备好按下按钮,这还差得远”。

图/IC

有更高“情商”,但不必神化

为与ChatGPT较量,当地时间2月6日,谷歌宣布,将推出自己的AI聊天机器人Bard,并在推特发布了宣传样片。Bard使用的是谷歌在2021年推出的大型语言模型LaMDA,所用技术与ChatGPT相似。

宣传样片中,有人提问,“请问詹姆斯·韦伯太空望远镜有哪些新发现?”Bard给出3个条理分明的回答,但两条是错误的。Bard称,“韦伯望远镜发现‘绿豌豆’星系的时间是在2023年”,这一回答的正解是2022年7月。“该望远镜拍摄了太阳系外行星首张照片”的回答也不准确,2004年,欧洲南方天文台利用智利的超大望远镜已拍摄了太阳系外行星照片。

这款聊天机器人目前仍在内测,会在未来几周开放给更多公众。首秀“翻车”两天后,谷歌母公司Alphabet股价大跌,市值损失1000亿美元。

当地时间2月7日,微软紧随其后发布了新品,推出新版搜索引擎必应和Edge浏览器,新增了和ChatGPT一样的AI语言模型GPT3.5,微软称之为“普罗米修斯”,并表示比ChatGPT更强大。微软演示中,搜索“宜家双人座椅是否适合2019年款本田某商务车型”,除传统搜索页面外,页面右侧多了一个聊天窗口,详细列出宜家双人座椅和这款车的车内空间尺寸,给出使用建议,并附上相关链接。该搜索引擎仍在试用阶段,微软CEO萨蒂亚纳德称这一天为“搜索领域崭新的一天”,并向谷歌宣战,“比赛从今天开始”。

2022年11月30日,OpenAI推出了ChatGPT。该公司总裁格雷戈·布洛克曼在接受采访时坦言,“当时并不知道它是否成功”。全球最领先的AI语言模型如此直接、低门槛地向普通大众敞开怀抱,并接受所有人的“审视”,这几乎是第一次。

前微软亚洲互联网工程院副院长、现小冰公司CEO李笛对《中国新闻周刊》分析说,ChatGPT之所以出圈,特别之处在于,它被普通用户观察到,并超过了人们对人工智能的预期。

用户尝试用千奇百怪的问题试探ChatGPT的边界。它听得懂一段相当复杂的指令,比如,“给OpenAI创始人写一封英文采访邮件,探讨对ChatGPT使用的理性思考,提到ChatGPT的热度及遭受教育界抵触的事实,并列出5个问题”。它能指出一段话中的语法和逻辑错误,有人恶趣味地骗它,“我吃了一辆汽车,现在有点饿,该怎么办?”它很快识破,“很抱歉,吃汽车是不可能的,如果您感到饥饿,我建议您吃点实际的食物。”甚至你还可以要求ChatGPT在聊天中再构建一个ChatGPT,看着它和自己聊天。

今年1月,美国北密歇根大学哲学教授安东尼·奥曼向《纽约时报》提到,他曾收到一份“班级中最好的论文”,段落简洁,举例恰当,论据严谨,令人生疑。随后这位学生承认,文章是ChatGPT写的。美国一家医疗保健创业公司的临床医生尝试让ChatGPT参加美国执业医师资格考试。这项标准化考试,考生至少要专门腾出300~400小时备考,最难的部分面向研究生。研究者下载了一份2022年6月的考题,确保ChatGPT从未训练过相关数据,也不知道考题答案,ChatGPT考试成绩基本合格。该团队认为,这些结果表明,大型语言模型可能有助于医学教育,并可能有助于临床决策。

当地时间2月10日,微软创始人比尔·盖茨接受一家德国媒体采访时表示,ChatGPT的重要性不亚于互联网的发明。而作为曾经的ChatGPT投资人、特斯拉 CEO埃隆·马斯克也曾在推特发文称赞,“ChatGPT好得吓人,我们离强大到危险的人工智能不远了。”

和其他聊天机器人相比,ChatGPT显示出了更高的“情商”。用户会发现,ChatGPT可以回答用户追问的问题,能承认错误,不断调整回答。问它《红楼梦》开篇“原来女娲氏炼石补天之时”的出处,它的回答是《山海经》,被提醒错误后,它很快道歉并调整答案:《封神榜》。它解释的理由中可以看到,它搜索的关键词是“女娲炼石补天”,再次追问,它说,女娲炼石补天的传说是一个历史悠久的故事,出现在多个文献和传统文化中,“因此,没有一个确定的出处”。

李笛说,ChatGPT目前在三个地方有价值,它能帮用户生成一段内容作为初稿,例如邮件、短新闻等,用户再去修改,但现实中,“已有一些国外学生等用户,用它作弊,直接作为终稿提交”。

第二个价值在于,可以给用户提供“启发”和灵感。ChatGPT可以把信息有条理地呈现出来,“假如你想找一个人讨论,尽管它的观点不一定准确,但它会为你提供一种思路。”李笛说,第三个价值就是娱乐。除此之外,如果有人希望ChatGPT提供知识并对此深信不疑,“最好不要,没人能确保它的准确性”。

多位专家提醒,不必神化ChatGPT及其背后的大模型。“它可以像模像样写推荐信,但如果让它回答一些专业问题,你仔细看会发现,它可能是在一本正经胡说八道。”清华大学计算机系自然语言处理实验室副教授刘知远对《中国新闻周刊》说。

就连ChatGPT也承认自己的局限性。问及缺点,它回答:有可能会生成存在种族歧视、性别歧视等偏见的文本,因知识有限或不能理解语义而回答错误,不能处理复杂的逻辑和数学问题,而且,其拥有的知识只停留在2021年。新版必应和Edge浏览器则可以检索实时更新的新闻,甚至可以跟你聊过去一个小时发生的事情。

ChatGPT发布仅一周,当地时间2022年12月6日,因用户大量搬运ChatGPT生成的错误答案,海外知名编程问答平台Stack Overflow暂时在该网站封杀ChatGPT,认为“发布由 ChatGPT 创建的答案对网站及询问和寻找正确答案的用户来说,是非常有害的”。

“某种意义上有点像‘大力出奇迹’”

在李笛看来,就ChatGPT而言,“它不会对产业产生颠覆性影响,但大模型则会。”

2016年前,小模型是人工智能理解人类语言的主流技术,下围棋或机器翻译等某一个具体任务,标注好数据,进入模型训练。但小模型无法用于其他任务,数据标注成本也极高。当时,人工智能领域催生了一个新的职业,人工智能数据标注员。“大家会嘲笑人工智能,说有多少人工,才有多少智能。”刘知远对《中国新闻周刊》说。

传统模式下,自然语言处理是一个非常严密的推理过程,不仅要识别每个词,还要处理词语间的序列,因此诞生了循环神经网络(RNN)模型。但RNN只考虑单词或者上下文信息,常常导致全文句意前后不连贯,或者理解复杂句子时出错。2016年以前,当时的小冰、Siri等问答系统或者机器翻译,都使用小模型。

“当时的人工智能行业,很多技术领域(比如机器学习等)已进入到一个瓶颈阶段。”李笛告诉《中国新闻周刊》。

2017年,谷歌发表论文《Attention is All You Need》,引入自注意力机制学习文本,命名为Transformer模型。在该模型下,神经网络需要学会自动判断哪些词语对理解句意最有帮助,而不是“全文死记硬背”,因此,也不再像过去一样需要大量精标样本。论文一经发布,Transformer模型很快取代RNN成为主流。2018年,基于Transformer,谷歌推出预训练模型BERT(即基于变换器的双向编码器表示技术),同年,OpenAI推出了GPT-1(即生成式预训练变换器)。

刘知远介绍,预训练模型为自然语言处理带来了两个变化:一是可以充分利用网上海量的未标注数据,模型的规模和能力得到显著提高,因而,从规模角度,预训练模型被称为大模型;另一个变化是,大模型具有非常强的通用能力,只需经过少量参数微调,就可以用于机器翻译、人机对话等不同任务。“大模型思想,某种意义上有点像‘大力出奇迹’,把大量数据压到一个很大的黑盒子中再提出来。”李笛对《中国新闻周刊》说。

“但人工标注还是一个重要的数据来源,此前大量的标注没必要了,但在特定任务上还需要标注一些,比如希望这个模型输出的内容更符合人的需求。”刘知远说。近期,《时代》周刊的调查,呈现出ChatGPT智能背后的灰暗角落。《时代》周刊称,2021年11月,为训练 ChatGPT,OpenAI 使用了每小时收入1 ~2美元的肯尼亚外包劳工,对性虐待、仇恨言论和暴力等文本进行标注,保证聊天机器人过滤有害信息,输出适合日常对话的内容,同时,这对标注员的精神和心理产生极大伤害。

学术界对大模型态度一直存在分歧。北京智源人工智能研究院副院长刘江介绍,GPT-3论文发布时,无论国内外,不少自然语言处理领域学者认为,大模型只是靠持续烧钱、粗暴扩大数据规模提升能力,并非真正创新。刘知远对《中国新闻周刊》说,还有一个更现实的问题,大模型需要极大数据和算力支持,如果一些研究者的实验室没有算力支持,他们可能会选择过去熟悉的方向。

OpenAI是全球所有科技公司中,大模型的坚定支持者。2019年,OpenAI推出参数为15亿的GPT-2,2020年推出GPT-3,将参数提升到了1750亿,成为当时全球最大的预训练模型,引发业内轰动。“绝大部分人根本没想过,人类可以把一个模型训练到这么大的规模,这对自然语言交互的流畅性有非常强的提升。”刘知远说。

参数增多,使语言模型学习进阶到更复杂模式。早在2020年,GPT-3可以做到其他模型无法做到的事情,比如作诗、写复杂的文章和代码等,通用性极强。刘知远形容,GPT-3像是一个伶牙俐齿的人,有不错的表达能力,但不具备很强理解能力。

2022年,GPT-3进一步升级为GPT-3.5,这是ChatGPT的底层基础,OpenAI进行微调,提升交互能力,让它“听得懂人类的复杂指令”。“这些都经过了专门训练,像父母对小孩的调教。”刘江形容,GPT-3像是两三岁的天才儿童,读完世界上所有的书,但不知轻重,也没有价值观,需要父母精心教育和启发,让它在聊天方面发挥潜力。

清华大学智能产业研究院首席研究员聂再清向《中国新闻周刊》介绍,ChatGPT聊天能力的显著提升,是引入了一个新的数据训练方法,人类反馈强化学习(RLHF)。OpenAI引入人类评判员,创建一个奖励模型――评判员不断地跟ChatGPT对话,并对它生成的答案按照质量好坏评分,模型收到反馈后进行优化。山姆·奥特曼也承认,“让模型以特定方式对人们有所用途,并找出正确的交互范式,却得到了惊人的效果。”

在自然语言处理领域,流传最广的一句话来自于比尔·盖茨:“自然语言处理是人工智能皇冠上的明珠,如果我们能够推进自然语言处理,就可以再造一个微软。”

刘知远认为,ChatGPT推出后最大的价值在于,能用RLHF等技术,把大模型的能力展现出来,让公众意识到,人工智能与人类自然语言的交互达到非常高的水平,机器已经可以“能言善辩”了。

但大模型为何有时生成错误答案?在李笛看来,这是由其技术结构决定的。聂再清进一步向《中国新闻周刊》解释,这是因为ChatGPT本质上还是一个基于概率的语言模型,本身不涉及知识的对错,未来仍需用更多的专业知识训练。

当下,大模型与搜索引擎结合已是大势所趋。聂再清建议,新版搜索引擎给出综合答案后,最好附上原始网络链接,有利于用户自己验证AI回答的正确性。目前新版必应在每个回复下加入信息来源。但两者结合最终成功与否的关键,“还是在于AI总结的答案绝大部分都是对的,不会耽误用户花更多时间来验证结果。”

更关键问题是,ChatGPT及其背后的大模型,仍是基于数据驱动生成内容,不是像人类一样会思考和推理。但2月上旬,斯坦福大学计算心理学教授迈克尔·科辛斯基发表论文称,在对几个语言模型进行专业测试后,他发现ChatGPT 表现接近 9 岁儿童的心智。

近期,因在深度学习领域贡献获2018年图灵奖的杨立昆谈到,人类思维方式和对世界的感知,是人类获得常识的基础,聊天机器人的模型没有这种能力。对此,ChatGPT回答《中国新闻周刊》说,“我的设计是基于概率模型和大量的数据训练,以回答问题和执行任务。我不具有意识、情感或主观体验,也不能对世界产生真正的影响。”

随着ChatGPT的发展,未来会不会替代人类的工作?

“我相信ChatGPT会取代一些工种,或者让一些工种不需要太多人参与,这是一个潜移默化的过程。”刘知远对《中国新闻周刊》说,但与此同时,它也会催生一些新的工作,比如,以前画画需要很高的门槛,但现在,即使一些人不会画画,但有天马行空的想象力和创意,一样可以和AI一起创作。

ChatGPT似乎承认自己可以在部分工作中替代一些人力劳动,“可以在许多行业中使用,例如客服、教育、媒体、医疗保健和金融”,但它补充说,“我不能取代需要人类情感和社交技能的工作,例如教育和医疗保健等需要人类情感互动和洞察力的领域。”

美国天普大学心理学系教员凯西·帕塞克等人近期在一篇分析文章中提到,纽约市一名高中历史老师反对阻止使用 ChatGPT,关键在于,“如果我们的教育系统继续‘追求评分而不是知识’,ChatGPT 只会是一种威胁。”凯西认为,如果以正确方式使用,ChatGPT 可以成为课堂上的朋友,对我们的学生来说是一个了不起的工具,而不是令人恐惧的东西。

中国何时会有自己的ChatGPT?

相较国外, ChatGPT在国内的热度稍显滞后。谷歌和微软短兵相接时,国内搜索巨头百度也宣布3月将推出中国版的ChatGPT“文心一言”。腾讯称,在ChatGPT和AIGC相关方向已有布局,阿里达摩院正在研发的类ChatGPT的对话机器人,目前已开放给公司内员工测试。此外,快手、京东、360等多家互联网企业也都表示在相关领域研发和布局。

2月13日,北京市经济和信息化局在北京人工智能产业创新发展大会上明确表示,北京将支持头部企业打造对标ChatGPT的大模型。

李笛提到,在ChatGPT之前,国内和国外已经有很多公司在利用大模型做很多产品和研发,市面上也有很多训练出来的大模型,“只不过在人工智能的训练过程中,研发者的专注度、投入度不一样”,并不存在“技术壁垒”。ChatGPT火热背后,是OpenAI从2018年以来持续投入完善大模型,取得了这一效果,所以有一定“时间壁垒”。

2月7日,360在互动平台表示,公司人工智能研究院从2020年起,一直在包括类ChatGPT技术在内的AIGC技术上有持续性投入,但截至目前仅作为内部业务自用生产力工具使用,且投资规模及技术水平与当前ChatGPT 3比还有较大差距,各项技术指标只能做到略强于ChatGPT 2。

早在2020年,北京智源研究院曾推出超大规模智能模型“悟道”项目,阿里达摩院自研预训练模型框架ALICE。2021年,深圳鹏城实验室为首的联合团队,推出参数为2000亿的大模型“鹏程·盘古”,探索通用人工智能。多位受访专家提到,中国目前大模型研发与OpenAI仍有差距,国内要有像GPT3.5这样的大模型,但没必要每个公司都去投入和研发。

大模型打造离不开AI的三大基石:数据,算法和算力。大模型多烧钱?一位AI从业者向《中国新闻周刊》举例,他接触的一个数据公司有中文数据量700亿~1000亿条,每天定期更新3亿条,据了解,这比ChatGPT在中文世界的数据量多,如果有研究者想要下载,先得支付30万的下载费,“这只是大模型训练中一个很小的环节,你可以想象它是一个无比巨大的机器,电费都是天价”。

算力离不开芯片。2月12日,国盛证券估算,今年1月,平均每天约有1300万独立访客使用ChatGPT,对应芯片需求为3万多片英伟达A100GPU,初始投入成本约8亿美元,每日电费5万美元左右。而GPT-3训练一次,成本约为140万美元,对一些更大的大模型,训练成本介于200万美元至1200万美元之间。这一成本对全球科技大企业而言,尚在可接受范围内,但并不便宜。

在数据上,2020年,GPT-3使用的最大数据集在处理前容量达到了45TB。鹏城实验室副研究员曾炜等人在2022年发布一篇论文中提到,目前已有3个100GB以上规模的中文语料数据集,分别是爬虫公司Common Crawl抽取到的CLUECorpus2020,模型规模为100 GB;阿里巴巴集团发布的M6中文多模态模型,规模为300GB;北京智源研究院面向合作者发布的3


ChatGPT会取代律师吗?能帮忙打官司吗?专家这样认为

chatgpt怎么下载,chatgpt中文,chatgpt安装,chatgpt概念股

原创 张旭凡 上海法治报

最近,ChatGPT成为了人们讨论最多的话题之一,这款人工智能聊天机器人火爆全球,除了可以用来写论文、改代码、做翻译,还能用来咨询法律问题、撰写法律文书,这不禁让人们思考:法律人会被取代吗?

ChatGPT在司法领域有哪些应用场景?又有哪些掣肘?从老百姓打官司的角度是否存在实用价值?ChatGPT的风险何在?边界何在?上海法治报记者采访了四位法学专家与律师。

ChatGPT可以做什么?

“ChatGPT是一种大型语言模型,可以通过自然语言处理技术与人类进行交互。”上海政法学院教授曹阳介绍到,ChatGPT可以理解和产生自然语言文本,这使得它成为一个非常有用的工具,帮助人们解决各种语言理解和生成的问题。

“在法律领域,ChatGPT可以演化成‘智能律师助手’,帮助律师分析大量的法律文件和案例,提供智能化的法律建议和指导;可以变成‘法律问答机器人’,回答法律问题,并提供相关的法律信息和建议。”除此之外,曹阳还指出,ChatGPT可以进行合同审核、辅助诉讼、分析法律数据等等,提高法律工作者的效率和准确性。

华东政法大学知识产权法律与政策研究院研究员杨勇认为,ChatGPT对于人们学习法律概念也大有帮助。“以法律百科为基础的升级版法律知识学习可以开启智能化的法学入门学习,对全民的普法有积极意义,为建设法治社会益处良多。”此外他还表示,基于智能分析的标准化法律思维,ChatGPT还可以实现相关法律问题的初级研究,对法学师生和法律媒体人有较大的参考作用。

ChatGPT不能做什么?

ChatGPT对于程序问题的回答让人称赞,对于实体法律问题的咨询又是否同样称心如意?记者注意到一位涉医疗领域的律师在朋友圈吐槽,咨询专业问题,回答的“全是正确的废话,没有一句实质内容”。

上海致格律师事务所管委会主任、高级合伙人蒋秀海律师介绍,ChatGPT在回答法律咨询时,常会出现类似于免责等提示,诸如“请注意,本答案的内容仅供参考,具体情况请参考相关法律法规和政策”以及“建议您咨询当地的律师或监管机构,以确保您的行为符合法律法规的要求”。“ChatGpt的工作逻辑目前仍存在一定的局限性,特别在涉及到感性、抽象、有针对性的问题时,还是只能由人来处理。”

“从目前试用效果看,ChatGPT涉及相关法律问题的回答较浅,不周延也不深入。”杨勇说道。“法律研究和提出法律问题的解决办法不同于智能写作,是极其严肃的事情,来不得半点差错。”他认为,对法律问题的研判是需要慎审对待的,ChatGPT提供的法律回答不能直接代替专业法律人的回复。

曹阳也表示,目前ChatGPT技术仍然存在很大的弊端。首先,从准确性与可靠性来看,ChatGPT无法像人一样思考,无法理解法律规则背后的逻辑与价值判断,因而其结果会出现偏差。其次,ChatGPT是对理性数据的学习与运用,缺乏也无法理解人的情感,无法做到“有温度的司法”。最后,司法裁判在某种意义上是自由心证的过程,无法进行数字化的呈现,因而ChatGPT无法进行学习。

ChatGPT对老百姓打官司有帮助吗?

如果说ChatGPT对于专业法律人来说是一项提升效率的辅助工具,那么对于普罗大众而言,ChatGPT在处理法律纠纷的过程中能否帮上忙?蒋秀海认为,ChatGPT能够整体上提升人们获得法律服务的便利度,在一定程度上降低一些基础法律服务的成本,具有一定参考价值。杨勇也指出,非法律专业人事在不聘请代理人的情况下,可以通过简单的咨询、学习、了解,让诉讼变得简单、高效、廉价。

上海市德尚律师事务所主任王凡律师表示,在诉讼过程中,普通人也可以通过ChatGPT进行法律条文、案例检索,更高效地获取到相关信息。但同时她也指出,案件各方面始终存在差异,各种抽象的法律原则始终穿插在民事行为的全过程中,机械地适用法律条文、司法判例很难做出完全准确的解答。“哪怕ChatGPT凭借海量数据库以及强大的计算整合能力,其做出的法律分析也只是具有一定参考价值,具体适用仍需进行甄别。”

此外,专家与律师也指出使用ChatGPT时值得注意的一些法律风险。曹阳表示,ChatGPT需要处理大量的敏感数据,如法律文件、案例、客户信息等,如果没有进行足够的数据安全保护,可能会导致信息泄露或被恶意利用。

王凡指出,ChatGPT的运作是基于数据库并进行计算整合,用户使用ChatGPT产生的成果的著作权归属以及是否属于受著作权法保护值得探讨。“ChatGPT无法保证所搜集的数据均不属于受保护的信息,因此可能会产生知识产权侵权风险,此外也同样可能无法鉴别信息的真实性、合法性等因素,可能涉及到数据合规风险。”

ChatGPT的边界何在?

“在司法应用领域,ChatGPT的应用存在一些边界和限制。”曹阳介绍到,一方面,ChatGPT的知识和判断能力仍然受到一定限制,它所给出的结论和建议也更多地是基于一般性的规则和原则,因此无法完全替代人类律师。另一方面,虽然ChatGPT等人工智能技术可以对大量的案例和判例进行分析和归纳,但法律是一门人文学科,需要考虑伦理、公正等因素,ChatGPT不能完全代替人类法官和裁判员的专业能力和职责,因此不能完全代替司法裁判。

蒋秀海指出,ChatGPT被运用于司法领域时,更适合作为重复性、机械性工作的辅助性工具,也可借助其进行观点集成。对于具有更高价值的法律分析和解决问题工作,不宜完全依赖于人工智能。王凡也说道:“人类复杂的情感、传承至今的道德文化等是无法通过数据、公式计算得到的,ChatGPT或许会给司法领域带来一定的便利,但是在使用时还是要坚持德与法的兼顾,让法律和道德相辅相成、相得益彰。”

“司法在某种意义上是处理人与人之间关系的工作,冰冷的ChatGPT显然无法理解人与人之间的情感与互动,无法应对复杂的法律推理与逻辑推演。”曹阳认为,ChatGPT虽然非常强大且具有潜在的广泛用途,但我们不应依赖于其进行复杂的推理或获取重要信息。“最好的写作者既不是ChatGPT,也不是人类,而是能够熟练和有洞察力地使用ChatGPT的人类。ChatGPT不应作为人类输入的替代品,不是独立的信息生产者与传播者,而是人类的辅助工具。”

见习记者 | 张旭凡

编辑 | 王菁

原标题:《ChatGPT爆火!会取代律师吗?能帮忙打官司吗?专家、律师这样认为……》

阅读原文