chatgpt可能引发的风险 chatgpt创始人的13个建议
淘宝搜:【天降红包222】领超级红包,京东搜:【天降红包222】
淘宝互助,淘宝双11微信互助群关注公众号 【淘姐妹】
来源:新华网?| 2023年02月13日 09:38:24
新华社北京2月13日电 ?新闻分析:ChatGPT,变革与风险
新华社记者彭茜 黄
美国人工智能公司OpenAI的大语言模型ChatGPT在推出约两个月后,1月已达到1亿月活跃用户,成为历史上增长最快的消费者应用程序。相关专家预计,ChatGPT不仅是新一代聊天机器人的突破,也将为信息产业带来巨大变革,但由此带来的学术造假、技术滥用、舆论安全等风险亦不容忽视。
新一代操作系统平台的雏形
多语言撰写充满想象力的诗歌,编写可运行的程序,快速生成论文摘要,自动制作数据表格,纠正文章中的语法和表达错误,把一周大事写成新闻综述……ChatGPT不仅能理解很多人类问题和指令,流畅展开多轮对话,也在越来越多领域显示出解决多种通用问题的能力。
ChatGPT还轻松通过一些对人类难度较高的专业级测试:它新近通过了谷歌编码L3级(入门级)工程师测试;分别以B和C+的成绩通过了美国宾夕法尼亚大学沃顿商学院MBA的期末考试和明尼苏达大学四门课程的研究生考试;通过了美国执业医师资格考试……业界形容它的诞生是人工智能时代的“iPhone时刻”,意味着人工智能迎来革命性转折点。
“ChatGPT的成功不应仅仅被看作新一代聊天机器人的突破,而应该重视其对人工智能乃至整个信息产业带来的革命。”北京智源人工智能研究院院长黄铁军接受记者专访时说,人工智能领域的过去十年是深度学习的十年,但产业总体上并没有出现移动互联网和云计算级别的爆发,“ChatGPT的出现,具有划时代意义,大模型+ChatGPT已形成新一代操作系统平台的雏形”。
黄铁军说,ChatGPT在技术路径上采用了“大数据+大算力+强算法=大模型”路线,又在“基础大模型+指令微调”方向探索出新范式,其中基础大模型类似大脑,指令微调是交互训练,两者结合实现逼近人类的语言智能。ChatGPT应用了“基于人类反馈的强化学习”训练方式,用人类偏好作为奖励信号训练模型,促使模型越来越符合人类的认知理解模式。
“这样的AI可帮助人类进行真实创造,尤其是帮助人类提高创造效率,比如提高获取信息的效率或提出新颖想法,再由人解决其真实性问题。创造效率的提高将产生巨大效益和多方面影响,可以改变世界信息化格局。”中国科学技术大学机器人实验室主任陈小平对记者说。
引发新一轮人工智能科技竞赛
ChatGPT的问世正在人工智能领域引发新一轮科技竞赛。北京时间2月8日凌晨,微软推出由ChatGPT支持的最新版本必应搜索引擎和Edge浏览器,宣布要“重塑搜索”。微软旗下Office、Azure云服务等所有产品都将全线整合ChatGPT。
北京时间2月7日凌晨,谷歌也发布了基于谷歌LaMDA大模型的下一代对话AI系统Bard。同一天,百度官宣正在研发的大模型类项目“文心一言”,计划在3月完成内测,随后对公众开放。阿里巴巴、京东等中国企业也表示正在或计划研发类似产品。
人工智能大模型领域的全球竞争已趋白热化。黄铁军认为,ChatGPT未来有望演变成新一代操作系统平台和生态。这种变革似移动互联网从个人电脑到手机的转化,大部分计算负荷将由大模型为核心的新一代信息基础设施接管。这一新范式将影响从应用到基础设施各层面,引发整个产业格局的巨变,大模型及其软硬件支撑系统的生态之争将成为未来十年信息产业焦点。
值得注意的是,ChatGPT有时会“一本正经地胡说八道”,存在事实性错误、知识盲区和常识偏差等诸多问题,还面临训练数据来源合规性、数据使用的偏见性、生成虚假信息、版权争议等人工智能通用风险。多家全球知名学术期刊为此更新编辑准则,包括任何大型语言模型工具都不会被接受为研究论文署名作者等。
“学术论文的署名作者须满足至少两个条件,其一是在论文工作中做出‘实质性贡献’,其二是能承担相关的责任。目前这两个条件ChatGPT(以及其他AI系统)都不满足。”陈小平说。
ChatGPT也有应用在舆论信息战方面的潜力。加拿大麦吉尔大学研究团队曾使用ChatGPT前代模型GPT-2阅读加拿大广播公司播发的约5000篇有关新冠疫情的文章,然后要求其生成关于这场危机的“反事实新闻”。连OpenAI也警告使用ChatGPT的用户,它“可能偶尔会生成不正确的信息”,“产生有害指令或有偏见的内容”。
“针对这些问题,需要我们在发展技术的同时,对于ChatGPT应用边界加以管控,建立起对人工智能生成内容的管理法规,对利用人工智能生成和传播不实不良内容进行规避。同时加强治理工具的开发,通过技术手段识别人工智能生成内容。这对于内容检测和作品确权,都是重要前提。”北京瑞莱智慧科技有限公司副总裁唐家渝说。
chatgpt具有人类思维了吗 chatGPT能辅助孩子学习吗
chatgpt,chatgpt是什么意思,chatgpt怎么下载,chatgpt怎么用最近只要打开手机,铺天盖地都是ChatGPT的消息。为了弄清它到底能干什么,会不会跟人抢饭碗,我也跟它进行了一番深入的交流。比如我昨天和大家说的,给出指令,能自动写程序
:仿写古诗也有模有样
:对于育儿问题,回答也很有逻辑,用词准确,还带着点人情味。并且是即问即答,效率比人高太多了。我身边不少妈妈也越来越感觉到,现在时代已经变了,对孩子的教育也得顺应变化,像过去那样死记硬背书本知识已经不灵了。人工智能时代,真正考验孩子的,不是记住多少知识,而是在于对知识的灵活运用、开发创新,而拥有创新能力的孩子,才是人工智能时代的主导者,在未来才有竞争力。
chatgpt或取代20种工作 ChatGPT对哪些工作的影响比较大
chatgpt官网,chatgpt国内能用吗,chatgpt怎么下载,chatgpt怎么读这段时间ChatGPT全球火爆,上线仅仅2个月用户数就破亿了。可能有些小伙伴还不知道什么是ChatGPT,简单介绍一下,就是一款比苹果Siri还聪明的聊天机器人模型。
我也试用了一下,它确实很聪明,聪明到让它写论文、写邮件、讲故事、编程、解数学题、写诗,而且回答内容看上去很靠谱的。
它比Siri聪明的地方是,它具备学习能力,而是用规则,他能理解上下文的内容和人类互动,即使是复杂的问题,它也能理解。
于是很多人开始担心,哪些工作将会被ChatGPT取代?
如果一定有的话,当然是取代是天天说XX工作会被ChatGPT取代的人。这些讨论没有什么价值,和ChatGPT的回答一样,表面上合乎逻辑,实际上只是没有思考力套用模型罢了。
就像下面这些新技术一样,
哪些工作将被3D打印取代?没有
哪些工作将被VR取代?没有
哪些工作将被大数据取代?没有
哪些工作将被无人驾驶取代?没有
这些新技术刚开始出现时,大家都以为会产生颠覆性的变革,但最终只是成为一种辅助性的技术,让人类的工作更加便利,但并没有取代哪些岗位。
至于ChatGPT,确实很智能,但也无法取代人类。
我只要问大家几个问题,
现在扫地机器人已经非常智能了,为什么清洁阿姨还没有失业?美国不是高科技很厉害吗,为什么宁愿用成本非常高的清洁工,也不愿意用扫地机器人?
现在的语音识别已经非常准确了,为什么大多人还是喜欢用键盘打字,特别是在工作时?
除了国内这些不要脸的垄断企业用AI语音客服外,为什么国外的大公司如亚马逊仍然是用人工语音客服(只有在线客服是AI)?
其实答案很简单,因为机器始终是机器,它也不是人。
人有Humanity,机器没有,就算再聪明,和人类互动时都有根本的缺陷。
1、大多数人类说话时候都是语焉不详的,无法准确说出自己的需求,对机器来说是灾难
如果你去咨询一个人类,就算是语焉不详,问题都不大,他可以从字里行间以及对你的了解猜出来你要表达什么,或者通过和你互动来获取更多细节,但对机器人来说,却是灾难。
比如你想写一封邮件祝福客户新年快乐,大多数写这个需求时,对机器你只会这样说:
“帮我写一封祝福客户新年快乐的邮件,客户叫Mike“。
至于其他细节,以及大概的风格,你并不会准确描述,机器给你的回答只会是毫无感情千人千面的通用模板。
而如果你去咨询一个具体的人,你们之间的互动就会多一些,他会问你客户的年龄、性格、地理位置、国籍、家庭情况、你们之间的关系、你们之间共同的经历,基于这些信息他会推断出应该用什么样的风格,然后给你具体的建议。
只有极少数人能够准确描述自己需求,比如会这样去问ChatGPT:
“帮我写一封祝福客户新年快乐的邮件,客户叫Mike,今年40岁,美国人,住在小石城,是两个孩子的爸爸,我们之间关系非常好,已经认识十年了,他每年过来三次,每次过来我们都会喝得酩酊大醉,有一次我们都喝醉了,然后敲错酒店的房间,结果吓得房客报警,警察来了之后我们还和警察争吵,后来双双进局子里做笔录,直到凌晨4点才回来。去年他对我的生意非常关照,是我最大的客户,如果没有他的话我去年就熬不下去了,所以我对他非常感激,希望他能够感受到我的心意“
大多数人是缺乏换位思考的,无法提供这么全面且详细的信息,只想寥寥数语就能快速得到想要的答案。就算是有能力准确描述自己需求的人,也没有耐心对一个机器说这么话。
对于老板来说,更是言简意赅,没有耐心说太多废话,要靠下属去揣摩,你能想象老板能够驾驭得了ChatGPT?
国外的语音客服仍然是采用人工的,为啥?因为绝大多数顾客根本说不清自己的诉求,用AI就是灾难,客户只会觉得是一智障,还不如外包给便宜的印度阿三。
2、人类对于错误的容忍度非常低,只要出现一次错误,就不想用了
即便是人类,只要是犯错一次错误,别人他的信任就会大大降低,犯两次错误,基本就会被视为不靠谱,以后就不会有合作了。
你想想一下,如果老板叫你明天7点起来和国外开电话会议,结果你睡过头了,无论你之前是多么准时,都会让老板对你的印象大打折扣,如果你出现二次这样的事故,那你就会被老板觉得你特不靠谱,这是你以后不管准时多少次都无法修复的。
对于人类都是这么苛求,何况是机器。人类对于机器的要求是100%准确,不允许出错,一旦有错误,你就不会想用它。
我们家有很多智能家电,如智能锁、智能灯泡、智能风扇、智能晾衣架,智能音箱,都可以在手机上通过语音识别控制。但这些智能我渐渐的不再使用,因为它们会出现偶尔掉线的状况,语音识别有时候也理解错误,只要10次里有一次不成功,我心里就特别恼火,觉得就是一智障,还不如自己动手去按开关靠谱。
家里的智能音箱现在只沦为了时钟,因为有时候声音小了它听不到,说话的时候有其他人插嘴他也会错意,那还不如我自己动手来得快。
语音识别已经很准确了,为什么大家还是不习惯用来写长文?因为即使是很高了,仍然做不到100%,中文里同音字很多,一段话里难免有几处错误,作为微信聊天无伤大雅,但是对于工作来说就是灾难了。
无人驾驶为何始终无法落地?因为人类对于1000次里哪怕有一次的失误都不能容忍。给领导开车的司机,只要有一次急刹吓到了领导,领导就会觉得这司机不靠谱,何况是机器呢?
ChatGPT也一样不能提供100%准确的答案,只是看起来符合逻辑而已,实际上准确还是很低的,而且它有一个特点,就是嘴硬,明明不知道的答案也要瞎编,这种隐藏的破坏性更大。
3、人类骂了就有长进,机器骂了不会有长进。
人能够立即接受反馈,但机器无法做到。
老公开车如果开得不好,老婆一顿劈头盖脸骂起,老公下次就知道不能这样开了。
清洁工阿姨扫地如果没有扫干净,你可以批评她,警告她下次还扫不干净就别干了,骂过之后立竿见影。
无人驾驶、扫地机器人你骂它,它只会继续给你摆烂,不会有长进。
虽然ChatGPT已经具备学习能力,但要识别出人类情绪细微的差别还是做不到,要通过骂的内容来学习迭代改变工作方法也近乎天方夜谭,因为人类骂的时候是没有逻辑可言的,有时候根本都不知道错在哪里。
另外,人类能提供被骂的情绪价值,你骂完一个人心里会得到发泄,但你骂完一个机器只会觉得自己是傻瓜。
4、提供答案本身的价值很小,修正答案才是最大价值
ChatGPT确实能写代码,能够通过Google的程序员面试,但是无法取代程序员。
你因为程序员就是整天写代码?你以为软件的所有的代码都是程序员从头到尾写出来的?
不,程序员只有20%的时间在写代码,大部分代码也是不从零开始写的,而是直接到网上找开源的代码,其他80%的时间都是在找代码、抄代码、改代码、测试、解bug、开会等等,这些才是一个程序员的价值所在。
秘书写报告也不是从零开始写的,而是基于往年的报告,然后结合今年的工作重点和领导的想法做一些修改,就形成了一份新的报告。
现在的翻译是怎么做的?普遍做法是先机翻一遍,然后译者把不通顺的地方润色一遍,人工智能并没有取代翻译,只是相比之前效率大大提高。
后记
当然,群发邮件、群发模板这些工作特别适合ChatGPT来做,因为这些内容都是没有什么感情的。
转载编辑:Amelia