chatgpt有多能聊
淘宝搜:【天降红包222】领超级红包,京东搜:【天降红包222】
淘宝互助,淘宝双11微信互助群关注公众号 【淘姐妹】
有些观点非常乐观,认为人的创造性、独特性和情感性是难以取缔的,人工智能,终究还是人工在前,被取代的只可能是那些重复性高、创造性低的工作人群。
对此,我不以为然。AI对于人类行为模式的改变,必然像河流改变山川走向一样,缓慢而坚定,并且无从回头――且一视同仁,不分创造性高还是低的种类。
这里先岔开一路,给大家讲讲围棋故事。
围棋作为一项流传千年的文化精粹,在中日韩三地渊源流长,这是一项充分体现棋手个人风格的项目,它曾经是百花齐放的。
比如因为动漫《棋魂》而知名的本因坊秀策,这是典型的流向派,大局把控,全局均衡,让人感慨每步棋的深谋远虑;
武宫正树的“宇宙流”,不拘泥于边角,对中央地盘有着强烈追求,气魄宏大华丽(中央易破难守);“力量派”的招招犹如开山斧当头劈下,刀光剑影拳拳到肉;还有李世石的僵尸流,李昌镐的官子无敌,柯洁的执白不败等等。
不同围棋手的精彩对局,或输或赢,都体现了强烈的个人风格,就好比你看电影,文艺片动作片恐怖片之间切换,每一个类型都有好片。
直到AlphaGo横空出世,把人类最强手打的束手就擒。围棋归属于体育,本质上是竞技,当一种高效的方式以无可争议的胜率证明了自己以后,人类棋手拼命向AI学习无可厚非。
学习什么?计算力。拼计算,拼一子过后10086种可能的计算,算不了还能背AI谱。
之后崛起的世界等级分第一的棋手,“申工智能”就是典型的AI计算流,我国现在兴起的冠军棋手也无不跟AI学计算。从此任何流派都倒在AI派之下,“罢黜百家,独尊AI”。任何讲解都没有了探索和恍然大悟,只剩下AI的胜率显示。
AI没有让围棋走向末路,它只是让围棋的发展方向拐了个弯。围棋仍然可以发展,围棋从业人员也许更加蒸蒸日上。但是,那些对棋的理解,融入人生的价值选择,形态各异的风格都慢慢消失,顶尖棋手的高端对局,棋局从第一手开始就瞄准AI推荐的最佳落子点,最佳落子点,就那么1-2手而已。
“顺我者昌,逆我者亡”。
这就是时代的风口,不能改变、调整的都会被抛弃。与其说它仅仅是取缔那些所谓重复性的东西,不如说,它是取缔和它指向不一样的事物,因为连围棋、绘画、散文诗这样的富含情感和创造力的领域,人工智能都已经做得更完美了。
这就有点细思极恐了。
实际上,人工智能发展会不会反客为主的讨论已经进行了几十年,电影、小说、动漫中都有把某台超能计算机作为幕后大黑手的设定,最近的流浪地球前传中,就把超级计算机MOSS设为一切灾难的导演者。
人工智能会永远是人类的好帮手,臣服于人类之下吗?
不确定。
它对于低生产力的人群而言是不是一场灾难?
不确定。
它会不会迭代出自己的价值观和意志?
不确定。
尽管有这么多不确定,但是人工智能发展的速度会因此而减缓吗?
不可能!
就好像哪怕预先知道哥伦布发现新大陆后,给美洲原住民带来的灭族伤害,也不会有人因此选择放弃发明指南针。就好像第一次工业革命之后,还是有了第二次工业革命,第二次之后还有第三次。
每一次工业革命都指向了以机器替代人力,以标准件取代个性化,每个时代的人们都恐慌无措过,有行业被抛弃过,但时代仍然涛涛向前,一次次工业升级。
这是时代的滔滔洪水,技术发展到一定阶段的必然指向,它们带来了巨大的便利。没有人工智能,许多领域都无法开展,上太空、下深海、提升医学上限、探求人类科学,都会广受限制,与之相比,人工智能可能带来的危害,只能说到时再说,逢山开路、遇水搭桥,人总是在往前走的,人工智能带来的巨大转变不会短时间在一代人身上发生,而下一代会有足够的时间和环境去转变自我。
说到下一代,很多微信号开始讲ChatGPT的到来给了家长什么启示,应该如何去培养孩子。仔细一看,除了带货,就是宏观空白大道理。比如,要注重培养孩子的创新性,要注重他们的整合能力,不要把成绩看的太重,要注重能力的培养。
问题是路径呢?能力、创造力是生而有之?是顿悟所得?
所有的数学计算,语文写字、诗词、背诵,英语单词语法听说读写,历史地理道法政治,不要说未来了,现在的人工智能就能完全做得更好更完美。那是不是现在的孩子为了适应AI时代,就可以抛弃这些所谓的死知识,去追求创新创造?
这里要说回《流浪地球》,因为它,2019年被称为中国电影的科幻元年。为什么在这之前,中国也有科幻电影,却不被认可为真正的科幻呢?为什么那些猫说话狗跳舞的故事,穿插了俊男美女外星人的影片通通不是科幻呢?
不仅仅在于人类第一次从大银幕上看到了从中国的文化角度和政治立场去想象全球人类未来命运的方式,更为重要的是,故事构建了一个宏大且完整的逻辑链,它有一个合理的可被人接受的科学逻辑作为底层运行。这个世界是怎么设定的,如何合力推动地球逃离太阳系,远离太阳温度下降,地球的人们怎么生存,是要有一个物理、生物、化学规则的支持的。
但是一个一味讲创造而不做好底层知识学习的孩子,那他创造的上限大约只是巴拉巴拉小魔仙,魔棒一挥问题解决。
唯有“死去”,才有“活来”。于小孩是如此,于大人亦是如此,先把手头的事情踏踏实实做好,用今天的勤奋吹散明天的惶恐吧!
2022年11月,ChatGPT发布时,国外曾掀起惊天巨浪,当时在国内却鲜有人提及。短短几天内,OpenAI开发的智能聊天机器人ChatGPT迅速走红。
国内多家公司宣布推出ChatGPT类似服务:有公司宣布,将于3月推出自研的ChatGPT类产品;有公司宣布,计划推出Demo版ChatGPT产品;有公司宣布,推出内部测试类的ChatGPT工具;有公司表示,将类似的ChatGPT技术结合到客服中;也有公司表示,将部署ChatGPT相关技术服务于医疗、教育等领域;更有很多公司表示,自身业务与ChatGPT有关联积累。
总之,发布关于ChatGPT相关公告后,相关公司的股价大多上涨。
ChatGPT产品的推动下,国内的开发和使用者鱼龙混杂,顶象防御云业务安全情报中心发现,ChatGPT已经成为无数黑灰产快速捞钱的新手段。
借助ChatGPT使用赚钱
1、贩卖ChatGPT账号。
ChatGPT在国外是完全免费向公众开放的,但必须使用海外手机号码接收短信才能完成注册,许多国内使用者被这一步拦在了门外。部分黑灰产注册了大批账号,然后通过电商、社交、论坛平台贩卖ChatGPT。
黑灰产贩卖的ChatGPT账号,主要分为永久账号和共享账号。顾名思义,前者是一人独有,后者是多人公用。一个永久账号售价9.9-39.9元不等,共享账号价格比较低,1元-6元不等。不过,一个共享账号可以卖给不同的买家从中牟取。
2、售卖注册工具。
由于注册ChatGPT需要境外手机号码,很多黑灰产提供境外手机号码、虚拟号码的平台租赁服务,售价几元到几十元不等。还有黑灰产提供三方软件或插件,也可以同等注册功能。此外,售卖非法VPN工具的频率也在大幅提升。
3、山寨ChatGPT。
这里面主要有两种情况,一类是通过镜像或接口,一类就是仿冒伪造。
通过ChatGPT镜像或接口,就是在国内建立一个ChatGPT内容拷贝,或者是调用ChatGPT的接口,一端连接ChatGPT,一端连接国内用户,黑灰产在中间转述用户的提问和ChatGPT的答复。这些产品的服务有以次数收费,也有有时效收费。比如,充值99.99元,可以使用1300次;每月199元月,可以无限次使用等。
此外,黑灰产还在网购平台开设网店进行兜售代提问。1元钱购买3-9个问题不等。买家购买后将问题发给商家,商家代为提问,然后将ChatGPT的回答复制或截图给买家。
仿冒伪造ChatGPT。国内涌现出很多名称中包含ChatGPT的公众号、小程序,以ChatGPT的官方图标为头像,回复的方式与ChatGPT回复很像。不过,这些全部都是假的。这些山寨的ChatGPT,对话模型质量粗糙,很多是回复是统一的应答话术,更有很多答非所问。
4、贩卖ChatGPT教程和使用。
这里面也有两种方式,第一种是制作ChatGPT使用教程,包含如何登录、如何获得海外邮箱、如何获取海外手机号、如何注册、登录、使用等等,通过电商平台、社群、小程序兜售,有视频版也有文字版,售价从几元到家几十元不等。
第二种是利用“ChatGPT赚钱”来赚钱。社交媒体、视频网站上搜索“ChatGPT赚钱”会看到各种免费教程,浏览量很高。例如教你先用ChatGPT给初创公司起名,再交给Midjourney设计对应的LOGO,就能完成一整套品牌从起名到设计的服务,爽拿几千元:还有例如油管博主Liam James Kay,就以一个食谱转换插件为例,演示了一遍使用ChatGPT生成代码的方式。
ChatGPT对业务安全的帮助
提升漏洞挖掘的广度和精度
漏洞挖掘主要依靠技术挖掘,然后经过安全人员审核
远光|ChatGPT爆火引发AI应用边界大讨论,美丽新世界还是潘多拉魔盒?
远光视频,远光logo,远光灯体验区,远光是什么来源:搜狐科技
原标题:远光 | ChatGPT爆火引发AI应用边界大讨论,美丽新世界还是潘多拉魔盒?
出品 | 搜狐科技
作者 | 梁昌均
编辑 | 杨锦
“ChatGPT就是一个高科技剽窃系统。”美国语言学家诺姆・乔姆斯基认为。这是在广泛认为ChatGPT将带来一场技术革命的浪潮声中,为数不多的刺耳评价。
自ChatGPT诞生以来,由于出色的内容生成能力,它在学生群体广为流行,教育成为最先受到ChatGPT冲击的行业之一。
国外一项对1000多名学生的调查显示,超过89%的学生使用ChatGPT来帮助完成家庭作业。用它来写论文也不错,在文献查询、综述等方面效率很高,最优秀的论文可能就会出自它手。
“对于知识型工作者来说,这就完全等于工业革命。”微软CEO纳德拉评价。但与产业界的热情拥抱相比,教育界和科研圈却希望将ChatGPT拒之门外,中美德英等多个高校禁用ChatGPT,《科学》《自然》等核心期刊也不允许将ChatGPT列为论文“合著者”。
这些机构封杀的理由是该工具会导致学术剽窃等问题,成为作弊的得力助手,同时认为它也不会培养批判性思维和解决问题的能力,是人类一种避免学习的方式。
作为一个堪比互联网的革命性的技术,ChatGPT可能会打开“美丽新世界”的大门。但随着这类AI技术的规模应用,其带来的负面影响可能会比互联网更为显著。
比如,更多的虚假信息、更大规模的数据泄露,更多的人失业……360创始人周鸿t就表示,ChatGPT这类人工智能可能就是毁灭人类的“潘多拉魔盒”。
作为掌握和使用技术的我们,该如何为它的应用设定边界?对技术伴生的问题又该如何解决?这些都是在人工智能发展过程中不得不考虑的问题。
该封杀还是该拥抱?
乔姆斯基关于ChatGPT是高科技剽窃系统的说法,并非完全没有道理。它从已有的海量信息、知识和数据库中构建规则,并通过统计预见的方法重新排列组合,自动生成像人写的文章和内容,以致于人在和它互动时也会产生是在与人交流的幻觉。
但本质上它仍是一个无法自我纠错的冷冰冰的机器,无法理解其自身和人所表达的内容,生成的内容也会失真。正如乔姆斯基所说,它在语言理解和认知方面没有任何价值。
中国社科院科学技术和社会研究中心主任、研究员段伟文在接受搜狐科技专访时表示,研究者对ChatGPT是又爱又怕,因此对教育界或科研圈的封杀行为表示理解,“它有悖于现有的学术规范。”
不过,他本人并不反对学生或科研人员把ChatGPT作为一个工具来使用,关键是现阶段要透明化,从而保证公平,同时要确保使用者有负责任的态度。
“我觉得它也会产生新的学术规范,已经有论文署名ChatGPT,但这会是过渡的方式。”段伟文说,如果大家未来都用它,其实就无所谓,就好像现在都用电脑,但查资料、写论文的时候不会表明是用了电脑。
人工智能企业瑞莱智慧副总裁唐家渝也对搜狐科技评价到,ChatGPT的使用会带来学术作弊和剽窃等问题,也不是每个人都能使用,不公平由此产生。“在找到有效的应对策略之前,在特定领域对其封杀无可厚非。但从长远来看,对ChatGPT的应用不可一刀切。”
作为知识性的生产工具,ChatGPT能帮助人从一些简单、重复、不需要思考或低层次思维的工作中解放出来,在提高效率的同时,也能让人有更多的精力投入到更有创造性的工作中。
比如,科研人员如果善于利用这种工具,找文献、写项目申报书等效率就会很高,能更加聚焦科研和试验本身,在跟它互动的过程中还可能带来创意或创新的启发。
因此段伟文认为,ChatGPT可以和人形成知识劳动的分工,即所谓的人机协同,让机器先来做,人最终要对内容负责,进行审查修订。
“人和机器的相互适应,会是一个动态的调节过程。”段伟文表示,整个科研教育体系和智能化、自动化的技术工具的协同,需要通过理性的讨论,并在具体的实践中去探索有效的方法来尽可能克服它存在的不诚信等弊端。
美丽新世界的“定时炸弹”
比尔・盖茨说,ChatGPT的重大意义不亚于PC和互联网的诞生。在段伟文看来,以ChatGPT为代表的生成式AI,很可能带来一场知识生产方式的革命,甚至会是通用人工智能取得突破的关键路径。
“它不一定是彻底突破,但可能是以往没有预见到的道路,类似于10年前的深度学习。”段伟文称。这意味着它将带来比互联网更为显著的影响,想象中的“美丽新世界”并非完美。
这不仅仅表现在对学术规范的破坏,还包括它可能会成为更强大的谣言生成和传播策源地,并存在更大规模的数据隐私泄漏风险,甚至可能对人类社会和伦理规范带来更猛烈的冲击。
当下,这一切都在渐渐发生。大众当前感受比较突出的是信息误差的问题,它会一本正经“胡说八道”。唐家渝解释称,这是因为数据源头就存在偏差或错误,导致模型学到一些误导性的信息,同时它整合的答案是单一的,不会像搜索引擎一样有多个信源可以让用户交叉验证。
他表示,随着ChatGPT规模应用,还可能产生技术滥用、版权侵权、技术不公平等问题。比如在ChatGPT的能力升级下,内容伪造成本和难度将变得更低,而且也更加难以分辨和追踪。
ChatGPT甚至也会不可避免地成为诈骗的新套路,沦为新的犯罪工具。国外网络安全平台GBHackers就披露,有黑客把ChatGPT包装成“虚拟角色”,让受害人“坠入爱河”,最终进行诈骗。
唐家渝还提到,随着预训练模型所需的数据量越大,涉及到的隐私数据比例可能会更高,但对这部分数据的可控程度却越低。ChatGPT的前一代模型GPT-2就曾发生过隐私泄漏问题,使用特定前缀的提示词,它会给出特定对象的姓名、电话、邮件和地址等信息。
“虽然通过监督指令微调(Instruction tuning)的方式,一定程度上限制了ChatGPT的回答,尽可能保证它不犯和GPT-2一样的错误,但由于其回答输出的不可控性,个人隐私数据泄漏的风险仍然存在。”唐家渝预警到。
在段伟文看来,ChatGPT首先会加剧互联网的虚假信息,以及信息茧房效应。但带来真正的一个根本性变化,就是将来由AI生成的内容要多于完全由人类生成的内容,很可能就不会再有完全由人类自身产生的内容。
“这就会带来知识产权、荣誉权等归属问题,可能就需要订立新的社会契约。”他提到,目前国外已经有很多艺术家来反对ChatGPT,这个过程可能还会导致冲突。
唐家渝还表示,目前ChatGPT的应用没有特别的限制,几乎所有人都能够去使用。这会产生不合理的操作,会对传统的工作生产模式带来严重冲击。
当下,不少人担心ChatGPT类似的技术规模应用将会导致更多的失业,文字工作者、程序员、分析师等数十种职业都将被取代,且这种忧虑比以往更盛。这也“逼”得Open AI创始人山姆・阿尔特曼下场安抚称,ChatGPT不会成为人类的“就业杀手”。
作为互联网有史以来用户增长速度最快的消费级应用,ChatGPT暴露出的这些问题也让它像个“定时炸弹”,而距离爆炸的时刻也越来越近。
技术应用边界在哪?
面对这一系列问题,如何设置技术应用的边界,以及如何预防治理就显得至关重要。
实际上,Open AI在开发大规模语言模型或ChatGPT的时候,在这方面推行了一项重要工程――人机的价值对齐。通过投入大量资金、人力等,让人对信息或内容先行审核来进行人工标注和预训练,这也是ChatGPT能够广为流行的一个重要技术原因。
这使它在特定方面符合了人类的期望,塑造出模型的“人格”,并决定了它回答某些问题的倾向性和方式。如让它做道德或价值观的选择,它表现得特别像“端水大师”,而不会表达绝对或极端的观点,而对于有些无法解决的问题则会直接说不知道。
这背后是创始人的理念起到了决定作用。阿尔特曼认为,人类社会将遭受末日挑战、终极挑战,面临基因编辑、超级通用人工智能等威胁,所以需要防止突破性的技术对人类社会和文明造成颠覆性的破坏。
段伟文认为,Open AI通过推动人机价值对齐工程,使得ChatGPT最终呈现出来的内容,已经解决了很多价值观冲突。但这也有缺点,跟社会价值有关的文字文本,会显得比较平庸化和同质化。这也是ChatGPT被吐槽像是“废话机器”的原因所在。
如果它仅仅是作为协同或辅助的角色,那么人类也许不用太担心,但目前的问题是它可能会全面碾压人类,从而失控。斯坦福大学一项研究就显示,ChatGPT的水平相当于9岁儿童。
那么,它未来是否能够具备人丰富的情感或意识?周鸿t表示,如果进一步训练下去,也许它就能实现自我意识的突破。段伟文认为,机器智能和人类智能是两种不同的智能,存在一个边界,即图灵边界,且它是动态的。
“目前来看,当两者边界发生变化的时候,机器智能往往会挤压某种人类智能,即机器更多地代替了人,这促始一部分人转而发展出新的智能。”段伟文认为,从长远来看,如果人们能主动地培养新的技能,在图灵边界的动态变化中掌握主动权,面对强大的机器智能,人类总是可以调节和适应。
比如大众所担心的职业消亡问题,清华大学计算机系长聘副教授黄民烈就表示,ChatGPT可能会取代很多职业,但未来也会催生很多职业,如AI训练师、工程师等就会很抢手。在职场社区平台脉脉上,AIGC相关岗位近期需求陡增,甚至有企业开出10万月薪挖人。
段伟文表示,人工智能现在就像是一个小孩,如果把握住成长阶段的窗口期,就有可能实现机器向人的价值看齐,按照人的目标去行事。
对于发展和治理的关系,黄民烈认为,技术肯定要继续往前走,但早期应多鼓励。治理也不能粗放,伦理、版权、价值观、法律责任主体等问题都需要去解决,还是要边发展边治理。
唐家渝认为,需要从具体的应用场景、应用需求的角度出发,制定声明、监督、核查等系列管理手段,让ChatGPT更好更可控地辅助人类。
具体来说,要在政策层面建立起对ChatGPT等AI生成内容的管理法规。美国有议员就公开宣称自己“被不受限制和监管的人工智能吓坏了”,呼吁强化对人工智能的监管。
我国此前也出台了《互联网信息服务深度合成管理规定》,明确提出对深度合成服务要提供显著标识、算法机制机理审核、信息发布审核、数据安全等管理要求。
“这些对ChatGPT同样适用,但未来仍需进一步细化规则,明确落地规范。”唐家渝建议,同时也要加强治理工具的开发,结合内容识别、内容溯源等技术手段来保障有效监管。