chatgpt与必应gpt的区别
淘宝搜:【天降红包222】领超级红包,京东搜:【天降红包222】
淘宝互助,淘宝双11微信互助群关注公众号 【淘姐妹】
潮新闻 张伟东
北京时间3月15日凌晨,美国人工智能研究实验室OpenAI再次发布新作――ChatGPT-4,其卓越的新性能和飞快的更新速度再次掀起波澜,将人工智能是否将取代人类的话题推向高潮。
狂飙之路
ChatGPT是OpenAI研发的人工智能技术驱动的自然语言处理工具。可将其理解为聊天机器人――它能够通过理解和学习人类的语言来进行对话,还能根据聊天的上下文进行互动。
2022年11月30日发布后,其迅速在社交媒体上走红,短短5天,注册用户数就超过100万,2023年1月末月活用户突破1亿,成为史上增长最快的消费者应用。
发布之初它就能完成撰写邮件、视频脚本、文案、翻译等任务。仅仅3个多月ChatGPT再次进化,谱曲、报税、写诗,甚至美国律师资格考试等,ChatGPT-3.5做不到的,ChatGPT-4轻松拿下。
从1997年的“深蓝”,到2016年的“阿尔法狗”,从2020年的元宇宙到2022年的ChatGPT,再到ChatGPT-4,人工智能的发展速度成倍提高。ChatGPT之父Sam Altman认为宇宙中的智能数量每18个月就会翻一番。
ChatGPT飞快的进化速度令人咋舌,也引发了更多的担忧。一直以来,对于人工智能,专家们所持的观点大相径庭。
霍金认为,“人类由于受到缓慢的生物进化的限制,无法与机器竞争,并会被取代。全人工智能的发展可能导致人类的终结。”马斯克也表达了对人工智能的担忧,“我们必须对人工智能超级谨慎,它的潜力可能比核弹还危险。”
而谷歌原董事长施密特则认为,所有对机器将抢走人类工作、占领世界的恐惧都毫无根据,并且他希望人们能够意识到:机器人会成为我们的朋友。
ChatGPT-4横空出世后,这个问题的争论变得更激烈了。
三大陷阱
人工智能会毁灭人类,可能在不少人看来是危言耸听。但专家认为,人工智能的三种发展方向中是存在陷阱的,确实值得人类警惕。
图灵陷阱。斯坦福大学人工智能研究员Erik Brynjolfsson在“图灵陷阱”一文中认为,应加强人工智能与人类的合作研究,避免“图灵陷阱”,为每个人带来经济利益。“图灵陷阱”是指人工智能会放大少数拥有和控制这些技术的人的力量,给相对少数人带来繁荣,同时造成他*力的丧失。
因为人类理性和能力的局限,人类设计的人工智能很难做到人性化。在人工智能的部署中会迫使人被动地适应智能化和自动化,智能系统的运作预设可能不是使机器人性化,而是让人越来越机器化。通过深度学习的AI智能算法会接连不断地“吞掉”人的自主时间,进而逐渐剥夺人的自主性。
比如,宣称“送啥都快”的美团外卖,其智能配送系统被称为“超脑”,它极大地提高了配送效率。然而对身受技术驱使的外卖员来说,送外卖某种程度上成了“与死神赛跑,和交警较劲,和红灯做朋友”的危险活动。超时一旦发生,便意味着差评、收入降低,甚至被淘汰。
人工智能式马尔萨斯陷阱。马尔萨斯陷阱是指人口按照几何级数增长,而生存资源仅仅按算术级数增长,多增加的人口总是要以某种方式被消灭掉。随着人工智能的普及,危机可能会集中在人类生存所需的能源之上。
根据摩尔定律,计算机的性能每18个月增加一倍,在性能增加的同时耗电量也在大幅攀升。我国学者谭安辉指出,一台千万亿次级超级计算机每年大约要消耗一个中型核电站的发电量,比如美国最快的超级计算机“美洲豹”约为7兆瓦,我国“神威蓝光”功耗极低,但也有1兆瓦(100万瓦),按照时下电价,大概需要每天6万元电费。根据最新的研究结果,训练一个普通的 AI 模型消耗的能源相当于五辆汽车一生排放的碳总量。
过度依赖人工智能会不会引发能源危机,对于人类来说仍是一个未知数。除了能源耗尽的危险,地球还承载着相应的环境压力,能源的使用会大量消耗环境的承载力,因此能不能守住“碳”指标也是对全人类重要的考验。
黑箱效应。对人工智能的恐惧大多来自神经网络运行机理产生的黑箱效应。人工智能学者斯图尔特・罗素明确指出,我们不清楚ChatGPT的工作原理和机制。
程序黑箱――以ChatGPT为代表的生成式人工智能的神经网络的作用机理,对于绝大多数人来说就像一个黑箱。绝大多数普通人并不知道它的运作原理。只有专业技术人员清楚它遵从的基本价值原则和价值序列的内部原理。那么是否存在欺骗、压迫等技术霸权的进化路径,仍需审慎对待。
漏洞黑箱――通俗地讲,算法都是会出现漏洞的,我们不知道这样的漏洞会被谁发现和利用。随着人工智能的广泛应用,一些漏洞对人类来说可能是致命的。如果这些至关重要的技术漏洞被具有反社会人格的黑客掌握,那么就可能造成无法估量的后果。
进化黑箱――人工智能的进化方向同样是一个黑箱。比如ChatGPT的学习能力和进化速度是空前的。随着生成式人工智能的发展和广泛应用,我们不知道进化过程中会发生怎样的偶然性,以及可能产生的连锁反应。比如发生在美国的全球首例无人车致死事故,就是因其系统对物体的分类发生了混乱。
路在何方
约瑟夫・熊彼特认为,每一次巨大的创新都会对旧的技术和生产体系产生巨大的冲击,即“创造性破坏”。
总的来说,在人工智能不具备自我意识的阶段,人工智能对人类社会的毁灭性风险几乎为0。因此,现阶段人类面临的主要问题是如何利用人工智能造福全人类,以及预防技术剥削和技术霸权的产生。
但从人工智能发展的大趋势来看,随着进化速度加快和长时间普及,出现黑天鹅事件的几率就越高。因此引发人类危机的可能性仍旧存在,所以预防全面人工智能时代潜在的风险也需要未雨绸缪。
首先,人类全面学习和掌握人工智能将是大趋势,即全人类、全方面、全过程地去了解和使用人工智能的生成和应用。一方面通过学习破除对算法的迷惑和迷信,树立人对于算法立法的普遍能力和人属权力;一方面通过学习破解黑箱效应,增强控制风险的行动能力。
其次,要高度重视人工智能时代的制度设计。人工智能时代之前的人类思维往往落后于社会存在,但人工智能的到来,其风险的爆发性特点可能不会给人类亡羊补牢的机会,因此更需要人类在人工智能普遍发展的初期做好制度预设,筑牢维持好制度的防火墙。
最后,要设立强大的技术伦理屏障。一方面要加强对于人工智能的研究,尽快确立人类共同善原则及其机制;另一方面要加强对人工智能的风险控制,尽快建立强大的技术伦理屏障――风险评估和准入机制,杜绝人工智能可能带来的不可控风险。
“转载请注明出处”
从ChatGPT到GPT-4:“狂飙”背后的冷思考
gpt 转换,从盘gpt,gpt读取更快吗,gpt-ps北京时间3月15日凌晨,美国人工智能研究实验室OpenAI再次发布新作――ChatGPT-4,其卓越的新性能和飞快的更新速度再次掀起波澜,将人工智能是否将取代人类的话题推向高潮。
狂飙之路
ChatGPT是OpenAI研发的人工智能技术驱动的自然语言处理工具。可将其理解为聊天机器人――它能够通过理解和学习人类的语言来进行对话,还能根据聊天的上下文进行互动。
2022年11月30日发布后,其迅速在社交媒体上走红,短短5天,注册用户数就超过100万,2023年1月末月活用户突破1亿,成为史上增长最快的消费者应用。
发布之初它就能完成撰写邮件、视频脚本、文案、翻译等任务。仅仅3个多月ChatGPT再次进化,谱曲、报税、写诗,甚至美国律师资格考试等,ChatGPT-3.5做不到的,ChatGPT-4轻松拿下。
从1997年的“深蓝”,到2016年的“阿尔法狗”,从2020年的元宇宙到2022年的ChatGPT,再到ChatGPT-4,人工智能的发展速度成倍提高。ChatGPT之父Sam Altman认为宇宙中的智能数量每18个月就会翻一番。
ChatGPT飞快的进化速度令人咋舌,也引发了更多的担忧。一直以来,对于人工智能,专家们所持的观点大相径庭。
霍金认为,“人类由于受到缓慢的生物进化的限制,无法与机器竞争,并会被取代。全人工智能的发展可能导致人类的终结。”马斯克也表达了对人工智能的担忧,“我们必须对人工智能超级谨慎,它的潜力可能比核弹还危险。”
而谷歌原董事长施密特则认为,所有对机器将抢走人类工作、占领世界的恐惧都毫无根据,并且他希望人们能够意识到:机器人会成为我们的朋友。
ChatGPT-4横空出世后,这个问题的争论变得更激烈了。
三大陷阱
人工智能会毁灭人类,可能在不少人看来是危言耸听。但专家认为,人工智能的三种发展方向中是存在陷阱的,确实值得人类警惕。
图灵陷阱。斯坦福大学人工智能研究员Erik Brynjolfsson在“图灵陷阱”一文中认为,应加强人工智能与人类的合作研究,避免“图灵陷阱”,为每个人带来经济利益。“图灵陷阱”是指人工智能会放大少数拥有和控制这些技术的人的力量,给相对少数人带来繁荣,同时造成他*力的丧失。
因为人类理性和能力的局限,人类设计的人工智能很难做到人性化。在人工智能的部署中会迫使人被动地适应智能化和自动化,智能系统的运作预设可能不是使机器人性化,而是让人越来越机器化。通过深度学习的AI智能算法会接连不断地“吞掉”人的自主时间,进而逐渐剥夺人的自主性。
比如,宣称“送啥都快”的美团外卖,其智能配送系统被称为“超脑”,它极大地提高了配送效率。然而对身受技术驱使的外卖员来说,送外卖某种程度上成了“与死神赛跑,和交警较劲,和红灯做朋友”的危险活动。超时一旦发生,便意味着差评、收入降低,甚至被淘汰。
人工智能式马尔萨斯陷阱。马尔萨斯陷阱是指人口按照几何级数增长,而生存资源仅仅按算术级数增长,多增加的人口总是要以某种方式被消灭掉。随着人工智能的普及,危机可能会集中在人类生存所需的能源之上。
根据摩尔定律,计算机的性能每18个月增加一倍,在性能增加的同时耗电量也在大幅攀升。我国学者谭安辉指出,一台千万亿次级超级计算机每年大约要消耗一个中型核电站的发电量,比如美国最快的超级计算机“美洲豹”约为7兆瓦,我国“神威蓝光”功耗极低,但也有1兆瓦(100万瓦),按照时下电价,大概需要每天6万元电费。根据最新的研究结果,训练一个普通的 AI 模型消耗的能源相当于五辆汽车一生排放的碳总量。
过度依赖人工智能会不会引发能源危机,对于人类来说仍是一个未知数。除了能源耗尽的危险,地球还承载着相应的环境压力,能源的使用会大量消耗环境的承载力,因此能不能守住“碳”指标也是对全人类重要的考验。
黑箱效应。对人工智能的恐惧大多来自神经网络运行机理产生的黑箱效应。人工智能学者斯图尔特・罗素明确指出,我们不清楚ChatGPT的工作原理和机制。
程序黑箱――以ChatGPT为代表的生成式人工智能的神经网络的作用机理,对于绝大多数人来说就像一个黑箱。绝大多数普通人并不知道它的运作原理。只有专业技术人员清楚它遵从的基本价值原则和价值序列的内部原理。那么是否存在欺骗、压迫等技术霸权的进化路径,仍需审慎对待。
漏洞黑箱――通俗地讲,算法都是会出现漏洞的,我们不知道这样的漏洞会被谁发现和利用。随着人工智能的广泛应用,一些漏洞对人类来说可能是致命的。如果这些至关重要的技术漏洞被具有反社会人格的黑客掌握,那么就可能造成无法估量的后果。
进化黑箱――人工智能的进化方向同样是一个黑箱。比如ChatGPT的学习能力和进化速度是空前的。随着生成式人工智能的发展和广泛应用,我们不知道进化过程中会发生怎样的偶然性,以及可能产生的连锁反应。比如发生在美国的全球首例无人车致死事故,就是因其系统对物体的分类发生了混乱。
路在何方
约瑟夫・熊彼特认为,每一次巨大的创新都会对旧的技术和生产体系产生巨大的冲击,即“创造性破坏”。
总的来说,在人工智能不具备自我意识的阶段,人工智能对人类社会的毁灭性风险几乎为0。因此,现阶段人类面临的主要问题是如何利用人工智能造福全人类,以及预防技术剥削和技术霸权的产生。
但从人工智能发展的大趋势来看,随着进化速度加快和长时间普及,出现黑天鹅事件的几率就越高。因此引发人类危机的可能性仍旧存在,所以预防全面人工智能时代潜在的风险也需要未雨绸缪。
首先,人类全面学习和掌握人工智能将是大趋势,即全人类、全方面、全过程地去了解和使用人工智能的生成和应用。一方面通过学习破除对算法的迷惑和迷信,树立人对于算法立法的普遍能力和人属权力;一方面通过学习破解黑箱效应,增强控制风险的行动能力。
其次,要高度重视人工智能时代的制度设计。人工智能时代之前的人类思维往往落后于社会存在,但人工智能的到来,其风险的爆发性特点可能不会给人类亡羊补牢的机会,因此更需要人类在人工智能普遍发展的初期做好制度预设,筑牢维持好制度的防火墙。
最后,要设立强大的技术伦理屏障。一方面要加强对于人工智能的研究,尽快确立人类共同善原则及其机制;另一方面要加强对人工智能的风险控制,尽快建立强大的技术伦理屏障――风险评估和准入机制,杜绝人工智能可能带来的不可控风险。
“转载请注明出处”