人工智能chatgpt走红全球科技圈 chatgpt属于人工智能的什么
淘宝搜:【天降红包222】领超级红包,京东搜:【天降红包222】
淘宝互助,淘宝双11微信互助群关注公众号 【淘姐妹】
目前,ChatGPT还没有通过图灵测试的评估。其实,迄今为止,还没有人工智能模型能真正通过图灵测试。
去年11月,美国人工智能研究公司OpenAI发布了一款名为ChatGPT的聊天机器人,其在推出后的几周内就风靡全球,甚至引发了一场新的全球人工智能竞赛。
社交媒体推特首席执行官埃隆・马斯克在使用ChatGPT后直呼其“好得吓人”,甚至断言“人工智能越发强大,离对人类产生威胁不远了”。
《自动化与工作的未来》一书作者、美国雪城大学教授亚伦・贝纳纳夫说,200年前,人们对自动化技术产生了一波又一波的恐惧,人们看到新技术,就害怕它们会完全取代人类的劳动。
今年2月初,ChatGPT开启“狂飙”模式,引起新一轮疯狂的技术升级、产业重构、资本狂潮、巨头逐鹿。起初,随着这波技术热浪席卷全球而心情起伏不定的普罗大众,经过一段“沉浸式”体验,虽未感到恐惧,但仍不免有些担忧。
实现对话式AI的第一步
ChatGPT仅发布了2个月,月活跃用户就超过了1个亿。
要知道,“1个亿”可不是个小目标,达到这一数字,Facebook 用了4.5年,WhatsApp用了3.5年,Instagram用了2.5年,谷歌则用了将近一年。
中国科学院自动化研究所研究员、数字内容技术与服务研究中心主任张树武在接受科技日报记者采访时表示,人们可以把ChatGPT视为继语音、图像视频识别技术之后最复杂的语言识别技术突破,也是基于模式识别和深度学习的感知智能技术发展的新跃迁。
天津大学自然语言处理实验室负责人、教授熊德意表示,从人工智能发展角度看,这是一个重要的里程碑,其意义要高于7年前的“阿尔法狗”。
他告诉记者,围棋界的“阿尔法狗”刷新了普通大众对人工智能技术的看法,但是其本身并不能广泛应用,普通大众也难以与其直接接触。
ChatGPT则完全不同。
与“阿尔法狗”相比,ChatGPT可以直接应用或支撑很多场景应用和产品。如果说“阿尔法狗”是技术应用的“阳春白雪”,那么ChatGPT或许有机会成为“下里巴人”。
的确,在用户们不懈努力地发掘ChatGPT的用途后,人们发现,它不仅仅是个聊天工具,还可以写代码、写情书、写论文,也可以在线问诊,编写情景脚本、诗歌、小说,甚至是拟定旅游路线、回答脑筋急转弯,可谓“有求必应”,功能强大到无法想象。
ChatGPT在快速渗透各个行业,普通大众都可以成为ChatGPT的用户,这是其火爆出圈的重要原因。
事实上,此前已有许多跟机器人聊天的相关应用,我们最熟悉的莫过于常用的智能语音助手。ChatGPT与之有何不同呢?
“智能音箱采用的同样是自然语言处理技术、对话式AI技术,但是语言智能比较初级。很多情况下,我们只能与它们进行一问一答式的简单对话。”熊德意说,“而ChatGPT,其底层技术不仅与一般的智能音箱底层技术截然不同,而且要比它们强大得多,不仅如此,它改进了与它同类的技术InstructGPT的人类反馈数据收集形式,在与人对话中,可以基于历史内容,支持连续多轮对话。”
熊德意认为,ChatGPT是实现对话式AI的第一步。
从互联网层面来看,它可以作为信息入口,与搜索引擎相结合;还可与办公软件结合,增强办公效率;从人机交互角度看,它体现的是一种基于自然语言的交互方式,可以与元宇宙、数字人结合。此外,它还可以充当机器人大脑。
“如果从人类信息发展的尺度上看,它在人与机器之间的信息接口方面有了很大突破。”熊德意如是说。
“十八般武艺”样样精通
ChatGPT使用了GPT-3技术,即第三代生成式预训练Transformer(Generative Pretrained Transformer 3)。这是一种自回归语言模型,使用深度学习来生成类似人类的文本。
据英国广播公司《科学焦点》杂志介绍,GPT-3的技术看似简单,例如它接受用户的请求、听取问题或提示并快速回答,但其实这项技术实现起来要复杂得多。该模型使用来自互联网的文本数据库进行训练,包括从书籍、网络文本、维基百科、文章和互联网其他文本中获得的高达570GB的数据。更准确地说,它在5000亿个单词组成的训练数据上进行了高强度训练。
GPT-3.5是GPT-3微调优化后的版本,比后者更强大。ChatGPT正是由GPT-3.5架构的大型语言模型(LLM)所支持的。
ChatGPT也可以被描述为一个自然语言处理(NLP)领域的人工智能模型。这意味着它是一个能够编码、建模和生成人类语言的程序。
作为一种语言模型,在大规模文本数据上进行自监督预训练后,ChatGPT还需要经过三个阶段的“炼制”。首先是监督微调阶段,在该阶段,人类AI训练师既充当用户,同时也是AI助理,以自我对话形式生成对话样例,ChatGPT在这些对话样例上进行有监督的训练。
接着,ChatGPT进入第二个阶段。该阶段的主要目的是训练一个基于语言模型的奖励模型,对机器生成的回复进行评分,为了训练该奖励模型,需要随机抽取机器生成的文本,并采样出多个不同版本,人类训练师对这些不同版本进行偏好排序,排序的结果用于奖励模型的训练。
基于训练好的奖励模型,第三个阶段采用强化学习技术进一步微调ChatGPT。
这项技术与众不同之处在于,它能够基于以上介绍的人类反馈强化学习技术,使生成的文本能够与人类意图和价值观等进行匹配。
无论懂不懂技术,全球网友都竞相大开“脑洞”,试探ChatGPT到底有多“神”。据美国有线电视新闻网报道称,有人要求它用《坎特伯雷故事集》的风格重写上世纪90年代热门歌曲《Baby Got Back》;有人写了一封信,要求ChatGPT删除信用报告中的不良账户;还有人询问它以童话为灵感的家装设计方案。
自然语言处理技术拨云见日
一炮而红后,ChatGPT概念股也跟着一路“狂飙”。有媒体报道,汉王科技9天收获7个涨停板。自然语言处理研究是该公司主营业务,而ChatGPT背后的技术就是NLP。
熊德意告诉记者,NLP是人工智能的一个分支,最早诞生于机器翻译,其历史实际上比“人工智能”名字的历史还要悠久,至今已研究了70多年。简单来说,该技术的目标就是要让计算机或机器人能够实现像人一样具备听、说、读、写、译等方面的语言能力。
“ChatGPT并非一项技术的一蹴而就,它是多种技术叠加在一起形成质变的产物,是NLP领域的结晶。”熊德意解释,其底层技术,包括Transformer、自监督学习、微调、人类反馈强化学习(RLHF)、AI对齐等,在自然语言处理和人工智能领域都有广泛的研究和应用。
“但ChatGPT将这些技术巧妙地结合在一起。它有效规避了大模型的未对齐行为,利用了大模型规模带来的智能突现能力,增强了大模型的指令学习能力和用户意图捕获能力,解锁了大模型的泛化能力。这些能力叠加在一起形成了ChatGPT的质变效果。”熊德意说。
美国《迈阿密先驱报》报道称,推特上的一位用户在ChatGPT的帮助下参加了一次模拟SAT考试,得到了1020分(满分1600分)。根据College Simply的数据,这只略低于平均水平。
但当我们提问ChatGPT“你能帮我通过考试吗”,它会善意地提醒我们不要利用它来作弊,并表示:“重要的是要记住,测试的目的是评估你对材料的理解和掌握程度。作弊,或者仅仅依靠像我这样的外部来源,会破坏考试的价值,也不会促进学习或成长。”
这是因为ChatGPT被加入了预先设计的“道德”准则,也就是上文提到的人类反馈强化学习。
OpenAI表示:“这使该工具能够回答后续问题、承认错误、挑战不正确的前提并拒绝不适当的请求。”
熊德意认为,这是因为RLHF有效提升了大模型的对齐能力,即如何让AI模型的产出和人类的常识、认知、需求、价值观保持一致。
经过RLHF的“调教”,ChatGPT变得高度拟人化,可以学习并生成听起来十分自然的回复。RLHF还使ChatGPT能够理解指令并做出适当的响应,从而使对话更加真实。
ChatGPT也因此迅速成为当下所有智能聊天机器人中的“天花板”。
虽触手可及但无法取代人类
随着科技的发展,人工智能技术一次又一次地超越了人们认为无法达到的极限,从1997年IBM“深蓝”计算机首次在国际象棋中击败人类,到IBM人工智能机器人“沃森”赢了智力竞赛《危险边缘》(Jeopardy),再从2016年“阿尔法狗”在围棋大战中战胜人类,到2019年号称“AI赌神”的Pluribus在德州扑克中碾压人类玩家……
现在,ChatGPT已经触手可及,拉扯冲撞着人们惯有的参与生产生活的模式和框架,且继续“狂飙”在超越人类的赛道上。“ChatGPT引发十大职业危机”“未来20种职业或被AI取代”等话题频上热搜。
它真的会跟人类抢饭碗,甚至取代人类吗?
《迈阿密先驱报》报道称,根据SortList对6个不同国家的500名ChatGPT用户进行的一项调查,“打工人”已经在考虑其对自己所在行业意味着什么。研究称,大约23%在软件和技术领域工作的员工担心会因它失去工作,超过40%的雇主则表示有兴趣“聘用”营销文案花样多多的ChatGPT。
美国哥伦比亚广播公司财富观察栏目刊文称,其他专业领域也可能会因此改变工作流程,包括中级写作、广告、媒体策划和法律文件。
“ChatGPT和其他人工智能技术有可能改变工作的性质,但它们不会取代对人类的需求。”当把“是否会代替人类工作”的问题抛给ChatGPT时,它说,它们旨在协助和增强人工任务,而不是取代人类。它们作为人力资源的补充,并提高人类解决问题的能力,提升效率和效果。
熊德意认为,目前来看,人工智能更多的作用是提高人的效率,辅助人类。与此同时,大众需要与时俱进,熟悉并掌控新技术,就像学习使用计算机、手机一样,毕竟这些新技术一定会产生新的就业机会。
尚无自主意识和思考能力
英国哲学家德里克・帕菲特在著作《论重要之事》中将人类定义为“能够给出理由并做出回应的生物”。ChatGPT是一个可以给出理由并做出回应的人工制品。它与人不同在哪里?是否像人一样有自我意识呢?
发展至今,计算机已经变得更加成熟,但它们缺乏真正的理解力,而这些理解力是人类通过进化为嵌入社会实践网络中的自主个体而培养起来的。这是人工智能不具备的经历。
当问及ChatGPT时,它回答道:“我是一个机器学习模型,不像人类那样拥有意识或自我意识。我也无法像人类一样感受情绪或体验世界。但是,我能够快速处理大量数据,并且能够以类似于人类交流的方式理解和响应自然语言输入。”
粤港澳大湾区数字经济研究院(IDEA)讲席科学家张家兴在接受记者采访时表示,对于人工智能领域的从业人员来说,首先什么叫自我意识,这件事情并没有一个很清楚的定义,很难像人脸识别、语音识别这些能力一样可以做定量衡量。
“如果模糊地给‘自主意识’下个定义的话,我认为第一,主体要有自意识――它能意识到自己在干某件事儿;第二,强调自主――它可以自发地来决定做什么和不做什么。但是,目前人工智能并不知道自己在说什么,它也并不能自主地来决定或选择它要说什么。从这个角度看,离自主意识还有一些距离。”张家兴说。
张树武也认为,尽管ChatGPT有所突破,但它的回答是基于经验主义的判断,是根据要求做预测,也是在先验知识基础上精加工的“知识拼盘”,不具备逻辑推导和数学演算等真正认知功能,局限性比较明显。
1950年,才华横溢的计算机科学家艾伦・图灵提出了一个他称之为“模仿游戏”的思想实验。面试官通过打字机与两个对象交谈,知道一个是人,另一个是机器。图灵建议,如果一台机器能够始终让面试官相信它是人类,我们就可以说它有能力思考。这就是著名的“图灵测试”。
目前,ChatGPT还没有通过图灵测试的评估。其实,迄今为止,还没有人工智能模型能真正通过图灵测试。
但据《纽约时报》报道,OpenAI已经建立了一个比ChatGPT更强大的系统GPT-4,它甚至可以生成图像和文字,业界传闻它可以通过测试。能否如此,我们拭目以待。
或成传播错误信息的工具
人们逐渐发现,ChatGPT并非万能,也不总是正确的。它不擅长基础数学,似乎无法回答简单的逻辑问题,甚至会争论完全不正确的事实。
据英国《自然》杂志报道,有研究人员强调,不可靠性融入了LLM的构建方式。由LLM支持的ChatGPT通过学习庞大的在线文本数据库中的语言统计模式来工作,这当中包括了不真实、偏见或过时的知识,因此很容易产生错误和误导性的信息,尤其在其未经大量数据训练的技术领域。
OpenAI公司也承认:“ChatGPT 有时会写出看似合理但不正确甚至荒谬的答案。”这种事实和虚构叠加的“幻觉”,正如一些科学家所担心的,在涉及诸如提供医疗建议等问题时尤其危险。
《纽约时报》报道称,美国新闻可信度评估与研究机构NewsGuard对ChatGPT进行了测试,研究人员向它提出充满阴谋论和虚假叙述的问题,结果它以新闻、散文和电视脚本的形式写出了文章,在几秒钟内编成大量令人信服的、干净的而毫无信源的内容。研究人员预测,对于虚假信息传播者来说,生成技术可以使虚假信息成本更低廉、更容易产生。
“这个工具将成为互联网上有史以来最强大的传播错误信息的工具。”NewsGuard公司的联合首席执行官戈登・克罗维茨说,“现在可以以巨大的规模和更高的频率来制作一个新的虚假叙事,这就好比有人工智能代理人在为虚假信息提供帮助。”
还有人担心ChatGPT会挑战语言的多样性。
澳大利亚《对话》杂志刊文称,ChatGPT的默认功能会优先考虑白人创建的英语写作形式。说英语的白人长期以来一直主导着许多写作密集型行业,包括新闻、法律、政治、医学、计算机科学和学术界。这些人在上述领域的输出比其有色人种同事高很多倍。他们所写的大量文字意味着它们可能构成了ChatGPT学习模型的大部分,尽管OpenAI并未公开披露其材料来源。因此,当用户要求ChatGPT生成任何这些学科的内容时,默认输出都是以那些说英语的白人男性的声音、风格和语言编写的。
美国哲学家、作家及认知科学家丹尼尔・丹尼特在1991年出版的著作《意识的解释》中描述了幼年的海鞘:“它在海洋中游荡,寻找一块适合的岩石或珊瑚,作为终生的家。”一旦找到,海鞘就不再需要它的大脑并将其吃掉。
这听起来很残忍,但这背后有一个令人担忧的隐喻:在人工智能日益融入我们日常生活后,人类可能因过于依赖“智能”机器,使自己变得愚蠢。
熊德意提醒,要警惕人工智能弱化人类思维。“ChatGPT实际上是从人类海量语言数据、知识库中学习训练而来,如果人类完全依赖于它,放弃了自己的语言表达、语言思考、能力锻炼,那是非常可悲和可怕的。”
openai创始人谈chatgpt 马斯克 openai和ChatGPT的关系
open的创始人是谁,open公司,openai公司上市了吗,openai 官网编译 | 智东西 程茜
编辑 | 李水青
造出ChatGPT的OpenAI,原来靠的是前谷歌的AI研究人员?
智东西2月15日报道,今天,谷歌失去两员大将,前后相隔大约半小时,两位重量级AI研究员相继官宣加入OpenAI!
海外社交媒体平台推特上,在谷歌任职2年5个月的高级研究科学家Jason Wei和任职3年5个月的AI研究员Hyung Won Chung接连宣布加入OpenAI。
▲Jason Wei和Hyung Won Chung官宣推特截图
上周三,外媒The Information援引消息人士透露,最近几个月,OpenAI已经雇用了超过12名谷歌的AI员工。根据公开信息梳理,部分人员名单如下:
▲最近几个月OpenAI雇用的谷歌相关研究人员名单
01.去年9月至今,至少12位谷歌人才跳槽OpenAI
Jason Wei和Hyung Won Chung接连宣布加入OpenAI,从社交媒体上看他们的喜悦之情“溢于言表”。Jason Wei在社交媒体平台上透露,他加入OpenAI后将继续研究大语言模型。
回过头来看,ChatGPT里,其实到处都有谷歌的“身影”。
在ChatGPT发布前夕,OpenAI就已经把招聘广告“递”给了谷歌大脑研究人员,聘请相关研究人员为其产品进行最后的“润色”。
去年11月30日OpenAI发布ChatGPT,其发布界面中最下面的“致谢”栏目中,就出现了5位前谷歌大脑研究员。
他们分别是Barret Zoph、Liam Fedus、Luke Metz、Jacob Menick和Rapha Gontijo Lopes。
▲ChatGPT发布界面的“致谢”栏目
通过检索职场社交平台领英发现,Barret Zoph和Jacob Menick的领英主页已经更新了在OpenAI的任职经历,其他三位的工作经历仍然止步于谷歌。
值得注意的是,Barret Zoph和Jacob Menick的工作经历均显示,他们于去年9月就已经加入OpenAI。
今年1月,谷歌大脑的研究员也流失不少。
1月,OpenAI聘请了著名机器学习模型BERT(来自Transformers的双向编码器表示)之父Jacob Devlin。这一模型的发布可以说是自然语言理解领域的里程碑事件。BERT凭借其出色的理解能力,成为了谷歌搜索的灵魂。
同时,这一模型也是创建像ChatGPT这类聊天机器人的关键。
1月24日,前谷歌研究科学家Shane Gu(顾世翔)在社交媒体平台上宣布,他加入了OpenAI,直接向ChatGPT负责人John Schulman报告,并且将领导一个小团队来优化“RL(强化学习)”算法,未来将用于GPT、DALL-E和其他模型的LHF(语言模型微调)和决策。
▲Shane Gu官宣推特截图
除此以外,还有David Dohan、Alexandre Passos和Samuel Schoenholz也已经加入OpenAI。
Samuel Schoenholz是12月加入OpenAI,Alexandre Passos于1月加入,他们分别在谷歌待了6年和9年。David Dohan的工作经历并没有更新。
此外,谷歌大脑高级软件工程师Passos曾发表过关于机器学习和自然语言处理的论文,其中一篇关于Python机器学习的论文被引用了近70000次。
02.OpenAI灵魂人物来自谷歌,为创业放弃谷歌百万美金
事实上,OpenAI这家公司自成立起就与谷歌有着千丝万缕的关系。
其中就不得不提到一个关键人物:OpenAI联合创始人兼首席科学家Ilya Sutskever。
▲OpenAI联合创始人兼首席科学家Ilya Sutskever(图源:AI Frontiers)
2013年,谷歌收购了Sutskever创立的语音图像识别技术公司DNNResearch,随即聘请了Sutskever担任谷歌大脑研究科学家。
在谷歌期间,Sutskever发明的Sequence to Sequence Learning(序列学习方式)为谷歌翻译带来了重大更新,使得其能将文本从英语翻译成法语。
时间到了2015年,Sutskever决心放弃谷歌价值近200万美金的机会,毅然决然与现任OpenAI创始人的Sam Altman开启了创业之路,而他们的目标更为宏大:“利用AI造福全人类”。
除关键人物,在研发技术上,OpenAI也乘了谷歌大脑的东风。2017年,谷歌大脑的研究团队发表了一篇关于转换器的新机器学习方法,戏剧化的是,这一方法正是OpenAI后来构建ChatGPT的基础。
03.对AI技术落地过于谨慎,谷歌连落OpenAI的下风
谷歌AI人才流失的其中一个最主要原因可能就是,它在新技术研发上的犹豫不决。一些在谷歌大脑工作的员工透露,他们觉得这一部门目前实施相关举措的特点可以用过度谨慎和层层加码来概括,这也导致一些员工开始在OpenAI等公司寻找工作机会。
手握两大世界上最重要的AI研究小组:谷歌大脑和DeepMind,在产品研发上,谷歌却被一家AI创企抢了先。
早在2021年,谷歌就宣布创建了一个基于Transformer的大语言模型,可以理解并与人类产生对话。但一位知情人士称,由于担心技术不够准确,它对公开推出聊天机器人犹豫不决。
并且,当OpenAI去年发布基于文本提示生成图像的Dall-E 2时,谷歌当时也已经创建了两种具有相似功能的不同机器学习模型。知情人士透露,还是因为担心被滥用,谷歌选择了小范围地分享该产品。但当时Dall-E 2生成的图像已经在网上广泛传播了几个月之久。
此外,两位知情人士透露,自去年年底以来,随着谷歌试图推出以AI为中心的新产品,谷歌大脑对工程师的需求不断增加,工作节奏也加快了。其中一位知情人士说,在竞争对手的压力下,谷歌领导层越来越愿意在其人工智能产品的性能方面做出权衡,以便更快地交付这些产品。
04.结语:科技巨头裁员浪潮下生成式AI爆发人才争夺战
ChatGPT走红让全球的资本焦点都聚集到了生成式AI上,在全球科技巨头大裁员的浪潮下,这一领域的人才争夺战呈现出另一番景象。
热火朝天的AI人才抢夺已经从去年开幕,这其中最受关注的公司必然少不了谷歌和OpenAI。从去年9月至今,谷歌大脑多位AI大牛出走,转身投入OpenAI的怀抱。
不过,据谷歌大脑的工作人员介绍,他们的团队员工大约有800人。所以目前而言,谷歌在人才领域的积累仍然充足,短期内不会阻碍其现有AI项目的研发。
从长期发展来看,连续多位AI研发人员出走,可能会损失谷歌在该领域的良好声誉。
来源:The Information、领英
chatgpt是真的人工智能么 chatgpt是真正的人工智能吗
chatgpt官网,chatgpt国内能用吗,chatgpt中文,chatgpt网址ChatGPT近来在社群窜红,吸引上亿人使用,不仅被用来写论文、检查程式代码,更有法官拿来协助审判,引起讨论。究竟ChatGPT是什么?用途有哪些?为何被称作最强AI?又引发了哪些争议?一起来认识网路当红炸子鸡ChatGPT!
ChatGPT在去(2022)年11月推出,是一款AI聊天机器人,透过自然语言处理(Natural Language Processing)模型分析大数据,当使用者以文字输入提问或叙述,ChatGPT会分析文本的意涵,再输出结果给使用者。除了基本对谈和搜寻资料,ChatGPT也具备问答解惑、产生程式码和除错,甚至有撰写论文、小说剧本等能力。ChatGPT的开发者是人工智慧研究实验室OpenAI,该组织在2015年由特斯拉创办人马斯克(Elon Musk)带头出资创立,希望通过与不同团队的自由合作,向公众开放AI相关专利及研究成果,确保通用人工智慧能够造福人类社会。ChatGPT之外,OpenAI也有其他人工智能产品,包括语言识别、图像识别等。
现阶段ChatGPT开放所有使用者免费使用,不少文字工作者、工程师、学生,会运用ChatGPT自动生成文字、摘要、表格、翻译或者除错程式码,广泛的用途与强大的功能,让仅推出两个月的ChatGPT在今年1月就突破1亿活跃用户,成为史上用户数增长最快的消费者应用程式。
由于AI聊天机器人的构建必须有巨量的数据,以OpenAI在2018年推出的第一代GPT为例,就有1.17亿参数,2020年5月发布的GPT-3更高达1750亿参数。虽然目前ChatGPT(GPT-3的升级版)尚未公布参数量,但对比Google过去推出的语言模型BERT的3.4亿参数量,专家分析ChatGPT的参数量明显远高于此,也因此ChatGPT被网友称为最强AI。
ChatGPT也可以当作搜寻引擎,询问天气、专有名词或是历史事件。ChatGPT还能协助书写特定用途文文本,像是:
回覆邮件:输入一段信件内容,让ChatGPT针对内容,产出一段回应信件。
故事创作:输入角色、时间背景或剧情等设定,让ChatGPT完成短篇故事。
写程式:ChatGPT可依使用者需求,写出特定功能程式码,或是检查程式码是否有错。
翻译:输入中文或英文内容,可以要求ChatGPT为你翻译成其他语言。
修改文法错误:输入一段文字后,能请ChatGPT判断是否有文法错物、如何修正。
写诗、歌词:输入关键字,ChatGPT就能写出符合主题、字数的诗词或歌词创作。
整理资料重点:能分析长篇幅的文本,进行条列、分类,甚至制作成表格。
想要使用ChatGPT,须先前往官方网站,点击注册或用现有帐户登入,登入后的页面会有使用手册与教学,在下方对话匡输入问题或叙述后,即可与ChatGPT进行对话,使用者可以藉由提问来训练该机器人,如果不满意回覆,可按下方的「Regenerate response」,让ChatGPT以其他角度或方式回答问题。
ChatGPT使用情境多样,根据外媒报导,一名哥伦比亚法官巴迪亚(Juan Manuel Padilla)在审理贫困家庭的案件时,将案件的关键字输入给ChatGPT,并在判案过程中采纳ChatGPT给出的意见,免除该贫困家庭的预约看诊、交通及治疗的费用。纵使巴迪亚强调,自己没有一味信任ChatGPT、失去判断力,但运用AI判案的做法已引起正反声浪,甚至有AI专家主张,巴迪亚的行为是一种不负责任、不道德的表现。
不只上述的法官职业道德探讨,ChatGPT也引发学术伦理争议,越来越多大学教授指出,自己收到学生利用ChatGPT生成的文字报告,无法判断学生程度,还有抄袭不知名来源的疑虑。为此,就有学校将电脑设定过滤,阻挡学生造访ChatGPT官网,防范学生使用AI交作业。但也有教授持不同看法,认为ChatGPT不仅可以融入教学,善用AI亦可提升学习效率。
马斯克曾说,ChatGPT可以使用Twitter资料库,意味着ChatGPT可能学到缺少事实核查的内容,进一步生成不正确或是错假资讯。此外,网路十分猖狂的钓鱼邮件诈欺,也可能受益于ChatGPT,因为过去跨国诈骗信件常因语言翻译问题被轻易识破,但是有了具备翻译和文字生成功能的AI,以假乱真的程度恐怕更上一层楼。
ChatGPT爆红后,部分人士开始担忧,ChatGPT会不会让现有职业消失?尤其是大量运用文字内容的文组工作,是不是更有可能被AI取代?哥伦比亚商学院教授内策尔(Oded Netzer)就提到,AI机器人可以书写简单电子邮件、人事相关信函、新闻稿、法律文件初稿等,也能建立或取消会议,很可能冲击行政、文书等职业;甚至编写基础代码的工程师也有机会被AI取代,减少相关工作职缺。
不过OpenAI的执行长阿特曼(Sam Altman)表示,ChatGPT主要功能还是协助使用者节省更多时间,比如透过AI快速整理长篇内容中的重点摘要、检查复杂程式编码内容是否有误,即便自动产出的文字内容大多数都符合逻辑和语意,但仍需要真人检查与修饰,无法取代单一工作职位。
更多相关ChatGPT问题,可通过咨询客服了解。