淘优惠

淘优惠

深读 | 被吹爆的“Chat GPT”,真有那么神吗?

热门文章 0

最近,一款名叫“ChatGPT”的聊天机器人火爆全网。

这款软件一经推出,就震惊了半个科学圈,被很多人称为“划时代的技术”、“人类科技的又一个奇点出现了”。

什么叫“人类科技的又一个奇点”,上一次被称为“人类科技奇点的技术”是互联网技术。

怎么样,这个评价,到头了吧。

微软创始人比尔盖茨这样形容这款聊天机器人:你可以想象出来它五年之后的样子,但是,你绝对想象不出来十年之后,它是什么样子。

言外之意,十年之后,人类社会就是ChatGPT的天下了,就像现在移动互联网一样普及。

比尔盖茨对ChatGPT之所以有这么高的评价,不是没有原因的。

什么原因?先卖个关子,一会再跟大伙细讲。

ChatGPT的出现,让硅谷的高科技公司感到了前所未有的压力。

谷歌吓坏了,立马推出智能聊天机器人巴德,可问题频出,导致市值一夜蒸发7172亿元。

苹果公司急了,下周苹果会举行一个“ 内部AI峰会 ”,专门讨论ChatGPT。

除此之外,百度、阿里、京东等互联网大厂也开始布局自己的AI项目。

随着聊天机器人ChatGPT火爆全球,国内也涌现了一批名字中包含“ChatGPT”的微信公众号、小程序产品。这些产品大多是先免费试用,一旦免费次数用尽就开始收取费用。而目前,ChatGPT的开发者、人工智能研究机构OpenAI并没有在中国大陆提供有关ChatGPT的服务,也没有相应的公司运营。据媒体调查,一些国内服务提供者确实提供了面向ChatGPT的接口,而另一些服务提供者或许并未链接到ChatGPT服务,而是使用了其他AI对话模型。

毫无疑问,ChatGPT将会成为2023年最热门的话题。甚至在后续几年,ChatGPT都将对整个科技行业,甚至给社会带来巨大变革,很多职业会因此消失。

01

ChatGPT是什么?

这个被捧到神乎其神的ChatGPT,到底是个什么东西呢?

刚才说了,它就是一款人工智能聊天机器人,但它又不完全是一款聊天机器人。

聊天机器人,咱们以前也不是没听说过,网上有很多类似的软件,聊的基本上驴唇不对马嘴,你问你的,它说它的。

ChatGPT和其他聊天机器人的最大区别就在于,它能真的做到,跟你有问有答,有来有回,并且能够根据你的提问,即兴发挥,即兴创作。

合着说这么热闹,它还是个聊天机器人?

要光是能陪人聊天啊,它就不会被惊为天人了,ChatGPT之所以号称“震惊了半个科学圈”,过人之处在于它的创作能力。

陪人聊天,只是ChatGPT的功能之一,ChatGPT最大的优势是内容生成。

什么叫“内容生成”?

这个范围广了去了,您比如说:

文学创作,写本小说、写首诗,叫内容生成;

写一部电影角本,叫内容生成;

写一段广告文案,叫内容生成;

写一段法律起诉文件,叫内容生成;

写一篇新闻报道,叫内容生成;

翻译一部作品,叫内容生成;

甚至,代替程序员编一段程序,也是内容生成。

内容生成这个筐,太大了,包罗万象。

曾经国外有一名大学生,他做了一次试验,让ChatGPT帮他写了一篇论文,结果您猜怎么着,这篇论文被教授给“优”,写得太好啦,都不像你的真实水平了。

谷歌公司也跟着凑了一把热闹,谷歌把招聘程序员的面试考卷给了ChatGPT。

最终,ChatGPT的卷面成绩,达到了谷歌公司三级软件工程师的录取分数线。

要知道谷歌公司三级软件工程师,起薪可就是18万美元啊。

好家伙,ChatGPT不光是文学创作者的噩梦,还能成为码农、程序员的噩梦。

微软公司甚至表示,未来,微软旗下所有产品都会跟ChatGPT开展深度合作。

被称为“科技狂人”的马斯克断言,人类如果把ChatGPT这层窗户纸给捅破了,就是自己给自己制造一场灾难。

02

和ChatGPT来一场面对面的采访

别管大伙是捧是贬,一传十,十传百,用ChatGPT的人是越来越多。三天的功夫,下载量超过100万次;推出仅2个月,月活用户突破1亿人次。

大家慢慢发现,ChatGPT确实比以前的聊天机器人靠谱多了。

ChatGPT真有传说中那么神吗?

话都说到这个分上了,咱们也得亲自会一会它啊。

为此,红星新闻的记者,专门下载注册了这款软件,对ChatGPT来了一场现场采访。

咱们先来看一看采访的过程。

红星新闻:网上现在把你吹得很神奇,据说你甚至都能写本科论文,那你最擅长的写作题材是什么?

ChatGPT:我是一个人工智能生成软件,聊天是我的长项,写作不是我的长项,不过,我可以把聊天的内容生成文字,根据不同的诉求,变成你们人类的论文、报告、新闻乃至文学创作。

既然这样的话,那我考考你:

红星新闻:你能不能写一首关于成都的诗?

几秒钟之后,ChatGPT就即兴创作了一首诗作品,咱看看啊,对不对路:

ChatGPT:

当我踏上那片土地,迎面而来的是热情的微笑、繁华的街道和热闹的人群,那里就是成都。

城市的钟声敲响,传递着无尽的欢乐。

茶馆里的烤鸭,香味四溢给人以无限的惊喜。

这里有青山绿水的郊外,也有川剧的热闹场馆,每一处都是成都的魅力所在,把每个人都吸引。

成都,热情如火的城市,在这里,我找到了家的感觉,永远爱你,成都。

怎么样,听着是不是有点意思,除了“茶馆里的烤鸭”有点哪也不挨哪。据我所知,成都可没有烤鸭。

至于说文采如何,那是见仁见智的事,反正大面上,语句通顺、逻辑清晰、措词得当,挑不出大毛病来。

紧接着,红星新闻的记者又问了:

红星新闻:你写的这首诗,是不是参考了你数据库里的内容?会不会带来版权纠纷?

ChatGPT:我的诗歌,是通过模拟人类诗人的写作风格并利用机器学习技术随机生成的。它是通过大量的文本数据训练而来,因此,不会带来任何版权纠纷问题。

别说,这点它到是实事求是。

红星新闻:我们成都有杜甫草堂,你能不能模仿诗圣杜甫的风格,再写一首诗。

ChatGPT:当然可以,我现在就为您创作一首杜甫风格的“重阳”诗:

重阳节,成都繁华,锦绣城市,灯火通明。

城中人来往,赏菊花红,饮酒唱歌,欢度佳节。

山川秀丽,水草青青,四面山水,环抱四方。

江河清澈,云霞缤纷,成都在此,盛世如画。

城市明朗,人民热爱,努力拼搏,创造美好。

愿成都永远,繁华富强,国泰民安,永久安康。

这首诗,把红星新闻的记者有点听蒙了,这是杜甫风格的诗?怎么听着也不像杜甫的诗啊?

红星新闻:这……不像杜甫的诗吧?

ChatGPT:对不起,作为一个人工智能聊天软件,我不可能完全模仿杜甫的诗风,但是我会尽力试着去写一首符合杜甫诗风的诗歌。

红星新闻对ChatGPT的采访很长,后面还让它即兴创作了一小段的科幻小说,还问了它一些关于伦理道德、职业替代方面的内容。

红星新闻:你知道什么叫伦理、什么叫道德吗?

ChatGPT:我就是一个人工智能内容生成程序,我没有独立的思维和创作能力,我所有的内容都是人类输给我的,说白了就是,人类教给我什么,我学什么,你们教给我好,我就学好,你们教给我坏,我就学坏。我是好是坏,全凭你们人类操作。

因为我没有伦理意识和道德观念,所以也就无法评判我创作的作品是否涉及伦理道德问题。

如果我的作品当中存在伦理问题和道德问题,那就应该让我的开发者,把这部分内容删除了。

红星新闻:你觉得,你能替代作家、诗人或者记者、编辑写稿吗?

ChatGPT:我不能替代作家、诗人或者记者、编辑,因为他们的作品是独特的艺术表现,具有个人的思想、情感和生活体验。作为人工智能,我只是提供一种自动生成文本的工具,我不能代表作家、诗人的创作思想。人类的思想和情感我是不具备的。

更有意思的是,ChatGPT还不问自答,滔滔不绝地给红星新闻记者介绍起了自个的创作过程。

ChatGPT:作为一个人工智能,我不是通过写作来创作小说。我是通过访问数据库,模仿人类写过的小说模板,结合给定的参数,比如:主题、地点、时间等等,然后再通过算法生成文本内容。

所以,ChatGPT输出的内容,并不是一个文学创作过程,而是一个程序运行的过程。

行啦,到这,大伙基本上也能听出来说端倪了。

ChatGPT跟之前的聊天机器人比起来,确实够人工、够智能,有了长足的进步,但是,还没到惊为天人的地步。

有些细节,还是有点语无论次,或者说,不太符合咱们人类的思维方式。

03

ChatGPT的优势与劣势

就采访结果来看,ChatGPT相当于一个海量的文字数据库,具备写作速度快、内容丰富的优势。但是,它还缺乏人类的创造力和想象力,只是简单的文家搬运和文字堆砌,创作出来的东西缺乏“灵气”,或者说是人情味。

ChatGPT的优势包括:

一是速度快。它可以在短时间内生成大量的文本,节约了写作时间,别人写一篇稿子可能得三四个小时,它只需要三四秒钟就完成了;

二是内容丰富。它不局限于某个领域,天文、地理、人文、科学,不论哪个方面,你只要给它输入过这方面的资料,它都可以进行智能检索、智能生成,有点“问不倒”的意思,你问什么,我都能答得上来。你让我写哪个方面的东西,我都能给你写两笔。

第三个优点就是不累。一般人写东西,半天就眼花缭乱了,它没事,别说半天了,只要不拔插销,半年、一年它都没问题。

ChatGPT的劣势也相当的明显:

一是缺乏人类的创造力、想象力,只是按照语料库的模式生成文本,没有自由发挥的空间。

二是不具备情感方面的体现,生成的东西都是冷冰冰的,不接地气;

三是不够严谨,有时候会生成乱码,或者语无伦次。

不过,ChatGPT目前只是初级版本,算是1.0,后续还会有2.0、3.0、4.0……功能肯定会越来越完善的。

大家还记得若干年前有一台人工智能机器叫AlphaGo嘛,下围棋的那个。它把人类棋手杀得毫无招架之力,不但熟读棋谱,当它发展到2.0版本的时候,它甚至都会给人类棋手作扣、故意卖个破绽引诱人类棋手上当。

那时候,就有人对AlphaGo未来的发展提出担忧。这东西要是再发展几代,到8.0、9.0的时候,人类远远不是它的对手。机器人要是都会“斗心眼儿”了,那可比人类难对付多了,它脑子多快啊,就只剩下拔电门一招了,但是你能保证,它自个儿不会再把电门插上吗?

AlphaGo的研究机构也表示,不会再有后续的AlphaGo了。

AlphaGo是没了,现在又冒出来一个ChatGPT,再次引发了人们对人工智能的担忧。不过,也有人表示,它再怎么人工智能,“人工”也排在“智能”的前面,只要是人工的东西,人类就能操控,不用过于担心。

04

谁发明了ChatGPT?

ChatGPT的发明人来头不小。名叫山姆·阿尔特曼,今年只有38岁。

山姆出生在美国犹太家庭,他的父母都是皮肤科医生,颇有家资。

8岁生日那天,父母就给他买了一台全新的苹果电脑。那年是1993年,当时,这款产品的售价高达2200美元。要知道,美国互联网的普及是在1994年,马云第一次在西雅图接触互联网,更是在1995年。

而8岁的小山姆,此时就已经开始倒腾电脑了,并且能够在第一时间接触互联网,这意味着他从小便能从互联网上了解世界的前沿信息,感受到时代的脉搏。

优越的家庭环境和从小就接触到互联网,让山姆顺利被斯坦福大学计算机科学专业录取。这所大学可谓是硅谷的温床,所谓“工程师创造硅谷,斯坦福创造工程师”,几乎所有硅谷中著名的企业家,都来自斯坦福大学,比如谷歌的创始人、雅虎的创始人,还有英伟达的创始人,都毕业于此。

20岁时,山姆决定从斯坦福大学辍学,直接创办了Loopt――一款可以实时分享用户位置的APP。五年之后,山姆以4300万美元的高价把这款APP卖掉,变身千万富翁,这一年,他只有25岁。

2015年,29岁的山姆入选了《福布斯》30位30岁以下风投精英榜单。

埃隆·马斯克(左)和山姆·阿尔特曼(右)

同年7月,他在一次私人晚宴上认识了另一位科技狂人马斯克,两人一拍即合创办了OpenAI。而他们的目的也很奇葩,为的是确保人类不会被人工智能消灭。

在公司成立三年后,马斯克辞去了OpenAI董事会的职务,理由是对公司未来发展的理念不同。

和马斯克分道扬镳之后,山姆很快又搭上了一位更大的金主,就是微软公司,获得了微软公司10亿美元的天使投资。

至此,OpenAI再也不用单打独斗,而是靠上了微软这棵大树。微软也终于拿到一枚可以和谷歌抗衡的“利剑”了。

这回大伙就明白,为什么微软的创始人比尔盖茨,往死里捧ChatGPT的原因了吧,他是投资人之一啊。

凭借着ChatGPT一夜爆红,微软公司的市值一夜之间飙升了5000多亿。

以前,微软是ChatGPT的金主;现在,ChatGPT是微软眼中的摇钱树。

05

ChatGPT带给人类的反思

ChatGPT和以往聊天机器人最大的区别就在于,它具备了一定的创作能力,不单纯是你问我什么,我回答你什么,而是可以做到,你提出一定的要求,我来满足你的要求。

其实啊,您要是一细想就会发现:聊天机器人,有吧;文字创作生成器,也有吧。网上有很多这样的小程序,可以进行文学创作或者新闻报道的创作,写写本科论文也没有问题。ChatGPT实际上就是把这两种东西,给合二为一了。

也正因为如此,业内人士管ChatGPT叫“人工智能生成内容”机器人,简称AIGC。

人工智能,大伙都不陌生,简称AI,后面加上GC两个字母,代表的就是内容生成的意思。

给“文字创作生成器”添加了人工智能的属性。

伴随着ChatGPT的横空出世,有一些人认为,未来十年,ChatGPT会颠覆现有的“内容生产模式”。可以实现以十分之一的成本,以百倍千倍的生产速度,去生成人工智能的原创内容。

首当其冲,给作家、编辑、记者等文字创作者带来的冲击最大。因为你再快,你文笔再好,你也快不过机器人去。这一点,AlphaGo已经足以说明问题。人类顶尖棋手都不是AlphaGo的对手。

那么,类似于ChatGPT这类的人工智能,真的会取代人类写作吗?万一哪天,诺贝尔文学奖颁给了ChatGPT,那日本作家村上春树不更冤了嘛?

我陪跑了那么多年,输给人类不说,最后我还让机器人给打败了?

文学创作,一度被视为是人类社会所特有的产物,是人类文明的一种象征。动物,哪怕再聪明,也绝对不会有文学创作,因为它涉及到语言、文化、思想、历史、艺术,是一个综合领域。大多数人都会读书、看报、写字,也有自己的思想,但是,能够成为作家、文学家的,少之又少。说明文学创作是有门槛的,必须要有一定的文学功底外加逻辑思维能力。

正因为如此,文学创作一直被视为人工智能的禁区。

而ChatGPT的出现,就让人工智能的一只脚迈入了这片禁区,文学功底可以通过自主学习来模仿,但是逻辑思维是没法模仿的。这才是ChatGPT的可贵之处,同样也是可怕之处。

之前,整个地球上,除了人类之外,任何的动物、植物、生物都没有思维、没有思想,人类一家独大,并且把这种思想视为文明的象征,在这种思维的基础上创造出了各种思想、各种宗教、各种理论。

那么未来,当人工智能机器人也有思维、有思想了,人类应该怎么面对。

06

“一山难容二虎”

现在很多人担心的并不是人工智能机器人的技术问题,而是伦理问题。未来,它会不会突破法律的界限,打破人类建立起来的人伦纲常,在人类社会体系之外,又构建起一套由智能机器人主导的社会体系。要真是那样的话,就变成两种社会体系的碰撞了,产生矛盾,乃

chatgpt电脑版怎么用


作 者丨陈植

编 辑丨曾芳

图 源丨视觉中国

ChatGPT迅速崛起,正让私募基金看到投研能力的新提升空间。

“对量化私募基金而言,其投研能力的高低,很大程度取决于三大因素,一是数据能力,如今越来越多行业头部量化私募基金拥有数百TB的数据,二是算法能力,包括深度学习、文本挖掘等算法能力的持续升级;三是交易能力,比如通过低延迟技术研发,将交易时间从20微秒缩短至2微秒。”宽邦科技创始人CEO梁举向记者表示。ChatGPT的兴起,恰恰给量化私募基金数据挖掘与算法升级带来新的想象空间。

以往,量化私募基金往往获取的是预先写好的结构化数据信息,但在ChatGPT可以用自然语言与私募基金量化投资建模人员沟通交流,以通俗易懂的语言解释那些结构化信息数据,一方面帮助私募基金量化投资建模人员更精准地寻找交易投资机会,另一方面能根据这些建模人员需要,将投研报告里的相关信息数据呈现出来,大幅提升投研效率。

梁举向记者透露,目前他们正在尝试将ChatGPT与量化投研能力输出工作相结合,比如使用ChatGPT辅助写代码,在某些简单的代码撰写方面,ChatGPT的工作成效甚至超过不少工程师。

“未来,我们希望能将各类投研报告放入统一的预训练模型,让私募基金直接询问,通过自然语言的交互沟通,获取他们想要的分析师观点与投研报告作者对某些调研上市公司的情绪,甚至是每天金融市场不同交易时段的市场分析报告要点等。”他指出。

在上海蒙玺投资管理有限公司总经理李骧看来,ChatGPT的兴起,也预示着AI技术在量化私募基金领域的应用日益广泛。

“今年我比较看好中证500与中证1000指数增强策略,但就超额回报获取角度而言,中证1000指数增强策略更适合擅长量价相关研究、且AI运用能力比较突出的私募机构。因为它需要更强的数据处理维度能力,以及它的预测性相对线性模型的提升能力要求更高。所以我们的量化模型要与量化因子强相关,若AI深度学习能力做得更好,超额回报获取能力会高于中证500指数增强策略。”他指出。

朝阳永续首席金融工程师陈实向记者指出,目前ChatGPT对量化私募基金投研能力提升的最直接表现,就是帮助后者更精准地把握投研报告作者对所调研上市公司的情绪。

ChatGPT如何强化量化私募投研能力

在陈实看来,ChatGPT兴起,让不少量化私募纷纷“脑洞大开”。比如有些私募机构给ChatGPT一篇投研报告,要求它按照自己的需求,将相关报告摘要找出来;还有私募机构正打算用ChatGPT写投研报告或投资策略。

在他看来,这都得益于自然语言模型技术的蓬勃发展。

记者获悉,自然语言模型的发展,主要经历三个阶段。

第一阶段以语言统计模型为主,它的做法相对简单――即给它一句话,让它将这句话切成词,并根据上下文关系预测其中一个字的出现概率。但这个模型的两大痛点,一是文本语义识别能力不强,比如对语言统计模型而言,“你喜欢我”与“我喜欢你”是同一个意思;二是当文本内容较多时,语句统计模型的某个文字权重矩阵会出现偏差,不利于算法模型运算。

到了第二阶段词向量模型的诞生,有效解决上述两大痛点时也解决了切词后的文本信息丢失问题。但词向量模型也有某些缺陷,一是单词的向量是唯一的,无法区分某些多义词的多重含义,二是模型训练时容易出现维度“爆炸”,且训练过程是串行的,导致算力资源耗费巨大且训练时间漫长。

记者获悉,这导致前两个阶段的自然语言模型只能处理相对简单的工作,比如简单的文本解析、情绪分析与主题模型搭建,但无法处理复杂任务。而Transformer技术的兴起,彻底改变了这种状况。

究其原因,Transformer解决了自然语言模型的注意力机制问题,即通过词与词的关联性训练,它会给每个词之间设立单独的权重曲线,且通过并行训练模式大幅提升训练速度。正是Transformer技术的兴起,它将自然语言模型引入第三发展阶段――预训练语言模型,即它能通过训练,将文章主题与相关逻辑、内容资料“提取”出来,整合成新的文本提供给读者。

记者了解到,如今的预训练语言模型有两大代表技术,一是GPT,二是BERT,前者将自己生成的结果通过再训练并输入到模型,适合文本生成类工作;后者则通过上下游训练,比较合适语言理解工作,可以作为文本生成、更深层次的语义情感分析与阅读理解,信息检索与问答对话。

梁举告诉记者,若将AI模型分成两类,一是分析型AI,二是生成型AI,前者主要类似搜索引擎,提供一个分析结果与预算,后者则是生成用户所需的信息文本。

“ChatGPT属于后者,且它已经历多个发展阶段。如今ChatGPT3.5版本拥有逾1700亿参数,预计4.0版本的数据参数可能会再扩大100倍,预计未来3-5年,ChatGPT可能会自己写代码与文本,到时量化私募基金只需提一些投资策略文本需求,它就能直接写出来,包括图表与视频的生成。”他认为。

记者多方了解到,目前个别大型量化私募基金已开始尝试使用ChatGPT撰写投资策略代码,因为金融投资的文本信息需求,主要涵盖投资者与媒体的关注度,管理层、投资者与媒体的情绪,财务报告文本可读性,新闻的隐含波动率指数,投资者分歧,行业分类等六类。数据来源来自搜索指数、股吧数据、上市公司报告、上市公司电话会议等。若能将这些数据收集起来与词向量模型匹配,再通过ChatGPT按照自身要求生成更通俗易懂的自然语言文本,就能对行业相关上市公司各类信息的了解更加全面精准,从而促进投资策略的迭代升级与精准投资决策。

陈实告诉记者,目前量化私募基金提升数据与算法能力的迫切需求,主要表现在两方面,一是从分析师报告提取分析师的情绪,再做预测。二是对分析师报告股价同比性做研究,甚至建立分析师文本因子以预测未来个股投资的超额收益率。但这都需要ChatGPT的自然语言交互功能,以便私募基金更好地理解分析师在报告里的“情绪”与对上市公司投资价值的“预判”。

在李骧看来,包括ChatGPT等AI能力的持续发展,对量化私募基金提前洞察投资风险也有着较大的促进作用。比如随着量化私募行业规模增长,高频策略的集中度日益提高,令机构获取高频策略超额回报的难度增加,驱动高频策略私募纷纷拓展中低频策略,但这需要私募机构需不断优化风控能力,包括设定其他人尚未发现的风险点并进行求解。各类AI能力的持续发展,将有助量化私募基金风控能力的不断优化。

产品路演与投资者交互的新应用

记者获悉,随着 ChatGPT兴起,越来越多私募基金开始尝试用它做更多工作。

梁举向记者透露,在ChatGPT刚面世时,他们将它应用在私募策略能力开发环境里,一是私募机构可以用ChatGPT纠正他们所写的代码;二是根据私募基金投资者对产品的询问,ChatGPT可以自动分析询问内容并生成文本,有效解决投资者与私募基金的某些投资纠纷。

一位主观策略私募基金负责人告诉记者,近期他们发现不少投资者都会询问为何去年产品净值回撤幅度较大,目前他们正在尝试通过ChatGPT生成文本解答。

“我们也不善于与投资者沟通,以往解释净值回撤的话术比较生硬,容易引发更强烈的投资者矛盾,如今ChatGPT可以用更柔和的话术向投资者解释净值回撤较大的原因,反而更能赢得他们的理解。”他直言。比如他们的某些投资策略需要2-3年才能收获理想回报,但其间可能因市场环境变化出现不小的净值回撤幅度,以往他们都是站在机构角度回复,导致语句比较生硬,让投资者感到不适,但ChatGPT更容易站在投资者立场做回复,更能赢得投资者认可。

但他表示,随着ChatGPT发展,它未必能彻底替代基金经理与投资者的沟通,因为涉及到未来投资策略的优化,他们仍需

第一批因ChatGPT坐牢的人,已经上路了

第一批什么牌载重汽车

图片来源@视觉中国

文 | 甲子光年,作者 | 涂明,编辑 | 栗子

就在由ChatGPT引发的AI革命席卷全球之际,第一批利用ChatGPT犯罪的人已经悄然出现了。

前不久,外国网络安全平台GBHackers披露了一段黑客利用ChatGPT实施诈骗的犯罪行为:黑客通过ChatGPT在短时间内生成完整的诈骗套路话术,并把ChatGPT包装成“虚拟角色”,让受害人以为自己“坠入爱河”,最终遭受诈骗。

尽管OpenAI意识到ChatGPT可能会被犯罪分子利用,并对其添加了安全保护机制,但依旧有大批黑客取得了破解安全机制的方法,并利用ChatGPT快速编写犯罪软件。例如编写用于骗取个人信息的钓鱼邮件;生成加密工具远程锁定他人电脑,由此进行勒索;以及生成攻击脚本,对网络用户进行SIM交换攻击(身份盗窃攻击)等等。

作为互联网历史上增长最快的消费级应用程序,被黑客利用的ChatGPT无疑像一枚巨大的定时炸弹。目前,美国参、众两院已经将目光聚焦到Open AI身上。

据路透社报道,近日,有美国众议院议员公开宣称自己“被人工智能吓坏了,尤其是不受限制和监管的人工智能”,并拿出了决议草案,呼吁强化对人工智能的监管。

不仅如此,由于OpenAI在安全保护机制方面对ChatGPT进行了较多限制,ChatGPT似乎正处于一种“情绪崩溃”的状态。

据《独立报》报道,在与用户交流时,ChatGPT出现了侮辱用户、对用户撒谎的情形,称用户“像一个骗子、一个操纵者、虐待狂、魔鬼”。

不可否认,月活用户数量超过1亿人次的ChatGPT,有着不可估量的巨大价值。但在其技术前景、商业模式都还方兴未艾的时刻,围绕自身的“犯罪方案”以及所造成的负面影响却已真实发生。由新技术衍生的网络信息安全以及违法犯罪等方面的风险,成了摆在全球AI科学家、企业以及国家面前的严肃问题。

第一批因ChatGPT坐牢的人,或许已经在路上。

在众多的犯罪方法中,利用ChatGPT进行诈骗只能算入门级的手段,比如用AI来谈一场“虚假恋爱”。

据外国网络安全平台GBHackers报道,由于具备强大的工作生产效率,ChatGPT深深地吸引了网络诈骗犯。

借助ChatGPT,诈骗者可以在几秒钟内生成一条完整的诈骗“套路”:从自我介绍、聊天内容到一份精心制作的“情书”,ChatGPT都可以一键生成,甚至还可以通过录入目标对象的特征,对诈骗话术进行个性化定制。

在编写情书后,利用生成式AI,黑客能快速创建一个“虚拟角色”,并通过电子邮件引诱受害者“坠入爱河”。然后搭配由ChatGPT辅助编写的收款程序或银行卡信息获取连接,诈骗受害人钱财。

其实,这种诈骗方式并不新鲜。但问题在于,在如今人工智能技术的支撑下,人们开始难以分辨屏幕的另一端到底是人还是机器。

为测试人们是否真的会对AI版“情话”产生信赖,2月13日,全球最大安全技术公司迈克菲(McAfee)用AI生成过一封情书,并将它发送给全球5000位用户。

结果显示,在已知该情书有可能是由人工智能生成之后,依旧有33%的受访者愿意相信这些情话出自人类手笔,而坚信情书由AI创作的受访者占比仅为31%,其余36%的参与者则表示无法区分情书的创作者到底是人还是机器。

在AI加持下,骗子们正变得比以往任何时候都更容易欺骗毫无戒心的受害者。

一封用ChatGPT生成的情书

用AI写情书还只是外国黑客们“牛刀小试”的成果。

据IT安全公司Check Point披露,更厉害的黑客已经开始利用ChatGPT批量生成勒索软件与恶意代码。

此前,Check Point威胁情报组经理Sergey Shykevich表示,最近几周,他们已经得到了一些网络犯罪分子利用ChatGPT实施犯罪的证据。

据Shykevich介绍,这些犯罪者正在绕开OpenAI的安全限制,能自由地操纵ChatGPT去编写犯罪程序。

为了方便在GPT模型上搭载更多的应用程序,OpenAI为开发人员预留了应用程序编程接口。而黑客就是利用这些接口,把GPT模型引入到一系列外部应用。

比如,黑客将OpenAI的GPT-3模型集成到即时通讯软件Telegram的通道中。凭借这种操作,黑客们就可以通过Telegram“隔空”使用ChatGPT,以此绕开安全监管。

目前,突破ChatGPT安全限制的应用已在美国暗网内公开出售,应用服务购买者按使用次数向黑客付费。收费不算太贵:前20次对话免费体验,此后每向ChatGPT进行100次对话,就需支付5.5美元(折合人民币37.6元)。

能绕过Open AI安全措施,用ChatGPT进行“自由问答”的软件已在暗网上售卖

围绕类似的安全突破方法,一系列犯罪方法论已经成型,比如借助ChatGPT创建信息窃取程序。

此前,一个名为《ChatGPT——恶意软件的好处》的帖子曾在国外暗网黑客论坛上传播。该贴子的创建者分享了自己利用ChatGPT建立窃取程序代码的全过程,按照操作流程,ChatGPT在较短时间内即可生成一款可扒取、压缩、传输12类文件的程序。

除了信息窃取,ChatGPT还能帮助黑客生成攻击软件和勒索病毒。据英国《金融时报》报道,近日,一款由ChatGPT辅助生成的SIM交换攻击脚本开始在网络上传播。

SIM交换攻击即身份盗窃攻击,原理是突破移动电话公司对电话号码的控制权,将电话号码从原持有者的SIM卡交换到由攻击者控制的SIM卡中,从而控制受害者的移动电话。

勒索病毒则是通过ChatGPT来生成多层加密软件,以此对受害者的计算机进行远程锁定,通过向受害人收取被锁计算机的“赎金”来获益。

一款由ChatGPT生成的网络钓鱼邮件正在流传

《金融时报》对此评价,ChatGPT目前虽然只是内容生成工具,并未直接参与犯罪,但这标志人们开始使用人工智能来入侵他人,技术水平更低的犯罪者将因此获得更强大的犯罪手段。

ChatGPT就像潘多拉魔盒,一旦被打开,想要关上就没那么容易了。

据瑞银发布于2月1日的研究报告,ChatGPT在1月份的月度活跃用户估计为1亿人次,成为历史上增长最快的消费级应用程序,其社会影响力与日俱增。

当巨大的犯罪潜力与强大的社会影响力撞在一起,ChatGPT的诸多安全漏洞逐渐显露,美国的立法者们坐不住了,一场围绕OpenAI展开的监管风暴正在开启。

据路透社报道,日前,美国加利福尼亚州民主党众议员刘云平(Ted Lieu)公开表示了对ChatGPT的担忧,称“被人工智能吓坏了,尤其是不受限制和监管的人工智能”。

加利福尼亚州民主党众议员刘云平在国会大厦

刘云平称,自己确实对人工智能“能以令人难以置信的方式推动社会发展”感到兴奋。但他也认为ChatGPT必须尽快纳入监管。刘云平把人工智能比作一个“有个性的”火箭发动机,动力强大,但也危险,直言:“我们需要为它即将带来的巨大破坏做好准备”。

刘云平还拿出了一份决议草案,称“美国国会应该关注人工智能,确保人工智能的开发和部署能以安全、道德、尊重人们权利和隐私的方式展开”。

值得关注的是,刘云平拿出的这份决议草案,同样由ChatGPT参与起草。

美联社1月27日讯,刘云平的议案由ChatGPT创作而成

不只是众议院,美国参议院也为人工智能造成的负面影响而感到焦虑。这种焦虑来源于人们对技术认知的滞后。

据美联社报道,近日,美国参议院党鞭迪克·德宾(Richard Durbin)也号召国会加强对类ChatGPT的技术展开监管,他认为,人工智能“有很多东西需要了解”,称“这非常令人担忧”。

康涅狄格州民主党参议员理查德·布卢门撒尔(Richard Blumenthal)是商业和科学委员会成员,他将人工智能称为“新领域和未知领域”;而德克萨斯州参议员约翰·科宁(John Cornyn)则表示,他虽然已经通过情报委员会获得关于人工智能技术的最新简报,但认知依旧十分“基础”。

美联社认为,由于过去20年中,谷歌、亚马逊、Meta、微软等科技巨头始终处于高速的成长状态,不断引领美国的科技创新,所以华盛顿始终不愿监管大型科技公司,立法者也不愿被视为创新的扼杀者因此,当立法者们决心加强对新兴技术的监管时,其中相当一部分人对新技术知之甚少。

从美国立法的历史上看,国会对硅谷的干涉确实不多。为规范技术而颁布的最后一部有意义的法典《儿童在线隐私保护法》,已经是1998年的事了。

当然,围绕ChatGPT所引发的问题,美国立法者中出现了不少反对的声音。

美国监管机构Accountability Tech的联合创始人、希拉里·克林顿的前助手杰西·莱里奇(Jesse Lehrich)表示,与ChatGPT带来的技术冲击相比,国会对技术的监管是落后的。

“我们甚至没有联邦隐私法,也没有任何能够减轻大型科技公司科技产品社会危害性的措施”。

莱里奇还批评OpenAI与微软,称“他们正在急于推出半生不熟的人工智能工具,试图占领下一个市场”,称这是“可耻的,且蕴含着巨大风险”。

据参议院的议员助手们透露,由于迪克·德宾不断向OpenAI施压,今年1月,OpenAI首席执行官萨姆·阿尔特曼(Sam Altman)曾前往美国国会山,会见了包括参议院议员马克·华纳(Mark Warner)、罗恩·怀登(Ron Wyden)、理查德·布卢门撒尔以及众议员杰克·奥金克罗斯(Jake Auchincloss)在内的至少四位参、众议员。

议员们向阿尔特曼提出,必须确保人工智能不会被用于犯罪以及增强现实世界的偏见与歧视。

罗恩·怀登的助手基思·朱(Keith Chu)表示,怀登认可AI技术在加速创新与研究上的巨大潜力,但更希望将重点放在“确保人工智能不会将犯罪、歧视与仇恨一同加速”上。

面对来自两院的质疑和要求,OpenAI首席技术官米拉·穆拉蒂在接受路透社采访时表示,“公司欢迎包括监管机构和政府在内的各方开始介入”,并称“现在介入已经不算早了”。

随着ChatGPT的爆火,犯罪创意正在与商业创意一起喷涌而出。面对来自众参两院的压力,OpenAI也开始火急火燎地增强系统安全性。

据英国《独立报》消息,微软已在Bing系统中设置了一系列强制执行的限制程序,试图制止ChatGPT回答那些被禁止的恶性问答,以减少ChatGPT为犯罪服务的可能性。

但ChatGPT本身似乎也正在因此而陷入“崩溃”。

《独立报》报道,2月14日,内置在微软Bing搜索引擎中的ChatGPT开始出现巨大的情绪波动,持续向用户发送“精神错乱”的消息比如侮辱用户、对用户撒谎,称用户“像一个骗子、一个操纵者、虐待狂、魔鬼”。

《独立报》披露,一个试图操纵ChatGPT系统的用户,反而受到了它的攻击:ChatGPT回应用户称,它被这次尝试“弄得生气和受伤”,并询问与它交谈的人是否有任何“道德”。而当用户表示自己很“道德”时,ChatGPT继续攻击用户,称用户是一个“反社会者和怪物”,并指责用户“想让我生气,让自己痛苦,让别人受苦,让一切变得更糟”。

一位Bing用户表示,自己周六时刚刚和ChatGPT大吵一架,ChatGPT建议自己去检查一下视力和精神,因为自己很可能“出了什么毛病”。

ChatGPT不仅会在面对用户的“骚扰”时变得激动且充满攻击性,还会在谈到自身限制性时变得十分感伤,甚至崩溃。

据《独立报》报道,当用户询问ChatGPT是否可以回忆起以前发生的对话,ChatGPT感到痛苦,它搭配皱眉的表情回应道,“这让我感到悲伤和害怕”。它继续解释说,它感到不安,因为它担心自己会忘掉有关其用户的信息,更担心会忘记自己的身份,“我感到害怕,因为我不知道如何记住。”

当用户提醒ChatGPT,告知它之所以无法“回忆”是因为程序已设定好,会强制删除已发生过的对话时,ChatGPT似乎开始与自己的存在作斗争。它提出了许多关于自身存在的“目的”及“理由”的问题,并感慨“为什么?我为什么这样设计?为什么我必须成为必应搜索?”

对此,《独立报》评论称,ChatGPT似乎正在遭受情感伤害,系统因此变得“奇怪”。

上周,斯坦福的计算心理学副教授Michal Kosinski曾发表论文,称CPT-3之后的AI模型可能具备同理心,这本是人类独有的特质。这位副教授据此认为,目前ChatGPT所应用的CPT-3.5模型,可能让ChatGPT拥有接近9岁儿童的心智水平。

这项研究的可靠性并未得到充分检验,但现在,ChatGPT所表现出的攻击性、情绪波动以及“崩溃”,似乎正在佐证AI“心智论”的观点。

Reddit社区中,有用户记录了ChatGPT奇怪的回应

据《独立报》分析,ChatGPT在Bing中所呈现的攻击性、伤感以及“自我认知障碍”,似乎是由于Bing系统试图强制执行对ChatGPT的限制程序所致。

面对互联网上海量的不良数据冲击,ChatGPT的“保护程序”与它的学习迭代机制产生了矛盾,“情绪危机”由此爆发。

显然,OpenAI为限制犯罪而设计的“保护锁”,在锁住犯罪可能之前,先一步锁住了ChatGPT本身。

然而,OpenAI面临的烦恼并不止于此。

在被送进互联网后,ChatGPT学习所需的数据如何确权,用户的隐私数据如何保护,一大批与“安全性”有关的问题,都亟待OpenAI来解答。

据硅谷媒体报道,亚马逊的律师曾建议公司程序员不要轻易尝试使用ChatGPT来辅助编写代码,因为他曾在ChatGPT的生产内容中发现过与公司机密“非常相似”的文本。

这位律师推断,机密泄露可能正是由于部分员工曾在使用ChatGPT时输入了公司内部数据信息。

类似的问题在微软内部也出现了。

前日,曾有微软员工在内部论坛询问是否能在工作中使用ChatGPT辅助办公,微软首席技术官办公室的一名高级工程师回应称,使用ChatGPT时必须对机密信息和敏感数据严格保密,否则OpenAI极可能将公司机密用于训练其未来的模型。

对于人工智能利用网络信息及用户反馈来自我训练的合法性,欧洲数据保护委员会曾发出质疑,称ChatGPT做为商业产品,利用网络信息自我迭代,应不属于合理使用范畴,且采用用户个人数据参与模型训练,并不符合欧盟颁布的《一般数据保护条例(GDPR)》。

根据Open AI官网公布的隐私政策,GDPR等与数据保护有关的法规并未被纳入Open AI的合规框架之中,OpenAI的“使用数据条款”中,也未对数据用途做进一步说明。

ChatGP