淘优惠

淘优惠

ai chatgpt 如何注册 利用chatgpt生成ai图片

热门文章 0

作者 | 不空

来源 | 剁椒TMT

导语:除了算力和算法方面的差距,ChatGPT高昂的落地成本也是影响国内研发团队决策的一个重要因素。

ChatGPT俨然已经成为人工智能圈的“社交货币”。

“一位连电脑系统都分不清的朋友突然找过来,让我教她注册ChatGPT。”一位AI领域从业者感叹,ChatGPT正在以颠覆性的使用体验从科技领域破圈,重建了全球用户对人工智能的认知。

图源:OpenAI官网

当前,这款生成式AI对话大模型的活跃用户已经破亿,高频的访问量更是令ChatGPT系统多次宕机。

和ChatGPT用户访问量一同狂飙的,还有资本市场对AIGC行业的热情。上线一个多月,ChatGPT的幕后推手OpenAI估值从200亿美元飙升至290亿美元。

来自大洋彼岸的这股科技潮迅速传导至国内,并引发了一股ChatGPT热浪。

国内科技属性最强的科技巨头――百度(NASDAQ:BIDU),成为国内大厂在这场ChatGPT追逐赛中的领头羊,频频释放出类ChatGPT产品的信息。

与此同时,阿里、京东、网易、小米等一线大厂也紧随其后,纷纷承诺了对ChatGPT的投入和开发。

可见,大厂的态度十分鲜明:ChatGPT已经是既定的未来,这场新的科技竞技赛哨声响起,谁都不甘落于下风。

不过,不少资深业内人士都认为,在AI领域,中国已经远远落后,复制ChatGPT其实是一个不切实际的想法。

小冰CEO李笛举了一个例子:若用ChatGPT的方法,以小冰框架当前支撑的对话交互量计算,每天成本将高达3亿元,一年成本超过1000亿元。

如果想要控制成本,就会牺牲对话质量,写出的文章漏洞百出、出品的画作不够稳定,还是不能大规模应用。李笛补充道,确保“端到端”的生成质量才是核心问题,同时还要优化模型降低参数规模。

笔者与国内多位行业人士深入探讨,试图找寻追赶ChatGPT的“中国式”困境,而在此困境之下,中国AI圈到底应该秉承何种态度?

中国AI领域困境重重

“深耕在AI和科技领域的研发人员和创业者一直都清楚地知道,国内的AI实力确实落后国际水平。”

一位人工智能领域的资深人士表示,中国绝大多数AI公司在近几年的创新力并不高。

此次,ChatGPT引领的人工智能领域的变革不仅彻底揭开了国内AI行业的遮羞布,也释放出了下一轮信息革命的方向。“互联网和科技公司已经正式从商业模式创新走到了底层算法创新的阶段。”

多位行业人士也承认,若以ChatGPT的能力为标杆对比中国两国在AI领域的差距,中国的AI发展已经滞后,甚至拉开了五年的差距。

具体来看,中美两国在AI研发领域的差距体现在算力和算法方面。

自去年英伟达高端GPU芯片对中国供应受限后,国内算力也受到了严重影响。尽管国内芯片企业始终在奋力追赶,但是目前国内并没有对标的硬件产品。有鉴于此,算力是国内科技大厂发展AI的短板之一。

当然,“算力的问题可以用钱解决”,不过,已经有行业人士算了一笔账:想要训练与ChatGPT相匹敌的大模型,每年在显卡、CPU等设备方面投入的成本要高达10亿美元。

甚至有业内人士认为,想要真正弥合两国之间的算力差距,公司每年的成本远远超过10亿美元。

面对如此庞大的现金流需求,一位业内人士预判,“微软、谷歌等硅谷大厂有这个能力,但国内大厂应该没有这一实力。”

在李笛看来,与其说中美两国在人工智能领域有巨大的“技术壁垒”,不如说有一定的“时间壁垒”。

“时间壁垒”带来的则是算法方面的差距。一个基础常识是,算法训练是一件没有办法弯道超车的事情。

自2018年,OpenAI推出了第一代生成式预训练模型GPT-1起,OpenAI用了近6年的时间沉淀出了当前的大语言模型。

“这六年的差距没办法用半年的时间实现超越,除非有天才少年用更加完善的算法框架实现降维打击。”

图源:OpenAI官网

除了算力和算法方面的差距,ChatGPT高昂的落地成本也是影响国内研发团队决策的一个重要因素。

李笛解释道,人工智能正处于快速发展迭代的阶段,效果越好往往意味着越先进的技术,相应地成本也就越贵。假如不考虑优化成本,只追求效果,是很难长久落地、大规模铺开的。

创新氛围和创业环境的不同

在谈到OpenAI取得的重大突破时,李笛认为,耐得住寂寞,敢于去磨、去做创新研究的坚韧特质是其能够被关注到的重要原因。

“具体到技术上,大模型并不是今天才有的概念,它已经存在多年,并已逐渐被大家所掌握,国内外皆如此,市面上已有很多用这种方法训练出的大模型。大家的区别只是,研发者在fine-tuning的过程中,专注度、投入度不一样。”

也有行业人士认为,这也折射出国内创业环境中普遍存在的浮躁心理。“在很长一段时间里,国内的创业公司都在复制已经被验证过的商业模式,很


数字媒体怎么用ChatGPT赚钱?Buzzfeed推了款收费的测试产品

数字媒体怎么用三个字概括,数字媒体怎么做,数字媒体获取方式,数字媒体专用软件

美国数字媒体巨头Buzzfeed正在尝试利用AI生成内容赚钱。

据彭博社2月14日报道,BuzzFeed(BZFD.US)发布了使用人工智能(AI)作答的测试栏目quizzes。该项目通过AI技术创建面对用户的个性化测验,并根据用户反应生成个性化的文本内容。

BuzzFeed网站执行董事杰斯・普罗布斯(Jess Probus)表示,虽然BuzzFeed的测试通常是多项选择题,但人工智能辅助版本让读者输入一个单词或短语就可以产生更多、更个性化的结果。“有了这个,我们就有能力得到无限多的结果。”

BuzzFeed希望这一策略能创造出更吸引人的小测试,最终提高广告和订阅收入。其中一个测试只对BuzzFeed+的订阅者开放,该服务每月收费2.99美元,订阅者可享受无广告内容。

公开资料显示,BuzzFeed创立于2006年,是美国的一个新闻聚合网站,“病毒式传播”的小测试是该公司最著名的爆款内容。2021年BuzzFeed通过与一家SPAC公司合并上市。

BuzzFeed网站

园艺巨头Scotts Miracle-Gro(SMG.US)是BuzzFeed的长期广告商,已决定增加预算来赞助AI测试项目。该公司首席营销官帕蒂・齐格勒(Patti Ziegler)认为这是“以一种吸引人的方式接触消费者”的机会。

在Scotts Miracle-Gro赞助的一项与情人节有关的测试活动中,AI机器人会询问读者他们在浪漫伴侣身上寻找什么,包括他们理想中的周末,然后匹配一种植物作为灵魂伴侣。例如,测试显示一位读者的“植物灵魂伴侣”是“一株富有想象力和快乐的中国金钱草”,名叫格特鲁德。

镜面草,英文名为Chinese money plant(中国金钱草)

根据读者给出的答案,BuzzFeed机器人写了一段关于读者和这株植物的故事。故事中出现的语句包括:“他们会悠闲地嘲笑愚蠢的故事,格特鲁德完全沉浸其中,她的根高兴得发抖!”甚至还有读者和植物的对话片段:“答应我你不会忘记我,我勇敢的绿叶朋友。”“如果没有格特鲁德,我就迷失了。”

此前,BuzzFeed首席执行官乔纳・佩雷蒂 (Jonah Peretti)在给员工的备忘录中提到,今年由AI创造的内容将从研发阶段转变为核心业务的一部分。他认为,人工智能的突破将会开启“创造力的新时代”,预计在15年内,人工智能和数据将帮助“创建内容本身、个性化内容和将内容制作成动画”,而不仅仅是展示已有的部分。

今年1月,Buzzfeed宣布使用OpenAI公司提供的AI技术来协助创作个性化内容。微软旗下的OpenAI与谷歌旗下的DeepMind、Meta旗下的FAIR (Facebook AI Research)被认为是全球领先的三大AI实验室。OpenAI开发的聊天机器人ChatGPT自去年11月面世以后火爆全网,也吸引了商界的目光。

宣布引入人工智能技术当天,BuzzFeed股价暴涨近120%,创下上市以来最大涨幅,市值一度达到近3亿美元。自2021年12月上市通过SPAC上市后,该公司股价下跌近80%,去年一年股价下跌近40%。

财务数据显示,2022年第三季度,BuzzFeed实现营收1.037亿美元,较上年同期增长15%,净亏损2700万美元。BuzzFeed高管表示,业绩亏损主要是由于来自Facebook的流量下降,在经济疲软的情况下广告商也变得更加谨慎。

为了实现业务盈利,BuzzFeed去年削减了新闻部门,并计划将创作者网络规模扩大一倍。面对企业未来是否将用人工智能取代员工的担忧,普罗布斯表示,“我们并不认为这是人类的替代品。”据其回应,BuzzFeed正在将更多员工投入AI项目,以帮助创建新的测试形式。

据报道,近期CNET、《男性杂志》等媒体都在被迫修正人工智能写作文章中出现的错误。对此,普罗布斯表示,如果没有经过编辑的审阅,BuzzFeed不会发布AI生成的文章。另外,该公司在内容取向上更偏向娱乐,而非偏严肃的新闻报道。

BuzzFeed的员工发现AI只囊括了截至2021年6月的信息,于是他们对测试问题进行了调整。据普罗布斯介绍,虽然AI已经可以根据读者的输入内容生成连贯的句子,但目前这些机器人有一项很大的缺陷,没有人类的协作时它会缺乏幽默感。

截至美东时间2月14日收盘,BuzzFeed股价报1.65美元/股,跌3.51%,总市值2.3亿美元。


数据安全观察|ChatGPT潜在数据保护风险分析及建议

数据保护措施,数据安全的保护措施,数据保护dep,数据安全确保数据处于什么状态

走出去智库观察

ChatGPT在开放测试后风靡全球,仅仅两个月用户便达到1亿,成为互联网发展二十年来增长速度最快的消费者应用程序。但ChatGPT也会具有两面性,在其备受追捧的同时,面临着数据安全方面的争议。

走出去智库 (CGGT)观察到,ChatGPT能够很好地完成代码、论文、短评、新闻、翻译等内容的创作,已经引起了各行各业对内容抄袭的担忧,而且ChatGPT还可能导致一些敏感数据的泄露风险。微软和亚马逊已宣布禁止公司员工向ChatGPT分享敏感数据,因为OpenAI可能会将其用于未来模型的训练。

如何应对ChatGPT带来的数据安全问题?今天,走出去智库(CGGT)刊发相关分析文章,供关注数据安全的读者参阅。

要 点

CGGT,CHINA GOING GLOBAL THINKTANK

1、ChatGPT涉及到对个人数据的收集和处理,例如个人在使用ChatGPT过程中被收集的个人数据用于ChatGPT不断的训练和模型优化中,很难保证个人数据的安全合规。

2、ChatGPT获取数据的方法需要进行评估,如果ChatGPT通过抓取互联网上的信息获得训练数据,可能存在合规问题。很多网站不允许数据被第三方收集。

3、在使用ChatGPT时,充分保护个人用户数据和敏感数据,对预计使用的输入数据进行敏感性识别,限制敏感数据的输入,或利用脱敏数据使用ChatGPT。

正 文

CGGT,CHINA GOING GLOBAL THINKTANK

风靡全球ChatGPT实现了科技的革新,同时也带来法律和伦理风险。本文通过分析ChatGPT工作原理、应用场景和合规挑战,重点研究数据保护领域面临的合规风险,提出应对建议。

背景

ChatGPT是美国人工智能研究实验室OpenAI新推出的一种人工智能技术驱动的自然语言处理工具。ChatGPT通过大规模的数据训练,拥有强大的自然语言处理能力,可以生成高质量的文本内容。它能够通过学习和理解人类的语言来进行对话,还能根据聊天的上下文进行互动,真正像人类一样来聊天交流,甚至能完成撰写邮件、视频脚本、文案、翻译、代码等任务。

OpenAI于2022年11月30日开放测试ChatGPT,此后ChatGPT风靡全球。两个月后,ChatGPT用户达到1亿,在1月份的访问量约为5.9亿。瑞银银行分析师在报告中写道,这是互联网领域发展20年来,增长速度最快的消费类应用程序。

科技革新离不开法律法规的约束,相关监督机制的配套,守住伦理底线和法律底线,才能形成正向互动促进,推动人工智能的发展。

工作原理

1. 什么是“深度学习”?

2006年,多伦多大学教授杰弗里・辛顿(Geoffrey Hinton)提出深度信念网络(Deep Belief Networks,DBNs),“深度学习”由此诞生。“深度学习”在无人驾驶汽车、语音识别、图像识别等方面对工业界产生了巨大影响。“深度学习”是具有很多层级的神经网络模型,现代神经网络模型的网络结构层数很深,动则几百万上千万参数量。这些神经网络模型在做特定任务之前,都需要经过“训练”,即根据标注好的特定训练数据去反复调整模型里的参数,最后所有参数调整到位,模型能匹配训练数据集的输入和输出。

2. 什么是“自然语言模型”?

在自然语言处理领域,基本概念是“语言模型”,即计算句子(单词序列)的概率或序列中下一个单词的概率的模型。在一句话中的单词总是顺序出现的,每个单词都可以通过前面所有单词计算出概率,把所有这些单词的概率相乘,总概率数值越大,说明越像是人类语言。那么是否可以用神经网络来打造这样一个语言模型呢?通过海量的人类语言语料,来训练出一个神经网络,然后向这个神经网络模型输入一句话的前面几个词,这个模型就能计算出这句话的下一个单词。从“基于语法的语言模型”到“基于统计的语言模型”,进而到“基于神经网络的语言模型”,ChatGPT所在的阶段正是“基于神经网络的语言模型”阶段。

ChatGPT使用基于GPT-3.5架构的大型神经网络语言模型,通过强化学习进行训练。OpenAI使用监督学习和强化学习的组合来调优ChatGPT,其中的强化学习组件独一无二,即使用了人类反馈强化学习(RLHF)的训练方法,该方法在训练中使用人类反馈,以最小化无益、失真或偏见的输出。

ChatGPT通过连接大量的语料库来训练模型,强大的学习能力来自于大规模的、海量的文本数据训练,通过对其不断地监督学习、人工纠错、强化学习进行对话模拟,最终形成越来越接近于人类语言的语言模型。

应用场景

1. 人工交互

ChatGPT可以帮助人们解决语言交互问题,提高工作效率。例如政企办公、智慧家庭、客服机器人、虚拟人、翻译、营销、游戏、社交、教育、家庭陪护、法律咨询等多个领域被应用。

2. 辅助工作

依托ChatGPT语言编写能力,可应用于编写和调试计算机程序,进行文学相关领域的创作,法律文书编写等。

3. 搜索引擎

结合ChatGPT的搜索引擎很可能会呈现出传统搜索引擎为主+基于神经网络的语言模型为辅的途径,搜索结果将会更加“人性化”。百度正式官宣将在3月份完成其ChatGPT产品文心一言的内测,面向公众开放。微软现已推出由ChatGPT支持的最新版本Bing搜索引擎。

“AI不会让你失业,会用AI的人会让你失业。”ChatGPT横空出世,可能会创造新的工作机会,在一个更高的水平上熟练使用最先进的生产工具是我们必须掌握的技能,例如与人工智能相关的开发、研究、数据分析等。随着人工智能技术的不断发展,它也可以协助解决多项跨越行业的问题,从而创造新的商机。

合规挑战

ChatGPT固然实现了科技的革新,但也有可能带来法律和伦理风险,甚至滋生犯罪。

1. 个人数据

ChatGPT涉及到对个人数据的收集和处理,例如个人在使用ChatGPT过程中被收集的个人数据用于ChatGPT不断的训练和模型优化中,很难保证个人数据的安全合规。

2. 商业数据

ChatGPT涉及到对商业数据的收集和处理,例如公司员工用ChatGPT辅助其工作,在使用ChatGPT时可能会输入业务信息,引起了公司对于商业秘密泄露的担忧。

3. 知识产权

ChatGPT涉及到智力创造和知识产权问题,例如ChatGPT将文本数据复制使用,可能触及作品版权、挖掘行为授权、二次创作许可、AI智力成果保护等,都存在争议。

4. 虚假信息

ChatGPT涉及到模仿冒充和虚假信息问题,例如ChatGPT利用强大人类说话和行为方式模仿、自然语言编写能力,冒充真实的人或者组织骗取他人信息、实施身份盗用等。

5. 数字伦理

ChatGPT和AI可以模拟人类的思想和行为,甚至拥有自己的情感。当AI进化到和人类似的时候,AI这一本体是否拥有人权?如果有,这些权利与责任由谁来规范?是否具有人类社会的基本道德?人工智能是否尊重人的生命价值和尊严、自由和平等?ChatGPT和AI面临巨大的伦理风险。

在学术专业领域,纽约市教育部发言人Jenna Lyle认为,ChatGPT的负面影响超过了积极因素。Lyle表示,“虽然该AI工具可能能够提供快速简便的问题答案,但它并不能培养批判性思维和解决问题的能力,而这些技能对于学术和终身成功至关重要”。一项调查显示,截止2023年1月,美国89%的大学生都是用ChatGPT做作业。甚至国外不少学生已经开始使用ChatGPT代替自己撰写论文。

数据保护风险分析及建议

版权声明:除非特别标注原创,其它均来自互联网,转载时请以链接形式注明文章出处。