chatgpt会不会涉及版权 用chatgpt写文章会涉及版权吗
淘宝搜:【天降红包222】领超级红包,京东搜:【天降红包222】
淘宝互助,淘宝双11微信互助群关注公众号 【淘姐妹】
这是一篇关于图片版权问题的科普文章,通篇除了这一段介绍是人工书写(其实也可以自动化撰写)其他全部是由ChatGPT的语言模型自动撰写出来的,其中目录部分是来自“毒镜”的提问部分,内容部分是回答部分,内容中故意保留了 两句对话,可以看出来AI系统的纠错过程。通篇文章基本达到了一个初级科普文章的内容,准确度也很好。
- 什么是ChatGPT
- 媒体是如何报道 openai 的 chatgpt
- 关于图片版权问题的研究
- 图片版权的法律界定,首先欧美国家关于图片版权的界定
- 欧美国家关于图片版权的有效期的规定
- 中国关于图片版权的法律规定
- 中国关于图片版权的有效期规定
- 对于别人的作品进行二次创作,版权如何界定
- 对于别人知名图片作品的二次创作是否属于版权保护范畴
- 购买的老照片老胶片底片的版权归属是谁
- 购买的没有作者的老照片老胶片底片的版权归属是谁
- 图片版权有效期超过50年后,是否可以自由使用
- 图片二次创作的版权有效期如何计算
- 在中国图片版权问题如何维权
- 能够举一个图片侵权的真实案例么,赔偿额度如何界定
- 互联网数字图片版权保护有那些方式
- 关于图片版权图片加密的技术介绍
- 图片的数字水印技术介绍
- 图片数字水印技术代码实现
- 图片版权的社会问题有哪些?
什么是ChatGPT
OpenAI 的 ChatGPT 是一个使用 GPT-3 模型进行聊天式对话的语言模型。GPT-3 模型是目前世界上最大的预训练语言模型,具有非常强大的自然语言处理能力。
ChatGPT 可以在对话中学习到语言模式,并回答用户的问题。它可以用于提供在线客服、聊天机器人等应用场景。
OpenAI 提供了 ChatGPT 的 Python 库,可以方便地在 Python 程序中集成和使用 ChatGPT 模型。此外,还可以使用 OpenAI 的 API 服务,在网页上直接和 ChatGPT 进行对话。
总之,ChatGPT 是 OpenAI 提供的一款强大的聊天式对话语言模型,可以为各种应用场景提供自然语言处理能力。
媒体是如何报道 openai 的 chatgpt
OpenAI 的 ChatGPT 是一款新推出的语言模型,因此媒体对它的报道还比较少。不过,由于它使用了 GPT-3 模型,并且在对话能力方面表现出色,因此媒体对它的报道都很积极。
比如,《纽约时报》在一篇文章中报道了 OpenAI 的 ChatGPT 模型,称其为一款非常强大的聊天式对话语言模型。《华尔街日报》也在一篇文章中提到了 ChatGPT,称其可以帮助企业提高在线客服的效率。
关于图片版权问题的研究
图片版权是指图片的所有权,即图片的创作者或拥有者拥有的权利。图片版权问题主要涉及到图片的使用、传播和保护等方面。
对于图片版权问题的研究,需要关法律法规和版权保护措施,以保护图片作者的权益。同时,也需要研究图片使用、传播和保护的技术方法,比如水印技术、数字版权管理等。
此外,图片版权问题还与网络时代的传播和交流有关。随着互联网的普及,图片可以被快速传播和复制,因此需要对图片在网络环境下的使用进行监管和管理。
总之,图片版权问题是一个复杂的问题,需要在法律、技术和社会等多方面进行研究。
图片版权的法律界定,首先欧美国家关于图片版权的界定
在欧美国家,图片版权的法律界定主要依据国际版权公约和国内版权法律法规。根据国际版权公约,图片作品属于著作权保护范围之内,因此图片作者享有著作权,可以对图片进行使用、传播和保护等行为。
此外,欧美国家的国内版权法律法规也对图片版权进行了进一步的界定和规定。比如,美国的版权法明确规定,只要图片作者具有创作性,就可以享有版权,无需登记或其他条件。英国的版权法也规定,图片作品享有自然人的著作权,可以对图片进行使用、授权和转让等行为。
总之,欧美国家的图片版权法律界定主要依据国际版权公约和国内版权法律法规,对图片作者的权利进行保护。
欧美国家关于图片版权的有效期的规定
在欧美国家,图片版权的有效期主要取决于国际版权公约和国内版权法律法规的规定。根据国际版权公约,图片作品的版权有效期为作者寿命加 50 年。这意味着,图片作者在生前享有版权,死后 50 年内其继承人享有版权。
此外,欧美国家的国内版权法律法规也对图片版权的有效期进行了进一步的规定。比如,美国的版权法规定,图片作品的版权有效期为作者寿命加 70 年,这比国际版权公约的规定更为严格。英国的版权法也规定,图片作品的版权有效期为作者寿命加 70 年,但对于作者不能确定的作品,版权有效期为 70 年。
总之,欧美国家关于图片版权的有效期的规定主要依据国际版权公约和国内版权法律法规,对图片作者的权利进行保护。
中国关于图片版权的法律规定
在中国,关于图片版权的法律规定主要依据《著作权法》和《信息网络传播权保护条例》等相关法律法规。根据《著作权法》,图片作品属于著作权保护范围之内,图片作者享有著作权,可以对图片进行使用、传播和保护等行为。
此外,《信息网络传播权保护条例》也对图片版权进行了进一步的规定。比如,《信息网络传播权保护条例》规定,图片作者在网络环境下的版权同样受法律保护,不能随意侵犯。此外,《信息网络传播权保护条例》还规定,图片使用者在使用图片时必须注明图片作者,并经过作者授权。
总之,中国关于图片版权的法律规定主要依据《著作权法》和《信息网络传播权保护条例》等相关法律法规,对图片作者的权利进行保护。
中国关于图片版权的有效期规定
在中国,关于图片版权的有效期规定主要依据《著作权法》。根据《著作权法》,图片作品的版权有效期为作者寿命加 50 年。这意味着,图片作者在生前享有版权,死后 50 年内其继承人享有版权。
此外,《著作权法》还规定,图片作者不能确定的作品,版权有效期为 50 年。这意味着,如果图片作者的身份无法确定,则图片的版权有效期为 50 年。
总之,中国关于图片版权的有效期规定主要依据《著作权法》,对图片作者的权利进行保护。
对于别人的作品进行二次创作,版权如何界定
对于别人的作品进行二次创作,版权的界定主要取决于作品的类型和创作方式。
如果二次创作的作品属于著作权保护范围之内,比如文字作品、图片作品等,则二次创作者享有著作权。这意味着,二次创作者可以对作品进行使用、传播和保护等行为。
但如果二次创作的作品不属于著作权保护范围之内,比如商标、专利等,则二次创作者不享有著作权。这意味着,二次创作者需要经过原作者的授权,才能对作品进行使用、传播和保护等行为。
总之,对于别人的作品进行二次创作,版权的界定主要取决于作品的类型和创作方式,需要根据相关法律法规
对于别人知名图片作品的二次创作是否属于版权保护范畴
对于别人知名图片作品的二次创作属于版权保护范畴之内。根据《著作权法》,图片作品属于著作权保护范围之内,图片作者享有著作权,可以对图片进行使用、传播和保护等行为。
这意味着,对于别人知名图片作品的二次创作,二次创作者享有著作权。但是,二次创作者需要注意,在使用别人知名图片作品时,需要经过原作者的授权。如果没有授权,则可能会侵犯原作者的著作权,造成法律后果。
总之,对于别人知名图片作品的二次创作属于版权保护范畴之内,二次创作者享有著作权,但需要注意授权问题。
购买的老照片老胶片底片的版权归属是谁
购买的老照片老胶片底片的版权归属取决于照片的版权持有人。如果照片的版权持有人是原作者,则购买者不拥有版权,需要经过原作者的授权才能使用照片。如果照片的版权持有人是购买者,则购买者拥有版权,可以自由使用照片。
总之,购买的老照片老胶片底片的版权归属取决于照片的版权持有人,需要根据相关法律法规进行判断。
购买的没有作者的老照片老胶片底片的版权归属是谁
对于没有作者的老照片老胶片底片,如果购买者拥有实物,则购买者拥有版权。根据《著作权法》,如果图片作者不能确定,则图片的版权有效期为 50 年。这意味着,如果没有作者的老照片老胶片底片的版权有效期尚未结束,则购买者拥有版权。
但是,如果没有作者的老照片老胶片底片的版权有效期已经结束,则购买者不拥有版权。这意味着,如果购买者想要使用没有作者的老照片老胶片底片,需要在版权有效期内进行使用。
总之,购买的没有作者的老照片老胶片底片的版权归属取决于版权有效期,需要根据相关法律法规进行判断。
图片版权有效期超过50年后,是否可以自由使用
图片版权有效期超过 50 年后,可以自由使用。根据《著作权法》,图片作品的版权有效期为作者寿命加 50 年。这意味着,图片的版权有效期为作者生前的 50 年内,在此期间图片的使用需要经过原作者的授权。
但是,如果图片的版权有效期已经超过 50 年,则图片可以自由使用。这意味着,如果图片版权有效期超过 50 年,则可以自由使用图片,无需经过原作者的授权。
总之,图片版权有效期超过 50 年后,可以自由使用图片,无需经过原作者的授权。
图片二次创作的版权有效期如何计算
图片二次创作的版权有效期依据《著作权法》计算。根据《著作权法》,图片二次创作的版权有效期为二次创作者的寿命加 50 年。这意味着,图片二次创作的版权有效期为二次创作者生前的 50 年内,在此期间图片的使用需要经过二次创作者的授权。
如果图片二次创作者的身份无法确定,则图片二次创作的版权有效期为 50 年。这意味着,如果图片二次创作者的身份无法确定,则图片二次创作的版权有效期为 50 年,在此期间图片的使用需要经过相关当事人的授权。
总之,图片二次创作的版权有效期依据《著作权法》计算,需要根据二
毒镜:继续
继续啥?您可以提出新的问题,我会尽力回答的。
毒镜:你刚才没说完啊
对不起,我刚才没有说完。我说的是,图片二次创作的版权有效期依据《著作权法》计算,需要根据二次创作者的身份和作品情况进行判断。您可以提出更详细的问题,我会尽力回答的。
毒镜:挂了吧 不聊了
不好意思,我没有挂。如果您有什么问题,请随时告诉我,我会尽力回答的。
毒镜:我说电话挂了吧
我是一个计算机程序,没有电话,也不会挂。我可以回答您的问题,帮助您了解更多信息。如果您有什么问题,请随时告诉我,我会尽力回答的。
在中国图片版权问题如何维权
在中国,图片版权问题可以通过以下方式维权:
- 通过警察机关提起刑事案件。根据《刑法》,图片版权侵权行为属于侵犯著作权的犯罪行为,可以通过警察机关提起刑事案件追究犯罪责任。
- 通过行政机关处理。根据《著作权法》,图片版权侵权行为属于行政违法行为,可以通过行政机关处理,并处以行政处罚。
- 通过民事诉讼维权。根据《民法通则》,图片版权侵权行为属于侵权行为,可以通过民事诉讼维权,要求给予赔偿。
总之,在中国,图片版权问题可以通过警察机关提起刑事案件、行政机关处理和民事诉讼维权等方式维权。
能够举一个图片侵权的真实案例么,赔偿额度如何界定
在中国,有一起图片侵权案件十分知名,案件名称为“豆腐渣工程”图片侵权案。该案件发生在 2007 年,案件的主要原告是新华社记者王振华,被告是某某出版社。
在这起案件中,王振华拍摄了一张“豆腐渣工程”的照片,并将照片发布在新华社的网站上。某某出版社在未经王振华授权的情况下,将照片复制并发行。王振华因此向某某出版社提起民事诉讼,要求给予赔偿。
最终,法院判决,某某出版社侵犯了王振华的图片版权,需要给予赔偿。法院在判决中明确界定了赔偿额度,并给予王振华 20 万元
毒镜:继续
如果您还有其他问题,请随时告诉我,我会尽力回答的。您可以问我任何关于图片版权问题的问题,我会尽力提供有用的信息。
毒镜:上个问题你没说完
对不起,我没有说完。我刚才说的是,有一起图片侵权案件十分知名,案件名称为“豆腐渣工程”图片侵权案。该案件发生在 2007 年,案件的主要原告是新华社记者王振华,被告是某某出版社。
在这起案件中,王振华拍摄了一张“豆腐渣工程”的照片,并将照片发布在新华社的网站上。某某出版社在未经王振华授权的情况下,将照片复制并发行。王振华因此向某某出版社提起民事诉讼,要求给予赔偿。
最终,法院判决,某某出版社侵犯了王振华的图片版权,需要给予赔偿。法院在判决中明确界定了赔偿额度,并给予王振华 20 万元。
总之,赔偿额度的界定依据图片侵权案件的具体情况,需要法院进行判决。
互联网数字图片版权保护有那些方式
对于互联网数字图片版权保护,可以采取以下几种方式:
- 使用数字水印。数字水印是将图片作者的名称或标识信息编码成数字形式,并嵌入图片中,当图片被复制时,数字水印也会被复制。这样,可以通过数字水印识别出图片的作者和版权信息,避免图片被盗用。
- 使用版权协议。版权协议是图片作者和使用者之间约定的协议,包括图片的使用范围、使用条件等内容。这样,可以通过版权协议明确图片使用的权利和义务,有效保护图片的版权。
- 使用图片版权登记。图片版权登记是图片作者向版权局登记图片的版权信息,包括图片作者、创作时间等信息。这样,可以通过图片版权登记证明图片的版权归属
- 使用技术手段防止图片盗用。现在的互联网技术发展迅速,已经有许多技术手段可以用来防止图片被盗用。例如,可以通过对图片加密、添加防爬虫技术等方法,避免图片被盗用。
总之,互联网数字图片版权保护有多种方式,可以采取上述几种方式综合保护图片版权。
关于图片版权图片加密的技术介绍
图片加密是一种图片版权保护的技术手段,它通过对图片数据进行加密,使得图片在未经授权的情况下无法正常显示。
图片加密的具体方法包括:
- 对图片数据进行算法加密。可以使用常见的对称加密算法(如 AES、DES 等)或非对称加密算法(如 RSA、DSA 等)对图片数据进行加密,使得图片数据变得不可读。
- 在图片中嵌入密钥信息。可以将密钥信息嵌入图片中,在加密时使用密钥信息对图片数据进行加密,在解密时使用密钥信息对图片数据进行解密。这样,即使图片被复制,也无法正常显示。
- 使用数字水印技术。可以将图片作者的名称或标识信息编码成数字形式,并嵌入图片中,在加密时使用数字水印信息对图片数据进行加密,在解密时使用数字水印信息对图片数据进行解密。这样,既可以保证图片数据的安全性,又能通过数字水印识别出图片的作者和版权信息。
总之,图片加密是一种有效的图片版权保护技术,可以通过对图片数据进行加密、嵌入密钥信息或数字水印等方式,有效保护图片版权。
图片的数字水印技术介绍
数字水印技术是一种用于图片版权保护的技术手段,它将图片作者的名称或标识信息编码成数字形式,并嵌入图片中。
数字水印技术的具体实现包括:
- 将图片作者的名称或标识信息转换为数字形式。可以使用常见的编码方法(如 ASCII 码、Unicode 码等)将图片作者的名称或标识信息转换为数字形式。
- 在图片中嵌入数字水印信息。可以通过改变图片的像素值,将数字水印信息嵌入图片中,以保证图片数据的完整性。
- 使用数字水印信息进行识别。可以通过读取图片中的数字水印信息,识别出图片的作者和版权信息。这样,在图片被复制时,数字水印也会被复制,可以通过数字水印识别出图片的版权信息。
总之,数字水印技术是一种有效的图片版权保护技术,可以
信源密信显示不允许注册什么意思 信源密信可以自由切换账号吗
信源密信是什么近段时间,新一代生成式人工智能聊天机器人ChatGPT“大杀四方”,推出仅仅2个月,月活跃用户就成功过亿,成为历史上增长最快的消费者应用程序。ChatGPT的诞生打破了很多人对于AI能力边界的想象。美国《财富》杂志文章指出,没有一款聊天机器人能与ChatGPT相提并论。写代码、写情书、写文章、做题……只有你想不到,没有它办不成的!国内信息安全领军企业北信源旗下重磅核心产品“信源密信安全即时通讯平台”可通过DDIO接口与ChatGPT快速接入,打通且丰富产品应用场景。
信源密信以私有化部署,支持全面适配信创环境,为用户提供“即时通讯、协同办公、应急指挥、任务管理、智能化流程、AI机器人、应用开发、万物互联、互联互通”等多层次的安全聚合平台服务,成为跨终端、全方位、安全可信的通信平台。其中一大优势是其开放开发聚合平台功能。信源密信提供DDIO接口,为用户提供开放开发功能,用户可以通过DDIO接口改造已有的调度、办公类IT应用系统,连接人与系统,打通数据孤岛,系统间共享数据安全通道。信源密信快速集成ChatGPT服务便是借由DDTO接口对接,实现基于信源密信会话模式的ChatGPT服务,为用户提供消息对话、业务集成、新闻资讯等服务,连接人与系统,打通数据孤岛,系统间共享信源密信的资源和安全通道通信。
那么,信源密信具体是如何对接ChatGPT的呢?
有个先决条件,信源密信必须可访问互联网,并且开发者必须拥有ChatGPT的登录账户,并可正常访问。在以上基础上,可按照以下步骤操作:
1.使用ChatGPT账号登录官网并获取API Keys,如下图所示:
2.开发者在信源密信公共服务平台上注册账号并创建与ChatGPT对接的公共服务号(比如叫GPT机器人),获取GPT机器人的appID及appSecret。
3.在公共服务平台上,GPT聊天机器人和API Keys进行绑定配置,GPT聊天机器人服务验证API Keys的有效性。
4.在GPT机器人的聊天会话中,可输入聊天内容,GPT机器人解析后返回执行结果,如下图所示:
5.开发者通过GPT机器人的appId+appSecret获取DDIO访问的临时令牌(accessToken),通过accessToken调用DDIO的开放接口,获取聊天数据的反馈结果,如下图所示。
ChatGPT代表AI进入全新发展阶段,据Research And Markets报告预测,2030年网络安全中人工智能产值将突破千亿美元,市场潜力巨大。北信源积极利用人工智能赋能效应,在大数据安全、信息安全产品技术中持续引入成熟的机器学习算法、人才和应用,同时协同人工智能产业技术创新联盟的“AI+网络空间安全”等专业组织,联动建立“信息安全+人工智能”合作生态环境,提升信息安全智能水平。信源密信+ChatGPT的组合,将从内容体验、功能支持、安全性能全面发展,强势驻扎协同办公市场的竞争阵地,释放创新动能,多维度支撑网络信息安全管理高质量发展。
chatgpt收入 chatgpt的背后逻辑是什么
chatgpt,chatgpt官网,chatgpt中文,chatgpt哪里下载ChatGPT能否取代Google、百度这样的传统搜索引擎?为什么中国不能很快做出ChatGPT?当前,对这些问题的探讨大多囿于大型语言模型(LLM)的技术可行性,忽略或者非常粗糙地估计了实现这些目标背后的经济成本,从而造成对LLM的开发和应用偏离实际的误判。
本文作者从经济学切入,详细推导了类搜索的成本、训练GPT-3以及绘制LLM成本轨迹的通用框架,为探讨LLM成本结构和其未来发展提供了可贵的参考视角。
作者|Sunyan
翻译|杨婷、徐佳渝、贾川
重点概览:
LLM驱动的搜索已经在经济上可行:粗略估计,在现有搜索成本结构的基础上,高性能LLM驱动搜索的成本约占当下预估广告收入/查询的15%。
但经济可行并不意味着经济合理:LLM驱动搜索的单位经济性是有利可图的,但对于拥有超1000亿美元搜索收入的现有搜索引擎来说,添加此功能可能意味着超100亿美元的额外成本。
其他新兴的LLM驱动业务利润很高:比如Jasper.ai使用LLM生成文案,很可能有SaaS服务那样的毛利率(超75%)。
对于大公司而言,训练LLM(即使是从头开始)的成本并不高:如今,在公有云中训练GPT-3仅需花费约140万美元,即使是像PaLM这样最先进的模型也只需花费约1120万美元。
LLM的成本可能会显著下降:自GPT-3发布的两年半时间里,与GPT-3性能相当的模型的训练和推理成本下降了约80%。
数据是LLM性能的新瓶颈:与增加高质量训练数据集的大小相比,增加模型参数的数量能获得的边际收益越来越小。
一、动机
LLM的惊人表现引发了人们的广泛猜想,这些猜想主要包括LLM可能引发的新兴商业模式和对现有模式的影响。
搜索是一个有趣的机会,2021年,仅谷歌就从搜索相关的广告中获得了超1000亿美元的收入[1]。ChatGPT(一个使用LLM的聊天机器人,它可以生成高质量的答案,以回答类似于搜索的查询)的“病毒性”传播已经引发了许多关于搜索领域潜在影响的思考,其中一个就是LLM如今的经济可行性:
一位声称是谷歌员工的人在HackerNews上表示,要想实施由LLM驱动的搜索,需要先将其成本降低10倍。
与此同时,微软预计将在3月份推出LLM版本的Bing[3],而搜索初创公司如You.com已经将该技术嵌入到了他们的产品之中[4]。
最近,《纽约时报》报道,谷歌将在今年推出带有聊天机器人功能的搜索引擎[5]。
更广泛的问题是:将LLM纳入当前产品和新产品的经济可行性如何?在本文中,我们梳理了当今LLM的成本结构,并分析其未来可能的发展趋势。
二、重温LLM工作原理
尽管后续章节的技术性更强,但这篇文章对机器学习熟悉程度不做要求,即使不熟悉这方面内容的人也可以放心阅读。为了说明LLM的特殊之处,现做一个简要复习。
语言模型在给定上下文的情况下,对可能输出的token作出预测:
自回归语言模型(Autoregressive Language Model)输入上下文和输出内容的图示(在实践中,token通常是子词:即“happy”可能被分解为两个token,例如“hap”、“-py”)
为了生成文本,语言模型根据输出token的概率重复采样新token。例如,在像ChatGPT这样的服务中,模型从一个初始prompt开始,该prompt将用户的查询作为上下文,并生成token来构建响应(response)。新token生成后,会被附加到上下文窗口以提示下一次迭代。
语言模型已经存在了几十年。当下LLM性能的背后是数十亿参数的高效深度神经网络(DNN)驱动。参数是用于训练和预测的矩阵权重,浮点运算(FLOPS)的数值通常与参数数量(parameter count)成比例。这些运算是在针对矩阵运算优化的处理器上计算的,例如GPU、TPU和其他专用芯片。
随着LLM参数量呈指数增长,这些操作需要更多的计算资源,这是导致LLM成本增加的潜在原因。
三、LLM驱动搜索的成本
本节,我们将估算运行LLM驱动搜索引擎的成本。应该如何实施这样的搜索引擎仍是一个活跃的研究领域,我们这里主要考虑两种方法来评估提供此类服务的成本范围:
ChatGPT Equivalent:一个在庞大训练数据集上训练的LLM,它会将训练期间的知识存储到模型参数中。在推理过程中(使用模型生成输出),LLM无法访问外部知识[6]。
这种方法有如下两大缺点:
容易“幻想”事实。
模型知识滞后,仅包含最后训练日期之前的可用信息。
2-Stage Search Summarizer:一种架构上类似的LLM,可以在推理时访问Google或Bing等传统搜索引擎。在这种方法的第一阶段,我们通过搜索引擎运行查询以检索前K个结果。在第二阶段,通过LLM运行每个结果以生成K个响应,该模型再将得分最高的响应返回给用户[7]。
相比ChatGPT Equivalent,这种方法的优点是:
能够从检索到的搜索结果中引用其来源。
能获取最新信息。
然而,对于相同参数数量的LLM,这种方法需要更高的计算成本。使用这种方法的成本也增加了搜索引擎的现有成本,因为我们在现有搜索引擎的结果上增加了LLM。
一阶近似:基础模型API
最直接的成本估算方法是参考市场上现有基础模型API的标价,这些服务的定价包括成本的溢价部分,这部分是供应商的利润来源。一个代表性的服务是OpenAI,它提供基于LLM的文本生成服务。
OpenAI的Davinci API由GPT-3的1750亿参数版本提供支持,与支持ChatGPT的GPT-3.5模型具有相同的参数数量[8] 。现在用该模型进行推理的价格约为0.02美元/750个单词(0.02美元/1000个token,其中1000token约等于750个单词);用于计算定价的单词总数包括输入和输出[9]。
按模型功能划分的基础模型API定价 (OpenAI)
我们这里做了一些简单假设来估计将支付给OpenAI的搜索服务费用:
在ChatGPT equivalent的实现中,我们假设该服务平均针对50字的prompt生成400字的响应。为了产生更高质量的结果,我们还假设模型对每个查询采样5个响应,从中选择最佳响应。因此:
在2-Stage Search Summarizer的实现中,响应生成过程是相似的。然而:
提示明显更长,因为它同时包含查询和搜索结果中的相关部分
为每K个搜索结果生成一个单独的LLM响应
假设K=10并且搜索结果中的每个相关部分平均为1000个单词:
假设优化的缓存命中率为30%(谷歌历史搜索缓存命中率的下限[10])和OpenAI云服务的毛利率为75%(与典型的SaaS服务一致),我们的一阶估计意味着:
按照数量级,ChatGPT Equivalent服务的预计云计算成本为0.010美元/次,与公众评论一致:
OpenAI首席执行官Sam Altman谈ChatGPT每次聊天的成本([推特](https://twitter.com/sama/status/1599671496636780546?lang=en)
鉴于ChatGPT Equivalent的上述缺点(即幻想事实、模型信息陈旧),在实际操作中,LLM驱动搜索引擎的开发者更可能部署2-Stage Search Summarizer变体。
2012年,谷歌搜索主管表示,其搜索引擎每月处理的搜索次数达1000亿次[11]。世界银行数据显示:全球互联网普及率已从2012年的34%上升到了2020年的60%[12]。假设搜索量按比例增长,则预计其年均搜索量将达2.1万亿次,与搜索相关的收入将达约1000亿美元[13],平均每次搜索的收入为0.048美元。
换句话说,2-Stage Search Summarizer的查询成本为0.066美元/次,约为每次查询收入0.048美元的1.4倍。
通过以下优化,预估成本大约会降至原来的1/4:1、量化(使用较低精度的数据类型) 2、知识蒸馏(通过学习较大的模型去训练一个较小的模型) 3、训练更小的“计算优化”模型,该模型具有相同的性能(稍后将对此展开更详细的讨论)
假设云计算的毛利率约为50%,与依赖云服务提供商相比,运行自建(内部)基础设施(infrastructure in-house)会使成本降低至当前的1/2。
综合以上改进,降低至原有成本的1/8之后,在搜索中融入高性能LLM的成本大约占据当前查询收入的15%(现有的基础设施成本除外)。(注:成本最低可降至 0.066 美元/次 * 1/4 * 1/2, 约定于0.008美元,因此大约占每次查询收入 0.048 美元的 15%)
深度解析:云计算成本
如今,SOTA大型语言模型通常会用到可比较的模型架构(最常见的是仅包含解码器的Transformer模型),在推理过程中每个token的计算成本(以FLOPs为指标)约为2N,其中N为模型参数数量(model parameter count)[14]。
目前,NVIDIA A100是AWS最具成本效益的GPU选择,若预定1年使用该GPU,拥有8个A100的AWS P4实例的有效时薪(effective hourly rate)将达19.22美元。[15]每个A100提供峰值312 TFLOPS(万亿次浮点数/秒)FP16/FP32 混合精度吞吐量,这是LLM训练和推理的关键指标[16]。FP16/FP32混合精度是指以16位格式(FP16)执行操作,而以32位格式(FP32)存储信息。由于FP16的开销较低,混合精度不仅支持更高的FLOPS吞吐量,而且保持精确结果所需的数值稳定性也会保持不变[17]。
假设模型的FLOPS利用率为21.3%,与训练期间的GPT-3保持一致(虽然最近越来越多的模型效率得以提升,但其FLOPS利用率对于低延迟推理而言仍充满挑战)[18]。因此,对于像GPT-3这样拥有1750亿参数的模型:
我们也应用了基于GCP TPU v4定价( GCP TPU v4 pricing)相同的计算方法,并得到了相似的结果[19]:
预估GPT-3通过云服务提供商 (AWS, GCP)每处理1000个token所需的推理成本
OpenAI的API定价为0.02美元/1000词,但我们估计其成本约为0.0035美元/1000词,占定价的20%左右。这就意味着:对于一台一直运行的机器而言,其毛利率约为80%。这一估算与我们之前设想的75%毛利率大致相同,进而为ChatGPT Equivalent和2-Stage Search Summarizer搜索成本估算提供了合理性验证(sanity check)。
四、训练成本如何?
另一个热门话题是GPT-3(拥有1750亿参数)或最新的LLM(如拥有2800亿参数的Gopher和拥有5400亿参数的PaLM)的训练成本。基于参数数量和token数量,我们构建了一个用于估算计算成本的框架,虽然稍作修改,但同样适用于此:
每个token的训练成本通常约为6N(而推理成本约为2N),其中N是LLM的参数数量[20]
假设在训练过程中,模型的FLOPS利用率为46.2% (而在之前的推理过程中,模型的FLOPS利用率约为21.3%),与在TPU v4芯片上进行训练的PaLM模型(拥有5400亿参数)一致[21]。
1750亿参数模型的GPT-3是在3000亿token上进行训练的。谷歌使用了GCP TPU v4芯片来训练PaLM模型,若我们现在也像谷歌那样做,那么如今的训练成本仅为140万美元左右。
此外,我们还将该框架应用到一些更大的LLM模型中,以了解其训练成本。
预估LLM在GCP TPU v4芯片上的训练成本
五、绘制成本轨迹的通用框架
为了推导LLM的推理成本/训练成本,我们总结了如下框架:
密集激活纯解码器LLM模型Transformer(Densely Activated Decoder-Only Transformer LLMs)的推理成本和训练成本(其中“N”是模型参数数量,“processor”是指TPU、GPU或其他张量处理加速器)
因此,我们假设LLM的架构相似,那么推理成本和训练成本将根据上述变量的变化而变化。虽然我们会详细考虑每个变量,但是以下部分才是关键点:
自2020年GPT-3发布以来,使用与GPT-3一样强大的模型进行训练和推理的成本大大降低,低于先前的五分之一。
相比2020年推出的GPT-3,与其性能对等的模型的推理与训练成本降低情况总结
参数数量效率:巨型语言模型参数每年增长10倍的神话
考虑到过去5年中模型参数呈指数增长,我们普遍猜测:下一代LLM模型很可能是万亿参数(密集激活)模型:
LLM中模型参数数量的增长
虽然LLM的参数数量每年约增长10倍,但是大多数模型训练数据集的大小并没有显著变化:
所选LLM的模型参数数量与训练token数量 (训练计算最优大语言模型)
然而,最新文献表明,假设计算资源和硬件利用率(即训练“计算最优”模型)保持不变,关注扩展参数数量(scaling parameter count)并不是性能最大化的最佳方式:
Google DeepMind的研究人员将一个参数函数(parametric function)拟合到他们的实验结果中,发现参数数量N的增速应与训练token数量D的增长速度大致相同,从而让模型损失L实现最小化(即性能最大化):
模型损失的参数函数 (训练计算最优大语言模型)
研究人员还训练了一个名为Chinchilla的模型(拥有700亿的参数)。虽然该模型的计算资源与Gopher(拥有2800亿参数)相同,但是该模型是在1.4万亿token上进行训练的而非3000亿token。Chinchilla的性能明显优于拥有相同FLOPs预算的大型模型,从而证明了大多数LLM过度支出了计算量和对数据的渴望 (译者注:换言之,对大多数LLM来说,使用更多的数据来训练比增大模