用chatgpt怎么赚钱 如何用chatgpt赚钱
淘宝搜:【天降红包222】领超级红包,京东搜:【天降红包222】
淘宝互助,淘宝双11微信互助群关注公众号 【淘姐妹】
本文来源:物联传媒本文作者:梧桐
近日,ChatGPT的全球火爆已让其成为一款现象级产品。作为提供搜索式服务的聊天机器人产品,并只能回复文字内容,这款产品凭借其优秀的算法及内容,为AI重新正名。Gmail之父Paul Buchheit甚至表示,如同当初搜索引擎代替黄页那样,ChatGPT将代替当下的搜索引擎。
如今,谷歌和百度已推出同类产品Bard、文心一言,来作为ChatGPT的竞争对手。只是谷歌和百度似乎已处于“迟到”状态,ChatGPT目前已推出ChatGPT Plus版,一个月20美元,可享受更低的延迟、更好的服务。换句话说,该产品已初步实现商业化。
不过说到赚钱,在这阵ChatGPT的热潮中,最先赚钱的并非AI本身直接产生,其相关产业链的状态才更耐人寻味,首先是账户的买卖让接码平台和不少投机者赚到了钱,第二是大部分人都忽视了ChatGPT背后的硬件产业。接下来,本文就探索一下ChatGPT这本生意经,并讨论在这阵浪潮中还有哪些机会。
当ChatGPT开始火爆时,慕名尝试的人非常多,但大部分用户在第一步就会出现问题,因为ChatGPT不支持很多国家,包括中国,所以在验证手机号的过程中就碰了壁,+86等的号码无法完成注册。
不过很快网上就出现了解决办法,目前大部分没有国外手机号的网友,都是通过虚拟号码完成注册这一步。具体就是通过第三方接码平台,使用虚拟号码接收验证码,短信费不到2元即可完成。
与此同时,也就是在接码平台上,一组数据让笔者明白ChatGPT拥有多大的变现能力。而ChatGPT本身的诱惑力,已经远低于这组数据透露出的信息。
由上图可见,光是SMS-Active一家接码平台,单日的新用户就有81433个,并且该数据是随着ChatGPT越火,涨得越高。以最便宜的0.21美元(折合人民币1.42元)粗略计算,该平台一天靠ChatGPT的注册躺着就能赚十万元。而做虚拟号码的不止这一家,还有访问量更大的同类平台存在。
除了接码平台之外,买卖ChatGPT账号也成了一门生意。
某宝上随处可见买卖ChatGPT账户
由此可见,早在ChatGPT完成基于产品本身的变现之前,其周边产业链已经吃到了第一口红利,并且随着媒体炒作,铺天盖地的新闻在无形中又加强了消费者的“购买力”。
不过话说回来,往前看在账户注册及买卖方面,都还只是体量非常小的生意。往后看,则是一波产业链上的大机会,简单来说,虽然ChatGPT带来的技术革命只存在于软件上,但却无法忽视其大量数据对硬件基础的需求。
从逻辑上来说,AI烧钱的原因一方面是研发经费高;另一方面则是由于算力的提升,导致其对硬件的要求也在提高。据了解,随着AI在B、G两端应用的增多,以及ChatGPT的月活量的暴增,数据中心的业务压力已越来越大。光是从网络流量上来看,数据中心的网络接入带宽标准,已从过去的10G、40G,一路提升到现在100G、200G甚至400G。
此外,ChatGPT背后有着巨额的算力成本。相关数据显示,ChatGPT的总算力消耗约为3640PF-days(即每秒一千万亿次计算,运行 3640 个整日)。而要如何理解这样的算力消耗,可以简单做一个分析――我国近期正大力新建数据中心,以其中总投资30.2亿,算力500P的数据中心项目来说,要想支撑起ChatGPT的运行,至少要7-8个此量级的数据中心。
随着更多的ChatGPT同类产品出现,且在相关服务不断升级和更新的情况下,未来给到数据中心的负担会越来越重,而对于数据中心数量的需求也更大,目前,我国已有近30个在建的数据中心项目。
服务器超载(图源:OpenAI官网)
同时,数据中心在庞大的增量面前也透露出一个问题,便是网络设备的巨额能耗,与“低碳”愿景发生了冲突。
众所周知,数据中心是耗能大户,以国内情况为例,中国电子技术标准化研究院数据显示,2021年全国数据中心能源消耗达到2166亿千瓦时,较2020年增加44%,该用电量相当于2个三峡水电站的年发电量,1.8个北京地区的总用电量。而基于此,国家则是在去年11月1日在全国范围内强制实施了《数据中心能效限定值和能效等级》,决定在2025年实现节能量超过2143亿千瓦时。近日工信部等七部门同样发布了《信息通信行业绿色低碳发展计划(2022-2025年)》,按照最新的国标要求到2025年,新建大型、超大型数据中心电能利用效率(PUE)降到1.3以下。
于是,降低能耗成了数据中心产业的趋势,但以ChatGPT为代表的AI等技术发展却无法中断。只是值得一提的是,此需求刺激了数据中心相关芯片的发展。
目前,对于数据中心而言,能耗主要来自三个方面:决定交换机性能的交换芯片、承载网络通信带宽的光模块、提高传输速率的SerDes,以上三者在12年以来功耗分别增长了20倍以上。
据了解,在数据中心的能耗问题上,早在2020年,亚马逊、微软、谷歌等云计算巨头,思科、IBM、英特尔、英伟达等网络设备龙头及芯片龙头,就已在投入研发一项名为CPO(Co-packaged optics)的技术。CPO是通过将交换芯片和光模块整合,形成芯片和模组的共封装,可降低原来功耗的50%。据LightCounting预测,按照端口数量统计,CPO的出货量将从2023年的5万件增加到2027年的450万件,以800G和1.6T CPO为主。目前我国已有不少企业在进行相关技术研发,包括新易盛、锐捷网络、联特科技、光迅科技等。
综上所述,ChatGPT一方面直接加速了数据中心的建设和发展,另一方面间接刺激了相关技术和芯片的研发。不过说到底,这些相关经济的发展都有赖于ChatGPT自身的价值。
一直以来,AI产品的落地与盈利基本都靠B、G两端苦撑,而C端应用虽然有不少试水,却总是不尽人意,几乎没有让大部分人愿意买单的项目。
如今ChatGPT激起的一阵大浪潮,终于让AI产业看到了曙光,也有人好奇,ChatGPT是否能成为一款杀手级应用,重新定义AI技术的发展方向。不过要说到发展,肯定离不开变现和商用,更得还得考虑其价值如何。从目前的情况来看,据最新数据显示,美国89%的大学生已在使用ChatGPT写作业、论文,其余大部分用户为跟风或娱乐相关,ChatGPT所产生的实际价值还不够高,不足以增强用户粘性。
未来ChatGPT的月活量是否还会迎来暴增尚不可知,但就当前的使用场景来看,是否有益于社会和人类进步还有待观察,目前已有不少科技企业的资深从业者在表示担忧。
只是可以确定的是,AI终于从自动化工具走向了智能化阶段,而且收获了大量的认可。并且,该技术还能带动相关硬件产业的发展,对实体经济已起到推进作用。
github推出ai自动写代码 github开源ai视频
github 人工智能,人工智能github好开源项目,github机器人,github ai写代码?近日,面向开源及私有软件项目的代码托管平台 GitHub 宣布:现在已有 1 亿名开发者在使用该平台。
从 0 到 1 个亿,GitHub 用了十五年时间,成为了全球最大的开源代码托管平台。在这 1 亿的用户之中,有超过一千万名开发者来自中国。
GitHub 在公告中称:「从创建拉取请求到通过 GitHub Copilot 为开发者提供 AI 授权,我们所做的一切都是将开发者放在首位。」
GitHub 发展史
自 2008 年推出以来,GitHub 已经取得了长足的进步,现在已经成为数百万开源和专有软件项目的默认托管服务,让开发者在不同的地方围绕共享代码库进行协作。
相比最初,GitHub 的开发者数量在十几年间实现了大幅提升。2013 年,GitHub 公布的用户数量是 300 万。2018 年,微软以 75 亿美元收购 GitHub,公告中透露的用户数量是 2800 万。
在新冠大流行期间,随着居家办公人数比例的上升,GitHub 平台迎来了新的生机。三个月前,GitHub 在 2022 年度开发者报告中透露的数字变成了 9400 万用户。
从国家和地区分布来看,中国和印度的 GitHub 开发者用户数量和增长速度仅次于美国。在 2021 年度 Octoverse 报告中,GitHub 曾透露有 755 万名用户来自于中国。而在 2022 年度 GitHub 新增的 2050 万用户中,就有近 320 万(15.6%)来自于中国。
与此同时,印度开发者的力量也不容小觑:「2015 年,GitHub 上近三分之一的开发者来自北美。如今,增长最快的地区已经不是美国,而是东南亚、非洲和南美洲。仅在印度,就有超过 1000 万开发人员使用 GitHub 来构建软件。在巴西,超过 300 万的开发者在使用 GitHub。」
在 2019 年的一次主题演讲中,GitHub 前 CEO Nat Friedman 曾表示,该公司的目标是到 2025 年达到 1 亿开发者。
如此看来,GitHub 似乎提前两年达到了计划中的这个里程碑。
转折点:联手微软、OpenAI 打造 Copilot
谈到 GitHub 的发展转折点,Copilot 不可不提。
Copilot 由 Codex 提供支持,这是一个由 OpenAI 开发并授权给微软的 AI 系统。它主要利用 OpenAI 的技术,可以根据用户输入的文本 prompt 提供建议,直接在程序员的代码编辑器中生成和推荐代码行。
对微软来说,GitHub 有助于其建立与软件开发领域的联系,因为它最初对待开源软件的态度算是「不屑一顾」。同时,微软还利用 GitHub 及其相关数据开发了 AI 驱动的程序员辅助工具 Copilot。
不过对于微软来说,短期内更重要的是,GitHub 提供的各种付费计划目前每年能够为其贡献约 10 亿美元的收入。
Copilot 于 2021 年推出预览,2022 年 6 月正式发布。由于 Copilot 以 GitHub 上公开的代码为基础进行训练,其发布后不久就引发了是否违反版权法的争议。
2022 年 11 月,程序员兼律师 Matthew Butterick 与 Joseph Saveri 律师事务所的法律团队合作,提出了一项拟议的集体诉讼,声称该工具依赖于「规模空前的软件盗版」。Butterick 和他的法律团队后来以类似的理由代表两名匿名软件开发者提起了第二起拟议集体诉讼,这也是微软、GitHub 和 OpenAI 希望驳回的诉讼。
文件中指出,微软和 GitHub 表示申诉「因两个内在的缺陷而失败:缺乏伤害和缺乏其他可行的索赔」,而 OpenAI 同样表示原告「指控的是一揽子索赔,未能提出侵犯可认知的法律权利」。这些公司认为,原告依靠「假设的事件」来提出他们的要求,并说他们没有描述他们个人是如何受到该工具的伤害。
微软和 GitHub 在文件中称:「Copilot 没有从公众可用的开源代码中提取任何东西。相反,Copilot 帮助开发者编写代码,根据它从公共代码中收集到的全部知识生成建议。」
此外,微软和 GitHub 继续声称原告是「破坏开源原则」的人,他们要求「禁令和数十亿美元的暴利」,这些与「他们自愿分享的开源软件」有关。据报道,驳回诉讼的法庭听证会将在 5 月份举行。
尽管潜在的法律挑战阻碍了 AI 驱动工具的发展,但微软已经承诺提供数十亿美元来延长与 OpenAI 的长期合作关系。据传,它还在考虑将人工智能技术引入 Word、PowerPoint 和 Outlook,还可能将 ChatGPT 加入必应。
微软、GitHub 和 OpenAI 并不是唯一面临法律问题的公司。本月早些时候,Butterick 和 Joseph Saveri 律师事务所又提起诉讼,指控 MidJourney、Stability AI 和 DeviantArt 创建的人工智能艺术工具从互联网上非法刮取艺术家的作品,违反了版权法。盖蒂图片社也在起诉 Stability AI,声称该公司的 Stable Diffusion 工具「非法」从该网站上刮取图片。?
Github?????? | ???????????????????Reinforcement Learning??
github要挂梯子吗,github copilot,github有什么用,github下载按钮在哪by wwxFromTju
https://github.com/wwxFromTju/awesome-reinforcement-learning-zh
2018-11-10
1.OpenAIspinningup
2. ?й?
3. UCL SJTU ? SJTU Multi-Agent Reinforcement Learning Tutorial
4. update UCB CMUDRL?ε?2018 fall 5. update Sutton ?z final version
- [Reinforcement Learning: An Introduction](#Reinforcement Learning: An Introduction )
- [Algorithms for Reinforcement Learning](#Algorithms for Reinforcement Learning)
- OpenAI-spinningup
- ?γ?
- ?γ?
- [Rich Sutton γ?(Alberta)](#Rich Sutton γAlberta)
- [David Silver γUCL](#David Silver γUCL)
- [Stanford γ?](#Stanford γ?)
- [UCL + STJU Multi-Agent Reinforcement Learning Tutorial](#Multi-Agent Reinforcement Learning Tutorial)
- ?DRL?γ?
- [?й ? ?](#?й ? ?)
- [UCB ?γ?](#UCB ?γ?)
- [CMU ?γ?](#CMU ?γ?)
Richard Sutton and Andrew Barto, Reinforcement Learning: An Introduction update ?obline draft link?google doc?github? link
?е? -- ? ?JD?--Щ
Csaba Szepesvari, Algorithms for Reinforcement Learning link
doc+?code+?UCL?1? * UCLUCBΣ?sutton?? * link link ? link link
?γ link
μ?google?
?David Silver2015UCLΣ?оDeepMindУμ?RL? ?γlink
?slide?μ? Lecture 1: Introduction to Reinforcement Learning link
Lecture 2: Markov Decision Processes link
Lecture 3: Planning by Dynamic Programming link
Lecture 4: Model-Free Prediction link
Lecture 5: Model-Free Control link
Lecture 6: Value Function Approximation link
Lecture 7: Policy Gradient Methods link
Lecture 8: Integrating Learning and Planning link
Lecture 9: Exploration and Exploitation link
Lecture 10: Case Study: RL in Classic Games link
2018 spring? ?γ link
?slide?μ? Introduction to Reinforcement Learning link
How to act given know how the world works. Tabular setting. Markov processes. Policy search. Policy iteration. Value iteration link
Learning to evaluate a policy when don't know how the world works. link
Model-free learning to make good decisions. Q-learning. SARSA. link
Scaling up: value function approximation. Deep Q Learning. link
Deep reinforcement learning continued. link
Imitation Learning. link
Policy search. link
Policy search. link
Midterm review. link
Fast reinforcement learning (Exploration/Exploitation) Part I. link
Fast reinforcement learning (Exploration/Exploitation) Part II. link
Batch Reinforcement Learning. link
Monte Carlo Tree Search. link
Human in the loop RL with a focus on transfer learing. link
?оcs?follow
?γ link
Fundamentals of Reinforcement Learning link Fundamentals of Game Theory link Learning in Repeated Games link Multi-Agent Reinforcement Learning link link
?γ [link](http://speech.ee.ntu.edu.tw/~tlkagk/courses/)
?Blink
?γ link
update2018 fall2018?^
?slide?μ?
Lecture Slides See Syllabus for more information.
Introduction and Course Overview link Supervised Learning and Imitation link TensorFlow and Neural Nets Review Session (notebook) link Reinforcement Learning Introduction link Policy Gradients Introduction link Actor-Critic Introduction link Value Functions and Q-Learning link Advanced Q-Learning Algorithms link Advanced Policy Gradients link Optimal Control and Planning link Model-Based Reinforcement Learning link Advanced Model Learning and Images link Learning Policies by Imitating Other Policies link Probability and Variational Inference Primer link Connection between Inference and Control linkInverse Reinforcement Learning link Explorationlinklink Transfer Learning and Multi-Task Learning link Meta-Learning link Parallelismand RL System Design link Advanced Imitation Learning and Open Problems link
update fall 2018
2018 fall γ link 2017γ link
?slide?μ? Introduction link
Markov decision processes (MDPs), POMDPs link
Solving known MDPs: Dynamic Programming link
Policy iteration, Value iteration, Asynchronous DP link
Monte Carlo Learning, Temporal difference learning, Q learning link
Temporal difference learning (Tom), Planning and learning: Dyna, Monte carlo tree search link
Deep NN Architectures for RL link
Recitation on Monte Carlo Tree Search link
VF approximation, MC, TD with VF approximation, Control with VF approximation link
Deep Q Learning : Double Q learning, replay memorylink Policy Gradients link link
Advanced Policy Gradients link
Evolution Methods, Natural Gradients link
Natural Policy Gradients, TRPO, PPO, ACKTR link
Pathwise Derivatives, DDPG, multigoal RL, HER link
Exploration vs. Exploitation link link
Exploration and RL in Animals link link
Model-based Reinforcement Learning link
Imitation Learning link
Maximum Entropy Inverse RL, Adversarial imitation learning link
Recitation: Trajectory optimization - iterative LQR link
Learning to learn, one shot learning[link](Learning to learn, one shot learning)
?・
https://ai.yanxishe.com/page/blogDetail/10043?from=wx