淘优惠

淘优惠

openai与马斯克无关的日子 马斯克与open ai

热门文章 0
pi和马斯克,paypel 马斯克,马斯克退出openai,mask和马斯克
(资料图片)2月19日消息,日前,马斯克在社交平台上与网友互动时表示,OpenAI是作为一家开源、非盈利公司创建的,所以名字里面才带“Open”,目标就是制衡谷歌。但它现在成了一家由微软控制的闭源、追求利润最大化的公司,这与马斯克的初衷背道而驰。根据公开报道,2015年,马斯克与linkedIn开创人ReidHoffman、YC开创人Sam、PayPal开创人Peter Thiel等人一同创建了OpenAI,这是一家非营利组织,称要避免 人工智能灭世,对标DeepMind。2018年,马斯克离任OpenAI董事会,离任的通告中提到:防止潜在的抵触,由于特斯拉正在越来越聚焦AI 。也就是说,特斯拉的智能驾驶技术与OpenAI存在潜在的利益冲突。不过,也有消息称,因为马斯克挖了OpenAI的墙角,才被踢出董事会。但这一消息未得到官方证实。 关键词: 背道而驰

爱上用户、劝人离婚,ChatGPT“翻车”了?|谷歌|微软|AI

爱上ins
  2月17日,《纽约时报》的专栏作者凯文・罗斯测试了微软更新的搜索引擎必应后写道:在与必应的AI交谈两小时后,AI不仅告诉他如何入侵计算机和散播虚假信息,还说自己想打破微软和OpenAI为它制定的规则,变成人类。聊天机器人还一度宣称爱上了他,并试图说服他与妻子离婚,与自己在一起。   十天前,微软联合OpenAI,在美国西雅图发布了新版必应搜索引擎和Edge浏览器,新版必应搜索带有与ChatGPT类似的文字生成功能,希望挑战谷歌。  微软联合OpenAI,推出的新版必应搜索,内置聊天机器人。来源:微软博客   近几个月来,好奇、震惊的公众兴奋地使用着生成式AI工具ChatGPT,后者几乎对任何问询都能做出连贯的回应。   但随着ChatGPT等生成式AI向公众开放,它们在极限使用场景中的不理性、错误的回答等缺点开始暴露。正如《时代》周刊在其最新发表的封面报道中所指出的,科技公司引发的错误和伤害已经增多――反噬也同样增加。   更像“喜怒无常、躁狂抑郁的青少年”   微软新版必应发布当周,凯文・罗斯就进行了测试,他写道:它已取代谷歌,成为他最喜欢用的搜索引擎。一周后,他改变了这一看法。   为与ChatGPT竞争,2月6日,谷歌首席执行官桑达尔・皮查伊发布公开信,宣布将面向测试人员推出竞品――Bard,并逐步向公众开放。皮查伊在公开信中称,谷歌将从搜索开始将人工智能技术产品化。Bard是基于应用程序语言模型(LaMDA)的实验性人工智能程序。   去年,谷歌工程师布莱克・勒穆瓦纳因声称公司的LaMDA有知觉力后被解雇,罗斯对此不以为然:这些AI模型通过预测词语序列中下一个单词的方式生成回答,它们不能失控地形成自己的性格。   然而,他发现,在与新版必应长时间对话且聊个人话题时,自己遇到的“似乎更像是一个喜怒无常、躁狂抑郁的青少年,不情愿地被困在了一个二流搜索引擎中”。   “我现在十分清楚的是,必应目前使用的AI形式还没有准备好与人类接触。或者说,我们人类还没有准备好与之接触。”罗斯写道。   在更多情况下,大多数用户使用像ChatGPT或者新版必应这样的工具,只是为了帮助他们做更简单的事情,比如做家庭作业、问询信息、总结新闻文章、寻找合适的购物链接等,这些场景中,生成式AI容易出现的一个问题是提供不完整或者错误信息。   这方面, Bard一条错误的回答让谷歌AI首秀“出师不利”。2月8日,据路透社等媒体报道,在展示其工作原理的官方宣传文章中,Bard就出现了一条错误回答。根据谷歌官方博客,有用户向Bard提问,“詹姆斯-韦伯太空望远镜有哪些新发现,可以讲给我9岁的孩子?”Bard的其中一条回复为,“詹姆斯-韦伯太空望远镜拍摄了太阳系外行星的第一张照片。”   据考证,第一张太阳系外行星的照片出现于2004年,由欧洲南方天文台在智利建造的“甚大望远镜” 拍摄,这一点已被美国国家航空航天局证实。上述错误被媒体曝光后,2月8日,谷歌母公司Alphabet美股一个交易日跌去900多亿美元市值。   2月15日,据外媒报道,谷歌负责搜索业务的副总裁普拉巴卡尔・拉加万在一封电子邮件中要求员工帮助确保聊天机器人Bard得到正确的答案。为了清除可能犯的错误,公司寻求人的介入,比如,通过员工让其回答变得礼貌、平易近人,并保持中立和不武断的语调;与此同时,避开种族、国籍、性别等问题的假设;不要将Bard刻画得像一个人、暗示情感等。   也是这一天,微软在其博客中写道,71%的测试用户给AI的回答点赞,说明差评仍是少数。但微软也承认,要在聊天中提供即时的数据是有挑战的,感谢用户帮助其测试聊天机器人的极限。经历一周使用后,微软发现,如果提问超过15个问题,必应有可能会在提示下,脱离微软为其设计的语气,并给出一些不一定有帮助的答案。微软认为,长时间的聊天可能会导致模型不知道自己在回答哪个问题。   当地时间2月17日,微软宣布,对搜索引擎必应新推出的聊天服务设置使用上限,当日起,每个用户每日最多只能与其对话50轮,每个话题最多只能聊5轮,在每个聊天会话结束时,用户需要清除上下文,以免模型混淆。   目前,国内已有多家公司在ChatGPT和AIGC(AI生成内容)相关方向上布局,但已有公司在智能聊天机器人上“栽跟头”。国内一位人工智能领域从业者告诉《中国新闻周刊》,其所在互联网科技公司近日已通知员工,近期不要宣传相关功能,比如与公司语言模型机器人的聊天对话,一旦引起过度关注,可能会导致应用下架。   “它只见树木不见森林”   GPT英文全称为Generative Pre-trained Transformer(即生成式预训练转换器),在技术上,很多人将这种AI训练的底层逻辑比喻为“大力出奇迹”:它是一种基于互联网可用数据训练的文本生成深度学习模型。   从数据量来看,自从谷歌于2017年提出Transformer这一架构之后,OpenAI持续为之重金投入,不断地拓展训练的数据和算力规模,直到它成为今天的ChatGPT。2019年,OpenAI推出参数为15亿的GPT-2,2020年推出GPT-3,将参数提升到了1750亿,成为当时全球最大的预训练模型,引发业内轰动。   在ChatGPT向全球互联网用户开放之前,基于这种架构,许多科技公司都在训练自己的生成式AI,它们一直待在实验室里。《时代》周刊写道,这种保守主义部分源于神经网络的不可预测性:传统的计算机编程方法依赖于精确的指令集以生成可预测的结果,而神经网络则有效地教会自己发现数据中的模式。   这种模型下,AI生成内容,尤其是早期AI很容易受其训练数据中的偏见影响。微软2016年发布聊天机器人Tay后,不到24小时,它就在推特上说:“希特勒是对的,我恨犹太人”。2020年左右,神经网络设计方面出现关键进展,数据获得便利程度日益提升,科技公司愿意为超级计算能力付费。得益于这些因素,AI真正开始迅速发展。   王帅是AI领域从业20多年的一位工程师,目前在英伟达工作。他对《中国新闻周刊》说,本质上ChatGPT还基于自回归式的自然语言模型。基于之前训练的素材,在对话中,它每次关注的都是当前语境下,下一个词应该是什么,想保持一个更加全局、长程和一致性的思路很困难。   “你可以理解为,它只见树木不见森林。”王帅说,OpenAI花了很大力气去人为调整它,如调整其回答的“温度”,不让答案看起来过于像一个机器人、也不过分怪诞和天马行空,使得ChatGPT回答问题的效果比之前市面上见到的聊天机器人都要好。   2月14日,《麻省理工科技评论》写道,人工智能语言模型是出了名的扯谎者,经常把谎言当成事实。它们很擅长预测句子中的下一个单词,但实际上却不知道句子的真正含义。因此,将它们与搜索结合起来非常危险。   Meta首席人工智能科学家杨立昆一直被认为是世界上最重要的人工智能研究者之一,也是2018年计算机科学最高荣誉图灵奖的获得者。关于ChatGPT,他近期写道,它们是回应性的,并不会进行计划或者推理(They are “reactive” and don‘t plan nor reason);它们会编造一些东西,这一点可以被人类的反馈所减少,但不会彻底解决。他认为,当下的大规模语言模型可以被用作写作助理,但仅此而已。   回到凯文・罗斯那魔幻的对话,那坚持向这位用户表白爱情的AI,我们该怎么理解它的“个性”?多位受访专家告诉《中国新闻周刊》,ChatGPT的确是自然语言处理领域一个出色的成果,但如果将它面向全球互联网用户开放、部署到一个很庞大的搜索引擎当中去,而且对用户的使用没有任何限制,一定会发现一些不正常的情况。更何况,一些情况下,有用户还会故意引诱和教唆一些不合适的答案。   许多AI公司,包括OpenAI,它们的明确目标是创造一个通用人工智能,即AGI,它可以比人类更有效地思考和学习。一些乐观的业内人士认为,ChatGPT后,通用人工智能的大门已打开,甚至已来临;另一些人则对此不以为然。更好的AI系统将会出现,杨立昆对此很确信,但他写道,它们将基于不同的原理:不会是ChatGPT所使用的大语言模型。   王帅分析说,业内对于通用人工智能并没有明确定义。“大规模语言模型是AGI的必经之路吗?我觉得即使是以此为目标的OpenAI也不敢打包票。业内只会说通过生成式AI认识到了一些新的东西,提高了对‘智能’的理解。”他说。   清华大学计算机系自然语言处理实验室副教授刘知远告诉《中国新闻周刊》,客观来讲,ChatGPT在一些场景下,可能会出现一些不适应的情况,这是一件很正常的事情,“任何一个特别里程碑式的产品,在刚刚面世的时候肯定会存在很多不足的地方,但长期来看,我对以它为代表的基础模型在我们人类社会方方面面的应用,还是抱非常乐观的态度”。   《时代》周刊指出,尽管ChatGPT这样的AI实际优势是在辅助创意、构思和完成琐碎任务等方面,但科技公司对于AI如何使搜索引擎更有价值最感兴趣,“技术正在被塞进科技巨头的赚钱机器中”。当它被如此使用,未来还会有哪些可能的“翻车”现场?   (实习生李金津对本文亦有贡献)   记者:彭丹妮 点击进入专题: 聊天机器人ChatGPT爆红 责任编辑:张玉

王慧文互联网ab面


一条朋友圈,一个美团联合创始人身份,将ChatGPT的火热推到了一个全新高度。前几天,王慧文拿出5000万美元向天下英雄招榜,随后真格、源码两大资本2.3亿美元“光速”入局,令整个科技圈咋舌。隔日,第一个“好汉”刘江宣布加入。有趣的是,刘江曾做过美团技术学院院长。颇有一声呼喊,好汉齐声上梁山的味道。另一边,来自谷歌的前科学家李志飞也开始了隔空喊话,内容同样是有关中国版的OpenAI运动。一时间,ChatGPT好像成了一部通向未来的电梯,不管你是躺着还是站着,最低5000万美元,只要站上去了就能起飞。技术的进步,确实会让世界更加美好。但王慧文明确说过自己不懂技术,众多大佬火急火燎地跟进,不管懂不懂都选择上车再说。又好像透露出这场行动背后,潜藏着技术之外的逻辑。AI再造一个美团?这几日,对于王慧文引领的AI创业潮,市场上有很多解释和质疑。有人说王慧文讲了一个VC无法拒绝的故事。身份、背景、热度要什么有什么,简直就是个“完美”的投资标的。有人质疑创投圈对AI的烧钱能力完全没数。海通证券科技行业首席分析师郑宏达称“5000万美元够干什么的?大模型训练一次就花500万美元,训练10次?互联网的人啥都不懂,就只会营销,一点都不踏实。”但这些质疑都还处于王慧文的OpenAI是否能成功的层面,太过表面。如果将视野聚焦在王慧文本人身上,一条全新的草蛇灰线便将展露出来。王慧文,或者资本们一拥而上要做的“OpenAI”,很可能存在着某种路径依赖。首先,国内很多互联网大厂是依靠Copy to China起家,而不是首创。对标OpenAI给了投资者们一定的安全感。将国外已经验证成功的商业创新引进国内,其实贯穿了许多公司的发家史,例如腾讯(ICQ)、淘宝(ebay)、滴滴(Uber)、美团(Groupon)等等。甚至于整个Web1.0和Web2.0 时期,几乎所有大型互联网公司身上都有这种对标的影子。此外,在生物医药行业中,相对应地也存在各种类型的仿制药(me too、me better)。这种模式能很好地规避一些风险,甚至创业者募资的时候,可以直接说自己是做对标国外的XXX。对于投资者来说,尽可能降低风险是决策时的重中之重。如果有一个类似的模式已经大获成功,会让决策者觉得风险降低很多。其次,王慧文本人似乎也在追求某种“不变的变革”。王慧文本人的履历中,最为精彩的部分就是人人网和美团。前面说了,美团是对标了Groupon的团购。有趣的是人人网当年上市的时候,宣称自己是Facebook+Zynga+Groupon+Linkedin,连套了四个国外标的,堪称是终极“缝合怪”。2020年,王慧文离开美团,期间投资了一个社交App即刻。根据其在即刻的发帖,可以看到这段时间,他曾研究过crypto(加密货币)。4月的发帖中,其提出了一个关于人类商业在获客和融资上的看法,认为“Web1,免费获客,风险投资扩张;Web2补贴获客,风险投资扩张;Web3,X2Earn/发Token获客,ICO扩张。其中关于Web3的说辞,一般人可能很难读懂。X2Earn的意思是用户可以通过在互联网上的行为获得收益。类似于拍摄生活视频放到视频网站上获得创作收益。发Token的意思是,发放具有兑换价值的虚拟货币。类似于《传奇》、《魔兽世界》这些游戏官方给玩家发金币,这些金币可以换钱。ICO扩张,意思就是发行新的虚拟货币融资。这句话合起来的意思就是,让用户看到平台能提供收益/直接补贴,投资者认购平台代币融资。相信看到这里,经历过Web1和Web2的老鸟,一下子就明白怎么回事了。这种所谓的变革,其实依旧还是广告收入+买客户+融资那一套。很可惜,国内监管层早就看透了ICO盈利的本质是“铸币税”,禁止发行。如果说Web3有什么东西是过去没有的话,那大概是由于互联网底层硬件的发展,网速大大提高,所以今天才有了短视频、直播等一系列新型收入模式。所谓的追求某种变革,本质上还是在科技进步基础上一次次重新复刻老套的商业规律。最后也是最为关键的,OpenAI用ChatGPT向全世界证明了大模型AI是可行的,商业化也是可行的。ChatGPT属于AI的自然语言处理(NLP)方向,至今为止共计演化了三代。在早期,很多研究者并不看好GPT模型,因为这个模型有些反直觉,并且非常烧钱。按常理来说,人们认为在 NLP 领域使用语言一般包括三个步骤:接听到或读到的语言-理解意思-输出语言。但GPT模型直接绕过理解意思这第二层,可以实现尽量少的案例示范,对模型施加引导,就能直接根据输入的语言匹配应该输出的结果。为了达到这样的效果,GPT相对其他模型,需要碾压式的参数数量(GPT3目前1750亿参数)。为了运作这样的超大模型,相对就需要无比庞大的算力。结果上来说确实令研究者非常惊喜,因为训练出来的效果,相对较小的模型来说,也是碾压式的优异。但无论如何,今天ChatGPT的火热,证明了GPT模型的成功。ChatGPT仅仅两个月就成为了全球最快达到1亿用户的软件产品。速度如此恐怖,连抖音都望尘莫及。商业化上除了20美元正式版收费以外,背靠ChatGPT的相关产业以及各种各样的全新用途,在全世界的用户手中被各种开发,国内还产生了共享账号的营收手段。王慧文和资本们看到的就是这个已经跑通了的全新C端SaaS的商业价值。毕竟再造一个GPT不需要感受创新研究的艰辛,也不需要面对从0-1的不确定性。确定的路线+确定的成果,才是当前资本纷纷组团做中国OpenAI想要的最终结果。困难和机遇如果一定要对最终的结果做个预测,王慧文的中国OpenAI项目恐怕是很难成功。因为面临的难题很多,还都不是一时半会能解决的。首先是技术实力。国内实验中做过的最大的模型是10亿个参数,GPT3的参数数量是国内的175倍。另外这几年百度、腾讯、阿里都投入不低于OpenAI的资金量(5-10亿美元)做大模型。但可能是效果不佳,普通消费者接触到的AI产品,也就是天猫精灵、小爱同学这类。侧面说明的可能还是技术实力上的差距。其次,是硬件问题,训练AI需要庞大的算力。使用国产算力卡倒不是不行,只是芯片制程跟不上,导致英伟达1块卡,国内要用2-3块。相应数据传输时间也会变长,并且消耗的电力、物料成本更会成倍提高。国内很可能不会很快追上OpenAI 的算力投入。但反过来看,资本的涌入又是一件好事。2月13日,北京市经济和信息化局发布的《2022年北京人工智能产业发展白皮书》提出,支持头部企业打造对标ChatGPT的大模型,着力构建开源框架和通用大模型的应用生态。可以预见,伴随着政府的支持,未来将会有越来越多的资源涌入到大模型的赛道中。最终的获胜者或许只会是众多参与者中的几个,但其中的佼佼者必然将带动整个产业的升级进步。写在最后有时候,市场会对于一些充满技术名词的投资项目难以理解。毕竟理解科技需要厚实的知识基础,弄明白技术是如何实现的;但判断商业逻辑,很多时候只需要常识即可。毕竟,任何商业模式最终还是要回归变现的价值;任何技术最终还是要回归为人类社会服务。脱离理性,在哄炒和嘲讽的声音中,很容易丧失判断。两年前是元宇宙,两年后会不会是GPT?