淘优惠

淘优惠

芒格就 ChatGPT 鸟屎人工智能重要但有很多疯狂炒作,投资比亚迪是最佳交易,你对此有何看法?

热门文章 0

淘宝搜:【天降红包222】领超级红包,京东搜:【天降红包222】
淘宝互助,淘宝双11微信互助群关注公众号 【淘姐妹】


当地时间周三,“股神”巴菲特老搭档芒格(Charlie Munger)出席了Daily Journal的年度股东大会。这位伯克希尔副董事长表示,自己依然是银行股的粉丝,重申对加密货币的厌恶,并对比亚迪表达了赞赏。 被问及如何看待最近火热的ChatGPT以及它可能会对Daily Journal的报纸业务产生什么影响时,芒格回应道,“ 人工智能非常重要,但在这个问题上有很多疯狂的炒作和无稽之谈,我认为这是喜忧参半的。 ” 芒格表示,他对中国经济仍持乐观态度。有提问称,为什么你(和巴菲特)更愿意持有比亚迪的股份,而不是特斯拉?他回答道,“特斯拉在中国两次降价,而比亚迪在涨价,但比亚迪在中国还是领先特斯拉太多了,这看上去有点可笑。” 芒格坦诚,自己从未在伯克希尔哈撒韦公司做过比买入比亚迪更好的选择,这笔初始投资现在价值约80亿美元,甚至90亿美元,是一个相当不错的回报率。 不过他随后表示,比亚迪已经并不便宜。自去年8月披露首次减持以来,伯克希尔一直在减持比亚迪港股,累计套现超过150亿港元,持股比例从首次披露减持前的20.49%降至11.87%。 谈及银行股话题时,芒格称:“我可能(和巴菲特)有不同的想法。”Daily Journal目前持有美国银行、美国合众银行和富国银行的股份。 芒格表示,他不想出售现有的银行头寸,因为这些很多都是2008-2009年金融危机期间处于底部区间买入的。因此,如果该公司兑现这些收益,将面临加州的巨额税收账单。他说:“这(持有)对我们来说并不是那么糟糕,我们愿意再拿一段时间。” 周二公布的13F报告显示,伯克希尔继续抛售银行股,上季度累计减持美国合众银行91.4%的股份,降至670万股,减持纽约梅隆银行持股近60%,至2510万股。2020年以来伯克希尔一直是银行板块的卖家,已经清仓了摩根大通、高盛和富国银行,持续权重已经连续五个季度回落。 芒格一直是数字资产的坚决反对者,他在股东大会上重申了这一观点,“我认为反对我立场的人是愚蠢的。”他补充说,人们应该避免推广,因为加密货币“毫无价值”、“疯狂”和“荒谬”。芒格最近还为美国媒体撰写评论文章,建议美国禁止加密货币。 芒格谈ChatGPT:人工智能重要但有很多疯狂炒作,投资比亚迪是最佳交易 芒格的言论表明,他认为人工智能很重要,但也存在很多炒作和误解。他还表示,投资比亚迪是一个相当不错的回报率,并赞赏该公司在中国市场的领先地位。不过,他也指出,比亚迪现在已经不再便宜,而伯克希尔一直在减持该公司的股份。总的来说,他的言论表达了对人工智能和中国经济的看法,以及他对比亚迪股份的投资策略。

aigc能为垂直产业做些什么 全面解读ChatGPT产业链机会

垂直工业领域,垂直型产业链,垂直型产业,产业垂直化发展
当前位置: 首页 >  科技  > 正文 2023-02-16 15:04:04 来源:腾讯网 机器之心发布(资料图)机器之心编辑部本文从 AIGC 技术?->产品?->业务应用和价值实现环节探讨其发展路径,并以产业实例探讨 AIGC 如何才能在产业领域实现闭环和价值落地。去年以来出现了 AIGC 热潮,引发了 AIGC 及其应用话题的爆发性增长,不少人感慨强人工智能的时代已经离我们不那么遥远了。但是在热潮的另一面,我们看到真正能落地的场景依然是凤毛麟角,目前比较成功的应用主要集中在个人消费领域,而 AIGC 在产业中的应用大多仍然处于探索阶段。红杉资本在 22 年 9 月就对 AIGC 做出了以下预判:文字类 AI 生成将在 2023 年进入黄金时期,图片类 AI 生成黄金时期将在 2025 年左右抵达,3D 和视频类 AI 生成在 2023 年可能正处于草稿阶段,进入黄金时期或许在 2030 年。不可否认,文字与图片的 AI 生成确实走在了前面,而 3D 模型、视频和游戏生成仍在研发阶段。红杉资本针对 AIGC 相关产品成熟预测若考虑到 AIGC 产业应用,如在制造业、建筑业等巨型垂直实体领域中,AIGC 的 C/Content 内容将不能仅停留在图片和文字的领域,而是需要进入信息更为丰富的三维领域。接下来,我们将从 AIGC 技术 ->产品 ->业务应用和价值实现环节探讨其发展路径,并以产业实例探讨 AIGC 如何才能在产业领域实现闭环和价值落地。1.AIGC 技术:从文字到图片从大家对 ChatGPT 越来越多的测试中可以看到,ChatGPT 不仅能对语义进行解析和结构化,还能在此基础上用 NLP 自然语言处理做数据分析。ChatGPT 对内容进行结构化处理和数据分析 - 佳格数据提供事实上,以 Stable Diffusion 为首的一众 AI 画图框架或者平台,在去年更早的时候已经引起了轰动。虽然图片相对文字来说看上去信息含量要更为复杂,但是其技术成熟却要比以 GPT 为首的文字生成来的更早一些,我们有必要从主流的开源框架 Stable Diffusion 为例,回顾一下这些图片 AIGC 框架是如何工作的。Stable Diffusion 生成的图片, 已经有了比拟人类画家的能力Stable Diffusion 主要有三个组成部分,每一个部分都有自己的神经网络。1、CLIP 用于文字编码器:以文字作为输出的语义信息组成一个 77*768 的矩阵,CLIP 训练 AI 同时进行自然语言理解和计算机视觉分析。CLIP 可以决定图像和文字提示的对应程度,比如逐步把建筑的图像和 “建筑” 这个词完全匹配起来,而其能力训练是通过全球 40 多亿张带文字描述的图片实现的。CLIP 的训练集2、UNET 及调度程序:这就是大名鼎鼎的扩散模型主程序(来自 CompVis 和 Runway 团队于 2021 年 12 月提出的 “潜在扩散模型”(LDM / Latent Diffusion Model)),用于对噪声进行预测实现反向去噪的过程,进而实现图片在信息空间中的生成。如图片所示,染料扩散的过程就像从图片逐渐变成噪点的过程,而当研究人员对图片增加随机噪点让 AI 反向学习整体过程,而后就拥有了一套从信息空间噪点图反向生成图片的模型。Diffusion 模型反向去噪过程用通俗的例子解释,如果在清水里随机滴入一些染料,随着时间推移会得到如下图一样绚丽的形状。那么有没有一种方法,能够根据某一个特定时间特定的状态,反向推出初始的染料用量、顺序、滴入水缸的初始状态等信息呢?显然,如果不借用 AI 的方式几乎无法实现。不同的染料滴入水中扩散出不同的形状3、信息空间到真实图片空间的解码器:即把信息空间中的矩阵信息转换为肉眼可见的 RGB 图片。想象一下我们与人交流的过程,听到的声音信号转换为大脑能理解的文字信号存储在脑中,这个过程称之为编码。如果尝试把文字信号通过某种语言表达出来,这个过程可以称为解码 ―― 这里的表达方式可以是任意的语言,每种语言对应不同的解码器,解码只是一种表达方式,本质还是基于人类脑海中对于某件事情的描述与理解。StableDiffusion 从输入到输出全流程解读正是有了这几个关键技术步骤的串联,Stable Diffusion 成功创建了一个无所不能的 AI 作图机器人,不仅能理解语义,将其转化为信息空间的信息流,还能够在信息空间中通过模拟降噪创作,通过解码器还原成肉眼可见的图片,这一充满科幻色彩的过程放在 AI 不存在的世界来看,堪称神迹。2.AIGC 技术:从图片到 3D 模型图片生成已经取得了突破性的效果,但如果这些成果能够进一步优化应用到更多领域,将有可能实现更大价值。我们也看到一些细分领域中的探索成果,比如经由对场景的理解,通过不同的数据集加入和调参,可以实现对图片生成更好的控制,而不仅是通过文字的不断试错来获得更优结果。2.1 设计意向图生成2019 年初,用 GANs 生成的「这个 XX 不存在」系列在海外获得大量关注,在国内我们也看到企业推出了在细分领域的成果。而该团队也于 22 年 8 月实验性的在手机端推出了「AI 创意库」,只需要输入一句话,对话机器人就能在一分钟内快速理解语义,生成多张效果细腻贴近建筑概念方案的意向图。在此之上,更是可以通过输入一张已有的图片,修改部分描述的关键字,「AI 创意库」即可生成一系列的衍生图片,辅助设计师在日常创作中寻找灵感。小库科技「这个建筑不存在」,GANs 模型生成建筑意象图及迭代过程左图:小库「AI 创意库」生成,触发语句 Louis Kahn 风格,依山傍水的小型博物馆;右图:小库「AI 创意库」生成,基于左图 Louis Kahn 风格图片,完成风格切换至 Le Corbusier为了使得「AI 创意库」的效果更优,团队做了一些新的探索:由于已有的算法和模型更多聚集在通用互联网素材上,建筑相关的图片、形容及风格的数据储备在专业程度显然是不够的。这里采取了一种针对建筑相关词汇的特殊标识,组成一个微调的先验数据集并将该数据集融合训练,实现模型增强。通过建筑专业领域增强的新模型,形成了面向建筑行业专属的 AI 创意库,针对建筑类描述短句,测试集优品率相比原有模型提升了 13.6% 之多。Google Dreambooth Fine-Tuning 算法示意举个例子,当输入一张博物馆图片及一个词汇 "Zaha Hadid(过世的全球著名女建筑师)" 的时候,模型能够理解需要将博物馆的建筑风格或特征往 Zaha Hadid 的作品靠拢,而不是在博物馆中增加一个 Zaha Hadid 的人物或画像,抑或是在 AI 世界里创作一个 Zaha Hadid 的卡通画像 ―― 这往往是通用模型会返回的结果之一。经过微调后的建筑模型,小库「AI 创意库」能充分理解 “Zaha Hadid” 这个特殊词汇隐含意思2.2 3D 模型生成二维的图片虽然精彩,但在产业应用中暂时还只是停留在 “意向图库” 的作用,未来如果要成为可以精准表达设计的成果,需要向 3D 和更高信息维度去迈进。在 2020 年 AIGC 没有现在这么成熟的时候,上述团队就在探索如何用 AI 生成 3D 模型,并在同济大学 DigitalFUTURES 工作坊教学中,公开了其在研发的中从图形生成图像进一步生成模型的算法,能看到当时的模型效果并不太理想,有价值的是实现了图形 - 图像 - 模型的联动。2020 同济大学 DigitalFUTURES 工作坊小库教学团队成果,手绘图形生成图像进而生成模型第二年在同济大学 DigitalFUTURES 工作坊教学中,该团队发布了一种通过 GANs 学习卫星图与真实三维模型之间关系,将卫星图生成为真实三维模型的算法。该算法通过对卫星图上不同的图层元素进行特征学习,能大致复原出卫星图所对应的主要物体三维拉伸形体,预测不同物体投影所对应的原物体高度。当然,这种方法还存在一定的缺陷,只能在卫星图场景中使用,难以积累其他场景中同类图片与三维形体之间的关系;其次是还原的三维形体只能粗略预测高度,其他细节需要通过算法重新生成,与真实的三维模型存在较大误差,只能用于项目早期研判使用,应用场景有限。城市三维模型分层特征提取训练示意图2021 同济大学 DigitalFUTURES 工作坊小库教学团队成果,基于 GANS 的卫星图重建三维模型得益于 AIGC 算法的爆发、3D 生成算法的日益成熟,我们也看到垂直类 AI 企业开始吸收更多先进的技术与思路改善其模型,并在 3D-AIGC 的路线上有了一些新的尝试方向。例如 OPENAI 推出了 Point-E 框架,该框架可以将任意二维图片通过算法预测为点云,进而通过点云去预测三维物件。PointE 框架全过程示意图但是模型生成的质量依然有一定的局限,而模型的不可用主要体现在以下三个方面:1. 三维形体还原难:首先二维图像数据比三维模型数据出现早,同时可获取的二维图像数据目前也比后者多,因此前者可作为训练素材的量级更多,较少的三维模型训练素材的泛化能力有限,难以还原最初的三维形体;2. 材质整体缺失:对于三维模型来说最重要的一环是材质的填充与选择,然而对于AI生成来说,从图片直接推敲其材质的方法尚未成熟,同样材质在不同的形状、环境、光源下的表现都有所不同,而当这些变量都集中在一张图片中时,材质重建几乎不可能实现;3. 生成的模型精度不达标:通过点云推敲的模型,通常是依赖于点云的密度重建物体表面 Mesh,如果点云过少物体会严重失真,甚至无法重建模型。小库团队测试 Point- E 模型,左边建筑图片生成点云进而模拟出右边三维模型,遗憾得到的只是一堆无意义的点云模型,Point-E 暂时还无法理解一个建筑物的图片当然我们能理解当前的技术瓶颈,如果把目标定的稍微低一点,选择从三维建模软件中生成的简单形体、做二维的截图在 point-e 模型中重建,会意外地发现其效果比以上测试更佳,但也仍局限在 “初步草稿” 的范畴。这与训练集有很大的关联性,通过三维建模软件生成各个视角的二维视图是该模型最易获取训练数据的方法之一。小库团队测试 Point-E 模型,针对建模软件中选取一个简单三维模型做任意角度截图,重建三维模型,往往有还不错的效果综上来看,从文字 ->图片 ->点云 ->三维物体的技术路线固然令人惊叹,但如果要应用在产业领域,还有很多工作需要 AI 科学家们去做。然而,是否只有这一条技术路线去实现三维模型的生成?3 垂直领域 AIGC 应用新思路在泛领域的大模型研发上以 OpenAI 为首的厂商,包括 Nvidia 和 Google 等巨头也在纷纷推出属于自己自己的通用型 3D-AIGC 框架,遗憾的是目前还处在一个早期阶段。对于垂直实体产业来说,落地应用显然还有很长的路要走。从全球范围来看,在 3D 模型的生成领域除了泛领域大模型外,部分垂直产业也在探索 AIGC 如何应用落地。比如西门子在引擎的设计和制造中针对生成的模型进行方针模拟和进一步优化,最终通过3D打印实体,实现了3D模型生成现成果交付和业务闭环。西门子通过生成式算法实现引擎的设计和模拟这样的成果的实现,有赖于在产业逻辑下的底层业务内容及其数据标准的不断迭代。按照 ISO/ IEC 给出对内容的数字标准定义 SMART(Standards Machine Applicable, Readable and Transferable 机器可开、可读和可交互标准):L1 级为纸质文本,没有机器交互可能;L2 级为开放数字格式,机器交互性很低;L3 级为机器可读文档,但机器无法理解检索的结果与内容;L4 级为机器可读内容,可做语义交互但机器无法理解上下文的逻辑关系;L5 级,机器可交互内容,可实现自动识别、自动生成等智能属性。在产业领域中,目前广泛应用 L3 级信息化内容,正在发展 L4 级数字化内容,而 L5 级智能化是工业 4.0 和智能制造的核心基础。因此,生成 L4 级以上机器可读内容,特别是生成 L5 级智能化内容,是未来 AIGC 的方向。ISO/IEC SMART 数字标准《中国工程科学》2021 年第 23 卷第 6 期《标准数字化发展现状及趋势研究》刘曦泽、王益谊、杜晓燕、李佳、车迪海外已经在 AIGC 的产业应用领域中开始了实践,而国内的探索仍然比较稀缺,但我们也发现了一些在垂直领域深耕的企业。比如上述提到的,在建筑产业深耕的小库科技团队。我们将以其实践的建筑产业为例,探讨 AIGC 在垂直产业中的落地路径。当前国内实体经济处于转型的窗口期,国家层面提出 “人工智能与实体经济融合 “的重要任务,各大产业迫切希望 AI 技术能够真正落地,协助产业实现数字化与智能化的升级跃迁,而不是一个停留在概念的 DEMO 产品,或者茶余饭后讨论的好玩趣物。建筑产业是接近 30 万亿每年的国家支柱型产业,但是其数字化水平在全国各行业中排名倒数第一。当前国家提出智能建造方针,希望迈上 “中国建造” 的新台阶。智能建造是以新型建筑工业化(工业化 / 装配式、数字化、智能化)为基础,基于新一代信息技术与先进建造技术深度融合,贯穿于设计、生产、施工、运维、监管等建设活动各个环节,具有自感知、自决策、自执行、自适应、自学习等特征,旨在优化建筑产业全生命周期质量、效益和核心竞争力的先进建造方式。2011-2021 年中国建筑业总产值及增长情况 - 国家统计局 - 前瞻产业研究院,资科来源:Gartner;Kable;经合组织;中央统计局;彭博社;麦肯锡全球研究院分析而在建筑产业,底层数据标准正从机器可读文档 L3 级的 CAD 时代,向机器可读内容的 L4 级 BIM 时代迈进。建筑产业中对 3D 模型的要求是内容对象具备三维空间中的全维度精确信息,包括模型、数据等维度,如果还能包含规则维度,进而便可使其具备自感知、自学习、自迭代等智能化的能力。目前,L3 级的 CAD 和 L4 级的 BIM 应用软件已经被海外垄断,我们发展的空间和潜力必然集中在了可以高维覆盖低维的 L5 级上。数字标准 SMART 在建筑领域的内容格式示意基于对建筑产业数字化变革的洞察,小库团队意识到必须对整个产业的数据底层进行再定义。从 2016 年成立起便致力于 L5 级 3D 模型 AIGC 的底层技术研发及其在建筑产业中的应用。基于一套含有业务流逻辑的 AI 系统生成包含建筑信息与多维数据、3D 模型、以及规则 / 规范 / 规律的 “数 - 模 - 规” 可联动的内容,实现建筑设计方案的智能生成。这样的底层数据,团队将其称为 AI driven Building Information Model on Cloud?人工智能生成的云端建筑信息模型(简称 ABC),并将智能生成的达成归结为四个实践步骤:AI 识别现有内容用于训练或结构化数据重建,对数据进行评估和模拟仿真,通过对初步数据成果进行优化,最终生成由系列的 AI 模型组建的业务成果。L5 级建筑智能格式 ABC 智能云模示意AI 识别领域,团队通过对千万级的不同业务类型 CAD 图纸数据的清洗和训练,获得了对 L3 级无语义 CAD 图纸的 100% 云端还原与 99.8%* 的准确语义解析和补充,在该领域达到世界先进水平。这项成果已经深度应用到企业的多个产品与解决方案中,比如针对施工图审查的「智能审图」中条文审查准确率约为 96%。小库施工图构件与空间识别AI 分析领域,基于对项目的有效识别,针对住宅、商场等常用民用建筑类型,使得团队能够进行物理环境仿真分析、人类行为数据模拟与预测、项目相关大数据的分析和模拟。在应用层面上,可以协助客户进行项目方案量化分析,比如通过对房企全线住宅产品的评估可以得到不同价值评估系数,协助房企提升产品质量。因此,小库科技也被选为中房协户型设计大赛首个 AI 评委。这项能力也被应用于香港和国内十余个商场建筑的开发与运营中。小库「产品力价值评估」AI 优化领域,团队认为 “优化” 是基于前序 “识别” 和 “分析 “后的进一步寻优迭代,即基于已有内容的重新生成更优的成果。这类技术已在公司具体的产品和解决方案中得到应用。比如在设计云 2022 版 “智能日照优化” 功能中,小库可以将未通过日照的方案进行自动微调,使其能够在原有格局不进行巨大调整的前提下通过日照验证。这项能力也用在了建筑方案的设计深化中,比如幕墙设计优化场景。在与四川省商业设计院合作的四川某博物馆幕墙项目中,小库算法将原有 3 万多种不规则三角形幕墙板优化为 12 种标准模块,比现有世界水平能降低到的 116 种还减少了 90%,建筑幕墙成本将因为 SKU 和开模数量的降低而得到大幅度降低。小库「幕墙优化 AI 算法」AI 生成领域,是智能设计最为核心的部分。对建筑业而言,选择经济适用美观的设计方案、交付安全高效高质量的建造成果,需要多专业、多角色统筹协同完成。不仅需要从宏观尺度、到中观尺度再到微观尺度逐个攻破,还需要在建筑、结构、机电、水暖、景观等多专业逐步覆盖,更需要涵盖住宅、公寓、产业、办公、商业等各种业态类型。因此垂直领域的专业成果生成绝不是某一个模型算法一套数据可以解决的,它需要多模型、多模态、多数据集等多项技术与业务逻辑有机融合,通过契合细分场景的产品设计和基于用户反馈的持续迭代,才能最终实现。小库团队从业务逻辑出发,对传统建筑设计需要的 24 个业务流程步骤进行梳理,将其核心内容抽取重构为 6 个业务模块,以 AI 系统与云端架构为核心,建立起一套全新的建筑设计 AIGC 业务流程:调(信息调用与AI识别)、做(全AI生成与人机协作生成)、改(人工可改与AI优化)、核(数据核查与AI审查)、协(云端多人协同与业务管理)、出(自动输出更多格式- 3D模型/2D图纸/图像/PPT/Excel等)。左图:建筑设计原有业务流程 24 个步骤,右图:小库重构为 6 个 AI 加持下的业务流程板块基于对业务的深刻理解和重构的业务逻辑,在产品设计上将 6 大业务模块与 AI 识别、AI 生成、大数据、云端协同等技术深度融合,实现了建筑规划、单体设计、构件生成等不同深度的建筑业务需求,从分析到设计到审查再到协同与输出,逐步覆盖了住宅类业务所需的广度和深度需求。「小库设计云 - 建筑规划」产品 6 大模块「小库设计云 - 建筑单体」产品 6 大模块4. AIGC 在产业中的价值落地在大部分产业中,AIGC 的应用仍然处于初级阶段,整体 AI 技术的不断发展将推动后续 AIGC 的创新应用。以当前的建筑产业实践为例,AIGC 目前能够在产生用户可感知价值的部分业务细节场景中,辅助提升对效率有较高要求的具体业务场景,如建筑产业中的投研、设计、评估、管理和建造等环节。4.1 最优解增益与效率提升在建筑产业的投研阶段,2021 年出台的 “两集中” 政策(集中供应土地和集中拍地)使大量土地集中在一个月内推出,开发企业需要在短时间内完成对每一块土地的投资评估,其中最核心的是如何在一块地上找到最优的建筑规划方案,获得最大的产品货值和投资回报测算。原本完成一个住宅规划概念方案的时间至少需要 3-5 天,无法满足业务需要,如此就提出了对投前建筑规划方案的极致效率的需求。小库团队推出 AIGC 的建筑规划方案,只需原来 30% 左右的时间就可以输出初步方案。更重要的是,AI 可以生成和优化一些人没有想到过或难以靠手动穷举推敲出的方案,从而获得性能或经济性方面更优的成果。如在中国金茂的某江西项目中, AI 生成的方案不仅在时间上仅为原有方式的 20%,项目总货值上比原有方案增加了 5600 万。在 2021 年 9 个月的地产拍地市场中,团队累积完成了近千个项目及近万个方案,协助客户成功拿地数十块。「小库设计云」AI 生成实际住区拿地方案4.2 成本降低与节能减排在实际的建筑建造环节,小库团队将 AI 与 DFMA(Design For Manufacture and Assembly 为装配和制造而设计)的设计方法结合,与建筑业巨头中建集团旗下中建科工携手,将箱型装配式建筑与 AI 设计生成、L5 级 ABC “数 - 模 - 规” 联动深度结合,实现了投资 - 方案 - 成本在未实施前的实时联动,减少了 80% 设计和成本变更,并有效降低总体装配式构件 SKU 和开模量,实现 50% 以上节能减排。在获得性能与经济结果更优的同时,将 “原生数据” 与工厂产线、智能建造现场有效打通为 “孪生数据”。在深圳某酒店项目中实现了 4 个月完成从设计到建造,将总工期大幅缩短了至少 14 个月,节省了 60% 以上的时间。「小库装配云」与中建科工合作的深圳某酒店,全过程智能设计与智能建造)L5 级智能建造模式与传统模式对比通过以上案例可以看到,L5 级的 AIGC 可以从数据产生的源头开始,通过在产业链各环节细分场景的具体应用,能够有效辅助产业链获得更高的全生命周期质量、效益和核心竞争力。未来,AIGC 从文字和图片迈向更高维的 3D 和 L5 级内容成果是大势所趋,这不仅是建筑产业对人工智能的未来预期,也是各垂直产业的共同的期待。注:*在图层无明显错误的基础上,当前小库AI识别针对标准构件(门、窗、墙、楼梯、电梯、空调、消火栓、车位)等识别准确率为99.8%(测试集为上千张建筑平面CAD图纸,图纸来源是数家头部开发商的内部标准库)?参考资料:The Illustrated Stable Diffusion C Jay Alammar C Visualizing machine learning one concept at a time.Robin Rombach, Adreas Blattmann, etal. High-Resolution Image Synthesis with Latent Diffusion Model (CVPR 2022 Oral)Nataniel Ruiz, etal. DreamBooth: Fine Tuning Text-to-Image Diffusion Models for Subject-Driven Generation (2022)Alex Nichol, Jun H, etal. Point-E: A System for Generating 3D Point Clouds from Complex Prompts(2022)刘曦泽、王益谊、杜晓燕、李佳、车迪等:ISO/IEC SMART数字标准《中国工程科学》2021年第23卷第6期《标准数字化发展现状及趋势研究》《中国各行业数字化水平》-麦肯锡全球研究院 关键词: 被ChatGPT带飞的AIGC 能为垂直产业做些什么 人工智能 上一篇 : 下一篇 : 最新推荐 机器之心发布机器之心编辑部本文从AIGC技术?->产品?->业务应用和价值实现环节探讨其发展路径,并以产... ChatGPT母公司OpenAI沿着Google打下的基础,找到可行的技术方向。相信它们也在这个过程中察觉到了最适合... 利率降低了,已贷款的房子可以降吗利率降了之后,已经放过款正在还贷款的房子,是不能直接享受到新的利率... 期权是什么意思期权(Option,或称选择权)是衍生证券两大类中的一类,另一类是期货(Futures,会在后面的... 老人适合炒股吗?一般来说,因为老人的年纪都是比较的大,在接受新事物或者新知识方面可能会有点不如年轻... 经营许可证怎么办理1、以食品经营许可证为例,填写好食品经营许可证的申请表,准备法人身份证复印件,从... 关于雷锋在我身边作文500字“啦啦啦,啦啦啦,干活好快乐呀!……”是谁在唱歌?哦,原来是我们班的“小... 感恩母亲节演讲稿800字母亲不仅给了我们生命,而且是我们的保护神,是我们稚嫩肩膀的靠山,是我们生命航... 大学生暑期实习报告范文6篇在不断进步的时代,报告的使用成为日常生活的常态,我们在写报告的时候要注意... 童年趣事初中作文在日常学习、工作抑或是生活中,大家都写过作文,肯定对各类作文都很熟悉吧,写作文可... 关于学习雷锋作文(精选44篇)在日常学习、工作或生活中,大家都写过作文吧,通过作文可以把我们那些零... 如何用英语将爱情演绎到底恋爱的第一步总是男方或是女方提出邀请,然后两人一起出去吃个饭,参加娱乐活... 过生日作文300字(通用23篇)在日常的学习、工作、生活中,大家总少不了接触作文吧,借助作文可以宣泄心... 雷锋事迹演讲稿(精选13篇)演讲稿具有逻辑严密,态度明确,观点鲜明的特点。现如今,需要使用演讲稿的... 土家族的有哪些风俗习惯土家族爱唱山歌,山歌有情歌、哭嫁歌、摆手歌、劳动歌、盘歌等。摆手舞、酉阳民... 激励自己学习的话最励志集锦每一个学生都会有需要用一些有关学习的励志句子来激励自己的时候,那么激励... 五年级数学下册期末模拟试卷(带答案)一、认真读题,仔细填空(22分,1~14题每空0 5分,15题每空1分)1、0 36 2015最新五年级暑假生活指导答案P12 选择 1 ③12 2 ②24①123 ④4 ②填空:1 392 7213 柳原文,翻译,赏析柳原文,翻译,赏析1原文:临江仙·柳外轻雷池上雨柳外轻雷池上雨,雨声滴碎荷声。小楼西... 敬老爱老作文精选15篇无论是在学校还是在社会中,许多人都有过写作文的经历,对作文都不陌生吧,作文是... 《牧童诗》原文及翻译赏析《牧童诗》原文及翻译赏析1牧童诗骑牛远远过前村,短笛横吹隔陇闻。多少长安名... 适合儿童的端午节古诗(精选36篇)在日常生活或是工作学习中,大家总免不了要接触或使用古诗吧,古诗有...

谁拖了中国ChatGPT的后腿? | 好文攻略 | 爱惠街

谁拖了中国足球的后腿 董指导,谁拖了中国女排的后腿
6天前 0 点赞 0 收藏 0 评论 11 已阅读 您是不是想找:人工智能聊天机器人人工智能基金排行前十名基金人工智能人工智能的发展前景人工智能专业最好的学校排名人工智能股票人工智能技术人工智能培训机构哪个好人工智能股票龙头排名人工智能上市龙头公司排名ChatGPT已经成了全球信息技术产业界毋庸置疑的现象级产品。 它以“通用人工智能”的名义,跟人类唠家常,帮人们起草邮件和律师信,回答一些玄奥的终极哲学问题,写一段可用的Python代码,回答一些看似需要复杂和递进逻辑的问题,根据一些人物设定撰写一段电影剧本,书写一首优美的情诗,捉刀大学生的论文作业……似乎人类历史上还没有这么一个全能的AI物种。 比尔盖茨说ChatGPT出现的意义“不亚于互联网的诞生”,微软CEO纳德拉(Satya Nadella)说它堪比工业革命,人工智能口头爱好者们又一次惊呼“奇点”来临,普通人再度担心自己的工作被ChatGPT这样的全能型AI助手取代…… 从IBM的“深蓝”,到Google的AlphaGo,再到OpenAI的ChatGPT,25年过去了,AI在不断进化,人类对AI的日常反应却看不出什么心智上的成熟,这真的是一件令AI开心的事。 我已经用ChatGPT干过诸多不可描述之事,发现它并不能每每得心应手,却能在一些看似更艰深的问题上给出更出色的答案和解决方案。 比如你问它比亚迪能不能打败特斯拉,它可能会给出一些结构清晰而无奇、事实谬误颇多同时又毫无个性的论述;但如果你问它自动驾驶将如何改变一辆汽车的工业设计,它倒是能够从底盘革新、内饰变化、数字娱乐和外型突破等方面给出充满由内至外想象的论述。 从整体而言,ChatGPT相当的不完美,尤其是在提供令人信服的准确性方面,但它在提供结构化的信息论述、打开想象力和解放创造力等领域经常令人类觉得惊艳。 你说不上来它对你有什么无懈可击的具体用处,但它又能帮你实现和完成一些琐碎的、冗余的甚至有创造力的事。 正是这么一个看似无用却有用、看似有用却无用的ChatGPT,推动它的母公司OpenAI被微软追加累计的超过100亿美元的投资,它用两天时间突破100万用户,Facebook曾经花了305天; 它突破1亿用户花了两个月,就连TikTok也需要9个月——请记住,与Facebook和TikTok不同,ChatGPT还不是一个独立的消费级互联网产品,它仍然仅是一个采用了GPT-3自然语言模型的包含1750亿参数的大型神经网络——当它被优先授权给微软集成在Office和Bing等办公软件和搜索引擎服务的时候,才真正地变成一个“可用”的产品。 图源:OpenAI官网 但这已经让中国的人工智能独角兽们够嫉妒的了。 500名员工,公司整体估值接近300亿美元,这是OpenAI;动辄几千人,公司估值/市值充其量10-20亿美元,这是中国的多家AI“小巨头”。 因为人效和价值的巨大差距,更因为ChatGPT对全人类现实社会骤然释放的影响力,ChatGPT的诞生给中国人工智能领域的刺激是不小的。很多人又跳出来了,感慨中美人工智能差距进一步拉大,中国想赶上这波浪潮“任重道远”。 还有一些人,又开始热衷探讨为什么中国没有自己的ChatGPT,结论仍然是“中国缺乏创新土壤”和“中国互联网公司都在搞直播和买菜”这样,既不负责又罔顾事实的蠢话。 中国互联网公司并没有都在搞直播和买菜,他们在从事半导体开发、AI模型研究和自动驾驶;美国的互联网公司搞直播、买菜尤其是互联网金融的时候也很风生水起,那些拿着手电筒和放大镜拼命找自己问题,极力美化对手,用遮瑕霜不遗余力涂抹对手的问题,把原因归咎于简单粗暴的理由的人,可以闭上你们的嘴,这不是反思中国为什么不能率先诞生自己的生成式人工智能模型的正确姿势。 作为在人工智能和自然语义处理领域积累最多的中国互联网公司,百度过去五年一直在搞自己的深度学习大模型“飞桨“(Paddle Paddle),甚至用自己的通用AI芯片“昆仑芯”训练自己的模型——它们是百度训练自己的“ChatGPT”的基本环境和前提。 阿里巴巴、字节跳动和滴滴也都有基于自身需求的自然语义训练模型。可以说,在训练复杂的上百亿参数的自然语义模型方面,中国的公司和研究机构的“家底”并不薄弱,起点也并不比美国同行低——至少在2016年前后的时候是如此。 这几年中美人工智能界在大模型领域产生的差距,不是意识、起点和能力的问题,而是道路和方法的问题。 中国与美国在类ChatGPT的人机对话模型领域的差距,也不是所谓的监管导致的。如果你与ChatGPT就一些更丰富的宗教、文化、民族和地缘政治等议题展开过坦率的交流的话,你会意识到它在看似拒绝和审慎讨论这些议题的背后隐藏着某些特定的立场倾向,是与美国社会普遍公认的主流价值观微妙重合的。 可以说,任何一个,而不是某一个自然语义的复杂模型,其模型建构、语料采集、训练和参数调整的过程,都是基于特定价值体系的“内容审查”的过程,都有着维系其价值体系的自觉。 我们不是应该不应该在自然语义模型里“生成”中国的价值立场的问题,而是它该如何生成,才能真正地制衡英语主导全球互联网语料库必然导致的世界观与文化霸权,加强中文语言理解基准在全球自然语义处理体系的权重,进而为世界人工智能和人机对话的发展提供文化上的多样性。 我也严重不同意中文互联网信息内容质量太糟糕导致中国类ChatGPT模型语料源头被“污染”的说法,这同样是既偷懒又显得大聪明的判断。 因为互联网上的信息总量原因,英语内容无疑是世界上最多的,质量堪忧的极端化内容也是最多的,它们都会影响自然语义模型训练的过程和结果。 ChatGPT在早期的训练中优先使用内容质量较高的社交论坛Reddit上的高赞内容,是有特定的语料选择倾向的。如果中国优先选择知乎和得到等知识类社区,以及主流媒体优先作为语义模型的语料库的话,就不存在语料被污染的问题。更遑论以大部分持“中文内容质量低”的人们的外语水平和阅读广度,根本不足以支撑他们的论断。 但是无论如何,ChatGPT的横空出世,对我这么一个多年来一直呼吁“告别硅谷崇拜”的人来说,的确是一个不大不小的刺激,也是一个观念的挑战。 这不是因为我觉得中国和美国在人工智能领域竞争的差距就此拉大了,而是因为ChatGPT这样的通用人工智能人机对话模型,是一个真正可能从全人类——而不是某一个特定领域和行业的角度,推动社会生产协作与文明进程的工具。 其意义大于移动互联网的出现,堪比电子邮件和搜索引擎的诞生。作为一个人工智能大国,中国早就不是电子邮件和搜索引擎诞生时期的信息技术产业一穷二白的国家了,但是,我们却没有让这类能影响人类文明进程的通用人工智能的创新首先发生在中国,训练一个基础语料由中国文化与价值体系为建构的模型。 更何况,ChatGPT的模型训练方式,很大程度上依靠的是“大力出奇迹”的参数升级、反复训练和模型依据生成内容反馈持续迭代优化——这原本是中国团队最擅长的工作方法。 当一家美国的创业公司用从微软融来的钱不惜代价投入巨额算力成本,大量雇佣非洲和中东的数据工人进行信息标注、用最高效率的迭代与Google这样的巨头进行自研语义处理大模型的“军备竞赛”时,你还是有一种很不真实的感觉——这究竟是一家旧金山公司还是一家深圳公司。 像ChatGPT这样的自然语义处理模型应该可以诞生在中国但却没有诞生在中国,其原因还得从中国从事人工智能的科技公司——无论巨头还是创业公司这些年在干什么开始说。 很多人可能从来没意识到的一个问题是:像ChatGPT这样的超大规模通用自然语义处理模型,由一家AI创业公司建构最可能产生奇迹,而在一家科技巨头内部通常不会实现更好的结果。 这就是为什么Google的LaMDA对话应用模型和近期仓促上阵的Bard都没有大放异彩的原因,也是百度接下来势必面临的挑战。 为什么?首先是因为通用自然语义处理建模太烧钱了。其实,烧钱通常并不是大公司的本事,反倒是创业公司的特权。科技巨头几乎都是上市公司,百亿美元级别的投资砸在一项相当长时期看不到回报的事上,首席财务官在面对董事会和股东大会时的压力是很大的,也经常是被股价惩罚的,这导致大公司不敢做大冒险,不大冒险就不会有大迭代。 什么叫“大力出奇迹”?就是先花大钱出大力,然后再祈祷奇迹的发生,而不是默认一定得出现奇迹,然后再决定花钱出力。 图源:unsplash 可惜,大公司只能是后者。这也是为什么即便从ChatGPT受益颇丰的微软,也只敢从一开始的10亿美元,历时四年,直到今年的百亿美元,一笔一笔,持续地追加投资,以支持OpenAI在微软的“体外”,多年如一日地训练GPT模型。微软通过投资OpenAI获得的股权享有整合ChatGPT模型能力进入其Office和搜索引擎的优先权,它未来会不会吃掉OpenAI可能是一件不太好说的事,但至少市值近万亿美元,一年收入几百亿美元的微软,是绝对不敢一开始就“大力出奇迹”,兀自凭一己之力训练这个模型的。 其次,因为人们对科技巨头从事创新事业的容错度很低,而对创业公司的错误和偏差较为优容。Google为了应对以ChatGPT的压力,仓促推出了人机对话测试版Bard,被发现一些对话出现了基本的事实错误,于是被无限放大,市值一夜蒸发千亿美元。事实上Google不是不清楚这一点,要不是被逼急了,它也不会这么冒失。Google在2021年公布的LaMDA模型,参数级别和信息搜索能力都明显高于当时OpenAI训练的GPT-3,但Google迟迟不敢公测其效果,就是因为害怕它出现失误,引发公众的不信任和股价的下滑。 Google在乎的,OpenAI都不在乎。从ChatGPT发布的第一天起,它就公开地说自己没有信息检索能力,语料库也只到2021年12月,更回答不了很多关于价值和道德判断的问题,还经常犯事实错误。对ChatGPT的自我“摆烂”,测试者很宽容地接受了,对它在编程、文学创作、格式化写作、寻医问诊等领域展现的信息关联、情感表达、逻辑结构、思维连贯性一系列能力惊叹不已,对它犯的错误轻轻带过。 2019年3月,在GPT-2模型取得前所未有的成功后,成立了4年的OpenAI决定由一家非盈利的基金会转变成为一家商业公司。毕竟没有任何一家基金会能受得了它的首席科学家年薪150万美元,2019年5月,山姆·奥特曼(Sam Altman)出任OpenAI的CEO。接着,OpenAI获得了微软的10亿美元投资。2020年5月,OpenAI推出的GPT-3模型,参数从GPT-2的15亿陡升至1750亿,形成了一个前所未有强大的自动学习系统。 可见,一家含着金汤匙出生、融得到巨资、有巨头业务捆绑加持的人工智能初创公司,从事通用的人工智能自然语义模型建构与开发,不计成本投入模型训练,是最理想的状态。最强大的模型带来的想象力和商业回报足以刺激微软和其它的投资者。 那么,怎么这个逻辑在中国就跑不通了?中国曾经有没有一个强大的通用自然语义人工智能模型,哪怕就是一个雏形? 要回答这个问题,不妨看看微软首次投资OpenAI的时间:2019年7月。在微软押注OpenAI的GPT模型之后4个月,也就是2019年11月,微软负责必应搜索业务、同时也是微软人工智能最高负责人的全球资深副总裁、中国香港籍计算机科学家沈向洋宣布离开工作了20余年的微软。而沈向洋对微软通用人工智能模型的最后一个贡献,就是由微软亚洲互联网工程院在2014年主导研发的聊天机器人——小冰。 2020年7月,小冰从微软独立出来,成为一家中国的人工智能创业公司,沈向洋出任董事长,原微软亚洲互联网工程院常务副院长李笛出任CEO。小冰独立之际已发展至第六代以上,产品形态涉及对话式人工智能机器人、智能语音助手、人工智能创造内容提供者和一系列垂直领域解决方案。小冰曾经引发公众讨论的,除了充满情感和女性性征的聊天机器人之外,还有它在汉语诗歌创作领域的惊艳表现——她出过一本诗集《阳光失了玻璃窗》,收获了不少好评,以及更多的争议。 毫无疑问,一个能写诗,进行简单情感和基于常识的对话的小冰机器人,是几年前全世界范围表现上乘的对话式通用人工智能模型。 图源:小冰官网 沈向洋主导的团队不可能不懂搜索,更不可能不懂人工智能。而沈向洋从微软出走和小冰的“独立”,加之微软CEO纳德拉主导的对OpenAI的投资和合作绑定,其实是中美最顶级的人工智能操盘手,在通用人工智能模型领域的一次正式的分道扬镳。 那么,今天的小冰,还写诗么?它在做什么? 这两年,小冰早就不写诗了。它在忙着商业化。它成立了游戏工作室,为游戏提供NPC脚本对话内容;它与冬奥会合作,提供自由式滑雪空中技巧视觉评分系统;它为万得资讯提供人工智能生成的上市公司公告文本摘要;它给万科等企业定制了客服专用的虚拟数字人……它在努力地成为一家“赋能”各行各业,同时让自己能造血赚钱的人工智能解决方案公司。 一句话,昔日代表了通用自然语义人工智能模型较高水准、中国人撑起全部格局的人工智能团队,现在成了一个生成式人工智能与决策型人工智能混合的、为具体的场景提供具体解决方案的人工智能供应商。 你不能说这是小冰的“堕落”,毕竟它只从资本市场融资了数亿元人民币。按照ChatGPT的模型训练方法,这些钱一天就花完了。没了微软的护身庇佑,小冰得自己顾自己的命。可是,我也从来没听说过百度、腾讯或者字节跳动,想过要投资小冰,支持它继续搞通用自然语义人工智能的大模型。 不仅仅是小冰。过去几年中国也有其它从事通用人工智能自动建模和异构计算,让国内外7-8种芯片通过该模型接入软件的创业团队,但只要是拿这个模型出来融资,就搞不定任何的一个投资人。中国的投资机构从未表现过对通用人工智能模型的兴趣,和哪怕一点点的想象力。 “超过85%的投资人一上来就要求我们介绍产品的场景,我们说我们帮GPU对接软件生态,连英伟达都用我们的模型,投资人说这个不算场景。我们说我们也有客户,卫星、码头、智慧城市和智慧工业的研究,他们说你干得太散了,我们不投”。这是我自己听到过的做通用人工智能模型的创业者对我的吐槽。 众所周知,中国的VC是最喜欢“教育”创业者的,当然也少不了教育从事人工智能创业的科学家。“你得在这个行业有点数据”,这是他们最爱教育AI创业者的一句话。 在某一个行业有数据,而且要专注在某一个细分领域提供解决方案,这是中国大多数号称投资人工智能的VC和PE们的思维定式。然后看的就是“场景有多大”,安防摄像头的场景足够大,于是估值模型就变成了中国这么大,能安多少个摄像头?每个摄像头多少钱?总的摄像头盘子有多大?好,盘子足够大,摄像头这个细分领域我们投了。再看看港口智慧物流,中国有多少个港口?有多少个是深水港口?每个港口码头能为AI解决方案付多少钱?原来就付这么点儿钱啊,看来“港口”这个场景不够大,那我们不投。AI虚拟数字人做客服?能跟元宇宙挂上啊,那有故事有想象力,好,我们可以投投试试。 所以,你看到的情况就是,中国的人工智能“四小龙”基本都在做摄像头和人脸识别的生意,都变成了AI的项目实施和集成商,商业模式一如30年前的东软和软通动力,自己活得举步维艰,巨额亏损,还得撑着中国人工智能产业的排面,撑着人工智能这一领域的估值和想象力。 在相当长的一段时间内,几乎没有哪个人工智能领域的投资人发自内心地相信一个通用的模型能在各个行业复用。其中偶尔有几个对通用模型有点耐心和兴趣的,基本都是人民币基金,美元基金对中国团队搞通用模型的尝试真的是兴趣阙如。你以为是他们通过对比OpenAI和Google这样的公司的模型训练难度和水平,从而觉得中国团队做起这个事来有差距?那你还真是想多了。他们知道GPT模型研发是怎么回事的时间,也就是最近这俩月的事。 那些大言不惭“在我眼里商汤和旷视就是卖安防摄像头的”的一线投资经理,那些傲然地跟创业者说“你这个模型又不是场景”的一线投资合伙人,更遑论那些历史上几乎不投人工智能,过去这么多年一直在鼓捣中国创业者“出海”搞加密货币的美元投资基金的合伙人,今天都突然摇身一变,宣称要支持创业者搞“中国的ChatGPT”了。那么你倒可以想想,他们的信誓旦旦和踌躇满志,含有几分对通用人工智能模型的理解和真诚,又有几分是投机和算计。 你更可以想想,一个超级自然语义模型的训练可能一天就得烧几千万甚至上亿人民币,更何况现在提供大模型训练的算力模块——世界顶级的GPU,因为美国的无理禁运而变得越来越难以获取。以那些投资人过去这么多年的心性和行事风格,他们又能坚持得了几天,肯说服投委会投多少笔钱进去,还是能帮这些创业团队搞定GPU的问题?不定哪天,弄不好也就半年之后,他们就又开始催着这些做通用模型的团队,尽快“在细分领域实现商业化”。 以百度对飞桨PaddlePaddle模型投入的坚持,尚且不可避免它从一开始就将这个模型产业实践化,尽快追求在不同行业的商业化。而在很大程度上,通用人工智能大模型的训练,存在着海量数据、高质量有创造力的内容输出和产业应用落地的“不可能之三角”。 能实现海量数据和高质量有创造力的内容输出,就势必不能快速应用于某一个产业的具体落地——比如ChatGPT。 要想在人类创造的互联网最大范围的海量数据里创造具体的产业落地场景,就一定无法提供最高质量的结果,因为基于海量数据的内容生成与精准决策系统一定存在冲突——这其实是个废物。 如果想实现高质量的内容输出,以辅助精准的产业落地场景决策,就一定得牺牲最海量的数据,而以大多数精准的产业场景所拥有的数据,是无法支撑真正的大型模型训练和研究的——这是中国绝大多数“产业细分”人工智能解决方案今天面临的困境,也是所谓“产业ChatGPT”是个换汤不换药的伪命题的原因。 那些今天摩拳擦掌要大举杀入“中国的ChatGPT”的创业者和投资人们,且不说你们兜里有几个钱和几块GPU,既然都上了这艘船,都觉得自己攥着船票,那通用人工智能的“不可能之三角”,你们决定舍掉哪一个角?这是个首先得想清楚的问题。 换而言之,哪个投资机构——无论是财务投资机构还是大公司的投资部门,有持之以恒数年如一日投入训练自然语义大模型,无限拉长回报周期的定力?毕竟历史告诉我们,这是一群最没有定力,最着急找接盘侠的人。 中国从来就不缺优秀的创业者和科学家,在人工智能领域同样不例外。中国和美国科技公司在人工智能领域的水平和积累是全球范围内最接近的,至少几年之前中国和美国在自然语义大模型的建构和训练上的差距也并不大。但是中国确实缺一些视野更开阔、不人云亦云、有定力有远见的投资机构和投资人。 沈向洋、李笛、马维英、王小川和李志飞等这些人,他们出来做通用自然语义大模型的创业项目都挺靠谱,但问题是得换一批背后支持他们的投资机构和投资人,有一些太擅长“做局”和投机,在加密货币等赛道上浸淫太深的投资机构混杂在其中,是应该被拉进黑名单的。 说句实话,尽管过去这么多年都没什么正经的投资机构在看通用人工智能模型,可毕竟还是有一些机构也投了不少回报周期极长的人工智能公司。比如那些投资了中国本土激光雷达和自动驾驶解决方案的VC,他们是对树立中国在全球汽车产业百年未有之变局中全新的竞争力做出过贡献的。还比如那些投资了中国本土GPU的VC——这注定是一个充满艰险,面临美国封禁和打压,回报周期极其漫长的赛道;但这些本土新崛起的GPU玩家——无论是瀚博、壁仞还是其它,它们未来是可能为中国的通用自然语义处理模型提供弹药的。它们背后的投资人,如果有一天真的谋定思动,出手加持中国的自然语义大模型项目的话,我对他们可能有一些更不一样的预期和信心。 只是这样不咋咋呼呼、不拖后腿、不急功近利的投资人和投资机构不是太多,而是太少,但中国的自然语义模型ü购脱盗沸枰这样的投资人和投资机构――无论它是财务投资者,还是战略投资方,或是有国家意志加持的资本机构� 中国要有自己的通用自然语义大模型,它需要有为全球通用人工智能提供中国智慧、中国价值体系和中国方案的愿景,需要从语料库选择、模型建构与训练、参数调整的全过程前置规避风险和法律、道德与伦理问题,更需要的是定力和耐心。 无论如何,它不能投机。