淘优惠

淘优惠

互联网晚报 | 抖音否认3月1日全国上线外卖服务;百度类ChatGPT项目定名“文心一言”;任天堂将全体员工工资统一上调10%

热门文章 0

抖音否认3月1日全国上线外卖服务

有媒体报道称,抖音将于3月1日上线全国外卖服务,目前已在北京、上海、成都三地进行内测。对此,抖音内部人士表示,没有“3月1日全国上线外卖服务”的计划。据内部人士透露,抖音与饿了么基于抖音开放平台的外卖合作,以及抖音闭环开展的“团购配送”项目,仍在部分城市试点过程中,后续将视情况考虑逐步拓展试点城市,目前均无具体时间表。( 36氪

百度类ChatGPT项目定名“文心一言”,3月完成内测后对公众开放

经百度确认,百度类ChatGPT项目名字确定为“文心一言”,英文名ERNIE Bot,预计三月份完成内测,面向公众开放,目前正在做上线前的冲刺。去年9月,百度CEO李彦宏判断人工智能发展在“技术层面和商业应用层面,都有方向性改变”。据推测,百度那时候就开始做文心一言。 36氪

任天堂:4月起将全体员工基本工资统一上调10%

共同社2月7日报道,日本任天堂7日透露,将从4月起把全体员工的基本工资统一上调10%。新入职员工工资也上调约10%,另外还有定期加薪。任天堂截至2022年9月底共有2765名员工。合同工、返聘工和临时工也同样加薪10%。(界面)

比亚迪李柯:有意在欧洲建厂,而非专注于接手其他工厂

比亚迪执行副总裁李柯在接受彭博采访时表示,比亚迪公司正探索在欧洲建立自己的工厂,“而并非专注于其他公司的设施”。这暗示相比接手福特汽车的德国工厂,比亚迪自建工厂的可能性更高。李柯说,比亚迪目前还没有建立设施的目标国家,但公司正在进行可行性调查,希望在欧洲拥有稳固的销售和经销商网络以及服务中心,以确保消费者对该品牌的信心。(界面)

哪吒汽车:2023年年度目标销量30万台,全新车型哪吒E预计今年上半年上市

哪吒汽车 获悉,2023年哪吒汽车定下年销量30万台的年度目标。哪吒汽车表示,2023年哪吒汽车不仅加快优化产品结构、开足马力生产,同时针对哪吒S目前存在的产能不足问题,进行供应链拉产调整,预计在未来二三个月完成。此外,据介绍,全新车型哪吒E正待推出,该车定位双门四座电动跑车,与哪吒S同样基于山海平台打造,预计将于今年上半年上市。(中证网)

宇通客车:公司经营情况不变,今年会更重视海外市场

2月6日晚间,宇通集团旗下两家A股上市公司宇通客车及 宇通重工 同时发布实控人变更,触发全面要约收购义务的事项。今天致电宇通客车投资者热线,工作人员表示,从公司层面,上述变更不会影响现有管理结构、经营方向等方面。2023年宇通客车将在维持现有业务情况下,更加重视对海外市场的拓展。(第一财经)

海天瑞声:主要向微软提供自然语言-训练数据定制服务及训练数据产品等

海天瑞声 在互动平台表示,微软一直以来都是公司的重要客户之一,公司主要向其提供智能语音-训练数据定制服务及训练数据产品、自然语言-训练数据定制服务及训练数据产品、计算机视觉-训练数据定制服务及训练数据产品、训练数据相关的应用服务。 36氪

专家称网易保留6个月暴雪游戏数据为误读,应由暴雪负责数据封存

近期,暴雪与网易正式结束14年代理合作,《魔兽世界》《 炉石 传说》《守望先锋》等7款国服游戏宣告终止运营。停运后,暴雪游戏玩家数据保存责任方、数据封存时间等问题引发行业关注。针对“暴雪玩家游戏数据,应由网易负责保存6个月”的传言,多位律师及行业专家指出,这一说法是严重误读。如暴雪和网易无其他约定,暴雪应是停服后玩家游戏数据等虚拟资产管理的唯一责任方,而非前代理网易。 36氪

传言称券商被要求国内IP下线港美股APP,多家券商:没有收到监管明确指示

2月6日,有传言称,有券商收到监管指导,“要求在2月16日之前清散港美股业务,国内IP要下线港美股APP”,针对该传闻,记者联系多家券商,均称目前还没有收到监管的明确指示。(财联社)

网传三类公司可申请平价茅台酒,茅台回应:为不实消息

近日,网络流传纳税额、营业额达到一定条件的非上市公司、上市公司和500强企业,可向茅台总公司申请购买每瓶1499元的飞天茅台酒。2月7日,茅台相关负责人对此予以否定。茅台方面称,该政策纯属胡乱编造,不排除有不法分子企图利用编造信息向企业人士圈钱。(中证网)

天津今年将建中心城区首条无人驾驶示范路段

今年,天津市河北区将建成全长3.1公里的天津中心城区首条无人驾驶示范路段,打造车联网商用第一城。天津市河北区将依托智能 路网 建设项目,打造天津市老城区首个复杂环境下“车路协同示范路段”,涵盖景区、老旧小区、新建小区、沿河路段、复杂交通等多个场景,全程约3.1公里。同时结合主要停车场、轨道站、景点、广场、酒店等,设置零碳自动驾驶旅游小巴线路,全程约1.6公里。(央视新闻)

北京市场监管局:警惕“元宇宙”等炒作,防范新型非法集资

近年来,打着“元宇宙”“NFT”(非同质化代币)等新概念实施非法集资开始冒头。这些犯罪活动往往以“元宇宙投资项目”“元宇宙链游”等名目吸收资金,涉嫌非法集资、诈骗等违法犯罪活动,具有较大诱惑力、较强欺骗性,参与者易遭受财产损失。北京市场监管局发布风险提示:对新型非法集资套路保持警惕,对当下热门概念炒作保持冷静,千万不要被新事物迷惑。任何新事物但凡与投资理财绑定,十有八九是骗局。(央视新闻)

四川省印发“技能四川行动”实施方案:将持续大规模开展职业技能培训

四川省人力资源和社会保障厅官网最新消息,近日印发?“技能四川行动”实施方案:“十四五”时期新增技能人才280万人以上;至“十四五”末,全省技能人才占就业人员比例力争达到30%,高技能人才在技能人才中的占比力争达到30%。全省技工院校达到120所,在校学生累计达到20万人;建设国家级、省级优质技工院校不少于15所,优质专业数量达到30个,建成10个技师学院(职业培训)集团。(证券时报)

居民医保个人缴费连年上涨,国家医保局回应将完善筹资机制

全国人大代表、湖南省人大财政经济委员会副主任委员徐云波提出“进一步完善城乡居民医保政策”的建议。他认为,个人缴费部分不应再大幅增长,缴费标准应在一段时间内(如3至5年内)保持相对稳定。国家医保局官网公布了对该建议的答复。国家医保局表示,正在会同财政部专题研究完善居民医保筹资动态调整机制,推动缴费调整与经济社会发展水平和居民人均可支配收入挂钩,稳定社会预期,切实保障好群众合法权益。(21财经)

2022年度个税汇算3月1日开始

近日,国家税务总局官网就办理2022年度个人所得税综合所得汇算清缴有关事项进行公告,2022年度汇算办理时间为2023年3月1日至6月30日。税务部门推出预约办理服务,有汇算初期(3月1日至3月20日)办理需求的纳税人,可以根据自身情况,在2月16日后通过个税APP及网站预约上述时间段中的任意一天办理。3月21日至6月30日,纳税人无需预约,可以随时办理。(中国新闻网)

强震已致土耳其叙利亚超7000人遇难

土耳其副总统奥克塔伊证实,地震已致土耳其5894人遇难 、34810人受伤。据叙利亚卫生部统计,在叙利亚政府控制的阿勒颇、拉塔基亚、哈马、塔尔图斯等省,地震已造成812人遇难。另据救援人员表示,在叙利亚反政府武装控制地区,地震已造成至少1120人遇难。(CCTV国际时讯)

美媒:苹果将于下周召开内部AI峰会

彭博科技记者Mark Gurman表示,在OpenAI ChatGPT的影响下,以及谷歌和微软的AI发布之后,苹果将于下周举行(原定的)年度内部AI峰会。它就像AI的WWDC,但仅限于苹果员工。(界面)

微信Mac端更新图片文字提取功能

2月6日,微信发布3.7.0 for Mac,据微信官网介绍,该版本主要更新提取图片中的文字内容和翻译网页功能。据悉,提取图片文字功能此前已在Windows版本的微信上线。(凤凰网科技)

OpenAI跻身全球TOP50网站,1月访问量突破6.72亿

据SimilarWeb数据显示,OpenAI网站访问量快速攀升,目前已跻身全球TOP50网站。今年1月,OpenAI网站访问量突破6.72亿,较11月增长3572%。该网站2022年11月全月访问量为1830万,主要访问人群来自技术社区。 (财联社)

盖茨再谈ChatGPT:AI能提高效率,但要考虑边界在哪

比尔・盖茨表示,聊天机器人ChatGPT以及AI领域的进展令人激动,AI将是“2023年最热门的话题”。盖茨认为,在教育、医疗等方面,AI都将彰显其价值。盖茨提到,担心AI安全的人一定会说OpenAI没有解决这个问题,其实作为合作伙伴,微软也对此保持高度警惕。“AI将变得有争议,这无疑是‘2023年最热门的话题’,它也将在一定程度上改变就业市场。这让我们不禁思考,边界在哪里?”( 澎湃新闻

Zoom将裁员1300人,CEO袁征为自己减薪并放弃奖金

据彭博报道,Zoom Video Communications将裁 减约 15%的员工,该公司得益于新冠疫情的视频会议服务如今面临增长放缓。Zoom首席执行官袁征在博客上表示,作为重组的一部分,该公司将裁员约1300人。袁征表示对公司的问题负责,自己会减薪并放弃奖金。据了解,Zoom宣布的裁员比例高于Salesforce、微软、Workday等企业软件公司。(界面)

CAX工业软件“数禺科技”完成数千万元PreA轮融资

CAX工业软件“ 数禺科技 ”完成数千万元PreA轮融资,投资方为蓝驰创投,毅仁资本担任财务顾问。本轮融资将用于产品研发和市场拓展。据官方介绍,数禺科技目前已经完成了工业软件CAD/CAE一体化的智能云平台模塑(ModeSoul)的开发,以及在注塑模具设计和仿真领域的落地,并与头部客户如延锋彼欧、诺博汽车、点睛模具等展开了合作 36氪

“圆周率科技”完成数千万元B+轮融资

近日,“ 圆周率科技 ”宣布完成数千万元B+轮融资,由汇智启源、高新投、赛天产发共同投资。融资资金将用于在元宇宙VR/AR及汽车智慧驾舱等智能硬件及系统领域的布局。圆周率科技成立于2012年,是一家专注于全景3D影像和 数字孪生 的高新技术企业,业务范围涵盖汽车360环视及智慧驾舱、专业级全景和3D VR相机、3D数字孪生相机等。 36氪

“心鉴智控”连续完成A+和A++两轮近亿元融资

2月6日, 心鉴智控 (深圳)科技有限公司连续完成A+和A++两轮合计近亿元融资,其中A++轮由毅达资本独家投资,A+轮由张江科投、睿和投资共同投资。心鉴智控是一家工业机器视觉应用服务商,成立于2018年,致力于实现工业视觉检测核心技术的具体落地和跨场景延展。 36氪


人工智能 openai 全宇宙最强AI 聊天机器人模型ChatGPT惊艳来袭,你还不上车?居然能写演讲稿和帮忙写代码


目录

1、ChatGPT介绍2、ChatGPT如何注册,国内不可用3、VS Code下载安装ChatGPT3.1 打开VS Code找到ChatGPT3.2 ChatGPT 详细安装步骤:3.3 用法3.4 国外模式’ 此模式下,速度会比较稳定,如果有条件,建议使用本模式。 理论上来说,输入3.5 安装 要安装扩展,请按照下列步骤操作:3.6 国外模式(此模式没有需求的同学可以不看,默认关闭)

4、使用ChatGPT具体案列4.1 我的问题:卡塔尔世界杯谁会夺冠?4.2 我的提问:美国历史上总统都有哪些?4.3 我的提问:如何用Python实现抓取网页内容?

5、ChatGPT太强大了,我们是不是要失业呢?

1、ChatGPT介绍

最近hatGPT火爆全宇宙,几乎所有圈内人都在谈论这个 美国人工智能公司OpenAI发布免费机器人对话模型ChatGPT(GPT-3.5系列),模型中首次采用RLHF(从人类反馈中强化学习)方式。模型目前处于测试阶段,用户与ChatGPT之间的对话互动包括普通聊天、信息咨询、撰写诗词作文、修改代码等。功能如此“全面”的ChatGPT被称作“最强AI(人工智能)”,面世5天便已有超过100万用户使用。

OpenAI的联合创始人马斯克评价道,“好得可怕,我们离强大到危险的AI不远了。”

OpenAI创始人兼CEO Sam Altman曾表示:“十年前的传统观点认为,人工智能首先会影响体力劳动,然后是认知劳动,再然后,也许有一天可以做创造性工作。现在看起来,它会以相反的顺序进行。”

在VS Code上ChatGPT中文版的插件,在12月7日上线后,目前已经有42000次下载。

官网如下:

ChatGPT官网:https://openai.com/blog/chatgpt/

2、ChatGPT如何注册,国内不可用

因为ChatGPT在官网上注册使用,不支持中国大陆用户使用

需要科学上网,而且需要国外手机号才能使用,当然网上也有一些教程,但是太麻烦,推荐使用VS Code开发工具下载ChatGPT中文版的插件,非常简单,能够快速体验ChatGPT的功能

3、VS Code下载安装ChatGPT

VS Code开发工具如何下载安装,这里不做介绍,网上有很多,这里重点介绍下VS Code如何安装使用

3.1 打开VS Code找到ChatGPT

如图先搜索ChatGPT,找到"ChatGPT中文版",然后点击右边的“安装”

3.2 ChatGPT 详细安装步骤:

ChatGPT 的中文插件 注意!!! 首次安装插件之后,自动启用国内模式,不需要任何操作即可开始使用,此时不需要启用代理

3.3 用法

开始使用在编辑器中右键触发菜单。 或者快捷键打开命令面板(ctrl+shift+p 或者 command+shift+p),输入"ChatGPT"。 可以看见目前支持的代码功能:ChatGPT: 请输入问题:直接对 ChatGPT 提问 ChatGPT: 添加测试代码:为当前选中的代码,或者当前文件添加测试代码 ChatGPT: 代码为什么有问题(需要同时选中报错):询问代码出现的问题,需要将报错也一起选中 ChatGPT: 优化这部分代码:对当前选中的代码,或者当前文件,进行优化或者重构 ChatGPT: 解释这部分代码:对当前选中的代码,或者当前文件,进行解释 ChatGPT: 执行自定义命令1:添加一个对选中代码,或者当前文件执行的自定义命令1,添加后可以直接执行 ChatGPT: 执行自定义命令2:添加一个对选中代码,或者当前文件执行的自定义命令2,添加后可以直接执行 我们执行了一个命令之后,侧边栏会弹出一个交互窗口:后续我们所有的问题、回答、异常。都会在这个窗口中显示。 我们可以在交互窗口的底部输入框中,直接输入问题,询问 ChatGPT 我们也可以执行前面的命令,对代码进行询问。 询问过后,请等待一会儿,交互窗口中会自动出现结果。查询成功时,如果结果中包含代码。那么,我们可以通过: “复制代码”、”插入“、”新建“ 这三个按钮来获取代码。“复制代码”:顾名思义,将代码复制到剪切板中 “插入”:将当前代码,插入到当前的文件中。 “新建”:将当前代码,插入到一个新的文件中。 查询失败时:会出现自助解决方案,请按照方案进行操作。 模式切换:目前插件支持两个模式,可以通过 ChatGPT: 切换成国内/国外模式(将会重启VSCode) 命令相互切换国内模式:此模式安装插件后自动开启,有以下特点。无需注册、登录、代即,开箱即用。 因为是私人代理,所以速度可能不稳定,所以请勿频繁访问。 国外模式:此模式需要通过 ChatGPT: 切换成国内/国外模式(将会重启VSCode) 命令,来手动切换,有以下特点。需要注册 OpenAI 的账号,并且手动去浏览器中获取 Cookie。具体操作细节,请看第三小节 ‘

3.4 国外模式’ 此模式下,速度会比较稳定,如果有条件,建议使用本模式。 理论上来说,输入

Cookie 登录成功后,不再需要开启代理,非代理模式下速度反而更快。 清除数据:可以通过 ChatGPT: 清理所有数据 (清除登录数据、清除自定义命令、重置为国内模式、并重启VSCode) 命令让插件回到初始状态

3.5 安装 要安装扩展,请按照下列步骤操作:

1.打开 Visual Studio Code 2.单击左侧栏中的扩展程序图标 3.搜索“ChatGPT中文版” 4.点击安装按钮安装扩展 5.重启VSCode

3.6 国外模式(此模式没有需求的同学可以不看,默认关闭)

可以通过命令 ChatGPT: 切换成国内/国外模式(将会重启VSCode) 来切换成国外模式,在此模式下需要进行下面的这些操作: 打开 VS Code 命令面板并键入“ChatGPT: 登录”,这将提示您输入 Cookie。要获取Cookie: 前往 https://chat.openai.com/chat 并登录或注册。 打开开发工具。Chrome:打开 Application > Cookies FileFox:打_ Storage > Cookies 复制 __Secure-next-auth.session-token 的值 VSCode 中打开命令面板(ctrl+shift+p 或者 command+shift+p),输入"ChatGPT",就能看见ChatGPT: 登录(国内模式不需要),最后将 token 输入到框中,完成登陆 四、致谢 感谢您使用本插件,您的支持是我最大的动力 感谢以下插件提供的产品与代码的灵感:chatgpt-vscode-plugin vscode-chatgpt 感谢 ChatGPT 提供这么好的服务 感谢 chatgpt-api,提供 API 支持

详细的安装步骤,如上

4、使用ChatGPT具体案列

按照上面的步骤安装好后,就可以体验输入问题了

4.1 我的问题:卡塔尔世界杯谁会夺冠?

ChatGPT答案: 很抱歉,我无法给你准确的答案。由于我是一个语言模型,我无法访问互联网以查询当前的世界杯信息。我的知识仅局限于我所被训练的领域,而且我的知识截止日期是2021年。 ChatGPT的知识截止日期是2021年,不是最新的

4.2 我的提问:美国历史上总统都有哪些?

ChatGPT答案: 美国历史上有许多总统。美国是一个联邦制国家,由50个州组成,每个州都有自己的州长。美国的总统是国家的元首和首席行政官,负责执行国家的法律并领导政府。

美国目前已有45任总统,他们的名字分别是:

1. 唐纳德・J・特朗普(Donald J. Trump),2017年1月20日至2021年1月20日。

2. 奥巴马(Barack Obama),2009年1月20日至2017年1月20日。

3. 小布什(George W. Bush),2001年1月20日至2009年1月20日。

4. 克林顿(Bill Clinton),1993年1月20日至2001年1月20日。

5. 布什(George H. W. Bush),1989年1月20日至1993年1月20日。

6. 格兰特・卡特(Gerald R. Ford),1974年8月9日至1977年1月20日。

7. 尼克松(Richard Nixon),1969年1月20日至1974年8月9日。

8. 麦卡锡(Lyndon B. Johnson),1963年11月22日至1969年1月20日。

9. 肯尼迪(John F. Kennedy),1961年1月20日至1963年11月22日。

10. 艾森豪威尔(Dwight D. Eisenhower),1953年1月20日至1961年1月20日。

11. 斯科特・杜鲁门(Harry S. Truman),1945年4月12

4.3 我的提问:如何用Python实现抓取网页内容?

ChatGPT答案: 如果你想用Python来抓取网页内容,你可以使用Python的第三方库来实现这个功能。一个常用的库是requests,它提供了一个简单的方法来发送HTTP请求并获取网页内容。

下面是一个简单的例子,展示了如何使用requests库来抓取网页内容:

复制代码 插入 新建

import requests

# 要抓取的网页地址

url='https://www.example.com'

# 发送HTTP GET请求

response=requests.get(url)

# 获取网页内容

html=response.text

# 打印网页内容

print(html)

在上面的代码中,我们首先导入了requests库,然后使用requests.get()方法来发送HTTP GET请求,并获取网页内容。我们可以通过调用response.text来获取网页的文本内容,然后打印出来。

请注意,上面的代码仅供参考,实际应用中还需要考虑很多其他因素,比如处理HTTP响应状态码、处理网页编码等。

太厉害了,ChatGPT居然还能帮你写代码,确实很NB,相信很多编程小伙伴要高兴的睡不着觉了,欢迎你一起交流ChatGPT。

5、ChatGPT太强大了,我们是不是要失业呢?

宇宙最强AI的ChatGPT来袭,让我们看到了很多希望,效率越来越高,但同时对我们来说,也是惊醒,有些职位可能会被AI取代,比如简单重复的一些工作,但是一些具有创意的工作,可能还不会被替代,我们必须要不断的学习,才能掌握AI,把AI当做工具,为人类服务。

查看原文


人工智能ai模型免费下载 人工智能进入产业级大模型时代

人工智能ai模型免费下载,人工智能ai模型免费下载安装,人工智能ai 下载,人工智能下载 1080P 下载

【慧聪通信网】报告出品方/作者:海通国际,郑宏达、杨林、洪琳

1.大模型是人工智能的发展趋势和未来

大模型,又称为预训练模型、基础模型等,是“大算力+强算法”结合的产物。大模型 通常是在大规模无标注数据上进行训练,学习出一种特征和规则。基于大模型进行 应用开发时,将大模型进行微调,如在下游特定任务上的小规模有标注数据进行二 次训练,或者不进行微调,就可以完成多个应用场景的任务。 迁移学习是预训练技术的主要思想。当目标场景的数据不足时,首先在数据量庞大 的公开数据集上训练基于深度神经网络的 AI 模型,然后将其迁移到目标场景中,通过目标场景中的小数据集进行微调,使模型达到需要的性能。在这一过程中,这种 在公开数据集训练过的深层网络模型,即为“预训练模型”。使用预训练模型很大程度 上降低了下游任务模型对标注数据数量的要求,从而可以很好地处理一些难以获得 大量标注数据的新场景。大模型正是人工智能发展的趋势和未来。

1.1 国内外公司与机构竞相研发,大模型生态已初具规模

从参数规模上看,AI 大模型先后经历了预训练模型、大规模预训练模型、超大规模 预训练模型三个阶段,参数量实现了从亿级到百万亿级的突破。从模态支持上看, AI 大模型从支持图片、图像、文本、语音单一模态下的单一任务,逐渐发展为支持 多种模态下的多种任务。 国外的超大规模预训练模型起步于 2018 年,并在 2021 年进入“军备竞赛”阶段。 2017 年,Vaswani 等提出 Transformer 架构,奠定了当前大模型领域主流的算法架构 基础;Transformer 结构的提出,使深度学习模型参数达到了上亿的规模。2018 年, 谷歌提出了大规模预训练语言模型 BERT,该模型是基于 Transformer 的双向深层预 训练模型,其参数首次超过 3 亿规模;同年,OpenAI 提出了生成式预训练 Transformer 模型――GPT,大大地推动了自然语言处理领域的发展。此后,基于 BERT 的改进模型、ELNet、RoBERTa、T5 等大量新式预训练语言模型不断涌现,预训 练技术在自然语言处理领域蓬勃发展。

2019 年,OpenAI 继续推出 15 亿参数的 GPT-2,能够生成连贯的文本段落,做到初 步的阅读理解、机器翻译等。紧接着,英伟达推出了 83 亿参数的 Megatron-LM,谷 歌推出了 110 亿参数的 T5,微软推出了 170 亿参数的图灵 Turing-NLG。2020 年, OpenAI 推出了超大规模语言训练模型 GPT-3,其参数达到了 1750 亿,在两年左右的 时间实现了模型规模从亿级到上千亿级的突破,并能够实现作诗、聊天、生成代码 等功能。此后,微软和英伟达在 2020 年 10 月联手发布了 5300 亿参数的 MegatronTuring 自然语言生成模型(MT-NLG)。2021 年 1 月,谷歌推出的 Switch Transformer 模型以高达 1.6 万亿的参数量成为史上首个万亿级语言模型;同年 12 月,谷歌还提 出了 1.2 万亿参数的通用稀疏语言模型 GLaM,在 7 项小样本学习领域的性能超过 GPT-3。可以看到,大型语言模型的参数数量保持着指数增长势头。这样高速的发展 并没有结束,2022 年,又有一些常规业态大模型涌现,比如 Stability AI 发布的文字 到图像的创新模型 Diffusion,以及 OpenAI 推出的 ChatGPT,ChatGPT 是由效果比 GPT3 更强大的 GPT-3.5 系列模型提供支持,并且这些模型使用微软 Azure AI 超级计 算基础设施上的文本和代码数据进行训练。

而在国内,超大模型研发展异常迅速,2021 年成为中国 AI 大模型的爆发年。2021 年,商汤发布了书生(INTERN)大模型,拥有 100 亿的参数量,这是一个相当庞大 的训练工作。在训练过程中,大概有 10 个以上的监督信号帮助模型,适配各种不同 的视觉或者 NLP 任务,截至 2021 年中,商汤已建成世界上最大的计算器视觉模型, 该模型拥有超过 300 亿个参数;同年 4 月,华为云联合循环智能发布盘古 NLP 超大 规模预训练语言模型,参数规模达 1000 亿;联合北京大学发布盘古 α 超大规模预训 练模型,参数规模达 2000 亿。阿里达摩院发布 270 亿参数的中文预训练语言模型 PLUG,联合清华大学发布参数规模达到 1000 亿的中文多模态预训练模型 M6;7 月,百度推出 ERNIE 3.0 知识增强大模型,参数规模达到百亿;10 月,浪潮信息发布 约 2500 亿的超大规模预训练模型“源 1.0”;12 月,百度推出 ERNIE 3.0 Titan 模型, 参数规模达 2600 亿。而达摩院的 M6 模型参数达到 10 万亿,将大模型参数直接提 升了一个量级。2022 年,基于清华大学、阿里达摩院等研究成果以及超算基础实现 的“脑级人工智能模型”八卦炉(BAGUALU)完成建立,其模型参数模型突破了 174 万亿个,完全可以与人脑中的突触数量相媲美。

部分公司中国公司虽然目前还没有正式推出自身大模型产品,但是也在积极进行研 发,例如云从科技,公司的研究团队高度认同“预训练大模型+下游任务迁移”的技 术趋势,从 2020 年开始,已经陆续在 NLP、OCR、机器视觉、语音等多个领域开展 预训练大模型的实践,不仅进一步提升了公司各项核心算法的性能效果,同时也大 幅提升了公司的算法生产效率,已经在城市治理、金融、智能制造等行业应用中体 现价值。 而且,中国的超大模型并不落后于国外同类产品,在某些领域还能实现反超。以商 汤科技的书生(INTERN)为例,书生(INTERN)在分类、目标检测、语义分割、深 度估计四大任务 26 个数据集上,基于同样下游场景数据(10%),相较于同期 OpenAI 发布的最强开源模型 CLIP-R50x16,平均错误率降低了 40.2%,47.3%, 34.8%,9.4%。同时,书生只需要 10%的下游数据,平均错误率就能全面低于完整 (100%)下游数据训练的 CLIP。

可以看到,国内外众多公司和研究机构积极开展对大模型的研发。目前,大模型参 数规模最高可达百万亿级别,数据集达到 TB 量级,且面向多模态场景(同时支持文 字、图像、声音、视频、触觉等两种及以上形态)的大模型已成为趋势。大模型生 态已初具规模。

1.2 大模型能给 AI 产业带来什么

1.2.1 大模型加速 AI 产业化进程,降低了 AI 应用的门槛

人工智能正处于从“可以用”逐渐走向“好用”的落地应用阶段,但目前仍处于商业落 地早期,主要面临着场景需求碎片化、人力研发和应用计算成本高、长尾场景数据 较少导致模型训练精度不够、模型算法从实验室场景到真实场景效果差距大等行业 痛点。而大模型的出现能够在在提高模型的通用性、降低训练研发成本方面等方面 降低 AI 落地应用的门槛。

(1)大模型能够实现 AI 从“手工作坊“到”工厂模式”的转变

过去十年中,通过“深度学习+大算力”从而获得训练模型是实现人工智能的主流技术 途径。由于深度学习、数据和算力这三个要素都已具备,全世界掀起了“大炼模型” 的热潮,也催生了大批人工智能企业。但是,在深度学习技术兴起的近 10 年间,AI 模型基本上是针对特定应用场景需求进行训练的,即小模型,属于传统的定制化、 作坊式的模型开发方式。传统的 AI 模型从研发到投入应用需要完成包括确定需求、 数据收集、模型算法设计、训练调优、应用部署和运营维护等阶段组成的整套流 程。这意味着除了需要优秀的产品经理准确确定需求之外,还需要 AI 研发人员扎实 的专业知识和协同合作能力完成大量复杂的工作。

传统模式中,研发阶段,为了应对各式各样的场景需求,AI 研发人员需要设计专网 专用的个性定制化神经网络模型。模型设计过程要求研究人员具有充分的网络结构 和场景任务专业知识,且需承受人力设计网络结构的试错成本和时间成本。一种降 低专业人员设计门槛的思路是通过网络结构自动搜索的技术路线,但是这种方案对 算力要求很高,并且不同场景任务都要调用大量机器进行自动搜索以获取最优模 型,算力成本和时间成本仍然很高。一个项目往往需要专家团队实地驻场数月才能 完成,其中数据收集和模型训练评估是否能够达到指标要求往往需要多次循环迭 代,人力成本很高。 落地阶段,经“一个场景一个模型”式的作坊式模型开发得到的模型在许多垂直行业 场景任务不通用。譬如无人自动驾驶全景感知领域,常常需要多行人跟踪、场景语 义分割、视野内目标检测等多个模型协同作战才行;而同样是目标检测和分割应 用,在医学图像领域训练的皮肤癌检测和分割 AI 模型也无法直接应用到监控场景的 行人车辆检测和场景分割。模型无法复用和积累,同样导致了 AI 落地的高门槛、高 成本与低效率。

而大模型通过从海量的、多类型的场景数据中学习,并总结不同场景、不同业务下 的通用能力,学习出一种特征和规则,成为具有泛化能力的模型底座。基于大模型 进行应用开发或面对新的业务场景时,将大模型进行微调,例如在下游特定任务上 的小规模有标注数据进行二次训练,或不进行微调,就可以完成多个应用场景的任 务,实现通用的智能能力。由此利用大模型的通用能力可以有效的应对多样化、碎 片化的 AI 应用需求,为实现规模推广 AI 落地应用提供可能。

(2)大模型具有自监督学习能力,能够降低 AI 开发以及训练成本

传统的小模型训练过程中,涉及众多调参、调优的手动工作,需要大量的 AI 专业研 发人员来完成;同时,模型训练对数据要求高,需要大规模的标注数据。然而许多 行业数据获取困难、标注成本高,同时项目研发人员需要花费大量的时间收集原始 数据。譬如,人工智能在医疗行业病理学、皮肤病学和放射学等医学图像密集领域 的影响扩展增长,但是医学图像通常涉及到用户数据隐私,很难大规模获取到用于 训练 AI 模型。而在工业视觉瑕疵检测领域,以布匹瑕疵为例,市场上需要检测的布 匹种类包括白坯布、色坯布、成品布、有色布、纯棉、混纺等等,瑕疵种类繁多, 颜色、厚薄难以识别,需要在工厂里长时间地收集数据并不断优化算法才能做好瑕 疵检测。工业视觉应用场景千变万化,每个场景都具有专业知识的个性化的需求, 而不同行业的数据在另一个场景或任务可能并不适用,还需重新收集、标注数据和 训练模型,造成重复造车轮子现象,研发流程虽然相通,但研发的模型却难以复 用。此外,AI 模型也需要完整的、实时的支持机器自学习的数据闭环,从而能够不 断迭代优化。这一方面整体也导致了当前 AI 研发整体门槛、成本较高。 而大模型通过自监督学习功能将输入的原始数据直接进行自动学习区分,合理构造 适合模型学习的任务,不需要或很少需要通过人工标注的数据进行训练,很大程度 上解决了人工标注数据标签的高成本、长周期和精确度的问题,并降低了训练所需 要的数据规模。这在很大程度上减少了大模型训练数据获取、标注的成本,也更适 合于小样本学习,从而有利于将传统的、有限的 AI 扩展到更多的应用场景。

我们认为,大模型相对于传统 AI 模型开发模式在研发时拥有更标准化的流程,在落 地时拥有更强的通用性,可以泛化到多种应用场景;并且大模型的自监督学习能力 相较于传统的需要人工标注的模型训练能够显著降低研发成本,共同使得大模型对 于 AI 产业具有重要意义,为解决 AI 落地难、促进 AI 产业化进程这一问题提供方 向。

1.2.2 大模型带来更强大的智能能力

除通用能力强、研发过程标准化程度高外,大模型最大的优势还是在于“效果好”, 其通过给模型“填喂”大数据提高其自学习能力,进而具有更强的智能程度。比如在 自然语言处理领域,百度、谷歌等巨头的探索表明,基于预训练大模型的 NLP 技术 的效果,已超过过去最好的机器学习能力。OpenAI 的研究表明,2012 至 2018 年 6 年间,在最大规模的人工智能模型训练中所使用的计算量呈指数级增长,其中有 3.5 个月的时间计算量翻了一倍,比摩尔定律每 18 个月翻一倍的速度快得多。下一代 AI 大模型,参数数量级将堪比人类大脑突触的水平,并且或将不仅能处理语言模型, 将更是一个能处理语言、视觉、声音等多任务的多模态 AI 模型。大模型为通往强人 工智能提供了一条可能的通道。

从大模型发展历程中能够看出,多模态大模型是发展趋势之一。由于具有在无监督 情况下自动学习不同任务、并快速迁移到不同领域数据的强大能力,多模态大模型 被广泛认为是从限定领域的弱人工智能迈向强人工智能的路径探索。OpenAI 联合创 始人、首席科学家 Ilya Sutskever 也曾表示,“人工智能的长期目标是构建多模态神经 网络,即 AI 能够学习不同模态之间的概念,从而更好地理解世界”。将文本、语 音、图像、视频等多模态内容联合起来进行学习,大模型由单模态向多模态方向发 展,能够对更广泛、更多样的下游任务提供模型基础支撑,从而实现更加通用的人 工智能模型。 更具体来看,大模型带来的更强大的智能能力,能够推动人工智能向更高级智能应 用领域迈进,例如 AIGC、更智能的对话客服等领域。GPT-3 等大模型在新闻文本生 成、商业文本分析、法律文本分析等领域具有较高的产业应用价值。2022 年 OpenAI 发布的基于 GPT-3.5 的 ChatGPT 则能够以对话方式进行交互;除问答以外,ChatGPT 能够完成编程、写稿等众多超出人们想象的任务。甚至有研究人员表示未来 ChatGPT 这样的新兴人工智能技术很可能会影响白领的工作。在一项由医疗初创公 司 Ansible Health 领导的研究中,ChatGPT 参加美国医生执照的三项考试,考试成绩 可以达到或接近达到及格;ChatGPT 在法律领域的表现甚至更加优秀,研究人员发 现,ChatGPT 可以取得美国多州律师考试的及格分数;ChatGPT 的能力也已经获得了 大型科技企业的认可,谷歌公司指出,如果 ChatGPT 参加谷歌的面试,理论上会得 到入门级程序员的聘任。

2022 年,大模型正在成为 AIGC 领域发展的算法引擎。在大模型的能力加持下,包 括以文生图以及虚拟数字人等 AIGC 类应用将快速进入到商业化阶段,并为元宇宙内 容生产带来巨大的变革。大模型正在让人工智能技术从五年前的“能听会看”,走到 今天的“能思考、会创作”,未来有望实现“会推理、能决策”的重大进步。 我们认为,随着大模型不断地进步、迭代、向多模态方向发展,大模型能够达到更 强的通用性以及智能程度,从而使得 AI 能够更广泛地赋能各行业应用,尤其是更高 级智能应用领域,这是大模型能够给 AI 产业带来的突破之一,也是大模型构成人工 智能发展趋势和未来的原因之一。

2. 模型公司将是 AI 世界的基础类公司

2.1 大模型,智能时代的基础设施

大模型的“大规模”和“预训练”属性,决定了其具有能力泛化、技术融合、应用支撑 三大核心作用。 能力泛化方面,AI 大模型预先在海量通用数据上训练并具备多种基础能力,可结合 多种垂直行业和业务场景需求进行模型微调和应用适配,能够摆脱传统 AI 能力碎片 化、作坊式开发的束缚。AI 大模型得益于其“大规模预训练微调”的范式,可以很 好地适应不同下游任务,展现出它强大的通用性。 技术融合方面,单个 AI 大模型通过端到端联合训练调优,能有效集成自然语言处 理、计算机视觉、智能语音、知识图谱等多个 AI 核心研究领域的多项技术,性能上 可实现“1+1>2”的效果,可显著提升 AI 大