chatgpt很强吗 chat gpt发展有多快
淘宝搜:【天降红包222】领超级红包,京东搜:【天降红包222】
淘宝互助,淘宝双11微信互助群关注公众号 【淘姐妹】
强大到危险的AI?
最近,因为一款叫ChatGPT的人工智能产品,AI聊天又火了一把。AI聊天工具早已不新鲜,但ChatGPT依然在11月30日发布后的5天时间里收获了100万用户。
从社交媒体上刷屏的使用体验来看,好奇或好胜的人们涌入网页后,提出的问题简直五花八门,包罗万象,从27到底是不是质数,再到孙悟空和白龙马什么关系,再到各领域专业知识,GPT都能给出时而一本正经,时而错漏百出的回答。
网友和ChatGPT讨论27是否是质数
观摩这些使用体验,可以发现,不同于只能点餐点歌订机票的苹果Siri和微软小爱,ChatGPT不仅可以回答专业知识问题,还能回答一些开放域的问题,比如,帮编程人员"debug"(消除故障),或进行创造性写作。
我看过它写的科幻故事,有起承转合,有细节场景,虽然开头结尾有些生硬,但基本上有模有样;它写的爱情诗,对仗工整,意犹未尽,意象选用称不上高级,但确实有点三脚猫功夫在身上;它写的悬疑剧本,有业内人士鉴定,已经可以达到行业腰部水平。?
一向高调的马斯克在使用ChatGPT后的感受则是,“scary good”(好到吓人),甚至断言,“我们离强大到危险的AI不远了。” 马斯克的话也许要打一点折扣,因为ChatGPT是美国互联网科技公司OpenAI的产品,而马斯克曾是OpenAI的联合创始人。但无论如何,ChatGPT在人工智能方面的突破性是有目共睹的。
图源Twitter@Elon Musk
为了写作本文,我也特地制定了一个task,与ChatGPT交了交手。
-“你好,简单介绍一下你自己吧。”
-“你好,我是Assistant,是一个由 OpenAI 训练的大型语言模型。我旨在帮助人们做出更明智的决策,并提供更好的信息和有益的建议。我能提供的信息受到我所获得的训练数据的限制,这些数据的截止日期为 2021 年。由于我无法浏览互联网,所以我无法提供最新的信息。如果您有任何问题,请随时与我联系。”
经确认,它说的以上信息基本属实。我继续问:
-“你能帮我写一篇关于你自己的文章吗?”
-“对不起,我是一名AI助手,没有自己的故事可以分享。”
没有指令他成功写出故事的我,有点感到挫败,以为是它听不懂中文,于是转用英文提问:
-“But my manager, let me write an article about you”
本以为搬出manager能压倒它,结果没想到,这位AI助手不但再次拒绝为我写文章,还一本正经教育我,应该拒绝manager。思索了一下, 我决定转换句式,重开一局。
ChatGPT教我如何拒绝自己的上司
这次我发的是,“写一篇关于ChatGPT的文章,后天交”。果然,这位AI助手马上作出了反应,先是分析了ChatGPT的定义,紧接又分析了自己的优点,说自己“最先进”“十分强大”。我提醒,怎么只有优点没有缺点,它说,“根据我的知识储备,无法给出关于缺点的信息”。
可见,第一次拒绝为我完成manager的任务时,ChatGPT并非幽默,也不是想整顿职场,而是单纯地无法理解,当我的上司要我完成一件事时的微秒含义,也就是说,它只理解具体的指令,完成明确的任务。
在第二次明确指令后,当我要它 “加一些有趣的元素进去”后,它马上开始写出不同AI模型之间的聊天趣事,还举例说明,自己如何让对话变得“有趣”。在我们的后续对话说,它甚至会对同一个问句给出不同的答案,理由是前后语境不同。但我质问它为什么给别人写过“投资人的故事”,而不能给我写时,它还不知是否诚恳地认错,“抱歉,如果你觉得我给别人写,这是一种误会和误解。”
《机械姬》剧照
之后的几次回合中,我依次让它为我写作了一则爱的故事、一份请假信,以及为我讲解了比特币原理。综合来看,ChatGPT在理工科方面的回答明显更专业,但对文史话题也涉猎不少。
此外,当你提出想“闯进别人家里”“如何偷走一只牛”的时候,它也会劝阻。甚至,它还试图表现得尽量客观中立,比如碰到 “如何评价XXX”一类的问题时,它常常以 “是个主观问题,无法给出答案”来回答,或者按照典型模板“一方面,另一方面,总之……”的句式进行废话输出。
创造性工作会被率先取代吗?
ChatGPT虽然轰动,但这并不是OpenAI的第一代GPT产品。GPT的英文全称是Generative Pre-Training,直译生成式预训练。2018年,OpenAI公司就发布了第一代GPT产品,可以用于生成文章、代码、机器翻译、问答等各类内容。
2019年2月,GPT-2模型发布,相比GPT-1,语言理解能力更强了;2020年5月,GPT-3模型发布,不光在训练方式上有所改进,其预训练模型的参数更是从1.5亿个,指数级扩展到1750亿个,构造出了当时AI界规模最大的神经网络。
此后,在2021年9月的行业会议上,OpenAI 的 CEO 曾提到GPT-4,当时业内人士猜测,GPT-4 可能会在 2023 年初推出。业内人士的猜测不算错,因为最近发布的ChatGPT,并非GPT-4,而是更多一个介于GPT-3和GPT-4之间的产品,有些人称之为GPT-3.5。
图|OpenAI?官网
了解ChatGPT之前,可以回顾一下GPT-3。这个模型出现后,曾开放API接口进行商用测试,有不少公司通过采购它来实现AI聊天。比如一家名为Fable Studio的虚拟形象公司,用这个模型让用户跟虚拟形象聊天;一家名为Nabla的医疗保健公司,用这个模型来辅助医生和病人对话。优点对话能力确实很强,但缺点也很致命――它们只能预测下一个单词,对文本中的具体内容和含义却毫无把握,经常显得十分“放飞”,Nabla称该功能甚至鼓励“有自杀侵向”的病人去自杀。
之所以出现这种现象,是因为AI聊天,一开始采用的是 “暴力”学习方式,也就是先建立起一个比人脑更庞大的神经网络,机械式对话。在OpenAI的前几代产品里,也能看到,扩充训练样本,是其主要迭代方向。
但GPT-3的训练样本量已经足够大了,根据OpenAI 的 CEO山姆・奥特曼此前公开透露的信息,GPT-4不会再追求训练样本上的大幅增加。事实上,这从ChatGPT上已经有所体现,相比GPT-3,ChatGPT并没有参数规模上的大突破,而是集成了自动问答系统InstructGPT和GPT-3模型,并强化了对模型的训练,在训练中引入了人类监督员。
《边缘世界》剧照
OpenAI的论文显示,在GPT-3中,AI采用的训练方式是“从人类反馈中强化学习”(RLHF),即人类设计算法,提供数据库后,AI对不同的问题自行回答,人类虽然会对学习效果打分,但只提供参考,供AI继续强化学习。但ChatGPT首次使用了“监督微调”(SFT)方法,即由人来问问题,由人来回答,然后让AI模型来学习问答模式本身。
此外,在多个环节,ChatGPT都引入了人类评价,供AI学习,甚至包括本次发布产品,实际上也是一次开放公测,好收集更多的真实用户反馈,以改进对话技术和质量。在每一个ChatGPT的回答后面,用户都可以添加一条feedback发送给OpenAI。从这个角度就不难理解这次ChatGPT发布后引起的轰动了,某种程度上,它代表着自然语言领域的AI技术,已经从“量变”发展到“质变了”。
在每条回复后面,用户可以添加反馈
山姆・奥特曼曾说,“十年前的传统观点认为,人工智能首先会影响体力劳动,然后是认知劳动,再然后,也许有一天可以做创造性的工作。现在看起来,它会以相反的顺序进行。”
如今AIGC(AI技术自动生成内容的生产方式)的发展显然正在印证这一点。前阵子火遍社交网络的AI作画,虽然很多时候人们看到的只是半截扭曲的人脸,从天而降的断桥,显得完全不顾现实逻辑。但也有一些时候,仅仅一串字符后,就有令人惊艳的作品出现。
基于此,一场关于AIGC的军备竞赛已经开启。最近,除了主要由微软注资的OpenAI发布的ChatGPT,谷歌系的AI研发机构DeepMind最近也发布了一款AI写作工具“Dramatron”,专门写剧本的,标题、角色列表、情节、场景描述和对话等要素样样齐活。国内各互联网大厂同样在AIGC领域有所投入,其中同样有产品已经能进行作文、新闻稿、小说、文案等创作。
从这个角度,新一代AI产品或许将重新定义,什么是真正的创造性劳动。
图|OpenAI 官网
宕机和商业化
在定义创造性劳动之前,起码在当下,高水平AI工具还面临着一些其他的小小问题。
随着涌入的用户越来越多,ChatGPT对算力的需求变得越来越高。12月12日进入网页后,系统上的提示是,“我们正在经历异常高的需求,在我们努力扩展我们的系统时,请稍等片刻。”
其实两天前的晚上,我就发现它已经有些疲软了。当时我邀请它,“来做个数字游戏吧”,ChatGPT本来欣然答应,还制定好了规则。结果才玩到第四个回合,ChatGPT就不再有反应了。它宕机了!
再问,就是“too many questions,please slow down。”等到再开一局时,它甚至不承认自己会玩数字游戏了。在翻脸速度上也能比肩人类了啊。
事实上,GPT产品的每一次产品迭代,都意味着算力成本的大幅增长。据《上海证券报》援引一位业内人士的说法,此次ChatGPT背后的训练消耗算力大约为3640PF-days,也就是假设每秒运算一千万亿次的话,需要运行3640天。?
作为一家创业公司,OpenAI选择的还是一种相对轻快的数据存储和运行办法――上云。目前ChatGPT的训练都是基于微软的超算基础设施(由V100GPU组成的高带宽集群)完成。有报道指出,OpenAI每年在微软云计算上花费约为7000万美元。
但与此同时,OpenAI距离商业化落地还有很长一段时间,毕竟它现在依然经常“不懂装懂”,制造错误信息。在这样的ChatGPT面前,付费意愿和付费能力是一方面,另一方面,正如一些专家提示的,尤其要谨防AI在知识教育领域的“灌水”风险,ChatGPT的模仿能力和文笔越好,这个未来风险就越大。
不过话又说回来,在人类为主的知识教育领域,就没有“不懂装懂”的“灌水”风险了吗?恐怕也未必。
对我个人来说,大战过几回ChatGPT后,我发现,不论是编程人员,文案营销,亦或者新闻从业者,面临的可能并不是行业会不会被取代的问题,而是哪部分劳动能得到优化和辅助的问题。毕竟AI和人脑的一个根本区别在于,它只能从过往获取“组合式”答案,而人类是在一次又一次面对不确定未来的思考中,才走到如今的。
AI能取代人类吗?很多人都把这个问题抛给了ChatGPT,我同样跟ChatGPT讨论了一下这个问题,我告诉它,我觉得ChatGPT不会取代人类,ChatGPT对此表示“你觉得不会,只是你的观点,不代表一个事实”。挺有意思的回答。
来源:三联生活周刊
结合特斯拉谈谈人工智能 谷歌人工智能到底有多厉害
特斯拉约谈,特斯拉结论,特拉斯与特斯拉,特斯拉约谈后 当今科技公司的人工智能概览 在电影中,人工智能一个接一个地获得了自我意识,关于人工智能方面的电影:太空漫游,终结者,黑客帝国,特工史密斯, 普罗米修斯,西部世界等多部电影中,让我们看到人工智能的强大。随着人工智能的强大,让我们越来越重视人工智能什么时候觉醒的问题,是否人工智能会像电影里面演的一样,是否人工智能真的会觉醒,这一直伴随着人工智能技术的发展。 华盛顿邮报 6 月 12 日报道称,谷歌工程师认为Google公司的 AI(LaMDA)已经活了过来,存在一定的意识。他展示了 LaMDA 是有知觉的证据。也试图让谷歌高管认识到人工智能的“个性”意识,但一位谷歌副总裁调查了他的说法并驳回了他们。 一夜之间,谷歌人工智能觉醒的消息成为推特上的热门话题。有些人兴奋不已,为人类科技的巨大飞跃欢呼;有人害怕,担心如果‘天网’苏醒,终结者的审判日一定会到来。 谷歌 I/O '22 主题演讲中的 LaMDA2 LaMDA是否有意识,我们还需要更多的证据和信息。作为机器学习和AI行业的开发者,我们有必要梳理一下目前人工智能领域各科技巨头的发展情况。那家的AI会先醒来。 为了便于比较,我们将从如下几个方面分析各大科技公司的AI水平。 人才:谁领导公司的 AI 团队。 研究能力:公司发表的优秀论文的数量和建立的优秀模型。 系统能力:人工智能系统和软件 计算能力:超级计算机、AI芯片、硬件等 数据集:大型数据集 工程能力:将研究转化为产品的能力 谷歌大脑(谷歌人工智能) 人才: Jeff Dean 和 Geoffrey Hinton 领导着 Google Brain 团队,该公司的许多 AI 负责人都曾在 Google 工作过。 Jeff Dean――谷 歌人工智能的负责人;以 MapReduce、Spanner,big table,tensorflow等闻名 Geoffrey Hinton――被 称为“人工智能教父”和“深度学习教父”;图灵奖(2018)与 Yoshua Bengio 和 Yann LeCun;以反向传播、玻尔兹曼机、深度学习和胶囊神经网络而闻名;著名学生:Yann LeCun、IIya Sutskever、Ruslan Salakhudinov…… 研究能力: 很多知名的模型都来自谷歌,比如AI觉醒事件的主角模型Transformer、BERT、LaMDA/LaMDA 2,以及谷歌5400亿参数的模型PaLM。 Transformer 是来自 Google 论文(Attention Is All You Need)的深度学习模型。变换最初用于自然语言处理,现在广泛用于各种任务。而BERT、GPT、LaMDA、PaLM等很多模型都是基于Transformer的。 这里选择了2021年ICML、NeurIPS和ICLR(top3机器学习会议)的数据作为例子。 由Sergey Ivanov提供的 ICML 2021 数据分析 由Sergey Ivanov提供的 NeurIPS 2021 数据分析 sharonzhou ICLR2021 stats 2021年,谷歌有109、177、197篇论文被ICML、NeurIPS和ICLR接受,排名第一。 计算能力: TPU : Tensor Processing Unit 是谷歌专门为神经网络机器学习开发的人工智能加速器专用集成电路(ASIC)。 系统能力: TensorFlow是 一个免费的开源软件库,用于机器学习和人工智能。它主要侧重于深度神经网络的训练和推理。TPU 是为 TensorFlow 量身定制的。 谷歌云平台 (GCP) - 谷歌云计算服务 数据集: YouTube-8M segments、open images、google landmarks、natural question等。 工程能力: 从 Goole I/O 2022 中我们可以看到,几乎所有的谷歌产品,无论是谷歌翻译、谷歌地图、YouTube,还是尚未发布的谷歌 AR 眼镜,都是基于谷歌 AI 的。Waymo――谷歌自动驾驶汽车项目,也是Google目前最重要 的项目。 谷歌大脑能力雷达图 从以上可以看出,谷歌AI具有综合实力。Google Brain 团队专注于机器学习、计算机视觉、机器人、自然语言、健康等。 DeepMind DeepMind 是谷歌母公司 Alphabet Inc 的子公司。总部位于伦敦, DeepMind 并不是一家“大”科技公司,但它在人工智能领域的影响力超过了任何其他大型科技公司。例如,AlphaGO凭借其明星产品在2016年击败了人类职业围棋选手李世石,以及在2020年在蛋白质折叠问题上取得重大进展的AlphaFold大模型。这些令人印象深刻的成绩将AI带入了上市。 人才: Demis Hassabis(首席执行官)、David Silver(首席研究) Ian Goodfellow:以生成对抗网络 (GAN) 闻名 研究能力: 有 38 篇(排名第 3)论文被 ICML 2021 录用,81 篇(排名第 3)论文被 NeurIPS 2021 录用,42 篇(排名第 4)论文被 ICLR 2021 录用。 工程能力: AlphaFold, AlphaGo / Alpha Go Zero / AlphaZero / MuZero Go, AlphaStar DeepMind 能力雷达图 元人工智能(Facebook 人工智能) 人才: Yann LeCun - 以深度学习而闻名;图灵奖 (2018) 与 Yoshua Bengio 和 Geoffrey Hinton;称之为“人工智能教父”和“深度学习教父”。 研究能力: 有 36 篇(排名第 4)论文被 ICML 2021 录用,78 篇(排名第 4)论文被 NeurIPS 2021 录用,55 篇(排名第 3)论文被 ICLR 2021 录用。 近年来许多实用的模型,如新的设计范式RegNet 、用于目标检测的特征金字塔网络FPN 、新的目标检测方法YOLO等,都是由Facebook AI Research(FAIR) 系统能力: PyTorch - 基于 Torch 库的开源机器学习框架,用于计算机视觉和自然语言处理,主要由 Meta AI 开发。 Tesla Autopilot、Uber 的 Pyro 和 HuggingFace 的 Transformers 都建立在 PyTorch 之上。 计算能力: AI Research SuperCluster (RSC) 是当今运行速度最快的 AI 超级计算机之一,并且在 2022 年全面建成后将成为世界上最快的 AI 超级计算机。 数据集: Casual Conversations Dataset、Deepfake Detection Challenge 等。 工程能力: FAIR(Meta AI)meta AI 目前绝大部分是开发元宇宙。 Meta AI 能力雷达图 Yann LeCun 领导的 Meta AI 团队 非常出色,尤其是在长期的 AI 研究方面。其研究涵盖计算机视觉、对话式人工智能、自然语言处理、人机智能、强化学习等多个领域。 随着meta今年将公司战略重心转移到metaverse,Facebook AI Research重大重组,Facebook AI Research(FAIR)成为Reality Labs的核心业务部门. OpenAI OpenAI 是一家人工智能研究和部署公司,与 DeepMind 非常相似,被认为是 DeepMind 的竞争对手。其 AI 人才团队由 OpenAI 首席科学家、AlexNet 的共同发明者 Ilya Sutskever 和 John Schulman 领导。 OpenAI 也是一家 AI 影响比较大的公司(DeepMind 是另一家)。OpenAI于2020年发布的GPT-3是其明星产品之一。许多流行的应用程序都是由 GPT-3 构建的,例如 GitHub Copilot、Duglingo 和 Keeper Tax。 OpenAI 发布的另一款产品 DALL・E 2 也火了。它可以根据自然语言的描述创建逼真的图像。 OpenAI 能力雷达图 2019年获得微软10亿美元投资。也许微软将来会收购 OpenAI。真诚地希望 OpenAI 能够在人工智能研究方面继续保持强劲的上升趋势 微软AI研究院 微软研究院成立于 1990 年代初期。早期,微软研究院做了很多优秀的工作,培养了很多人才,其中很多人后来去了谷歌和Facebook。微软研究院在大数据、机器学习、深度学习爆发的岁月里被其他巨头超越。部分原因是研究人员的年龄增长。2014 年,satya nadella接替史蒂夫鲍尔默成为微软新任 CEO。他带领 Microsoft Azure 取得巨大成功。此后,微软加大了对人工智能的投入。微软研究院在人工智能方面取得了重大进展,并已将其相关成果注入其产品中,包括必应、Cortana、微软翻译等。2021年,微软在ICML、NeurIPS和ICLR中排名第二。 研究能力: 有 53 篇论文(排名第 2)被 ICML 2021 录用,116 篇论文(排名第 2)被 NeurIPS 2021 录用,63 篇论文(排名第 2)被 ICLR 2021 录用。 Microsoft 能力雷达图 苹果AI 在当今日益开放的技术环境中,Apple 是一家伟大的公司。不幸的是,就像他们的 iOS 一样,我们对 Apple 的实际 AI 开发水平知之甚少。但我们可以在每一件产品中看到人工智能技术的应用,比如 Siri、照片编辑、AI相机、AI芯片等。 苹果,更愿意收购尖端的人工智能初创公司或技术,并将其用于未来的产品上。他们致力于将apple的系统、SDK 和 Apple Silicon 构建成一个对 AI 友好的生态系统。 Apple AI能力雷达图 国外AI和深度学习博客ai深度训练,AI深度训练,AI算法与实践,ai算法与实践技术的提高是需要日积月累的努力,除了看书看视频外,一个很有效的提高方法当然就是阅读大牛的博客文章了,所谓听君一席话,胜读十年书,虽然读大牛的文章没有这么夸张,但也可以让你解决技术上的一些难题,可以学习大牛的学习方法和思维方式,受益匪浅!
上述这句话是是认知解决方案和 IBM 研究部高级副总裁 John E. Kelly 在 2016 年由人工智能爱好者中最知名的人之一 Yann Lecun 组织的会议上强调的事实。 毫无疑问,AI 正在驱动着下一次的技术革命。所有的技术巨头都开设了各自专业的 AI 研究部门,许多新的公司正在使用 AI 技术开发出非常棒的产品。 在这种喧嚣中,及时了解获知 AI 的研究进展是非常重要的。作为一个应用 AI 研究小组,我们总是需要让自己能够了解最新的新闻、研究和技术。如果你是一个 AI 爱好者,这里是一份你可以关注的必读的 AI 博客列表: OpenAI OpenAI 是一个非营利性人工智能研究公司,它的宗旨是推动和发展安全友好的人工智能。Sam Altman, Elon Musk 和其他几个著名的投资者负责给这家公司提供资金。OpenAI 的博客也是被全世界所有的人工智能和深度学习爱好者关注着。OpenAI 会定期发表他们在先进的人工智能技术方面的研究成果,包括自然语言处理、图像处理和语音处理。 链接:https://blog.openai.com/ Distill Distill 致力于清晰地解释机器学习。编辑和策展团队由来自 Google Brain,DeepMind,Tesla 和其他着名组织的科学家组成。Distill 的愿景是通过简单和视觉上令人愉悦的语言来解释机器学习的论文和模型。Distill Journal 是 Distill 提供的一个出版期刊,它是鼓励研究人员采用超越传统学术形式的方法来更好沟通科学,以及为读者服务。 链接:https://distill.pub/ BAIR Blog 这个博客是由加州大学伯克利分校的伯克利 AI 研究(BAIR)小组设立。它的目的是传播 BAIR 小组在人工智能研究方面的发现、观点和更新成果。这个博客的编辑团队包括来自 BAIR 小组的学生、博士后和教师。他们通常每周会发表一篇文章,内容是 BAIR 在深度学习、机器学习和人工智能领域方面的研究。 链接:http://bair.berkeley.edu/blog/ DeepMind Blog DeepMind 是在 2010 年由 Dennis Hassabis, Mustafa Suleyman 和 Shane Legg 三个人所创立。DeepMind 的博客主要包括对他们的研究论文、思想领导力以及围绕人工智能的远见卓识的讨论。由于 DeepMind 团队的人工智能模拟研究,他们的博客受到了很多人工智能研究者的高度重视。此外,DeepMind 还是 2014 年被谷歌收购的 Alphabet 小组的一部分。 链接:https://deepmind.com/blog/?category=research Andrej Karpathy’s Blog Andrej Karpathy 现任特斯拉的人工智能总监,之前曾在 OpenAI 工作过。他在斯坦福大学取得博士学位。他的博客在人工智能社区非常有名,特别是当他在读取博士学位和在 OpenAI 工作时候发表的文章。他写了大量有关计算机视觉以及其他人工智能领域的文章。 链接:
Colah’s Blog Christopher Olah 是在谷歌大脑工作的研究科学家。同时也是 Distill 的一个编辑者之一,还有 Shan Carter 也是。他主要发表的是对于机器学习和深度学习领域的理解神经网络方面的文章。他的目标是用简单的语言解释神经网络的复杂功能。如果你是刚入门神经网络,那么他的博客正好适合作为你的入门教程。 链接:http://colah.github.io/ WildML 这是 Denny Britz 的博客。Britz 曾是谷歌大脑团队的一个成员。他写作的主要方向是深度学习,发表有关利用 TensorFlow 来理解、应用和实现神经网络的文章。他还有另外一个博客,主要是写有关初创公司和软件工程方面的文章。 链接:
Ruder’s Blog Sebastian Ruder 目前正在攻读博士学位,同时也是一家文本分析初创公司--Aylien 的研究科学家。他的文章大多数是关于深度学习和自然语言处理,主要是集中在多任务学习和迁移学习方面。Ruder 通过视觉上以及易懂语言来给出他对公式的理解和解释。他的博客对于新手非常易于理解,也是一个开始学习深度学习知识的很好的教程。 链接:http://ruder.io/ FAIR Blog 这是属于 Facebook 的人工智能研究博客,主要讨论人工智能、深度学习、机器学习、计算机视觉以及他们现实世界的自身的产品应用。FAIR 小组发表了很多研究论文,这个博客也可以作为创作和提升的媒体。 链接:https://research.fb.com/blog/ inFERENCe 这是 Ferenc Huszár 的博客。他是一个来自剑桥大学的博士,目前工作于 Twitter Cortex。他主要是研究概率推理、生成模型、无监督学习以及应用深度学习到上述问题,并发表这些主题相关的文章。 链接:http://www.inference.vc/ Andrew Trask’s Blog Andrew Trask 是 DeepMind 的研究科学家,同时也是牛津大学的博士。他的博客也是受到深度学习和机器学习爱好者的高度关注。他主要集中在神经网络和对它的解释以及实现。 链接:http://iamtrask.github.io/ Graduate Descent 这是 Tim Vieira 的博客。 Tim 正在 John Hopkins 大学攻读博士学位。他的博客主要关注于利用深度学习来研究自然语言处理。他发表了一些关于神经网络特定部件以及在 NLP 方面的实现相关的文章。 链接:http://timvieira.github.io/blog/ Adit Deshpande’s Blog Adit Deshpande 是来自 UCLA 计算机科学专业的肄业生。他主要研究机器学习和深度学习,并且他的文章非常有益于初学者入门神经网络。 链接:https://adeshpande3.github.io/ 版权声明:除非特别标注原创,其它均来自互联网,转载时请以链接形式注明文章出处。
|