淘优惠

淘优惠

写博客

热门文章 0

1、网页复制大家应该都遇到过这种情况吧像这种情况怎么办呢,很简单,方法也很多,最简单的就是就地取材。方法一:用翻译获取,我们用鼠标选择一部分后会自动出现翻译,没有出现翻译需要等一到两秒(如果实在没有可以往下看看别的复制方法),我们点击翻译然后会出现一个百度翻译,我们点击百度翻译它会自动跳转到百度翻译页面,我们可以直接复制就行了方法二:用网页控制台,我们F12打开控制台,F12打不开控制台的可以试试Fn+F12,或者右键检查,打开控制台后...

2022年 必读的AI和深度学习博客


技术的提高是需要日积月累的努力,除了看书看视频外,一个很有效的提高方法当然就是阅读大牛的博客文章了,所谓听君一席话,胜读十年书,虽然读大牛的文章没有这么夸张,但也可以让你解决技术上的一些难题,可以学习大牛的学习方法和思维方式,受益匪浅!

接下来会介绍一些 AI 和深度学习方面的博客。

原文:Must-read Blogs for AI and Deep Learning Enthusiasts

?

我从没有遇见过可以和人工智能和认知计算相匹配来改变世界的事物

上述这句话是是认知解决方案和 IBM 研究部高级副总裁 John E. Kelly 在 2016 年由人工智能爱好者中最知名的人之一 Yann Lecun 组织的会议上强调的事实。

毫无疑问,AI 正在驱动着下一次的技术革命。所有的技术巨头都开设了各自专业的 AI 研究部门,许多新的公司正在使用 AI 技术开发出非常棒的产品。

在这种喧嚣中,及时了解获知 AI 的研究进展是非常重要的。作为一个应用 AI 研究小组,我们总是需要让自己能够了解最新的新闻、研究和技术。如果你是一个 AI 爱好者,这里是一份你可以关注的必读的 AI 博客列表:

OpenAI

OpenAI 是一个非营利性人工智能研究公司,它的宗旨是推动和发展安全友好的人工智能。Sam Altman, Elon Musk 和其他几个著名的投资者负责给这家公司提供资金。OpenAI 的博客也是被全世界所有的人工智能和深度学习爱好者关注着。OpenAI 会定期发表他们在先进的人工智能技术方面的研究成果,包括自然语言处理、图像处理和语音处理。

链接:blog.openai.com/

Distill

Distill 致力于清晰地解释机器学习。编辑和策展团队由来自 Google Brain,DeepMind,Tesla 和其他着名组织的科学家组成。Distill 的愿景是通过简单和视觉上令人愉悦的语言来解释机器学习的论文和模型。Distill Journal 是 Distill 提供的一个出版期刊,它是鼓励研究人员采用超越传统学术形式的方法来更好沟通科学,以及为读者服务。

链接:distill.pub/

BAIR Blog

这个博客是由加州大学伯克利分校的伯克利 AI 研究(BAIR)小组设立。它的目的是传播 BAIR 小组在人工智能研究方面的发现、观点和更新成果。这个博客的编辑团队包括来自 BAIR 小组的学生、博士后和教师。他们通常每周会发表一篇文章,内容是 BAIR 在深度学习、机器学习和人工智能领域方面的研究。

链接:bair.berkeley.edu/blog/

DeepMind Blog

DeepMind 是在 2010 年由 Dennis Hassabis, Mustafa Suleyman 和 Shane Legg 三个人所创立。DeepMind 的博客主要包括对他们的研究论文、思想领导力以及围绕人工智能的远见卓识的讨论。由于 DeepMind 团队的人工智能模拟研究,他们的博客受到了很多人工智能研究者的高度重视。此外,DeepMind 还是 2014 年被谷歌收购的 Alphabet 小组的一部分。

链接:deepmind.com/blog/?categ…

Andrej Karpathy’s Blog

Andrej Karpathy 现任特斯拉的人工智能总监,之前曾在 OpenAI 工作过。他在斯坦福大学取得博士学位。他的博客在人工智能社区非常有名,特别是当他在读取博士学位和在 OpenAI 工作时候发表的文章。他写了大量有关计算机视觉以及其他人工智能领域的文章。

链接:

  • karpathy.github.io/
  • medium.com/@karpathy/

Colah’s Blog

Christopher Olah 是在谷歌大脑工作的研究科学家。同时也是 Distill 的一个编辑者之一,还有 Shan Carter 也是。他主要发表的是对于机器学习和深度学习领域的理解神经网络方面的文章。他的目标是用简单的语言解释神经网络的复杂功能。如果你是刚入门神经网络,那么他的博客正好适合作为你的入门教程。

链接:colah.github.io/

WildML

这是 Denny Britz 的博客。Britz 曾是谷歌大脑团队的一个成员。他写作的主要方向是深度学习,发表有关利用 TensorFlow 来理解、应用和实现神经网络的文章。他还有另外一个博客,主要是写有关初创公司和软件工程方面的文章。

链接:

  • www.wildml.com/
  • blog.dennybritz.com/

Ruder’s Blog

Sebastian Ruder 目前正在攻读博士学位,同时也是一家文本分析初创公司--Aylien 的研究科学家。他的文章大多数是关于深度学习和自然语言处理,主要是集中在多任务学习和迁移学习方面。Ruder 通过视觉上以及易懂语言来给出他对公式的理解和解释。他的博客对于新手非常易于理解,也是一个开始学习深度学习知识的很好的教程。

链接:ruder.io/

FAIR Blog

这是属于 Facebook 的人工智能研究博客,主要讨论人工智能、深度学习、机器学习、计算机视觉以及他们现实世界的自身的产品应用。FAIR 小组发表了很多研究论文,这个博客也可以作为创作和提升的媒体。

链接:research.fb.com/blog/

inFERENCe

这是 Ferenc Huszár 的博客。他是一个来自剑桥大学的博士,目前工作于 Twitter Cortex。他主要是研究概率推理、生成模型、无监督学习以及应用深度学习到上述问题,并发表这些主题相关的文章。

链接:www.inference.vc/

Andrew Trask’s Blog

Andrew Trask 是 DeepMind 的研究科学家,同时也是牛津大学的博士。他的博客也是受到深度学习和机器学习爱好者的高度关注。他主要集中在神经网络和对它的解释以及实现。

链接:iamtrask.github.io/

Graduate Descent

这是 Tim Vieira 的博客。 Tim 正在 John Hopkins 大学攻读博士学位。他的博客主要关注于利用深度学习来研究自然语言处理。他发表了一些关于神经网络特定部件以及在 NLP 方面的实现相关的文章。

链接:timvieira.github.io/blog/

Adit Deshpande’s Blog

Adit Deshpande 是来自 UCLA 计算机科学专业的肄业生。他主要研究机器学习和深度学习,并且他的文章非常有益于初学者入门神经网络。

链接:adeshpande3.github.io/


An Overview of GPT


GPT-3 or Generative Pertained Transformer-3 is a neural language model from OpenAI. OpenAI launched this beta service last month. This has helped the people to understand the various amazing things that GPT-3 is capable of performing. GPT-3 has been built by feeding it with most of the web contents including coding tutorials, literature works etc. This model has around 175 billion parameters as compared to its predecessor GPT-2 which had only 1.5 billion parameters.

  • GPT-3 requires only a few-shot demonstration via textual information, as it is already trained with a huge amount of data.
  • It can develop the suitable widgets for our website using the text input we give.
  • It is capable of writing stories, code, poems, etc.
  • Furthermore, it has the ability to write any piece of article in a particular personality's essence. For eg: Write a news report in the style of J.K. Rowling.
  • It is generally difficult to distinguish between the human written and GPT-3 generated articles.
  • GPT-3 has been quite impressive in the beta test run and has found its place in various fields. OpenAI is planning to commercialize this product later this year.

Similar to any other product, GPT-3 also has some drawbacks like;=> Reply with the wrong answer to invalid questions.=> GPT-3 lacks the power of reasoning and common sense. This is clearly illustrated in Kevin Lacker's blog.

The blog link:- Kevin Lacker's blog

It is a human tendency to exaggerate the negative effects of technology. But it also turns into a benefit in the long run as we can equip ourselves to overcome the negative sides.

Here, the loss of job in many fields, like web development, the writing industry, news reporting etc. have been of concern due to the enhancements in AI. It is a bitter truth that some people will surely get affected by this new technology. But the point to note here is that the one with skills need not worry as they can survive this by constantly evolving and adapting himself into the new technologies. The thing to remember is, "change is constant."

There is no doubt that GPT-3 is a huge technical achievement in the field of AI. But more accurate and interesting advancements are yet to come.