淘优惠

淘优惠

江门方行软件网络科技有限公司

热门文章 0

大家好,今天是12月1日星期四。

快来跟日报君看看,今天科技圈发生了哪些新鲜事~

马斯克与苹果的闹剧以和解告终。

当地时间周三下午,马斯克在推特上发布了一段苹果总部的视频,并配文感谢苹果CEO库克带他参观。

在随后的推文中,马斯克还称跟库克进行了友好的对话,推特和苹果的误解得到了解决,苹果从未考虑过将推特从应用商店下架。

这一反应与他本周早些时候激烈的态度有所不同,当时,马斯克曾连发11条推特声讨苹果:

他表示苹果已经基本停止在推特上做广告,并公开指责苹果垄断市场,批评苹果威胁将推特从其应用商店下架。

据Platformer记者推测,苹果不止向推特一家公司发送邮件,警告他们检查内容审核操作,否则将面临从App Store下架的风险,这或许是最初误会产生的原因。

一份校招污点名单在GitHub火了,目前已获星1.2k。

创办人在详情页介绍了自己做这份名单的初衷:

为什么只允许公司做海王把应届生当,不能学生自己当海王去养公司的呢?

该名单界定的校招污点行为包括但不限于:毁意向书、毁两方协定、毁三方协定、试用期裁员、大量裁应届生。

主要信息来自于牛客、脉脉、知乎等公开论坛。

除了黑名单外,还收集了一份无污点公司名单,以及往届学长学姐踩坑分享。(链接附在文末)

苹果M2 Max芯片Geekbench跑分意外曝光:

单核成绩1853分,多核成绩13855分,相较上代M1 Max的1755分和12333分有小幅度提升。

除此之外,苹果M2 Max采用全新12核心规格,内存配置高达96GB。

作为对比,苹果M1 Max为10核规格,GPU最高为32核,支持64GB内存。

据彭博社记者Mark Gurman消息,新款芯片预计将在明年春季发布的MacBook Pro上正式登场。

小米、华为、IQOO相继发布通知,原定于这周的新品发布会均延期举行。

三个品牌均表示,新的发布日期确认后,将第一时间通知大家。

OpenAI最新推出一款名为“ChatGPT”的聊天AI。

ChatGPT是在GPT-3.5系列中的一个模型上进行微调而成,该系列已在2022年初完成了训练。

在展示例子中,ChatGPT既能够回答问题,也能承认错误、质疑不正确的前提以及拒绝不适当的请求。

不过OpenAI也承认,ChatGPT还存在回答过于冗长、过度使用某些短语等问题。

值得一提的是,目前ChatGPT处于免费试用阶段,有条件的小伙伴可以赶紧去试试。

据经济日报消息,台积电分红奖金近日曝光。

有台积电员工分享他是一位31职等工程师,工龄只有8个月,分红领到3.8个月。

以网友分享的台积电年薪计算方式来看,台积电固定年薪14个月,分红月数需要乘以8,因为台积电分红分八包发,前四次各一包,隔年下半年某月会把前一年剩下的四包一次发。

因此分红3.8个月为一包,乘以8包共30.4个月,再加上年薪14个月,网友共可拿44.4个月薪。

除此之外,该员工还表示“工作到现在还没加班过”。

校招污点名单:https://github.com/forthespada/CampusShame#

文章转载于:https://www.qbitai.com/2022/12/40015.html

声明:本网部份文章为转载文章,文章的观点和立场仅代表作者个人立场,不代表本网立场,若是文章转载中有侵范您的权益,请发邮件到156770636@qq.com或致电0750-3117221通知删除,谢谢!


人工智能成熟化 人工智能新创新

人工智能成熟度,人工智能成熟应用事例,人工智能成熟期,人工智能成熟产品

原创:可厉儿 超参数科技

AI研究的理想之一是打造一个在广度适应性上都能媲美人类的系统,这种系统通常被称为通用人工智能(AGI,Artificial General Intelligence)。在“如何使AGI具备智能”这个问题上,如果对标“生命是如何诞生的”,至少有两个可能的方向:设计思路进化思路。前者认为宇宙中生命的出现就像荒野上出现了一块精密的钟表,一定是由上帝这个“钟表匠”设计出来的;后者则认为生命来源于自然选择,这位钟表匠是盲眼的,他遵循非常简单的规则造就出了复杂生命。相应的,设计思路希望通过硬编码实现AGI;进化思路则试图构建一个复杂环境,让AGI自然涌现于这个系统中。可想而知,前者的实现难度极高,于是人们转向后者,并采取了一些尝试。

生命游戏是计算机涌现式设计中最著名的例子,1970年由剑桥大学的John Conway编制。在这个程序里,生命在一个二维方格世界上运转,每个方格作为一个生命体,具备生存、死亡两种状态。任一方格周围的8个方格称为它的邻居。方格的状态会随时间变化,变化仅依赖于其自身及邻居的状态。这些变化遵循4条非常简单的规则 - 1)存活细胞周围邻居数<2时,该细胞死亡。2)存活细胞周围邻居数=2时,该细胞存活。3)存活细胞周围邻居数>2时,该细胞死亡。4)死亡细胞周围邻居数=3时,该细胞获得生命。基于这些简单规则和随机初始值,大量个体通过互相作用,在系统层面上涌现出了复杂的行为。从简单的这些:

到复杂的这些:

甚至这些:

很难想象,这些如同工厂车间、作战编队甚至物种文明的行为,竟然无需依靠硬编码,而是自发产生的。当然,这些行为是否可以被算作真正的智能还有待讨论,毕竟智能体在整个过程中并无法做出选择,演化结果在初始状态时就已完全确定。如果在其中加入更多随机性,能否产生更强的智能呢?

凯文・凯利在《失控》一书中介绍过一个有趣的研究,发生在更早的90年代初,来自生态学家Tom Ray。实验过程是这样的:划出一块特定的内存空间(称之为“伊甸园”),在其中设置一段80字节的代码(称之为“亚当”),亚当会在伊甸园里自我复制、抢占内存。同时他还引入了变异机制和死亡机制,前者使程序复制时有一定概率发生转码错误,后者会清除太老或无效的程序。设定完这些后,Tom启动了程序。

图一:伊甸园,程序复制占据内存。具备变异(闪电)和死亡(骷髅)。图二:宿主,有3个基因组(绿方块),通过CPU(绿球)复制自己。图三:寄生虫,有2个基因组(蓝方块),通过CPU(蓝球)基于邻近宿主基因组复制自己。图四:超寄生虫,有3个基因组(红方块),从寄生虫窃取CPU(蓝球),可同时生成2个复制体

一觉醒来,Tom发现这个伊甸园里经历了史诗般的进化历程。最开始时,亚当80不断自我复制,直到占满内存。接着,变异产生了全新的45,这个45是个寄生程序,通过吃掉80来繁殖自己。就在80即将灭绝的时候,80发生了一次变异成为了79,79对45是免疫的,45因为找不到宿主而逐渐饿死了。这之后,又陆续出现了反制79的全新寄生程序51,以及寄生在51身上的超寄生程序22等等,最新一统伊甸园的正是这个22。

红色:宿主程序80;黄色:寄生程序45;蓝色:带免疫宿主程序79图一:宿主统治内存,寄生虫开始浮现。图二:寄生虫统治内存,宿主消减,免疫宿主开始浮现。图三:免疫宿主把寄生虫挤到内存上方区域。图四:免疫宿主统治内存,原宿主和寄生虫面临灭绝。

有趣的是,这个22字节的代码非常简洁。Tom原本猜想进化或许能把80字节降到75字节左右。他发给一位麻省理工的程序员看,对方表示自己的最好成绩也需要31字节。可见,无目的的随机进化竟然超越了人类精雕细琢的手工编码。这也不禁让人好奇,如果在随机性之上再让智能体有更多选项可以自主选择,能否产生更强的智能呢?

今年初,OpenAI发布了一款名为Neural MMO的大型多智能体游戏环境,可以说是到目前为止对文明进化的最好模拟。这个游戏中没有人类玩家,全部是AI智能体。智能体需要在游戏中探索地图、争夺资源、消灭竞争者,最大化自身的存活时间。

Neural MMO 游戏规则

游戏开始时,AI会出生在地图边缘,自带32点食物、32点水和10点生命。每回合消耗1点食物和1点水,当食物或水降为0后每回合扣1点血,血条为0时死亡。环境中有6种地形:石头:不可通行;岩浆:会杀死AI;水域:不可通行,在附近时获得5点水。水资源无限;草地:可通行;森林:可通行,经过时获得5点食物。之后变为灌木丛;灌木丛:可通行。每回合有2.5%几率变为森林。

由于竞争的引入,游戏中加入了3种攻击方式:近战:给1格内敌人造成10点伤害;远攻:给2格内敌人造成2点伤害;魔法:给3格内敌人造成1点伤害,并冻在原地2回合。每造成1点伤害,AI可以从对方身上获得1点食物和1点水。刚出生的AI有15回合的新手保护。

不难发现,从这些设定来看,游戏本身已经很接近真实文明的发展环境,智能体也表现出了更丰富的行为。比如学会了猥琐发育,即使不得已要打架也尽量避免肉搏(以免被秒);比如经过更大群体训练的智能体更愿意探索、也更有技巧,说明了“残酷竞争可以更好地激发出智能潜力”;比如不同种群(同一种群共享参数权重)的智能体倾向于占据不同地理位置,有的隐居山林、有的沿江发育,十分接近真实的文明发展历程。从完全依赖初始值无随机无选择生命游戏,到加入一定随机性人工生命Tierra,再到赋予AI选择权利Neural MMO,我们看到在更复杂更多变的环境下,AI也涌现出了更强的智能。而随着AI技术的进一步发展,模拟环境可能还会做到更逼真,包括但不限于:1)加入繁衍:允许智能体传宗接代、遗传、变异等。2)加入语言:允许智能体间通信,带来博弈可能。3)更丰富的行为:加入建造、种植、装备等行为。

如果把现有的AI能力想象成一个球体,这个球体上有些柱子很长:比如记忆/存储、逻辑运算、翻译、视觉/语音感知等,有些柱子还很短:比如文学、社交、艺术、创造等。现有的AI研究路径更接近设计思路,即希望通过逐个提升不同柱子的长度,拼凑并扩大整个球体的体积。但球体表面始终是坑坑洼洼的,意味着AI能力始终是在某些任务上表现好、某些任务上不行。而如果选择进化思路,理想的情况可能会是这样:这个球体初期非常小,但随着不断的训练和学习,会逐渐变大。球体上没有柱子的概念,永远是一个完整的球体。AI会更接近一个生命的成长过程,虽然能力仍然是逐渐从弱到强,但始终是全面的、通用的、灵活的。这可能会让我们距离AGI这个终极目标,更近一步。

参考资料:[1]生命游戏:[2]人工生命Tierra:[3]Neural MMO


深度学习如何入门


本题已加入知乎圆桌 ?「机器学习 ・ 学以致用」,更多「机器学习」相关话题讨论欢迎关注。

具体需要经历以下几个步骤:

  • 深度学习整体概述:了解深度学习的前世今生、为什么会爆发深度学习热潮?代表的技术有哪些,涉及到什么样的领域、产品、公司,以及各行各业中的应用。尽可能的科普深度学习的相关知识;
  • 深度学习概论知识:深度学习、机器学习、人工智能等区别和联系;
  • 深度学习预备知识:数学基础(线性代数、矩阵、概率统计、优化等等)、机器学习基础、编程基础;
  • 深度学习核心知识:神经网络、深度网络结构、图像任务、语音任务、自然语言任务;
  • 深度学习进阶知识:如何使用深度学习框架,完成网络的搭建、训练。
  • 知道什么是深度学习
  • 知道深度学习的应用场景

在介绍深度学习之前,我们先看下人工智能,机器学习和深度学习之间的关系:

机器学习是实现人工智能的一种途径,深度学习是机器学习的一个子集,也就是说深度学习是实现机器学习的一种方法。与机器学习算法的主要区别如下图所示:

传统机器学习算术依赖人工设计特征,并进行特征提取,而深度学习方法不需要人工,而是依赖算法自动提取特征。深度学习模仿人类大脑的运行方式,从经验中学习获取知识。这也是深度学习被看做黑盒子,可解释性差的原因。

随着计算机软硬件的飞速发展,现阶段通过深度学习来模拟人脑来解释数据,包括图像,文本,音频等内容。目前深度学习的主要应用领域有:

  • 智能手机
  • 语音识别

比如苹果的智能语音助手siri

  • 机器翻译

谷歌将深度学习方法嵌入到谷歌翻译中,能够支持100多种语言的即时翻译。

  • 拍照翻译
  • 自动驾驶

当然在其他领域也能见到深度学习的身影,比如风控,安防,智能零售,医疗领域,推荐系统等。

  • 深度学习其实并不是新的事物,深度学习所需要的神经网络技术起源于20世纪50年代,叫做感知机。当时也通常使用单层感知机,尽管结构简单,但是能够解决复杂的问题。后来感知机被证明存在严重的问题,因为只能学习线性可分函数,连简单的异或(XOR)等线性不可分问题都无能为力,1969年Marvin Minsky写了一本叫做《Perceptrons》的书,他提出了著名的两个观点:1.单层感知机没用,我们需要多层感知机来解决复杂问题 2.没有有效的训练算法。
  • 20世纪80年代末期,用于人工神经网络的反向传播算法(也叫Back Propagation算法或者BP算法)的发明,给机器学习带来了希望,掀起了基于统计模型的机器学习热潮。这个热潮一直持续到今天。人们发现,利用BP算法可以让一个人工神经网络模型从大量训练样本中学习统计规律,从而对未知事件做预测。这种基于统计的机器学习方法比起过去基于人工规则的系统,在很多方面显出优越性。这个时候的人工神经网络,虽也被称作多层感知机(Multi-layer Perceptron),但实际是种只含有一层隐层节点的浅层模型。
  • 20世纪90年代,各种各样的浅层机器学习模型相继被提出,例如支撑向量机(SVM,Support Vector Machines)、 Boosting、最大熵方法(如LR,Logistic Regression)等。这些模型的结构基本上可以看成带有一层隐层节点(如SVM、Boosting),或没有隐层节点(如LR)。这些模型无论是在理论分析还是应用中都获得了巨大的成功。相比之下,由于理论分析的难度大,训练方法又需要很多经验和技巧,这个时期浅层人工神经网络反而相对沉寂.
  • 2006年,杰弗里・辛顿以及他的学生鲁斯兰・萨拉赫丁诺夫正式提出了深度学习的概念。他们在世界顶级学术期刊《科学》发表的一篇文章中详细的给出了“梯度消失”问题的解决方案――通过无监督的学习方法逐层训练算法,再使用有监督的反向传播算法进行调优。该深度学习方法的提出,立即在学术圈引起了巨大的反响,以斯坦福大学、多伦多大学为代表的众多世界知名高校纷纷投入巨大的人力、财力进行深度学习领域的相关研究。而后又迅速蔓延到工业界中。
  • 2012年,在著名的ImageNet图像识别大赛中,杰弗里・辛顿领导的小组采用深度学习模型AlexNet一举夺冠。AlexNet采用ReLU激活函数,从根本上解决了梯度消失问题,并采用GPU极大的提高了模型的运算速度。同年,由斯坦福大学著名的吴恩达教授和世界顶尖计算机专家Jeff Dean共同主导的深度神经网络――DNN技术在图像识别领域取得了惊人的成绩,在ImageNet评测中成功的把错误率从26%降低到了15%。深度学习算法在世界大赛的脱颖而出,也再一次吸引了学术界和工业界对于深度学习领域的关注。
  • 2016年,随着谷歌公司基于深度学习开发的AlphaGo以4:1的比分战胜了国际顶尖围棋高手李世石,深度学习的热度一时无两。后来,AlphaGo又接连和众多世界级围棋高手过招,均取得了完胜。这也证明了在围棋界,基于深度学习技术的机器人已经超越了人类。
  • 2017年,基于强化学习算法的AlphaGo升级版AlphaGo Zero横空出世。其采用“从零开始”、“无师自通”的学习模式,以100:0的比分轻而易举打败了之前的AlphaGo。除了围棋,它还精通国际象棋等其它棋类游戏,可以说是真正的棋类“天才”。此外在这一年,深度学习的相关算法在医疗、金融、艺术、无人驾驶等多个领域均取得了显著的成果。所以,也有专家把2017年看作是深度学习甚至是人工智能发展最为突飞猛进的一年。
  • 2019年,基于Transformer 的自然语言模型的持续增长和扩散,这是一种语言建模神经网络模型,可以在几乎所有任务上提高NLP的质量。Google甚至将其用作相关性的主要信号之一,这是多年来最重要的更新
  • 2020年,深度学习扩展到更多的应用场景,比如积水识别,路面塌陷等,而且疫情期间,在智能外呼系统,人群测温系统,口罩人脸识别等都有深度学习的应用。

总结

  • 深度学习是什么

深度学习是机器学习算法的一种,通过模拟人脑实现相应的功能

  • 深度学习应用场景

手机,机器翻译,自动驾驶,语音识别,医疗,安防等。

OpenAI 是一个非营利性人工智能研究公司,它的宗旨是推动和发展安全友好的人工智能。Sam Altman, Elon Musk 和其他几个著名的投资者负责给这家公司提供资金。OpenAI 的博客也是被全世界所有的人工智能和深度学习爱好者关注着。OpenAI 会定期发表他们在先进的人工智能技术方面的研究成果,包括自然语言处理、图像处理和语音处理。 链接:blog.openai.com/

Distill 致力于清晰地解释机器学习。编辑和策展团队由来自 Google Brain,DeepMind,Tesla 和其他着名组织的科学家组成。Distill 的愿景是通过简单和视觉上令人愉悦的语言来解释机器学习的论文和模型。Distill Journal 是 Distill 提供的一个出版期刊,它是鼓励研究人员采用超越传统学术形式的方法来更好沟通科学,以及为读者服务。 链接:distill.pub/

这个博客是由加州大学伯克利分校的伯克利 AI 研究(BAIR)小组设立。它的目的是传播 BAIR 小组在人工智能研究方面的发现、观点和更新成果。这个博客的编辑团队包括来自 BAIR 小组的学生、博士后和教师。他们通常每周会发表一篇文章,内容是 BAIR 在深度学习、机器学习和人工智能领域方面的研究。 链接:bair.berkeley.edu/blog/

DeepMind 是在 2010 年由 Dennis Hassabis, Mustafa Suleyman 和 Shane Legg 三个人所创立。DeepMind 的博客主要包括对他们的研究论文、思想领导力以及围绕人工智能的远见卓识的讨论。由于 DeepMind 团队的人工智能模拟研究,他们的博客受到了很多人工智能研究者的高度重视。此外,DeepMind 还是 2014 年被谷歌收购的 Alphabet 小组的一部分。 链接:deepmind.com/blog/?categ…

Andrej Karpathy 现任特斯拉的人工智能总监,之前曾在 OpenAI 工作过。他在斯坦福大学取得博士学位。他的博客在人工智能社区非常有名,特别是当他在读取博士学位和在 OpenAI 工作时候发表的文章。他写了大量有关计算机视觉以及其他人工智能领域的文章。 链接:

  • karpathy.github.io/
  • medium.com/@karpathy/

Christopher Olah 是在谷歌大脑工作的研究科学家。同时也是 Distill 的一个编辑者之一,还有 Shan Carter 也是。他主要发表的是对于机器学习和深度学习领域的理解神经网络方面的文章。他的目标是用简单的语言解释神经网络的复杂功能。如果你是刚入门神经网络,那么他的博客正好适合作为你的入门教程。 链接:colah.github.io/

这是 Denny Britz 的博客。Britz 曾是谷歌大脑团队的一个成员。他写作的主要方向是深度学习,发表有关利用 TensorFlow 来理解、应用和实现神经网络的文章。他还有另外一个博客,主要是写有关初创公司和软件工程方面的文章。 链接:

  • www.wildml.com/
  • blog.dennybritz.com/

Sebastian Ruder 目前正在攻读博士学位,同时也是一家文本分析初创公司--Aylien 的研究科学家。他的文章大多数是关于深度学习和自然语言处理,主要是集中在多任务学习和迁移学习方面。Ruder 通过视觉上以及易懂语言来给出他对公式的理解和解释。他的博客对于新手非常易于理解,也是一个开始学习深度学习知识的很好的教程。 链接:ruder.io/

这是属于 Facebook 的人工智能研究博客,主要讨论人工智能、深度学习、机器学习、计算机视觉以及他们现实世界的自身的产品应用。FAIR 小组发表了很多研究论文,这个博客也可以作为创作和提升的媒体。 链接:research.fb.com/blog/

这是 Ferenc Huszár 的博客。他是一个来自剑桥大学的博士,目前工作于 Twitter Cortex。他主要是研究概率推理、生成模型、无监督学习以及应用深度学习到上述问题,并发表这些主题相关的文章。 链接:www.inference.vc/

有用记得关注 @四喜Clion 哦,干货满满的博主

  • OpenCV 图像简单操作有哪些?
  • 如何深入的熟悉Python的高级语法?
  • 怎样才能写出高质量的SQL语句?
  • 国内有哪些不错的CV(计算机视觉)团队?
  • 一些人工智能基础
  • Python 入门教程完整版(全 547 集)
  • Python 进阶之 MySQL 入门教程
  • Python 深入浅出进阶课程
  • 2 小时玩转 Python 多线程编程
  • 人工智能:
  • Python 3 天快速入门机器学习项目
  • Python 深度学习之神经网络