ai还原历史人物的本来面目 ai技术还原100年前的彩色版
淘宝搜:【天降红包222】领超级红包,京东搜:【天降红包222】
淘宝互助,淘宝双11微信互助群关注公众号 【淘姐妹】
这世上总是避免不了遗憾,但终归有些美好会在“不经意间”补全。AI技术的存在,为这种补全,提供了新的选项。
喜欢古典音乐的朋友,想必对贝多芬都有着一些了解,然而令人遗憾的是,这位扼住命运喉咙的男人,终归是在其完成《第十交响曲》的前夕,溘然长逝。不过,近期的一则消息或许让这一遗憾出现新的转机:《第十交响曲》将由人工智能完成,而这项实验的结果也将由一支完整的交响乐团在2020年4月28日在德国贝多芬的出生地波恩公开奏演。
时值贝多芬诞辰250周年之际,为纪念这位伟大作曲家为人类音乐艺术留下的宝贵财富,一个国际化的团队将利用AI技术续写贝多芬生前未完成的《第十交响曲》。
为了还原或者说是创作经典,一群音乐学家和程序员聚在一起,通过贝多芬未完成的《第十交响曲》和《英雄》等作品的片段来训练人工智能,然后由AI即兴创造出《第十交响曲》剩余的部分。
Herbert von Karajan研究所所长、项目负责人Matthias Roeder对《法兰克福周日新闻》说:长久以来,机器从来没完成过这样的任务,这是史无前例的一次尝试。
Roeder还表示,该AI算法正在取得积极进展,它无时无刻不在变化,就像一个懵懂的小孩子在探索贝多芬的世界。但令人遗憾的是,我们并没有找到该算法的具体细节。
贝多芬谱写了著名的《第九交响曲》,家喻户晓的《欢乐颂》就是《第九交响曲》其中的一部分。有证据表明,他生前仍然还在创作《第十交响曲》。但遗憾的是,当这位德国作曲家于1827年去世时只留下了部分草稿和笔记。
所谓AI编曲和作曲,本质上是运行一个复杂的AI模型,来对不同的音乐、乐器、节奏、乐理等规则进行学习和反向输出。而且AI作曲也并非独一无二的技术,在今年2月份,华为就凭借迁移到Mate20Pro 上的AI模型,续写了舒伯特的《d小调第8号交响曲》,并在伦敦的一场音乐会上进行了公演。
华为工作人员阿尔内・赫克尔曼表示,利用AI作曲,就像教孩子学习一门语言,开始的时候,他们会犯错误,纠正后还会犯新的错误,所以需要不断地纠正、不断地重复。
今年4月,OpenAI也对外发布了一款新型深度神经网络模型 MuseNet,该模型不但可调用 10 种不同乐器生成时长约 4 分钟的音乐作品,而且能够融合从乡村到莫扎特再到披头士等各种音乐风格。
据悉,MuseNet 并非基于人们对音乐的理解进行编曲,而是通过学习预测数十万 MIDI 文件中下一个音符,来找到和声、节奏和曲风的模式。与 GPT-2 相似,MuseNet 同样采用多功能无监督技术。GPT-2 是一种大规模 transformer 模型,经过训练即可预测音频以及文本序列中的下一个音符。
相关Github地址:
小冰的起步较早,在去年 KDD?2018?大会上,微软小冰团队的论文《XiaoIce?Band:?A?Melody?and?Arrangement?Generation?Framework?for?Pop?Music》(《小冰乐队:流行音乐的旋律与编曲框架》?)就获得了Research?Track最佳学生论文。
论文中提到,微软团队设计了一种基于和弦的节奏和旋律交叉生成模型(CRMCG),可以生成带有和弦进行的旋律。而且还提出一种基于多任务学习的多乐器协同编曲模型(Multi-Instrument Co-Arrangement Model,MICA)。
另外,微软小冰的AI音乐才华出众,目前已发布数十首接近人类演唱水平的单曲,演唱模型迭代至第五个版本。全新的演唱模型,包括跨越多种演唱技巧的多个声音模型,并提升人工智能歌曲演绎的更高技巧和多风格化,实现了在不同的演唱技巧之间自然过渡。
相关Github地址:
除了续写音乐残篇,AI还可以从另一个方面发挥作用,比如修补名画、修复老旧照片等。
《根特祭坛画》
著名的艺术珍品《根特祭坛画》,自完成之后便历经磨难,但在AI技术的加成下,名画修补成为了一件轻松的事。
在根特祭坛画的修复中, 利用X 射线图像扫描技术进行成像是常见的修复技术,但如何将混合了双面板的 X 射线图像,分离成相应单面 X 射线图像是一个巨大的挑战。为此,伦敦大学和杜克大学的研究者们,提出了一种基于卷积神经网络(CNN)的自监督框架,
这种自我监督的神经网络,可以学习如何将 RGB 图像转换为 X 射线图像,然后作为单面板的虚拟图像“重建”,然后通过最小化重建 X 射线图像的误差,比较与原始混合的 X 射线图像之间的差异,进而让模型实现这种分离。
具体细节上,他们构建了七层的 CNN ,每个卷积层之间含有批量归一化和整流线性单元(ReLU)激活层。网络的结构受到了 pix2pix 结构启发(pix2pix 使用条件对抗网络进行图像到图像转换)。
将 RGB 图像转换为 X 射线图像的神经网络结构
日前,一组林青霞的照片引起了不小的讨论,而“AI 老照片修复”也逐渐进入到大众的视野。事实上,相对于名画修补,老旧照片的修复可能相对而言较为简单。
InfoQ在《一键高清还原老照片:全方位解读美图影像实验室 MTlab 人像画质修复技术》一文中对相关技术进行了揭秘,总结来讲,美图的相关修复技术主要是借鉴了深度学习技术,如降噪、增强、超分、强化学习等,在自研生成网络结构 BeautyGAN 的基础上,结合对抗式生成网络的前沿技术,使 BeautyGAN 具备良好的人像修复能力。
另外,美图影像实验室 MTlab 已经对外正式发布了“美图 AI 开放平台”(?ai.meitu.com?),而且据美图技术人员透露,目前的美图 AI 开放平台开放了人脸技术、人体技术、图像识别、图像处理、图像生成等几大类核心 AI 技术。这些技术可通过云端 API/ 移动端 SDK/ 定制解决方案等多种方式对外提供经过市场验证的专业 AI 算法服务。
AI技术的快速发展是好事,对经典、艺术的再加工亦可以实现更多的美好。但是,AI技术本身就是一把“双刃剑”,在一切美好背后也会隐藏着“作恶之心”,Deepfake的滥用就是一个很显而易见的例子。至于如何让这把“剑”利已不伤人,在“弥补遗憾”的同时不去“作恶”,这将是未来很长一段时间我们需要思考和解决的问题。
AI大事件 | 人类理解行为数据集推出,Uber发布自家分布式深度学习框架
呜啦啦啦啦啦大家好呀,又到了本周的AI大事件时间了。过去的一周中AI圈都发生了什么?大佬们互撕了哪些问题?研究者们发布了哪些值得一读的论文?又有哪些开源的代码和数据库可以使用了?文摘菌带你盘点过去一周AI大事件!
新闻
AlphaGo Zero: 从零开始的学习
来源:DEEPMIND.COM:
链接:https://deepmind.com/blog/alphago-zero-learning-scratch/?utm_campaign=Revue%20newsletter&utm_medium=Newsletter&utm_source=The%20Wild%20Week%20in%20AI
上周乃至最近一段时间人工智能领域最大的新闻莫过于AlphaGo Zero的诞生。它比AlphaGo更加强大,可以说是历史上最强的围棋运动员。与AlphaGo不同,AlphaGo Zero跳过了学习人类棋手的对弈,而直接从完全随机的自我对弈开始学习。结果是,AlphaGo超越了人类的水平,并在100场比赛中全部击败了此前的冠军AlphaGo。
英特尔推出了一组针对NVIDIA GPU的新型AI芯片
来源:WWW.THEVERGE.COM
链接:https://www.theverge.com/circuitbreaker/2017/10/17/16488414/intel-ai-chips-nervana-neural-network-processor-nnp
英特尔Nervana神经网络处理器系列(简称NNP)是为了响应机器学习和数据中心的需要而设计的。 NNP芯片是英特尔收购Nervana的直接结果。 目前还没有对该芯片进行过基准测试的报道,芯片的确切细节还不得而知。
准备好和机器人亲密接触了吗
来源:WW.WIRED.COM
链接:https://www.wired.com/2017/10/hiroshi-ishiguro-when-robots-act-just-like-humans/?utm_campaign=Revue%20newsletter&utm_medium=Newsletter&utm_source=The%20Wild%20Week%20in%20AI
Hiroshi Ishiguro构建了一个美丽、现实到接近人类的机器人。 在学术上,他正在用他们来理解人与人之间互动的机制。 但他的真正任务是解开互动的本质。
文章&教程
AMA:DeepMind的AlphaGo团队
来源:WWW.REDDIT.COM
链接: https://www.reddit.com/r/MachineLearning/comments/76xjb5/ama_we_are_david_silver_and_julian_schrittwieser/
DeepMind AlphaGo团队的David Silver和Julian Schrittwieser在十月十九号在Reddit上回答了各路网友提出的问题,点击链接即可查看他们对AlphaGo Zero你的新见解和对团队未来目标的计划。
Word Embeddings : 趋势和未来发展方向
来源:RUDER.IO
链接:http://ruder.io/word-embeddings-2017/?utm_campaign=Revue%20newsletter&utm_medium=Newsletter&utm_source=The%20Wild%20Week%20in%20AI
Word Embeddings技术(类似word2vec)对NLP领域有很大的影响。 这篇文章解决了他们的一些缺陷,并讨论了最近尝试解决它们的方法。
《The Deep Learning Book》伴读视频
来源:WWW.YOUTUBE.COM
链接:如果你还能访问外国网站的话,去YouTube找吧!:)
《The Deep Learning Book》这本深度学习巨著搭配的视频集合。 视频的各个章节由深度学习领域的各个大佬发表,其中包括作者之一,Ian Goodfellow。 如果你正在阅读这本书,这是一个很好的辅助学习资源。
从仿真进行推广(OpenAI)
来源:BLOG.OPENAI.COM
链接:https://blog.openai.com/generalizing-from-simulation/?utm_campaign=Revue%20newsletter&utm_medium=Newsletter&utm_source=The%20Wild%20Week%20in%20AI
这项新技术允许机器人控制器完全在仿真环境中进行训练并将结果部署在物理机器人上,以便在解决简单任务时对环境中的计划外变化做出反应。
代码,项目&数据
AVA:人类理解行为的数据集
来源:RESEARCH.GOOGLEBLOG.COM
链接:如果你还能访问外国网站的话,去google blog里找吧!
数据集由YouTube的公开提供的视频组成,在空间和时间维度对80个原子动作(例如步行,踢手握手)进行了注释和标签,形成了57.6k的视频片段,96k标记的执行动作,以及210k个动作标签。
Nervana Coach:强化学习框架
来源:COACH.NERVANASYS.COM
链接:http://coach.nervanasys.com/?utm_campaign=Revue%20newsletter&utm_medium=Newsletter&utm_source=The%20Wild%20Week%20in%20AI
Nervana Coach是一个基于python的强化学习研究框架,包含许多最先进算法的实现。 该文档还包含各种优秀算法的摘要。
Horovod:Uber的分布式深度学习框架
来源:ENG.UBER.COM
链接:https://eng.uber.com/horovod/?utm_campaign=Revue%20newsletter&utm_medium=Newsletter&utm_source=The%20Wild%20Week%20in%20AI
Horovod是一个分布式的TensorFlow训练框架。Horovod的目标是使分布式深度学习能够更快运行并且易于使用。
爆款论文
AlphaGo Zero 的论文(Mastering the game of Go without human knowledge)
来源:WWW.NATURE.COM
链接:https://www.nature.com/articles/nature24270.epdf?author_access_token=VJXbVjaSHxFoctQQ4p2k4tRgN0jAjWel9jnR3ZoTv0PVW4gB86EEpGqTRDtpIz-2rmo8-KG06gqVobU5NSCFeHILHcVFUeMsbvwS-lxjqQGg98faovwjxeTUgZAUMnRQ&utm_campaign=Revue%20newsletter&utm_medium=Newsletter&utm_source=The%20Wild%20Week%20in%20AI
一种完全基于强化学习的算法,没有除了游戏规则之外的人类的数据,引导或领域知识。 AlphaGo成为了它自己的老师:神经网络被训练来用作预测AlphaGo自己的选择。这种神经网络提高了树搜索的强度,实现了更高质量的移动选择和更有效的自我对弈。AlphaGo Zero不但超越了人类的表现,并且在与之前赢得柯洁的AlphaGo版本的对弈中以100-0碾压了对手。
卷积神经网络中类不平衡问题的系统研究
来源:ARXIV.ORG
链接:https://arxiv.org/abs/1710.05381?utm_campaign=Revue%20newsletter&utm_medium=Newsletter&utm_source=The%20Wild%20Week%20in%20AI
作者系统地研究了类不平衡对卷积神经网络分类性能的影响。他们使用了三个基准数据集,MNIST,CIFAR-10和ImageNet,并比较了几种方法来解决这个问题:过采样,欠采样,两阶段训练以及对类概率进行阈值补偿。
深度学习的泛化
来源:ARXIV.ORG
链接:https://arxiv.org/abs/1710.05468?utm_campaign=Revue%20newsletter&utm_medium=Newsletter&utm_source=The%20Wild%20Week%20in%20AI
本文解释了为什么深度学习在可能出现大容量、算法不稳定、非鲁棒性的情况下还可以很好地泛化,有效地解决了之前文献中的一个开放问题。基于新的理论观点,本文还提出了一系列新的正则化方法。
多代理沟通中的紧急翻译
来源:ARXIV.ORGC Share
链接:https://arxiv.org/abs/1710.06922?utm_campaign=Revue%20newsletter&utm_medium=Newsletter&utm_source=The%20Wild%20Week%20in%20AI
本篇论文设置了这样一个游戏,游戏由以两种不同的语言作为母语的代理参加,他们需要相互沟通来解决一个视觉参考任务,只有能够翻译对方的语言并理解
A communication game where two agents, native speakers of their own respective languages, jointly learn to solve a visual referential task. The ability to understand and translate a foreign language emerges as a means to achieve shared goals.
优质课程推荐:《人工智能的数学基础》
助教答疑摘抄(by 郑林峰 10月22日)
不要期望一门课可以学到所有的数学知识。
大家需要学的是机器学习(深度学习)的最小必要数学知识,例如概率、矩阵、凸优化......
花最短的时间,学习最必要的知识;在之后的使用过程中,再通过其他资料,不断地进行知识的完善和优化。
推荐大家上课前先将自己的知识放空,追随老师进行内容的学习。
程博士之前的课程,上过的学员都知道,老师知识层面的见解和讲述远超国内很多数学领域的研究者。听得我如痴如醉~
AI每日精选:WAIC开发者生态在临港重磅启动;沃尔沃投资自动驾驶
智能驾驶专注沃尔沃,重磅,沃尔沃自动驾驶,沃尔沃最新自动驾驶更新以下新闻选自人工智能信息平台“机器之心Pro”:花最少的时间,看最重要的新闻。投融资
1.孙正义:未来10年投资1.84亿美元加速日本AI研究
12月6日下午消息,软银集团创始人孙正义宣布一项1.84亿美元的计划,将加速日本的人工智能研究。孙正义宣布和东京大学达成伙伴关系,在接下来的10年将投资1.84亿美元来建设Beyond AI机构。(新浪科技)
2.沃尔沃投资自动驾驶操作系统初创公司 Apex.AI
沃尔沃正在对位于美国加州帕洛阿尔托的 Apex.AI 进行投资,Apex.AI 是一家致力于开发适用于量产汽车的机器人操作系统的初创公司。由自动化系统工程师 Jan Becker 和 Dejan Pangercic 创建的 Apex.AI 去年 11 月在 A 轮融资中筹集了 1,550 万美元,并透露其重点是开发面向企业的机器人操作系统开源中间件。Apex.AI 当前在其主页上列出的两种产品 Apex.OS 和 Apex.Autonomy,前者旨在提供一套易于集成的 API,可以使汽车制造商和其他公司获得经过完全认证的自动驾驶技术,而后者则更侧重于那些希望利用自动驾驶的特定元素的人的特定元素和组件,包括感知,本地化,路径规划等。沃尔沃集团风险投资代理首席执行官 Anna Westerberg 在新闻稿中宣布了这一消息,称沃尔沃集团「很高兴投资于一家能够更轻松地开发安全认证系统的公司。」(TechCrunch)
研究与技术
1.芬兰人工智能中心(FCAI)进一步设计理解人的 AI
当研究人员设计机器学习系统时,他们的目标通常是使某些功能自动化。但是,这些系统中的大多数并没有完全自动化,而是与人类一起工作。为了真正实现有所帮助,这些系统则需要了解人们的目的。芬兰人工智能中心(FCAI)的研究人员现在已朝着设计理解人们的 AI 迈出了重要的一步。最初,研究人员教 AI 为其用户(人或机器)建立模型。然后,他们教它通过遵循用户的操作来适应此模型。在实践中,研究人员开发了将统计与计算结合起来的机器学习方法,在实践和仿真中测试方法。他们在简单的情况下测试算法,以确保其了解在这些情况下到底发生了什么,并准确地报告事件。(Tech Explore)
2.OpenAI 新研究「深度双重下降」
OpenAI今日发布新研究,其在技术研究博客中称:与传统观点相反,OpenAI 发现 CNN,ResNets 和 Transformer 的性能不是单调的:它先提高,然后恶化,然后随着模型大小,数据大小或训练时间的增加而再次提高。通常通过仔细的正则化可以避免这种效果。尽管这种行为似乎相当普遍,但我们仍未完全理解为什么会发生这种情况,因此将对这种现象的进一步研究视为重要的研究方向。
大公司新闻
1.中国联通发布首个全5G工业互联网端到端应用
12月5日,中国联通在浙江新昌“5G先行示范区”对外正式发布全球首个全5G工业互联网端到端应用,这项应用的基础是中国联通携手华为鼎桥、厦门四信共同研发的基于华为5G模组之上的工业互联网网关。
2.Alphabet 人事变动继续上演,DeepMind 联合创始人 Mustafa Suleyman 加入谷歌
Alphabet 颇具影响的人工智能实验室 DeepMind 三位联合创始人之一的 Mustafa Suleyman 将加入谷歌。Suleyman 在推特上宣布了这一消息,称在 DeepMind 经历了「精彩的十年」之后,他将加入 Google,与公司 AI 负责人 Jeff Dean 及其首席法律官 Kent Walker 一起工作。Suleyman 担任新职务的确切细节尚不清楚,但该公司的一位代表告诉媒体,其职位将涉及人工智能政策方面的工作。(The Verge)
行业动态
1.「WAIC 开发者生态」在临港重磅启动,15家人工智能领军企业联合发起
12 月 6 日,上海临港人工智能开发者大会隆重开幕。本次大会以「开源开放」为主题,由世界人工智能大会组委会指导,上海市经济和信息化委员会、中国(上海)自由贸易试验区临港新片区管理委员会、上海临港经济发展 (集团) 有限公司主办,30 位领导及嘉宾出席本次盛会,1000 余位人工智能开发者参会及交流。 在大会开幕式上,「WAIC 开发者生态」正式启动。本次启动仪式由多位领导共同见证,由 15 家人工智能领军企业包括华为、阿里云、百度、腾讯云、微软亚洲研究院、科大讯飞、小米、商汤、优必选、Udacity、ARM、第四范式、东浩兰生、机器之心和翱捷联合启动。 据悉,「WAIC 开发者生态」是延续 WAIC 世界人工智能大会品牌的开发者专业平台,「WAIC 开发者生态」将遵循专业运营、高质量服务和开源开放原则,旨在通过线上产品、知识传播、活动和孵化等形式,帮助开发者提升知识和技能,推动技术和产业相融合,实现研究成果、技术工具、开源项目、人才服务、创业项目和产业应用案例的实际产出,促进人才与机构、技术与产业的良性互动与共赢局面。
2.上海市人工智能创新中心授牌,含寒武纪、商汤科技、依图科技等
12 月 6 日,「WAIC 开发者・上海临港人工智能开发者大会」在上海自贸区临港新片区开幕。上海市经济和信息化委员会副主任张英为上海市人工智能创新中心授牌,包括上海寒武纪信息科技有限公司、上海商汤智能科技有限公司、上海依图网络科技有限公司、深兰科技(上海)有限公司、优刻得科技股份有限公司上海汽车集团股份有限公司、腾讯科技(上海)有限公司等 7 家创新企业。
3.零售商预计到2025年将购买超过15万台机器人
全球技术市场咨询公司ABI Research预测,到2025年,将在实体店中部署超过150,000个移动机器人。ABI表示,用于清洁,库存管理和物料搬运的下一代移动机器人正在“通过零售测试”。几家机器人公司已在2019年扩大了其自动移动机器人的机队,并准备在未来五年内成倍扩大规模。零售业是与这一巨大增长密切相关的行业,因为自动化和效率仍然是满足当今消费者需求的关键驱动力。
4.中国在人工智能方面的支出可能超过美国 但在国防方面却没有
美国华盛顿特区一直密切关注着一个数据:关于中国政府预计在人工智能上的投入―从 2017 年的 120 亿美元增加到 2020 年的 700 亿美元。假如中国不仅在总体研究上,而且在军事 AI 方面的支出都大大超过了美国,美国或将采取积极的行动来追赶。但是来自美国乔治城大学的安全与新兴技术中心的最新估计表明,中国在 AI 上的支出可能比他们以前的设想少得多。此外,其大部分 AI 资金似乎将用于与军事无关的研究,例如基础算法开发、机器人技术研究和智能基础设施开发。相比之下,美国在 2020 财年的计划支出将其大部分 AI 预算分配给了国防,这意味着在该类别上,美国的支出可能会超过中国。换句话说,这些数字直接与主流叙述相反。(MIT Technology Review)