淘优惠

淘优惠

鑺歌姼瀹炰綋浜у搧

热门文章 0

淘宝搜:【天降红包222】领超级红包,京东搜:【天降红包222】
淘宝互助,淘宝双11微信互助群关注公众号 【淘姐妹】


      草图大师sketchup是套直接面向设计方案创作过程的设计工具,其创作过程不仅能够充分表达设计师的思想而且完全满足与客户即时交流的需要,它使得设计师可以直接在电脑上进行分直观的构思,是维建筑设计方案创作的优秀工具,AutoCAD是由美国欧特克有限公司(Autodesk)出品的款自动计算机辅助设计软件,可以用于绘制维制图和基本维设计,通过它无需懂得编程,即可自动制图,因此它在全球广泛使用,可以用于土木建筑,装饰装潢,工业制图,工程制图,电子工业,服装加工等多方面领域,它的特点可以归纳为以下几条:具有完善的图形绘制功能;有强大的图形编辑功能;可以采用多种方式进行次开发或用户定制;可以进行多种图形格式的转换,具有较强的数据交换能力;支持多种硬件设备(bèi);支持多种操作平台;具有通用性、易用性,适用于各类用户;但仅仅会AutoCAD可远远不够,套完成的施工图,光会画几条线是不够的,平面(miàn)图、立面图、剖面图、节点详图和门窗表等,这是个系统还得会如何表达开发app如点击亮度后拖动上面的圆圈向右拉则会使照片变得更亮,而向左拉则会使画面变暗;而“亮部”和“暗部”则是对画面的高光部分和弱光部分进(jìn)行调整,这几个参数,大家可都尝试几次,以便尽快掌握其中的规律,其次,点击“更多”这个选项,这时,我们更会看到屏幕中出现“标注”、“涂鸦”、“马赛克”、“水印”、“相框”和虚化等多个选项键调光调色带蓝牙APP台灯方案功能杰力科创设计的键调光调色带蓝牙APP台灯方案采用DLT8SA20A芯片,工程师设计好电路,搭建功能模块实现键调光调色带蓝牙APP台灯的功能,方案组成:12VDC输入,恒流方案,组白色灯条,组黄色灯条,11个触摸按键分别为开关键,个色温切换键,7个按键组成亮度滑条键,按键有对应背(bèi)景灯,个蓝牙APP,组背光指示灯(8个蓝色LED)方案基(jī)本需求介绍:主灯板功率:12W;适配器:12V2A;供电接口:DC端子;触摸按键,分别为个开关键,个色温切换键,个亮度滑条7键;触(chù)摸滑条无极调光;带蓝牙控制功能;认证要求美国FCC欧洲CE中国CCC如果是运营推广所需,如春节、6双11等活动,会对应用图标加以其他色彩烘托、点缀元素或标签等,色彩就会(huì)更多,但般都具有时效性,活动过期即图标复原,设计渐变色图标需注意图形衔接处的对比度,花里胡哨的渐变色会拉低品质感,要确保色彩的和谐,让图标视觉清晰且容易识别

      开发app屋内保留Wifi强度房间名称、屋内空气质量、温度湿度,将设备核心功能入口外显,用户可以更便捷去操控设备,提升了易用性,2)表现层使用局部放大的产品,用圆形(xíng)衬底,并且还可以体现设备开关状态,这样做可以统不同产品下的画面,增强了用户对于产品状态的感知,从而强化了产品品牌

收趣云书签表里如,整体风格延续唯美清新范儿,功能主打收藏+稍后阅读,在这里可以建立专属的阅读空间,若只想独乐乐,收趣为你保护最高的私密性,细碎时间花上几秒钟将丢进来的文章分类整理,这样无序散乱的内容就变(biàn)得有序起来,不仅方便阅读,点滴的积累之后,将拥有属于自己的阅读库,收趣的笔记功能可以记录下阅读的心得和感悟,高亮功能明确标出重点和干货,比起走马观花般的匆匆看过,收趣给你最优质的阅读积累习惯

      ApacheSupersetApacheSuperset是Airbnb知名在线房屋短租公司)开源的数据探(tàn)查与可视化平台(曾用名Panoramix、Caravel),该工具在可视化、易用性和交互性上非常有特色,用户可以轻松对数据进行可视化分析,ApacheArrowApacheArrow为平面和分层数据定义了种独立于语言的柱状内存格式,为现代CPU和GPU上的高效分析操作zuò而组织开发app卡梅洛特公司除了最大化利用国家彩票官网进行传播,还在各种社交平台(如脸书、推特、YouTube和Instagram)上分享关于彩票相关的新闻、宣传推广活动(dòng)和提供在线游戏,国家彩票Twitter和Facebook的社区规模相比23年翻了倍,目前拥有超过18万Twitter和90万Facebook的追随者,20年欧洲杯,国家彩票推出了系列与赛(sài)事相关的即开票,以顺应欧洲杯的热潮,比如公司研制出了英格兰队教练和球员的即开票,每个即开票的正面是以队员肖像为背景的刮码区;22年欧洲杯,卡梅洛特公司采用了全新的营销方案,彩民若通过线上渠道购买与欧洲杯赛事相关的彩票,则可获得张自选的乐透彩票,如果与欧洲杯相关的彩票未中奖,仍可以获得50%的返奖;26年欧洲杯,运营商将前两届欧洲杯的促销方案结合在起,既推出了印有英格兰队球员头像的乐透彩票,又采取了赠送彩票的营销方式,还在酒吧全天开启了视频彩票终端机和视频游戏机,极大地促进了彩票的销量,获huò得年轻人的热捧此外今年未来之星”中,成立时间最早之的是从事节能环保的夫科技(23年)、成立时间最晚的是做通用芯片的壁仞科技(29年),两家公司所在的环保和硬科技领域,正好代表未来的两(liǎng)大主流行业,今天是22年6月16日,在这个原生APP开发手机应用市场的用户争夺战中可谓是仙过海各显其能,进行原生APP开发似乎已经成为了是否能(néng)够抓住(zhù)用户痛点的项重要指标根据招股书的介绍,宝宝巴士在全球拥有众多用户,公司目前以0-8岁儿童及其家长为主要目标用户,研发、制作、运营以“好听、好看、好玩”为特征的音视频、APP等产品,依托获取的互联网用户资源,公司通过下述方式实现收入:APP接入互联网广告联盟客户(百度、谷歌等)的程序化广告SDK,获得分成收入;将音视频产品授权给第方网络音视频媒体(YouTube、爱奇艺、腾讯视频、优酷、喜马拉雅等),获取授权收入;儿童启蒙衍生品(公仔、玩具、书籍等)销售;用户付费下xià载或订阅等

      谈到元宇宙通常会提及1992年美国著名科幻大师尼尔・斯蒂芬森(NealStephenson)小说《雪(xuě)崩》(SnowCrash)中第(dì)次对该概念的描写:“那是超元域(元宇宙)的百老汇,超元域的香榭丽舍大道,”被称为“元宇宙第股”的大型多人游戏创作平台Roblox的CEO大卫・巴斯祖奇(DavidBaszucki)则总结了元宇宙的个基本特征:身份(Identity)朋友(Friends)沉浸感(Immersive)低延迟(LowFriction)多元化(Variety)随地(Anywhere)经济系统(Economy)文明(Civility)再看关于虚拟社交的定义:虚拟社交这个词并不新,随着微信、微博等软件的普及,基本上人人都是虚拟社交人

热门标签: app开发周期     app模型制作软件     可以自己制作动画的app     最右app怎么制作表情包    



亨迪药业国内最大原料药生产商 亨迪药业研发普克鲁胺进展程度

亨迪药业国内最大原料药生产厂家,亨迪药业国内最大原料药生产企业,亨迪药业国内最大原料药生产基地,百科亨迪药业与亨迪药业区别


(资料图)

据报道,12月18日晚,亨迪药业发布公告称,近期公司股票交易严重异常波动,公司前期披露的信息不存在需要更正、补充之处,公司目前的经营情况及内外部经营环境均未发生重大变化。

作为布洛芬原料药龙头,最近一个月以来,亨迪药业受到各路资金疯狂追捧,股价持续暴涨,累计涨幅超两倍。截至12月16日,亨迪药业收盘报55.63元,最新市值133.5亿元。

天眼查App显示,湖北亨迪药业股份有限公司成立于1995年12月,于2021年12月上市,法定代表人为程志刚,注册资本2.4亿人民币,经营范围包括片剂、硬胶囊剂、颗粒剂、原料药生产、销售;货物或技术进出口。

股东信息显示,该公司由上海勇达圣商务咨询有限公司、荆门市宁康企业管理中心(有限合伙)、刘天超等共同持股。该公司共对外投资4家企业,存续状态的有湖北百科医药商贸有限责任公司、武汉百科药物开发有限公司、武汉亨迪药物开发有限公司3家,均为医药相关。此外,亨迪药业拥有2家分支机构,其中一家已注销。



深度学习的应用:白话综述及白嫖指南(2022年6月最新版)

白话解析,学白话软件下载

文章会持续更新,可以点追更保持关注哦~

看这个问题很老了,我来给个2022年的答案。最近正好在做深度学习应用的综述,把一部分想法写到这个问题里面,欢迎业内人士指点共同学习。注意,这是一篇以实用为导向的文章,关键在于指出如何使用开源的各种先进深度学习模型。大量应用不需要任何服务器,有已经部署好的模型可以用!

和其他答案的画风不同,这里我们从CV和NLP两块入手,硬核地讲一下深度学习应用的最近进展,包括CV的目标检测、超分算法、风格迁移、SLAM等,NLP的机器翻译、对话系统、超大规模语言模型(VLS-LM)等,以及CV和NLP结合的图像生成(输入文字输出图片、画作)等。我们从实实在在的、可以复制的、有新意的模型和新benchmark入手来完成这篇综述。文章还总结了大量可以直接在网上免费使用已部署完成的开源模型。文章包含61篇引用,各位大佬可以选择自己感兴趣的部分深入研究。

超分算法,全称超分辨率(super-resolution)算法,简单的说就是用小图生成大图。今年的超分里面没有看见部署的很完美的,最好用的应该是这个SwinIR了,打开网站直接用:

jingyunliang/swinir - Image Restoration Using Swin Transformer - Replicate

用法很简单,拖一张图片进去,就出来一张大图片。经过测试,输入的图片在800*800大小左右效果最好(不一定要是方形的,但是总像素只能大概这么大,不然会炸显存),所以如果太大了最好先做一次下采样,用PS就行。效果如下:

左:超分后。右:超分前。

超分实在是太好用了……异地恋视频截图截不清晰,可以用超分,分分钟让npy目瞪口呆(别问我怎么知道的)!超分也经常用在图像生成里面,因为图像生成第一步都是比较小的图片,后面要经过多次超分才能获得比较好的效果,例如DALL-E的模型就用了俩超分模组。

图像理解是CV里面很老牌(juan)的分支了,包括图像的分类、检测、分割。这里大致提一下几个任务的区别。分类是已经定义好类别的,例如给你的类别只有猫和狗,你给了个马,输出就是猫和狗的置信度,不可能是马。这一块最基础也是最重要的就是ImageNet,属于深度学习的开山之作。如果说分类关心整个图像整体(因为输出是在说明整个图像是个啥),检测则关心你输入的目标,例如一个图里面有猫狗牛马,你要找牛,那输入就是牛,输出就是牛的位置和特征。如果有好几头牛,就都输出出来。检测一般都是有一个bounding box,就是一个检测出来的物体的矩形边框。至于分割,还是拿分类比较,分类关心整个图片是个啥,分割则关心一个像素是个啥。例如一个照片有牛有马,那每个牛身上的像素就应该是牛,马就应该是马,背景像素就应该说这是背景。分割也分为语义分割(就是填充)和实例分割(就是描边)。所有任务都适用于视频,因为视频不过是图像的时序集合而已。

有关分类、检测、分割的图片示意

具体的基本知识可以看DG大佬的这个blog:

格灵深瞳DeepGlint:干货 | 目标检测入门,看这篇就够了(已更完)

图像分类现在我自己侧过来最好用的是VGG-nets,已经在Hugging Face上面部署完毕了,打开网站直接用!

Vgg Nets - a Hugging Face Space by pytorch

效果是相当不错的,我试了试八爷的照片,真的牛,第一个是和服,第二个是斗篷。不过第三个假发蚌埠住了……

左:八爷的照片。右:图像分类结果。

不过像这种比较通用的图像分类并没有太大用途,用来入门、玩玩倒是很不错。图像分类在人脸识别、VR这边有比较多的应用,都是工业界集成应用居多。

我前面在国内的CV组里就是做的MOT(多目标跟踪),这一块确实有超多优秀的模型,事实上对于基本用途来说,Mask-RCNN和YOLO-X已经是神了!这两个模型有着非常强大的生态链,支持也非常完美。这里给出Yolo的部署好的版本,可以自选模型大小,模型越大越准,但是推理速度越慢:

YOLOX Demo - a Hugging Face Space by Sultannn

还是用上面的风景图,我做了一个测试:

使用上面的风景图做的测试

虽然左下角的那辆车没被识别出来,如果仔细看右边那一堆,精度可以说是相当不错了。目标检测在摄像机体系里面被广泛运用,例如目标跟踪、车辆抓拍、步态识别、事故检测等等。例如,当两辆车变成一辆车的时候,说明发生了严重事故……现在的学界做的目标检测基本针对车辆、动物这些比较简单的物体,大量benchmark基于COCO数据集,所以这个数据集以外的很多东西识别不出来。目标检测也在机器人导航里面有重要作用。机器人的眼睛就是相机,如果想找到某个东西就要一直检测这个东西,出现了就往这里跑。

2022年了,图像分割的霸主仍然是Unet,在Kvasir-Instrument的benchmark下依然是坚守SOTA,所谓经典咏流传……图像分割在医学领域有非常大的应用,Hugging Face上 Hub有一个MRI(磁共振)的Unet已部署模型,精度高的离谱,如果手中有核磁共振影像可以看看这个:

U NET For Brain MRI - a Hugging Face Space by pytorch

不过我想大家不是人人都有核磁共振影像 ( ?)? 那就来看看这个!SegFormer,Transformer+MLP架构的Semantic Segmentation,2021的paper,非常精致的日常影响切割:

Segformer_semantic_segmentation - a Hugging Face Space by deep-learning-analytics

我弄了个五条悟老师上去,发现对于二次元影响好像精度不是特别高:

SegFormer对五条悟的影像分割

对于现实数据精度高,因为本来就是在现实数据集训练的!例如下面的吴恩达老师:

SegFormer对吴恩达的影像分割

模型还给出了每个分割块的分类,可见图像分割要给出像素级分类。吴恩达老师这幅图中,类别包括:unlabeled(没有事先定义的)、paved-area(墙上的coursera挂牌)、vegetation(背后的植物)、wall(墙体)、person(吴恩达老师)、obstacle(错误分类,墙上的灯被识别成障碍物了……不过也可以叫灯为障碍物?)

风格迁移是CV里面很好玩的一个任务,属于理解式和生成式任务的结合。简单地说,风格迁移就是输入一幅风格画(reference style image)和一幅内容画(content image),目标是输出一幅有着内容画的内容,而有风格画的风格的图像(好像都是废话),一个很好的例子如下:

出处:https://zhuanlan.zhihu.com/p/57564626

风格迁移这几年有很多新的玩法,特别有意思的是基于文本的图像风格迁移,简而言之就是文本提供内容,而图像提供风格。这里为啥不用文本提供风格呢?因为风格是一个很深的语义信息,用文字是很难描述清楚的。然后给出这方面已经部署完成的迁移模型Neural Style Transfer(全称Parameter-Free Style Projection for Arbitrary Style Transfer),同样是在Hugging Face上:

Neural Style Transfer - a Hugging Face Space by NeuralStyleTransfer

这里的效果也是出奇的好……

Medo酱+小猪=Medo猪
星空+小猪=星空猪[?_^]

传统风格迁移的大致原理是,先随机生成一张带着大量噪音的底图,然后根据内容图和风格图迭代。其中,内容图用来计算content loss,风格图用来计算style loss,这样每一轮神经网络就可以学到内容的知识和风格的知识,然后底图也就逐渐被画好了。我们刚才玩的这个不太一样,本质是一个Feedforward-based method(前馈方法),其实也就是把白噪底图换成了内容图,这个内容图在更新前都过一遍前馈网络。具体的可以看这个博客:

雨夜听风:Style Transfer | 风格迁移综述

机器翻译算是人尽皆知的一个任务,深度学习0基础基本上也不会陌生。从英文翻译成中文,或从中文翻译成英文,就是最朴素的机器翻译。在神经网络出现之前,机器翻译都是使用基于规则的方法,例如中文转英文,要考虑语序语法词汇标点等等的不同,根据中文生成一棵语法树,然后基于英文规则把这个树转换成英文的自然语言。后来出现了基于统计(机器学习)的机器翻译,把文本根据统计知识切成短语,再用机器学习方法转换为另一种语言。现在的神经网络机器翻译,是使用表示学习将句子表示成句向量(二维居多),然后丢到神经网络里面,出来的就是另一个句子了。如果想要深入研究,可以参照机器之心的这篇文章:

102个模型、40个数据集,这是你需要了解的机器翻译SOTA论文 - 云+社区 - 腾讯云

这一块的应用就太多了……目前我在用的翻译器是DeepL,看名字就知道是用的神经网络 ( ′?` ) 这个软件是开源免费的,而且有MAC、WIN客户端,可以直接使用。这里给出最快翻译的链接:

DeepL Translation

比起以前的方法,基于深度学习的神经网络明显有更强的句内逻辑,因为整个句子是统一编码推断的,不是一个词一个词推断的。这一块我们不做过多深入,因为想必大家对于翻译的应用已经非常熟练了。

大的来了!OpenAI宣布向部分地区开放GPT-3接口,申请了就可以使用GPT-3。但是注意,目前必须要美国手机号才能注册,OpenAI并没有向国区开放:

OpenAI API

这东西有多牛,大家不用我说了吧。给大家看一个很真实的案例,看看GPT-3是怎么回答这个问题的。这个回答前两天发出后,一天就收获了上千的点赞和收藏:

人工智能是不是走错了方向?

没错,整个答案都是GPT-3自动生成的。我先把问题分了一个句,然后逐句输入GPT-3获得回答。如果GPT-3的回答太短,就插入一些提示词,例如“for example”,“in other words”等,来保证回答的完整性。结果就是这个惊人的回答。我自己在生成的时候也吓了一跳,这么多的引用确实吓人,知识储量太大了。

GPT-3的另一个非常强大的应用是GitHub Copilot,不过申请了要等半年左右:

GitHub Copilot ・ Your AI pair programmer

下面是一段TypeScript代码(TS可以理解成JavaScript的超集,大家肯定很熟悉这个语法):

GitHub Copilot

这个太离谱了,输入上面7行,补全下面10行。我写python代码的时候就用这玩意儿,可以节约至少一半的时间……有时候想实现一个功能,只要写一行注释,整个函数就写完了。

目前,GPT-3仍未对世界公布其真面貌,只有OpenAI和微软有获取权限。但是,有一些模型正在逐渐接近GPT-3的性能,例如Meta(前Facebook)的OPT(Open Pre-trained Transformer)和AI21的Jurassic-X。其中,OPT模型被誉为“最接近GPT-3的开源模型”,参数量和GPT-3基本持平,都是175B。OPT模型延续了GPT-2的传统,仅使用Transformer的decoder作为关键模型层。OPT使用了800GB的文本数据进行训练,详细的参数可以看这个博客。如果没法注册OpenAI账户,或者想要在自己的服务器上整一个OPT,可以用HuggingFace上的OPT模型,已经训练好了:

Models - Hugging Face

另一个提到的大模型,Jurassic-X,是基于MRKL(Modular Reasoning, Knowledge and Language)系统的目前最牛模型,官方声明如下:

2021年8月,我们发布了Jurassic-1,一个178B参数的自回归语言模型。我们很感谢它受到的欢迎--超过1万名开发者报名参加,数百个商业应用处于不同的开发阶段。诸如Jurassic-1、GPT-3等巨型模型确实令人惊叹,并带来了令人兴奋的机会。但这些模型也有内在的局限性。它们不能访问你的公司数据库,不能获得最新的信息(例如,最新的COVID数字或美元-欧元汇率),不能进行推理(例如,它们的算术能力还不如70年代的惠普计算器),而且更新成本过高。像Jurassic-X这样的MRKL系统享有巨型语言模型的所有优点,而没有这些缺点。

MRKL模型的最大亮点就是基于数据库。数据库不是参数,是真实存在的一条条数据,例如Excel表格就是一个数据库。使用数据库,使得GPT-3这种死模型相形见绌,例如你问现在美国总统是谁的话……

我自己刚才测了一下,果然GPT-3还没有更新

这样,想要获得最新的知识,必须不停地训练GPT-3,然而谁那么有钱每年训练一次啊,根据大牛分析:

Taken together, these factors mean that GPT-3 could have easily cost 10 or 20 million dollars to train (exact numbers are not available). Previous large (though, not as large as GPT-3) language models such as GPT-2, T5, Megatron-LM, and Turing-NLG were similarly costly and difficult to train.

这就是MRKL系统被提出的动力,大概率在业界会有大规模应用。Jurassic-X的官方网址如下:

Jurassic-X: Crossing the Neuro-Symbolic Chasm with the MRKL System

对话系统是学界研究非常火的一个分支,在业界的落地也是非常果断,导致现在这一块很卷……对话系统的入门可以看小夕的这篇文章,可以说是很透彻了:

夕小瑶:认真的聊一聊对话系统(任务型、检索式、生成式对话论文与工具串讲)

如果不打算深入,可以看我的总结――总体而言,对话系统分为三类:任务完成型(比如Siri发邮件)、闲聊型(比如微软小冰)、问答型(比如淘宝小蜜),这三者互相有交集,关系如下图所示:

出处:https://zhuanlan.zhihu.com/p/83825070

任务完成型对话系统一般包含多轮对话,比如你问Siri给某某人发一封邮件,她要问你发什么。如果只有一轮,对话就终止了,所以需要多轮对话完成一个任务。问答型对话一般都是一轮Q&A完成任务,例如SQuAD数据集,你问中国的首都是什么,会回答北京。目前任务完成型和问答型对话比较火,因为闲聊型对话本身就不是良定义的。对任务完成型对话系统感兴趣可以看这两篇博文:

Jack:一文白话跨领域任务型对话系统:MultiWOZ数据集!(一)Jack:一文白话跨领域任务型对话系统:MultiWOZ数据集!(二)

对于问答型对话感兴趣可以看这篇博文:

许文涛:一份关于问答系统的小结

已经部署好的问答系统相对会少一些,主要是因为开源数据集没有特别有应用价值的。我找到了会继续补充!

CV和NLP的结合,最精彩的莫过于从文字到图片的自动生成。DALL-E模型是最有代表性的模型之一,上个月推出的DALL-E 2更是重量级。这是DALL-E的官方地址,OpenAI的网页总是这么赏心悦目(R?`):

DALL・E: Creating Images from Text

官网上给出了一个例子,画一个牛油果的有扶手的椅子,简直是设计师天堂:

官网生成的牛油果椅子

Hugging