淘优惠

淘优惠

流形学习(转)

热门文章 0

淘宝搜:【天降红包222】领超级红包,京东搜:【天降红包222】
淘宝互助,淘宝双11微信互助群关注公众号 【淘姐妹】

流形的概念,流形导论,解析流形,流形入门书籍
自从2000年以后,流形学习被认为属于非线性降维的一个分支。众所周知,引导这一领域迅速发展的是2000年Science杂志上的两篇文章: Isomap and LLE (Locally Linear Embedding)。1. 流形学习的基本概念那流形学习是什莫呢?为了好懂,我尽可能应用少的数学概念来解释这个东西。所谓流形(manifold)就是一般的几何对象的总称。比如人,有中国人、美国人等等;流形就包括各种维数的曲线曲面等。和一般的降维分析一样,流形学习把一组在高维空间中的数据在低维空间中重新表示。和以往方法不同的是,在流形学习中有一个假设,就是所处理的数据采样于一个潜在的流形上,或是说对于这组数据存在一个潜在的流形。对于不同的方法,对于流形性质的要求各不相同,这也就产生了在流形假设下的各种不同性质的假设,比如在Laplacian Eigenmaps中要假设这个流形是紧致黎曼流形等。对于描述流形上的点,我们要用坐标,而流形上本身是没有坐标的,所以为了表示流形上的点,必须把流形放入外围空间(ambient space)中,那末流形上的点就可以用外围空间的坐标来表示。比如R^3中的球面是个2维的曲面,因为球面上只有两个自由度,但是球面上的点一般是用外围R^3空间中的坐标表示的,所以我们看到的R^3中球面上的点有3个数来表示的。当然球面还有柱坐标球坐标等表示。对于R^3中的球面来说,那末流形学习可以粗略的概括为给出R^3中的表示,在保持球面上点某些几何性质的条件下,找出找到一组对应的内蕴坐标(intrinsic coordinate)表示,显然这个表示应该是两维的,因为球面的维数是两维的。这个过程也叫参数化(parameterization)。直观上来说,就是把这个球面尽量好的展开在通过原点的平面上。在PAMI中,这样的低维表示也叫内蕴特征(intrinsic feature)。一般外围空间的维数也叫观察维数,其表示也叫自然坐标(外围空间是欧式空间)表示,在统计中一般叫observation。了解了流形学习的这个基础,那末流形学习中的一些是非也就很自然了,这个下面穿插来说。由此,如果你想学好流形学习里的方法,你至少要了解一些微分流形和黎曼几何的基本知识。2. 代表方法a) Isomap。Josh Tenenbaum的Isomap开创了一个数据处理的新战场。在没有具体说Isomap之前,有必要先说说MDS(Multidimensional Scaling)这个方法。我们国内的很多人知道PCA,却很多人不知道MDS。PCA和MDS是相互对偶的两个方法。MDS就是理论上保持欧式距离的一个经典方法,MDS最早主要用于做数据的可视化。由于MDS得到的低维表示中心在原点,所以又可以说保持内积。也就是说,用低维空间中的内积近似高维空间中的距离。经典的MDS方法,高维空间中的距离一般用欧式距离。Isomap就是借窝生蛋。他的理论框架就是MDS,但是放在流形的理论框架内,原始的距离换成了流形上的测地线(geodesic)距离。其它一模一样。所谓的测地线,就是流形上加速度为零的曲线,等同于欧式空间中的直线。我们经常听到说测地线是流形上两点之间距离最短的线。其实这末说是不严谨的。流形上两点之间距离最短的线是测地线,但是反过来不一定对。另外,如果任意两个点之间都存在一个测地线,那末这个流形必须是连通的邻域都是凸的。Isomap就是把任意两点的测地线距离(准确地说是最短距离)作为流形的几何描述,用MDS理论框架理论上保持这个点与点之间的最短距离。在Isomap中,测地线距离就是用两点之间图上的最短距离来近似的,这方面的算法是一般计算机系中用的图论中的经典算法。如果你曾细致地看过Isomap主页上的matlab代码,你就会发现那个代码的实现复杂度远超与实际论文中叙述的算法。在那个代码中,除了论文中写出的算法外,还包括了 outlier detection和embedding scaling。这两样东西,保证了运行他们的程序得到了结果一般来说相对比较理想。但是,这在他们的算法中并没有叙述。如果你直接按照他论文中的方法来实现,你可以体会一下这个结果和他们结果的差距。从此我们也可以看出,那几个作者做学问的严谨态度,这是值得我们好好学习的。另外比较有趣的是,Tenenbaum根本不是做与数据处理有关算法的人,他是做计算认知科学(computational cognition science)的。在做这个方法的时候,他还在stanford,02年就去了MIT开创一派,成了CoCoSci 的掌门人,他的组成长十分迅速。但是有趣的是,在Isomap之后,他包括他在MIT带的学生就从来再也没有做过类似的工作。其原因我今年夏天有所耳闻。他在今年参加 UCLA Alan Yuille 组织的一个summer school上说,(不是原文,是大意)我们经常忘了做研究的原始出发点是什莫。他做Isomap就是为了找一个好的visual perception的方法,他还坚持了他的方向和信仰,computational cognition,他没有随波逐流。而由他引导起来的 manifold learning 却快速的发展成了一个新的方向。这是一个值得我们好好思考的问题。我们做一个东西,选择一个研究方向究竟是为了什莫。你考虑过吗?(当然,此问题也在问我自己)b) LLE (Locally linear Embedding)LLE在作者写出的表达式看,是个具有十分对称美的方法. 这种看上去的对称对于启发人很重要。LLE的思想就是,一个流形在很小的局部邻域上可以近似看成欧式的,就是局部线性的。那末,在小的局部邻域上,一个点就可以用它周围的点在最小二乘意义下最优的线性表示。LLE把这个线性拟合的系数当成这个流形局部几何性质的刻画。那末一个好的低维表示,就应该也具有同样的局部几何,所以利用同样的线性表示的表达式,最终写成一个二次型的形式,十分自然优美。注意在LLE出现的两个加和优化的线性表达,第一个是求每一点的线性表示系数的。虽然原始公式中是写在一起的,但是求解时,是对每一个点分别来求得。第二个表示式,是已知所有点的线性表示系数,来求低维表示(或嵌入embedding)的,他是一个整体求解的过程。这两个表达式的转化正好中间转了个弯,使一些人困惑了,特别后面一个公式写成一个二次型的过程并不是那末直观,很多人往往在此卡住,而阻碍了全面的理解。我推荐大家去精读 Saul 在JMLR上的那篇LLE的长文。那篇文章无论在方法表达还是英文书写,我认为都是精品,值得好好玩味学习。另外值得强调的是,对于每一点处拟合得到的系数归一化的操作特别重要,如果没有这一步,这个算法就没有效果。但是在原始论文中,他们是为了保持数据在平行移动下embedding不变。LLE的matlab代码写得简洁明了,是一个样板。在此有必要提提Lawrence Saul这个人。在Isomap和LLE的作者们中,Saul算是唯一一个以流形学习(并不限于)为研究对象开创学派的人。Saul早年主要做参数模型有关的算法。自从LLE以后,坐阵UPen创造了一个个佳绩。主要成就在于他的两个出色学生,Kilian Weinberger和 Fei Sha,做的方法。拿了很多奖,在此不多说,可以到他主页上去看。Weinberger把学习核矩阵引入到流形学习中来。他的这个方法在流形学习中影响到不是很显著,却是在 convex optimization 中人人得知。Fei Sha不用多说了,machine learning中一个闪亮的新星,中国留学生之骄傲。现在他们一个在Yahoo,一个在Jordan手下做PostDoc。c) Laplacian Eigenmaps要说哪一个方法被做的全面,那莫非LE莫属。如果只说LE这个方法本身,是不新的,许多年前在做mesh相关的领域就开始这莫用。但是放在黎曼几何的框架内,给出完整的几何分析的,应该是Belkin和Niyogi(LE作者)的功劳。LE的基本思想就是用一个无向有权图来描述一个流形,然后通过用图的嵌入(graph embedding)来找低维表示。说白了,就是保持图的局部邻接关系的情况把这个图从高维空间中重新画在一个低维空间中(graph drawing)。在至今为止的流行学习的典型方法中,LE是速度最快、效果相对来说不怎莫样的。但是LE有一个其他方法没有的特点,就是如果出现outlier情况下,它的鲁棒性(robustness)特别好。后来Belkin和Niyogi又分析了LE的收敛性。大家不要忽视这个问题,很重要。鼓励有兴趣数学功底不错的人好好看看这篇文章。d) Hessian Eigenmaps如果你对黎曼几何不懂,基本上看不懂这个方法。又加作者表达的抽象,所以绝大多数人对这个方法了解不透彻。在此我就根据我自己的理解说说这个方法。这个方法有两个重点:(1)如果一个流形是局部等距(isometric)欧式空间中一个开子集的,那末它的Hessian矩阵具有d+1维的零空间。(2)在每一点处,Hessian系数的估计。首先作者是通过考察局部Hessian的二次型来得出结论的,如果一个流形局部等距于欧式空间中的一个开子集,那末由这个流形patch到开子集到的映射函数是一个线性函数,线性函数的二次混合导数为零,所以局部上由Hessian系数构成的二次型也为零,这样把每一点都考虑到,过渡到全局的Hessian矩阵就有d+1维的零空间,其中一维是常函数构成的,也就是1向量。其它的d维子空间构成等距坐标。这就是理论基础的大意,当然作者在介绍的时候,为了保持理论严谨,作了一个由切坐标到等距坐标的过渡。另外一个就是局部上Hessian系数的估计问题。我在此引用一段话:If you approximate a function f(x) by a quadratic expansion?f(x) = f(0) + (grad f)^T x+x^T Hf x + remthen the hessian is what you get for the quadratic component.So simply over a given neighborhood, develop the operator that approximates a function by its projection on 1, x_1,...,x_k,x_1^2,...,x_k^2, x_1*x_2,... ,x_{k-1}*x_{k}.Extract the component of the operator that delivers the projection onx_1^2,...,x_k^2, x_1*x_2,... ,x_{k-1}*x_{k}.dave这段话是我在初学HE时候,写信问Dave Donoho,他给我的回信。希望大家领会。如果你了解了上述基本含义,再去细看两遍原始论文,也许会有更深的理解。由于HE牵扯到二阶导数的估计,所以对噪声很敏感。另外,HE的原始代码中在计算局部切坐标的时候,用的是奇异值分解(SVD),所以如果想用他们的原始代码跑一下例如图像之类的真实数据,就特别的慢。其实把他们的代码改一下就可以了,利用一般PCA的快速计算方法,计算小尺寸矩阵的特征向量即可。还有,在原始代码中,他把Hessian系数归一化了,这也就是为什莫他们叫这个方法为 Hessian LLE 的原因之一。Dave Dohono是学术界公认的大牛,在流形学习这一块,是他带着他的一个学生做的,Carrie Grimes。现在这个女性研究员在Google做 project leader,学术界女生同学的楷模 : )e) LTSA (Local tangent space alignment)很荣幸,这个是国内学者(浙江大学数学系的老师ZHANG Zhenyue)为第一作者做的一个在流行学习中最出色的方法。由于这个方法是由纯数学做数值分析出身的老师所做,所以原始论文看起来公式一大堆,好像很难似的。其实这个方法非常直观简单。象 Hessian Eigenmaps 一样,流形的局部几何表达先用切坐标,也就是PCA的主子空间中的坐标。那末对于流形一点处的切空间,它是线性子空间,所以可以和欧式空间中的一个开子集建立同构关系,最简单的就是线性变换。在微分流形中,就叫做切映射 (tangential map),是个很自然很基础的概念。把切坐标求出来,建立出切映射,剩下的就是数值计算了。最终这个算法划归为一个很简单的跌代加和形式。如果你已经明白了MDS,那末你就很容易明白,这个算法本质上就是MDS的从局部到整体的组合。这里主要想重点强调一下,那个论文中使用的一个从局部几何到整体性质过渡的alignment技术。在spectral method(特征分解的)中,这个alignment方法特别有用。只要在数据的局部邻域上你的方法可以写成一个二次项的形式,就可以用。其实LTSA最早的版本是在02年的DOCIS上。这个alignment方法在02年底Brand的 charting a manifold 中也出现,隐含在Hessian Eigenmaps中。在HE中,作者在从局部的Hessian矩阵过渡到全局的Hessian矩阵时,用了两层加号,其中就隐含了这个alignment方法。后来国内一个叫 ZHAO Deli 的学生用这个方法重新写了LLE,发在Pattern Recognition上,一个短文。可以预见的是,这个方法还会被发扬光大。ZHA Hongyuan 后来专门作了一篇文章来分析 alignment matrix 的谱性质,有兴趣地可以找来看看。f) MVU (Maximum variance unfolding)这个方法刚发出来以后,名字叫做Semi-definite Embedding (SDE)。构建一个局部的稀疏欧式距离矩阵以后,作者通过一定约束条件(主要是保持距离)来学习到一个核矩阵,对这个核矩阵做PCA就得到保持距离的embedding,就这莫简单。但是就是这个方法得了多少奖,自己可以去找找看。个人观点认为,这个方法之所以被如此受人赏识,无论在vision还是在learning,除了给流形学习这一领域带来了一个新的解决问题的工具之外,还有两个重点,一是核方法(kernel),二是半正定规划(semi-definite programming),这两股风无论在哪个方向(learning and Vision)上都吹得正猛。g) S-Logmapsaa这个方法不太被人所知,但是我认为这个是流形学习发展中的一个典型的方法(其实其他还有很多人也这莫认为)。就效果来说,这个方法不算好,说它是一个典型的方法,是因为这个方法应用了黎曼几何中一个很直观的性质。这个性质和法坐标(normal coordinate)、指数映射(exponential map)和距离函数(distance function)有关。如果你了解黎曼几何,你会知道,对于流形上的一条测地线,如果给定初始点和初始点处测地线的切方向,那莫这个测地线就可以被唯一确定。这是因为在这些初始条件下,描述测地线的偏微分方程的解是唯一的。那末流形上的一条测地线就可以和其起点处的切平面上的点建立一个对应关系。我们可以在这个切平面上找到一点,这个点的方向就是这个测地线在起点处的切方向,其长度等于这个测地线上的长。这样的一个对应关系在局部上是一一对应的。那末这个在切平面上的对应点在切平面中就有一个坐标表示,这个表示就叫做测地线上对应点的法坐标表示(有的也叫指数坐标)。那末反过来,我们可以把切平面上的点映射到流形上,这个映射过程就叫做指数映射(Logmap就倒过来)。如果流形上每一个点都可以这样在同一个切平面上表示出来,那末我们就可以得到保持测地线长度的低维表示。如果这样做得到,流形必须可以被单坐标系统所覆盖。如果给定流形上的采样点,如果要找到法坐标,我们需要知道两个东西,一是测地线距离,二是每个测地线在起点处的切方向。第一个东西好弄,利用Isomap中的方法直接就可以解决,关键是第二个。第二个作者利用了距离函数的梯度,这个梯度和那个切方向是一个等价的关系,一般的黎曼几何书中都有叙述。作者利用一个局部切坐标的二次泰勒展开来近似距离函数,而距离是知道的,就是测地线距离,局部切坐标也知道,那末通过求一个简单的最小二乘问题就可以估计出梯度方向。如果明白这个方法的几何原理,你再去看那个方法的结果,你就会明白为什莫在距离中心点比较远的点的embedding都可以清楚地看到在一条条线上,效果不太好。bb最近这个思想被北大的一个年轻的老师 LIN Tong 发扬光大,就是ECCV‘06上的那篇,还有即将刊登出的TPAMI上的 Riemannian Manifold Learning,实为国内研究学者之荣幸。Lin的方法效果非常好,但是虽然取名叫Riemannian,没有应用到黎曼几何本身的性质,这样使他的方法更容易理解。Lin也是以一个切空间为基准找法坐标,这个出发点和思想和Brun(S-Logmaps)的是一样的。但是Lin全是在局部上操作的,在得出切空间原点处局部邻域的法坐标以后,Lin采用逐步向外扩展的方法找到其他点的法坐标,在某一点处,保持此点到它邻域点的欧式距离和夹角,然后转化成一个最小二乘问题求出此点的法坐标,这样未知的利用已知的逐步向外扩展。说白了就像缝网一样,从几个临近的已知点开始,逐渐向外扩散的缝。效果好是必然的。有人做了个好事情,做了个系统,把几个方法的matlab代码放在了一起http://www.math.umn.edu/~wittman/mani/以上提到方法论文,都可以用文中给出的关键词借助google.com找到。3. 基本问题和个人观点流形学习现在还基本处于理论探讨阶段,在实际中难以施展拳脚,不过在图形学中除外。我就说说几个基本的问题。a. 谱方法对噪声十分敏感。希望大家自己做做实验体会一下,流形学习中谱方法的脆弱。b. 采样问题对结果的影响。c. 收敛性d. 一个最尴尬的事情莫过于,如果用来做识别,流形学习线性化的方法比原来非线性的方法效果要好得多,如果用原始方法做识别,那个效果叫一个差。也正因为此,使很多人对流形学习产生了怀疑。原因方方面面 : )e. 把偏微分几何方法引入到流形学习中来是一个很有希望的方向。这样的工作在最近一年已经有出现的迹象。f. 坦白说,我已不能见庐山真面目了,还是留给大家来说吧结尾写得有点草率,实在是精疲力尽了,不过还好主体部分写完。『以下是dodo在回帖中补充的内容:看一些问到人脸识别有关的问题。由于此文结尾写得有点草,我这里再补充一下。dodo1)人脸识别的识别效果首先取决于 visual feature,图片中表示的模式和一般的向量模式还是有很大差别的。visual feature的好坏,决定了你所用的向量到底能不能代表这个图像中的模式和这个模式与其他模式的正确关系,如果能,那再谈降维识别的事情。结构能保持,效果就好;不能保持,就很难说。2)现在流形学习中的极大多数方法不收敛。正因为这样,在原始样本集中,如果增添少部分点,或是减少少部分点,或是扰动少部分点,都会对最后的nonlinear embedding产生影响。也就是说,极不稳定。到现在为止,就 Laplacian Eigenmaps 有收敛性的证明。但是,这个被证明的结果的前提条件是啥,这个很重要。如果是均匀采样,那么基本对实际用处不大,理论上有引导作用。3)采样的问题,包括采样密度和采样方式,都对最后结果有显著影响。而实际数据都是非常复杂的。4)最后降到多少维的问题。这个对于流行学习来说,也是一个正在争论探讨的问题。5)多流形的问题。现在的流形学习算法能处理的流形情况非常的弱,前提建设的条件非常的强,比如单坐标系统覆盖,与欧式空间的开子集等距等等。对于具有不同维数的多流形混合的问题,还没有人能解。而这恰恰是模式识别中一个合理的情况!(具有不同维数的多流形混合的问题)而4)5)后两者是紧紧联系在一起。这几点也是流形学习能发挥其威力必须克服的问题。实际的情况并不是像一些人说的“流形学习已经做烂了”,问题在于1)没有找到真正的问题在哪,2)知道问题在哪儿,解决不了。这就是流形学习目前的状况,如果你能用恰当的理论,而

ai会取代建筑行业吗 ai地产巨头的自我革命

ai会取代我们吗,ai是否会取代人类作文,ai会取代的职业,ai技术最终能取代人的地位吗
之前写了一篇 有关ChatGPT的文章 后很多人都很好奇甚至焦虑:它究竟有多智能?会不会取代很多人的工作导致我们失业? 不是在刻意制造焦虑,地产人失业转行这个话题是近几年逃不掉的话题。 市场不好,裁员;现金流紧张,裁员;土储变少,裁员…… 可以预见的未来是城市化进程逐渐见顶,人口增长变缓,房地产进入存量市场,房地产未来的市场一定不会像现在这么大了,更多的人可能会失业。 现在,AI也来抢我们的工作了?需要多久? 李开复说:未来十五年,AI会接管我们一半的工作。 对于AI能否替代地产人来工作,我们再来做一些的实地产类的有趣实验,计划用目前市面上有的AI来来替代地产人的多种工作场景。 首先,营销策划类工作。 目前大火的ChatGPT出场。我让它学习了一篇房地产五一黄金周的方案,写一篇十一黄金周策划方案: 它给我的内容,虽然没什么创意,但格式和形式很完整,如果让它多学习几篇,会写得更好↓ 左右滑动查看更多 接着,我让它来写一个地产项目视频脚本,它逻辑性也很好 只是看起来更像个大纲: 开头画面:展示该项目的区域和周边环境,突出其优越的地理位置,如优美的景观、便利的交通、周边商业设施等。 配乐响起,进入该项目的实景展示,可以使用无人机拍摄的鸟瞰图、固定摄像机的魔幻镜头、内部实景漫游等方式展现项目的规划、建筑、室内设计等,突出其高品质、高科技、高舒适度等特点。 突出该项目的独特卖点,如特色楼层、豪华配置、品牌管理、智能科技等,通过实景展示和文字说明详细介绍。 展示该项目的户型和布局,重点突出其实用性、灵活性和舒适度,同时介绍其独特的设计和功能,如采光、通风、储物、私密性等。 强调该项目的投资价值和潜在回报,通过相关数据、市场趋势、对比案例等方式说明,提高观众对项目的信心和兴趣。 结尾画面:展示该项目的户外和室内设施、配套服务和团队荣誉等,通过强调整体的品质和专业的管理,营造出高品位的生活环境和舒适的居住体验。 更重要的是,它还给我来了个开放式结尾: 需要根据具体项目的情况和目标受众进行适当的修改和补充。 也就是说,如果继续问,给它加上受众和项目具体情况,补充更多资料,它会做的更好。 我换了一种问法: 果然,给的脚本就更具体一些: 开场:场景展示一个繁华的城市夜景,时代广场,高楼大厦,车水马龙,配上令人震撼的音乐。 音乐渐弱,画面切换到一个高端住宅小区,恒大乐视城。 旁白:如果您正在寻找一处完美的住所,您需要看一下恒大乐视城。 画面切换到恒大乐视城的内部和周边设施。 旁白:这座地处城市中心的社区环绕一片绿树和花园,让您感受到天然的和谐与舒适。 恒大乐视城的住房面积从80平方米的一室公寓到近200平方米的顶层复式不等,可以满足不同家庭的需求。公寓内采用高端装修材料,配备智能家居设备,让您享受最尖端的科技生活。 画面切换到恒大乐视城周围便利设施的景象。 旁白:恒大乐视城周边配套齐全,步行即可到达商场、超市、餐厅、医院等生活便利设施。公共交通便利,多条公交线路、地铁直通城市各处。 画面切换到恒大乐视城的内部设施,包括花园、游泳池、健身房等。 旁白:而对于那些渴望享受休闲和娱乐的业主,恒大乐视城提供了多种设施,如游泳池、健身房、花园等,以便让您获得舒适和放松的享受。 最后,画面切换到黄昏时的夜景,展示恒大乐视城的美丽景色。 旁白:恒大乐视城是您梦想中的生活,让您在繁华都市中拥有家的感觉。欢迎您加入我们,开始美好的未来。 结束:恒大乐视城的标志和联系方式。 从格式和逻辑上看是不是还可以?继续给它喂资料学习,增加项目信息,会写得越来越完善越来越好。 ●●●2●●● 接下来,看看它能不能把广告公司给换掉,毕竟月费还挺贵 让它学习了五十多句房地产广告语,让它写30句广告语: 它也不含糊,很快就写好了 碧桂园五星级豪宅广告语: 回家,就是看到移动的树影。 享受交响乐般的生活,怀念院前的山雨声。 一个改变你世界观的城市文化住宅,尽享尊崇之感。 怦然心动,珍藏一生,只为那一次遇见。 孩子的天地,成长的乐园,让他们快乐成长。 在有生的瞬间能遇到你,珍贵无比的运气。 让太阳升起的地方成为你的家,拥抱美好的新一天。 山青园秀,自然身价百倍,豪宅品质无双。 应对莲花山绿化公园的清新空气,宠享自然馈赠。 雅致东方,大成国脉,豪宅新标杆。 上上下下的享受,进进出出的舒服,让生活轻松自在。 人生如江,幸福在岸,碧桂园五星级豪宅是你最好的归宿。 让你的家人成为美域度假的常客,享受尊贵的生活。 珍藏一方美景,释放悠然雅致生活。 最温馨的灯光,一定在你回家的路上,家的温暖在等待着你。 悠悠人生,静在山水之间,享受美好人生。 让移动的树影,成为你回家的指南。 欣赏交响乐的同时,亦怀念院前的山雨声。 给你一个颠覆世界观的城市文化住宅。 人生只有几次怦然心动,遇见这里,再度激动。 孩子懂得爱,世界就是他的游乐场,而这里是他最快乐的家。 孩子一小时的快乐,家宴一生的陪伴。 自然,世外桃源;优雅,花间倾国。 只要你从容,世界便安静。 寻到夏之森林,在梦境中放飞梦想。 都市中的一片海洋,你可以安静地睡着 领略雅致东方文化,成就大成国脉。 在美域度假,体验非凡的生活品质。 典藏一方美景,享世外桃源。 AI不会产生创意,但它会打乱组合语句与词语重新排列组合,下面随便选一句来做广告。 感觉“只要你从容,世界便安静”还不错,用“珍藏一方美景,释放悠然雅致生活”做副标。 假设我不会使用任何平面设计软件,完全靠AI生成,这方面阿里很多年前都在用了,鹿班AI,淘宝上绝大部分的图片都靠它完成,它可以快速生成海报。 我也去试了下,做一张画面只需要1块钱: 而另一个境外设计网站designs.ai,输入关键词就能自动给你设计海报,目前对汉字的支持还不是很好,输入房地产广告的英文Real estate AD,它就会自动生成各种样式的画面 ↓ AI已经无处不在,我们在淘宝、京东、拼多多上绝大部分的商品图、广告,它都能一键生成批量制作。 现在的AI绘图已经强大到让很多艺术家失业了。 如果你还记得本文开头那张图,那是去年一位游戏设计师Jason M. Allen利用人工智能程序Midjourney创作的画作《太空歌剧院》,靠着这一系列AI生成的绘画拿下了科罗拉多博览会的年度艺术比赛数字艺术及数字摄影类别的一等奖。 现在的AI绘画已经开启了诸神之战:开发ChatGPT的那家公司OpenAI开发的DALL・E ,现在业内最牛的Stable Diffusion,以及国内的站酷梦笔……这些AI工具如果你去尝试一下就会惊叹:太强大了。 它们的结果是把一大批插画师干失业了。 在视频制面,也已经有自动生成、处理的AI了: 甚至几乎所有地产人都需要会的技能――PPT制作,很多地产人应该没少做这个,现在也能自动生成了。 我让ChatGPT帮我写了个一键生成PPT代码,它就能自动生成VBA宏,直接粘贴到PPT里即可 而且微软新开发了个自动制作PPT的AI,目前还在内测阶段,未来会更强大。 ●●●3●●● 再来看看投拓部门。 前期需要各种测算,一般一家房企在一个城市要看N块地,N个人做N次的强排和测算才能完成的工作。 这也是为什么这两年很多房企停止拿地后经常把这个部门一锅端的原因。 那么用小库AI来做,就好玩多了:把地块的素质输入进去,一个人一天就能用穷举法生成N种强排方案,连造价和产品都有。 也许未来建筑设计师也不需要那么多了,只需要一些会操作AI、懂微调的工作人员就行了。 而在工程施工方面,AI就更厉害了。 众所周知现在90后都不太愿意去做建筑工人,碧桂园早就推出各种施工机器人,未来盖房子可能全面自动化。 甚至现在的土方测量都用无人机来做了,数据更精准,速度更快,人工一星期,无人机一小时搞定。 最近了解的一个消息,数字建筑平台广联达也下场做AI了。 如何避免沦为ChatGPT时代的失业者? AI的学习速度,是人类不能比的。每隔几天如果没有关注AI类的内容,就发现又升级很多,它们进步之快让我们难以想象,强大到让我们感觉不可思议。 但还是有很多方法让我们不会被取代:避免简单重复,锻造创新力。 AI最缺乏的就是创造力。 另一个可能会挑起AI大乱斗、让所有大厂都慌的消息是,微软已经上线ChatGPT的联网版―New Bing,掌握即时全网数据的超级智能AI来给你服务,未来真的来了。 就像每次的工业革命一样,不会失业的工人永远都是掌握使用机器的那批人。 而未来的你我,想要不失业可能要先学会如何熟练使用AI,或者直接跟老板说: 我比AI更便宜。 没想到,老板也是AI。

微软bing引入chatgpt使用 bing浏览器安装油猴插件步骤

微软bing搜索-国内版下载,微软bing是搜索引擎吗,微软cid,微软bing是什么
申请必应版ChatGPT内测资格,花了一周时间还是“出错了,请重试”。刚才只用了两分钟,就把两个帐号成功“加入候补名单”。方法其实很简单,没有安装Edge dev(开发测试版本)浏览器,也没有安装ModHeader浏览器插件。 下图是刚刚成功加入Bing ChatGPT候补名单的第二个Microsoft帐号: 图片丨刚申请成功BingChatGPT版内测名单 加入Bing ChatGPT候补名单后,在排队期间,或者暂时还没申请成功,可以先使用网页版ChatGPT,参考《人工智能 OpenAI ChatGPT 账号国内注册攻略丨图文教程》https://baiyunju.cc/10843 目前只要正常学习或工作,应该都知道怎么操作,不然很多事情无法正常进行。 注意尽量不要选择香港节点,因为中国内陆和香港地区的IP被OpenAI ChatGPT禁止使用了。 如下图所示: 图片丨在Edge浏览器中选择“以来宾身份浏览” 关于“以来宾身份浏览”是什么意思,请参考《Edge浏览器“InPrivate”“以来宾身份浏览”模式是什么意思,有何区别?》https://baiyunju.cc/11066 注意,不要使用“新建InPrivate窗口”,因为在Edge浏览器隐私保护模式下操作,会提示“使用InPrivate模式浏览时不支持加入候补名单”: 图片丨匿名浏览模式不能加入必应ChatGPT候补名单 Bing ChatGPT(新必应)官网入口: 登陆必应帐号,也就是Microsoft帐号或Outlook帐号,点击“加入候补名单”按钮即可。 我不断申请加入Bing ChatGPT候补名单这一个多星期,网上能找到的方法都尝试了,包括: 安装微软 Edge dev浏览器 安装浏览器插件“ModHeader” 清除浏览器缓存(快捷键:Ctrl+Shift+Delete) 清除Cookie信息(《浏览器中删除全部或者某一个网站Cookie缓存的方法》https://baiyunju.cc/7647 ) 更换不同国家的上网IP地址 包括前文的在Edge浏览器中“以来宾身份浏览”模式登录 结果全部是“出错了,请重试”: 图片丨尝试了所有方法,都显示出错了 上图就是在“以来宾身份浏览”登录帐号,依然无法加入Bing ChatGPT内测排队行列。 到这时候,已经可以说明,不能成功申请必应ChatGPT内测资格,不再是上网方式的原因了,原因只剩下一个: Microsoft帐号被限制了。我一直在用常用的一个Microsoft帐号申请。 因此,只能更换其他帐号申请,或者注册新帐号。 然后,再通过以上1-3步的上网方式,两分钟内,其他两个微软帐号都申请成功,都收到了加入候补名单成功的邮件,“You’re on the waitlist for the new Bing!” 更多相关文章: 《专栏丨OpenAI ChatGPT注册、使用教程》https://baiyunju.cc/tag/openai-chatgpt 《专栏丨网络经验》https://baiyunju.cc/tag/%e7%bd%91%e7%bb%9c%e7%bb%8f%e9%aa%8c 《专栏丨Edge浏览器使用技巧》https://baiyunju.cc/tag/microsoftedge 《专栏丨Google Chrome、Edge插件使用教程》 https://baiyunju.cc/tag/google-chrome%e6%8f%92%e4%bb%b6 《专栏丨浏览器使用技巧》https://baiyunju.cc/tag/%e6%b5%8f%e8%a7%88%e5%99%a8%e4%bd%bf%e7%94%a8%e6%8a%80%e5%b7%a7 禁止转载丨原文链接:https://baiyunju.cc/11073 ?禁止转载原文 欢迎分享网址 侵权必究:『白云居』 » 申请Bing ChatGPT内测“加入候补名单”,不用安装Edge dev浏览器和ModHeader插件