chatgpt能应用到哪些场景 利用chatgpt可以做哪些事
热门文章
0
淘宝搜:【天降红包222】领超级红包,京东搜:【天降红包222】
淘宝互助,淘宝双11微信互助群关注公众号 【淘姐妹】
记得 ChatGPT 最开始上线不久的时候,看到的大部分尝鲜和测试结果都是开发者在做进行敲代码测试,可以说职业危机感非常强的一群人了。再者,加上 ChatGPT 要使用起来其实是有一些技术门槛的,愿意折腾的人也多是程序员,所以理所当然大家会认为应该是这群人用的最多,但是直到我看到了一个全球范围内的用户调研,还是非常有意思。ChatGPT 用户调研结果Measurable AI 最新统计数据显示,用这个AI的设计师居然比开发者多5倍,程序员仅占4.4%。还是有些跌破眼镜,其实不光是我,这个机构在 twitter 上做的调研,大部分都认为开发者会是第一位。但是真实用户使用情况显示,用 Adobe 的人占 ChatGPT 用户总数18.5%,然后是用 Canva 的,约占9.2%;这两个软件都是设计者的绘图宝贝。除了设计师,用此 AI 工具的文字工作者也不少,比如 Substack 用户占总数的10%,Grammarly 用户占6.8%。而或许有点出人意料的是,GitHub 用户仅占4.4%,比画图写文章的少很多。ChatGPT 不受开发者待见的原因至于为什么 ChatGPT 不被开发者所欢迎,其实 ChatGPT 它自己是有一些回答的。ChatGPT的回复不管怎么说,多多少少还是有些道理的,除此之外也从我的角度进行一些分析。1、开发者最早吃鸡,玩腻了ChatGPT 去年12月就已经问世,记得当时宛如平地一声惊雷,注册量迎来高峰;在今年1月份,热度略有下降。而恰好开发者基本上是第一批用户,已经玩的差不多了,说真的我个人来说,认为它现在的成熟度还有挺大的进步空间,现在多玩几次就已经过了瘾,再玩的动力不大。所以这个机构反馈的用户数据基本上没怎么覆盖第一批开发者用户群体。2、目前 ChatGPT 编程成熟度有限自己在写代码方面比不上Copilot,毕竟Copilot是“专门针对代码生成而设计的”,很多开发者同时都反映ChatGPT 能够写一些代码,但是!代码中包含了一些错误。例如下面这个知乎博主的问题:知友的经历但是真的当过一个合格程序员就会知道,写代码的时间占比也就20%。其他80%的时间里超过 50%是调试和修改代码,30%是沟通协调,包括讨论需求同步信息等等。但我也相信未来 ChatGPT 肯定能在一定程度上把写代码的能力变得越来越优秀,错误也会越来越少,甚至帮助开发者写一部分的代码,减轻开发者的工作量。3、应用场景限制开发者发挥价值如果仅仅是单纯的尝鲜其实是很难有持续使用的效应,基本上问完两个问题满足了好奇的心理就不会频繁使用,除非找到一个特定的场景让 ChatGPT 能够真正的发挥价值。而一般来讲,技术型产品开发出来最大的难点就在于找到各式各样的应用场景,让其持续的优化和迭代,继而不断的扩充场景实现商业化目的。ChatGPT 的应用场景1、文案生成ChatGPT 可用于生成各种类型的文本,也是目前来讲应用范围最广、使用人数最多的场景,可以用在例如邮件、视频脚本、文案、翻译、代码、论文等,根据用户给出的关键词或主题生成内容、根据用户给出的开头或结尾补全文本、根据用户给出的源语言和目标语言进行翻译等。关于这一点也就不多讲了,大家在 ChatGPT 写诗、写文章都玩得非常溜了。我体验下来还是感觉比较好的,例如下面的这篇文章大纲。ChatGPT写作能力确实值得肯定2、搜索引擎优化搜索引擎优化(SEO)是指通过改善网站内容和结构等方面来提高网站在搜索引擎中排名和流量的过程。通过使用 ChatGPT,可以帮助网站制作更符合搜索引擎规则和用户需求的内容。例如,ChatGPT可以根据关键词生成网页标题、描述、标签等,并且保证内容与主题相关性高并且有价值。此外,ChatGPT还可以生成长尾关键词、内部链接、外部链接等元素来增强网页权重。对于产品、运营等是比较有帮助的,相当于一个小助手的角色。3、客户服务聊天机器人ChatGPT 可以用于创建能提供信息或娱乐的客户服务聊天机器人,例如回答用户的常见问题、提供产品或服务的介绍、处理用户的投诉或建议等。可以用于娱乐、咨询、客服等领域,我认为这个是未来应该重点挖掘价值的方向。传统的聊天机器人通常基于规则或者预设的对话流程,缺乏灵活性和智能性,无法处理复杂和多样化的用户需求。而ChatGPT作为一种基于深度学习的聊天机器人模型,能够根据上下文和用户意图生成合理和连贯的回复,并且具有自我纠错、挑战错误前提、拒绝不恰当请求等能力。ChatGPT可以提高聊天机器人的用户满意度和留存率,同时降低开发和维护成本。特别是目前已经开发者直接将 ChatGPT 接入到自己的公众号、网页、App,对于未来承接客服咨询类的工作非常有帮助,也能大大减轻人力负担。4、代码撰写虽然在编程方面的能力还不是非常完美,但是如实说它能够在一定程度上帮助开发者减轻一定的工作量,例如在:程序语言转换,比如 Python 转 Java。从我个人的使用体验来看,目前支持语言包括 Python, Java, Go, Node.js, R, C++ 等。另外也要推荐用它来生成程序命令,这是我在工作中一直使用的,能极大地加快代码开发。还有一些SQL语句生成、无结构化数据中生成表格等都是可以尝试用起来的。最后也给还没能上手体验OpenAi 原生 ChatGPT 的小伙伴一个0门槛体验的路径,FinClip App 首页有个 ChatGPT 小程序可以直接体验,感兴趣的小伙伴可以试试。
ChatGPT的数据集是怎么来的 CHATGPT技术原理
chatgpt官网,chatgpt怎么用,chatgpt中文,chatgpt账号最近,OpenAI推出的ChatGPT火了。 60天月活破亿,迅速狂飙出圈。ChatGPT不仅刷爆了朋友圈,也炸醒了国内外的科技圈、创投圈。 有人说ChatGPT相当于AI版瓦特蒸汽机,有人说ChatGPT让我们看到AI的未来,连微软联合创始人比尔・盖茨都说,ChatGPT的意义不亚于计算机和互联网的诞生,英伟达CEO黄仁勋更盛赞其诞生堪比iPhone问世。 在国外,微软宣布将向OpenAI追加数十亿美元投资,旗下产品将全线整合ChatGPT;谷歌紧急推出Bard对标ChatGPT;苹果、亚马逊、Meta等海外科技巨头纷纷透露将积极布局AIGC、ChatGPT相关技术。 在国内,百度、阿里、腾讯、京东、网易、360、科大讯飞等相继官宣要做中文版ChatGPT;就连已退休三年的美团网创始人王慧文也在朋友圈官宣携5000万美元入坑...... 这篇文章就由星尘数据为大家介绍ChatGPT成功的由来。华映资本是星尘数据A轮融资的领投方。「星尘数据」是一家提供数据标注服务和AI数据中台系统的SaaS公司,为人工智能企业提供数据服务,实现模型的生命周期中的数据生产、数据管理、模型训练、模型部署等环节。 ChatGPT是由OpenAI训练的一个大型语言模型,它使用了深度学习算法中的Transformer模型,通过对数十亿个语言文本进行学习,可以与人类进行自然对话,并尽可能准确地回答用户的问题。作为突破性的AIGC(人工智能生成内容)技术,ChatGPT为AI 行业带来了全新的想象力,由它引爆的“全球AI大战”火速拉开帷幕。 抢占先机,大模型是必由之路 值得注意的是,追赶ChatGPT的大厂,都在提及"大模型"。 百度文心一言将基于文心大模型推出;谷歌“Bard”由大模型LaMDA提供支持;360称自家布局ChatGPT类产品的优势在于数据和语料,在预训练大模型方面还存在短板。 出门问问CEO李志飞则表示,「2023年是AI大模型时代元年,此波变幅堪比2010年左右开始的移动互联网,听到最多的词是all in,许多人跃跃欲试要搞中国版的OpenAI/ChatGPT。如果把这个比作一场运动竞赛,那2023年Q1是报名阶段,目前的报名费是5000万美金起。」 可见,想要追上ChatGPT,离不开大模型。但事实上,大模型并不是什么新鲜事物。以下是「NLP领域大模型发展历程和重要突破」: 2017年 Google提出了Transformer架构,为大型模型奠定了基础。 2018年 Google推出基于Transformer架构的大型语言模型――BERT,成为当时最先进的自然语言处理模型。 2019年 OpenAI发布了语言模型GPT-2,该模型是一个大型的生成模型,能够自动生成高质量的文本,并且能够在多个NLP任务上实现零样本学习。 2020年 OpenAI发布了语言模型GPT-3,该模型是迄今为止最大的自然语言处理模型,拥有1750亿个参数。 2022年底 OpenAI发布基于GPT-3.5训练而成的ChatGPT,引发行业关注。 2017年,谷歌提出的Transformer架构为大语言模型发展奠定了基础,大模型由来已久。 很多人会有疑问,既然ChatGPT的核心架构Transformer最初是由谷歌提出的,并且谷歌在大模型技术上的积累可以说不弱于OpenAI,他们也不缺算力和数据,为什么会被ChatGPT打的措手不及呢? 这就必须来说说在算法和算力都是现成的情况下,ChatGPT在数据和反馈策略上的精妙之处。 RLHF基于人类反馈的强化学习,ChatGPT大力出奇迹 对于大模型训练来说,数据是其根本。但是想要训练一个类似ChatGPT的大模型,有足够的数据还不够,还需要有效的数据标注策略。 因为大规模的数据集早已存在,但是随着数据量的增加,杂讯也会增多,提取有效数据内容和知识的难度也呈指数级增加,对技术团队的数据工程化实现能力要求非常高,训练成本也极高。 如何降低数据成本,使用有效的数据策略引入人类反馈,形成数据和模型的反馈闭环,从而保证大模型不输出有害内容,并输出有用、符合人类偏好的内容,是大语言模型训练的重中之重。 ChatGPT能够突破难点大力出奇迹的核心就在于:Open AI在ChatGPT训练过程中设计了一套精巧的数据反馈链路策略――Reinforcement Learning with Human Feedback (RLHF,基于人类反馈的强化学习)。 图:RLHF基于人类反馈的强化学习基本原理 ChatGPT由GPT-3.5系列大型语音模型微调而成,通过RLHF基于人类反馈的强化学习,ChatGPT可以在人的动态反馈和指导下生成内容,因此具备了堪称“上知天文、下知地理”的能力,可以进行多轮对话、精准问答,生成编程代码、电子邮件、论文、小说。 可以这样理解,此前的大模型是在海量数据上自由奔跑,因为见识多,所以能预测,但会乱说话,有风险。RLHF数据反馈策略的加入,让ChatGPT在“自由奔跑”的基础上,用少量数据学会了遵循人的指令,揣摩人的喜好,不乱说话,说有用的话。 下面我们来看看RLHF数据反馈策略是如何实现的: ChatGPT的训练分为四步: (图片来源:OpenAI官网) 1、预训练(自监督学习):预备一个GPT-3.5模型 可以理解为预备一个在海量数据基础上自由奔跑过的模型,它具备了随机生成内容的能力,但生成的内容可能有毒有害,人类无法控制,所以需要强大的反馈策略来有效辅助。 2、微调(有监督学习):人类撰写少量的典型问题和标准答案形成标准语料库,微调GPT-3.5模型 这一步,相当于人类老师为GPT-3.5模型提供了一本标准习题册,学习了这本习题册后,GPT-3.5初步学习了如何输出人类期望的回答,说的话还不一定符合标准答案,此时模型根据「问答对」进行了微调。这一步最关键的是使用的「问答对」足够全面、精确,能够涵盖方方面面的基础问答,起到类似百科全书一样的地基作用,让无监督的模型迅速在监督反馈下有效的进行问题的回答。 3、人类反馈――用人类老师的打分结果训练一个反馈模型 在这一步,微调后的GPT-3.5输出多个答案后,人类老师将对答案进行价值排序,用强化学习训练一个全新的反馈模型。这时,人工反馈策略的加入,成为OpenAI在数据反馈策略上的重要创新,仅需要少量反馈数据就能显著提升模型的输出结果。这一步最重要的是需要一套数据闭环系统,能够将人类反馈接入大模型,并将人类反馈和大模型接入同一个平台,形成人类反馈+模型迭代的数据闭环。 4、RLHF(基于人类反馈的强化学习)――用反馈模型对微调后的GPT-3.5进行强化学习 最后,人类反馈形成的反馈模型代替人类老师继续为GPT-3.5的输出结果打分,并不断对它进行强化学习,形成最终的ChatGPT。这一步RLHF基于人类反馈的强化学习数据策略设计,直接让ChatGPT在算力和算法现成的基础上,形成了模型和数据的动态反馈闭环,带来惊艳的效果。 有业内人士指出,这种超大规模训练,并不依靠算法本身,硬件和数据才是王道,纯自然语言数据,网上公开的到处都是,也没有什么门槛,但是ChatGPT有一个巨大的先发优势,就是它通过抢先开始公测,收集了大量的用户的使用数据,这是更加宝贵的数据,而这部分数据只有他们家有。 其实,这套精妙的数据反馈策略在此前的InstructGPT(https://arxiv.org/pdf/2203.02155.pdf)中已经披露,ChatGPT采用的是和InstructGPT相同的数据策略。 过去,由Transformer带来了一次深度学习的范式转变,BERT类模型实现了从纯粹监督学习,转向了“预训练+微调”的范式。而今天ChatGPT的成功,带给我们的启示是,一个好的模型,需要经历: “预训练”来学习广泛知识 “微调”来保证合理的输出方式 “强化学习”来保证有效的人类反馈能进一步提高模型效果 业内普遍认为,RLHF基于人类反馈的强化学习引入,带来了NLP乃至AI领域研究范式的转换。这种新的范式,有可能成为第三阶段人工智能的核心驱动技术,即基于自监督预训练的大模型,再结合基于人类反馈强化学习的数据标注策略,形成模型和数据的闭环反馈,获得进一步的技术突破。 由此可见,GPT这个大模型之所以知识渊博,是因为摄入了数以亿计的语料库内容;而ChatGPT之所以“聪明”,是通过精妙的数据策略,加入了人类老师的指导。而这背后离不开大量的数据标注。如果缺乏有效的数据反馈,各大厂商想要训练一个类似ChatGPT的大语言模型也只是纸上谈兵。星尘数据在数据增强、数据反馈策略、数据闭环产品方面正好有着很多的积累。 星尘数据推出国内首个基于RLHF交互式数据标注业务,助力ChatGPT中国赛开卷 2023年1月,星尘数据正式对外发布了基于人类反馈的强化学习标注服务(Human Feedback as a Service)。星尘数据的闭环数据策略已应用于众多实验室项目,达到国际领先水平。同样的标注成本下,星尘的RLHF人类反馈强化学习闭环数据策略,可以帮助客户得到更多的有效数据,并动态反馈给客户的大语言模型。 星尘数据CEO章磊指出,有效的大模型=算法策略+数据策略+人类反馈(标注)。作为国内首家提供数据策略专家服务的数据标注公司,星尘将为中文ChatGPT的研发和数据策略制定提供最强辅助。 图:星尘数据Rosetta平台交互式数据标注服务(HFS) 通过星尘的Rosetta3.0数据标注系统,客户可以快速将语言模型接入系统,并实时将结果通过API显示在标注平台上,星尘专属基地的NLP标注员可以快速给出反馈。奖励强化模型实时接收到反馈并进行训练,可以实现模型的高效训练并及时发现难例和缺陷。 为什么星尘能够成为国内首家提供基于人类反馈的强化学习标注服务(HFS)的公司呢? 其实在ChatGPT大火之前,国内外就有多家实验室进行了深入的人机互动方向研究。星尘在服务这些前沿科研需求的同时,也积累了大量的强化学习、人机互动、语言文本方面的经验和服务能力。 斯坦福视觉实验室: 人类交互行为和意图识别,星尘通过对人类和环境的交互行为进行准确标注,协助研究探索了人和环境的交互关系,为机器如何更好地在虚拟空间中给人类指令提供反馈的课题奠定了基础。 国家媒体重点实验室: 星尘和国家媒体实验室共同完成了多项语言语义方面的科研项目,在人机问答(QA)、语义推理(NLI)、文本摘要(Summarization)、语义检错(Gramma Correction)、情感分析(Sentiment Analysis)、语义关系挖掘(Relation Extraction)等方面均通过星尘专业的数据策略经验和数据标注服务,极大提高了模型在基准测试中的得分。 科研院所: 星尘还和国内外多家科研院所共同合作,在前沿人机交互和语义理解方向进行了深入探索。在合作中,星尘数据的数据策略专家和学者就语言模型、知识图谱、领域问答等方向共同进行研究。星尘通过提供数据标注的体系设计、反馈闭环工程化实现、训练实验反馈等工作让学术研究可以更快得到结果,模型训练在相同数据成本下可以更快收敛达到预期效果。值得一提的是,在科研工作中星尘也参与到研究所的文献paper撰写和消融实验中,通过数据增强的方式,让联合研发的算法在国际NLP顶会的workshop中以第一名的成绩脱颖而出。 结语 可以预见,未来几年的AI大模型竞争将非常激烈,还未入局的玩家,或将面临淘汰。我们期待中国版ChatGPT的诞生,也将助力AI大模型的快速落地和应用。 ChatGPT等通用语言大模型一直被理解为“三高”,即“算力要求高”、“数据要求高”、“人才要求高”。实际上,星尘发现通过良好的反馈闭环系统和数据策略设计,仅需要三十分之一的模型大小就可以实现甚至超越GPT-3的1750亿模型参数量的模型效果。 星尘在语言模型和人机交互方面的丰富经验,积累下来的不仅仅是标注高质量数据的能力,更是数据策略的设计能力,以及不断打磨并符合科研需求的一整套数据闭环产品。 在大模型领域,我们不仅仅需要通用语言模型能够解决聊天、问答、信息检索等需求,更会在客服、金融、出行、工业制造、生物医药、农业等垂直领域对大模型有更加明确并可预期的落地效果。希望星尘数据在这方面积累的经验和产品,能够助力客户在各个领域快速打磨出一套够用、好用的交互体验算法,快速建立起行业领先优势。 如果您正在训练类似ChatGPT的大语言模型,需要优质的语料库资源和RLHF基于人类反馈的强化学习数据策略,星尘数据将竭诚为您服务。 *文中部分图片来自网络
chatgpt真的有那么好用吗 chatgpt 真的有那么神吗
chat thit,chat te,potato chat有真人吗ChatGPT的m1致命性缺陷前几天有人总结了f1一份ChatGPT自查手册,里面总结了i1它的y1这么几个问题,包括,强词夺理、编造不存在文本、缺少2023年的c1一些新数据,等等。同时,跟ChatGPT类似的v1几款AI应用,表现也并不完美。比如,前段时间谷歌的xBard,这是h谷歌设计的l,对标ChatGPT的w1智能AI。在测试时就犯了r事实性错误,咱们前段时间在第43期节目里就说过。再比如,前段时间微软推出的q,由ChatGPT支持的b新版必应搜索引擎,也被人指出犯了a1事实性错误。必应在说到一个叫岸田惠理子的日本诗人时,人家的生卒年份本来是d1929到2011,而必应给出的答案是h11930到2004,直接让人家少活了x18年。再比如说到某公司2022年三季度财报,人家实际运营毛利率是w3.9%,但必应的回答是e15.9%。注意,这些可都属于事实性错误。当然,尽管有这些磕磕绊绊,但并不影响大家看好它。但是s,有人踩油门,就有人踩刹车。网上对ChatGPT的质疑声也不少。有人说它会让人变懒,还有人担心学生用它来写论文,等等。但是a,在踩刹车的这拨人里,我k觉得有一个人的见识非常厉害。这就是n1著名的华裔科幻作家,特德・姜。也就是b1,《你c一生的故事》的作者,这也是i电影《降临》的原著。特德・姜认为,我m们要想知道,ChatGPT的局限到底是o什么?它又会带来什么样的问题?必须得先了s1解,ChatGPT的本质到底是l1什么?特德・姜说,ChatGPT的本质,是一张互联网上所有文本的模糊图像。乍一听好像很抽象,我u先给你q1讲一个故事。这个故事稍微有点难度,我g建议你u1稍微集中点注意力。2013年的时候,德国的一个建筑公司,在复印房屋平面图时遇到了d1一个奇怪的现象。原件的房间面积分别是14.13平方米、21.11平方米和17.42平方米。总之,是三个有零有整,各不相同的数。但是复印出来的图片,三个房间的面积,都被标记成了n14.13平方米。这太奇怪了t1,明明是复印,怎么会出错呢?结果一查,发现问题出在复印机上。当时他t们用的复印机,是一种施乐牌的,经常用于建筑图纸的复印机。这跟咱们平时用的复印机不一样。因为建筑图纸往往特别大,直接复印很麻烦。因此这种施乐复印机,是先扫描图纸原件,然后储存到本地,再打印出来。你v可以这么理解,它是先记住这个图像的样子,再自己画出来。这就意味着,施乐复印机,往往要储存很多图片文件,而且你p知道,建筑图纸,文件普遍不小。为了f节省存储空间,施乐复印机有一个默认设置,就是给所有文件自动做压缩处理,把图片压缩成更小的文件。那么,怎么才能压缩得尽量小呢?你z1可以这么理解,就像上课,怎么节省时间?很简单,重复的东西不学,什么东西都只学一遍。施乐复印机在压缩图片时,就遵循这个原则。假如这栋楼有1000个房间,全都一模一样,我z在识别图像时,就把它们当成同一个信息,不用重复储存,只储存其中的一份就够了。没错,问题就出在这,这回要复印的三个房间,在施乐复印机看来,是几乎差不多的。它觉得这些房间之间的差别可以忽略不计。于是就按照同一个房间来识别了。后来,这个bug已经被修复了。好,故事讲完。刚才咱们说了很多,你j1要是没太懂也没关系。只需要记住一句话,因为储存空间有限,因此机器记东西,有时候不会完全一比一,它们会记一个大概其。也就是,保留关键特征,忽略它们认为不重要的细节。特德・姜认为,ChatGPT现在做的事,可能就跟施乐复印机有点像。为了节省空间提高效率,它们在回答你g1的问题时,也是先在网上把资料整合个大概其,然后再用它自己的话告诉你r1。毕竟,网络上的素材太多了,它假如全部学习,再转述给你o1,不仅自己吃不消,你y作为接收者,也会觉得信息冗余。同时,为了达到一种很智能的感觉,ChatGPT回答问题的方式,往往不是直接引用,而是重新组织信息之后,用非常自然的语言表达出来。这就让人觉得,它非常智能。就像你p1衡量一个学生,好学生回答问题的方式肯定不是死记硬背,而是带上自己的理解。换句话说,你k1可以把ChatGPT看成一个特别擅长口语表达,而且效率很高的职业转述师。这就意味着这么几件事。首先,它是转述师,而不是专家。它给你的回答不是它原创的,而是学习网络上其他j资料之后的转述。其次,为了提升你的接收体验,它很擅长口语表达。这很容易给你造成一种错觉,认为它好像真的学会了什么。最后,为了实现这个口语化的效果,同时,也为了提高效率,它对网上资料的学习,并不是完全一比一地学习,而是学一个大概其。当然,眼下看,这好像也不是什么大问题。毕竟,很多人对ChatGPT的当前水平,也没有那么严格的要求。但是,长期看,特德・姜觉得这可能会带来两个问题。第一,已经经过ChatGPT转述一次的答案,将来会不会被二次,甚至三次转述?因为每一次转述,都是一个大概其,都会忽略一部分细节,转述的次数多了,被忽视的细节就会越来越多。就好比电脑里的图片缩略图,假如再压缩一次,会越来越模糊,很多关键的事实性信息,可能会丢失。第二,假如未来整个网络上,有大量ChatGPT转述的内容,整个互联网,可能会变得越来越模糊。你到时再想搜到一点精确的信息,可能会变难。注意,特德・姜的这个观点,目前只是一个假设。怎么验证它是否成立?特德・姜也给了一个方法,就是看下一代升级版的ChatGPT,也就是它的4.0版本,在训练时,会不会故意排除之前版本生成的内容。也就是,在训练下一代ChatGPT时,假如用的是网上的原始素材,而且故意排除了之前上一代ChatGPT自己生成的内容。就说明开发者自己已经意识到了这个问题,并且开始解决。这也间接说明,特德・姜,预测对了。我e们也会关注后续的新闻报道,来一起验证一下。 版权声明:内容来源于互联网和用户投稿 如有侵权请联系删除 本文地址:
版权声明:除非特别标注原创,其它均来自互联网,转载时请以链接形式注明文章出处。