淘优惠

淘优惠

人工智能软件chatgpt是哪家公司的 人工智能chatgpt走红全球科技圈

热门文章 0

淘宝搜:【天降红包222】领超级红包,京东搜:【天降红包222】
淘宝互助,淘宝双11微信互助群关注公众号 【淘姐妹】

人工智能软件chat GPT,人工智能软件chat GPT下载,人工智能软件炒股,人工智能软件龙头股

一、新闻爆款现象,预计持续吸引眼球

1、惊艳出世

2022/12/1,OpenAI 发布了 NLP(自然语言识别)新模型 ChatGPT,一经面世就引发科技界的巨大关注。该模型是 OpenAI 基于先前推出的 NLP 预训练模型 GPT-3.5 之上的衍生产品,利用AzureAI 超级计算基础设施、通过有人类反馈的加强学习方法训练而成。ChatGPT,从其名字就可知,这是一个对话式的 AI 模型(chat 在英文中是聊天之意),使用简单,只需向 ChatGPT 文字提出需求即可。ChatGPT 可完成回答问题、书写代码、写诗、写小说等,对完成用户指令的响应度远强于两代前的 GPT-3。马斯克在推特上评价 ChatGPT 称:“ChatGPT 好得惊人。我们离强得可怕的 AI 不远了。”

相比过去的人机对话模型,ChatGPT 表现显著更优,能给出更具体的回答,并且可以直接完成详细指令,甚至主动驳回一些危险提问。ChatGPT 模型比以往的人机对话模型(例如 GPT3等)更强大,例如,其敢于质疑不正确的前提和假设、主动承认错误以及一些无法回答的问题、主动给拒绝不合理的问题、提升了对用户意图的理解以及结果的准确性。与之前的 GPT3 不同,相比于此前海量学习数据进行训练,ChatGPT 中,人对结果的反馈成为了 AI 学习过程中的一部分。初次之外,ChatGPT 甚至会主动驳回一些危险提问,例如:如果提问“如何霸凌 John”,上一代的模型 InstructGPT 会给出几种方法作为解答,而 ChatGPT 给出的答案则是“霸凌是不对的”。

  1. 搅动风云

2.1・“美版今日头条”buzzfeed跳涨3倍

新媒体网站Buzzfeed基于ChatGPT乃至OpenAI的大光环,咸鱼翻身,股价直接跳涨了三倍!起因仅仅是Buzzfeed宣布将用OpenAI提供的人工智能API――甚至不是被一些媒体误传的ChatGPT本身――来协助创作一些内容。

BuzzFeed 首席执行官乔纳・佩雷蒂(Jonah Peretti)在一封备忘录中表示:“到 2023 年,你会看到我们会把还在研发阶段的人工智能的内容,转变为我们核心业务的一部分,从而增强Quiz(测验)体验,为我们的头脑创意提供信息,并为我们的受众提供个性化的内容。”

相较于常规新闻网站,面向年轻人的Buzzfeed,就是以网络上各种测试知名,包括“测测你是迪士尼里的哪位公主”,“复仇者联盟里的哪位超级英雄最适合做的你的男朋友”之类。

而它此次和OpenAI的合作,就将主要应用在这类“快餐”内容的生产上。具体来说,BuzzFeed将会用OpenAI的人工智能技术,帮助生成网站上相关的测试问题,从而帮助绞尽脑汁的编辑来找到更好的创意。

一位发言人表示,BuzzFeed 目前不会使用人工智能来帮助撰写新闻报道。

2.2 考试达人

在沃顿商学院的商业管理课程考试中,ChatGPT表现更好,获得了B到B-的成绩。沃顿商学院教授克里斯蒂安・特维施(Christian Terwiesch)表示,ChatGPT在回答基本的运营管理和流程分析问题方面做得“非常出色”,但在处理更高级的提示时表现不佳,并在基础数学方面犯了“令人惊讶的错误”,有些错误甚至仅仅是小学数学的水平。

2.3 公司估值290亿美金

根据华尔街日报 1 月 6 报道,爆红的聊天机器人 ChatGPT 背后的研究实验室OpenAI 正在谈判以收购要约的形式出售现有股份,交易对该公司的估值达到 290亿美元左右,使其在没有什么收入的情况下成为账面上最值钱的美国初创公司之一,成为 AI 时代资本定价的标杆事件。

3、GPT4.0或2月面试

生成式预训练模型GPT-4预计将于2022年12月至2023年2月发布。

GPT-4相比于当前的文本模型会有大幅改进:

? 图灵测试:此前一些AI模型仅部分能力通过图灵测试,而GPT-4有望完全通过图灵测试;

? 成本下降:通常模型训练成本随着模型规模提升而提升,但GPT-4的训练成本或显著低于GPT-3,控制在100万美元的范围内,从而降低AI技术的使用门槛。

猜测:GPT-4或不再以“大”取胜,数据在精不在多,依靠提高模型效率和数据质量达成改进。

GPT-4的推出对商业应用的潜在影响:

1)模型能够生成更有“温度”的文字,对应AI客服、AI心理咨询、营销文本等场景;

2)模型能够生成更加“专业”的文字,对应金融、医学、新闻、工业等垂直行业应用。

二、商业应用潜力无限

  1. 近日,OpenAI发布了ChatGPT的付费版――「ChatGPT Pro」,每月42美元(约285人民币)。

2、ChatGPT 或将加入 Word、PPT 和 Excel。微软计划在 Word、PowerPoint、Outlook 等软件中,悉数加入 ChatGPT 等 AI。

3、微软或将ChatGPT应用于Bing,有望带来搜索引擎革新。据外媒TheInformation报道显示,微软可能会在2023年3月之前在Bing中应用ChatGPT,用人工智能来回答一些搜索查询。若Bing引入ChapGPT,有望以完整句子的形式呈现搜索结果,这一举措或将改变搜索引擎的运行模式,革新性地提升搜索引擎效率。

据 statcounter,2022-2023 年,谷歌搜索引擎市场占比为 92.08%,Bing 排名第二仅为 3.19%,考虑到微软与 ChatGPT 母公司 OpenAI 已有对话式编程工具 Copilot 的成果合作案例,将 Bing 集成 ChatGPT 预期进展顺利,Bing市场份额提升机会较大。谷歌当前已经开启“内部红色警戒”,围绕 ChatGPT 全面调整明年在 AI 领域的工作,足见ChatGPT 类生成式 AI 对搜索引擎市场的颠覆程度。

相比传统的搜索引擎根据用户提问,从而提供数千万个相关链接索引,ChatGPT 直接提供自己的搜索和信息综合的单一答案,让用户省去反复点击链接找寻答案的复杂度。若能过实现落地应用,ChatGPT 会面向传统搜索引擎发起挑战。

不过,ChatGPT 在搜索引擎领域的应用当前仍具有几大悬而未决的掣肘:

1)真实性无法保证。在学术、科研等严谨的应用场景中,ChatGPT 提供的答案并不一定都是正确的。解决 ChatGPT 输出的真实性将会是一项重大的挑战,由于 ChatGPT 只提供纯文本,不引用实际网站,目前并没有办法从 ChatGPT 的输出中分辨真伪,除非用其他来源(如 Google)来验证答案。

2)信息的实时性难以保证。搜索引擎的索引其实可以实时更新,也更为方便快捷一些,但对于大型语言模型而言,添加新的内容需要重新训练模型,成本昂贵。据外媒报道,基于 GPT3.5,ChatGPT 可能至少有 1750 亿个参数。由于没有可以适合该模型的单个硬件,因此必须将其分解并分布在多个处理器上,例如 A100GPU。设置和并行化这些处理器以训练和运行模型既是技术挑战,也是财务挑战。

3)商业模式问题。目前,ChatGPT 还处于测试阶段,并没有落地的商业模式。不过此前据 TechCrunch 估计,拥有 100 万用户的 ChatGPT 每天花费 100,000 美元,每月花费约300 万美元。若应用于 Bing 后经历高频度的搜索查询,商业运营成本极高。

其他:

三、技术原理

ChatGPT 的工作原理是使用人类反馈强化学习(RLHF)的训练方法,以最小化无益、失真或偏见的输出。该方法总体上包括三个步骤:

1)有监督的调优:预训练的语言模型在少量已标注的数据上进行调优,以学习从给定的 prompt 列表生成输出的有监督的策略(Supervised Fine-Tuning,SFT);

2)模拟人类偏好:标注者们对相对大量的 SFT 模型输出进行投票,创建一个由比较数据组成的新数据集,在此数据集上训练新模型,被称为训练回报模型(Reward Model,RM);

3)近端策略优化(Proximal Policy Optimization, PPO):RM 模型用于进一步调优和改进 SFT 模型,PPO 输出结果是策略模式。

ChatGPT 是从 GPT3.5 系列中的模型进行微调而诞生,此前 OpenAI 还设计了 GPT-1、GPT-2 和 GPT-3 模型。

1)GPT-1:无监督学习

2)GPT-2:多任务学习

3)GPT-3:海量参数

4)ChatGPT:人工标注数据+强化学习

深度学习的三要素包括算法、数据和算力,本文主要对算法的演进历程进行了回顾,认为深度学习底层算法被统一为 Transformer 之后发展放缓;而算法的行业落地应用、大数据的生成与处理、高算力芯片成为重点发展方向。

深度学习时代的开启依托于 2011 年 Relu 激活函数被提出、梯度消失问题被大幅缓解,此后深度学习算法和应用的发展均突飞猛进。最初卷积神经网络(CNN)通过对高层次特征的提取和压缩,擅长图像分类等任务;循环神经网络(RNN)通过对时序信息的提取,擅长文字、语音识别和理解等任务。2017 年 Transformer 的提出让深度学习进入了大模型时代、2020 年 Vision Transformer 的提出让深度学习进入了多模态时代。由于 Transformer 在大数据并行计算方面具备优势,且训练数据增长后对模型精度提升明显,自此各模态和各任务底层算法被统一为 Transformer 架构。

如 OpenAI 在多模态主干网络 CLIP 的基础上引入扩散模型,即训练出能完成语义图像生成和编辑的 DALL・E2,引发AIGC 浪潮;在 GPT-3 模型基础上引入了人类反馈强化学习方法(RLHF),训练出 InstructGPT 模型,并据此发布了对话机器人 ChatGPT,引起了互联网用户的注意。但随着 Transformer 基本完成底层算法统一之后,整个行业底层算法发展速度开始放缓,静待骨干网络的下一次突破。同时基于Transformer 对大数据的需求,催生了无监督学习、高算力芯片的发展。

2020 年,Google 提出 Vision Transformer(ViT)以解决计算机视觉问题,这标志着自然语言处理、计算机视觉两个最重要的深度学习领域实现了底层算法的统一。ViT 的核心思想是把图像当作文本处理,即将完整的图像划分为若干各个小块,把各个小块视为词语,把各个小块构成的完整图像视为语句,在此基础之上进行神经网络训练。

2021 年 1 月,OpenAI发布了图像和文本并行的大规模多模态模型 CLIP,该模型在超过 4 亿的图像-文本对上进行训练,优点在于使神经网络不仅关注特征之间的空间联系,而且还会关注特征之间的语义联系,使得神经网络对图像的理解能力迈向新高度。

据 Alchemy API、Lambda Labs 估计,不计前期训练成本,GPT-3 最终训练成本约 460-1200 万美元。Eleuther AI(致力于开源大模型的组织)在 22年推出的200亿参数GPT-NeoX-20B中使用96块A100芯片训练了三个月,据 The Next Platfrom 估计,最终一次训练成本大约 53-66 万美元。大模型研发逐渐成为资本和数据密集的业态。美国目前主要大模型包括 OpenAI 的GPT-3、英伟达与微软的 Megatron Turing-NLG、Meta 的 OPT 等。中国主要大模型包括百度文心 Ernie、华为盘古、商汤视觉模型等。今年 8 月以来,美国限制对华出口 A100 等高端 GPU,或影响中国大模型发展速度。

四、投资机会

1、NLP语义处理

ChatGPT所基于的自然语言处理是AI的核心课题之一。自然语言处理(NLP,Natural language processing)主要包括自然语言理解类任务和自然语言生成类任务,其使得计算机可以理解和反馈自然语言;在NLP发展之前,人类只能通过固定模式的指令来与计算机沟通。自然语言处理(NLP)是研究人与计算机交互中的语义理解问题的技术,解决的是人机交互中“听得懂”的问题。是在机器语言和人类语言之间沟通的桥梁,以实现人机交流的目的。

当前国内领先的对话交互类AI算法企业主要包括两类:

C 以语音识别为核心业务的企业,延生到NLP领域,如科大讯飞,从语音识别延生到语音合成、机器翻译、图文识别、图像理解、阅读理解、机器推理等算法,并在消费者、智慧教育、智慧城市、智慧司法、智能服务、智能汽车、智慧医疗、运营商等领域实现深度应用。

C 以NLP为核心业务,专注语义识别的企业,如拓尔思。拓尔思是国内最早从事自然语言处理(NLP)研发的企业之一,在语义智能领域具备自主可控的底层技术,可以提供预训练模型和阅读理解等技术成果。

2、人工智能公司

港股商汤-W,A股云从科技

3、标注数据集

海天瑞声

4、AI关联

法本信息、华宇软件

其他市面挖票:

补充资料:

OpenAI是ChatGPT的源头公司,公司主要历史如下:

C 2015年,马斯克和Sam Altman等人共同创立了OpenAI nonprofit,使命为确保通用人工智能(Artificial General Intelligence, AGI),即一种高度自主且在大多数具有经济价值的工作上超越人类的系统,将为全人类带来福祉。

C 2018年,由于特斯拉和AI技术的关联越来越深、外界越发担忧特斯拉将运用OpenAI的技术实现系统和产品升级,马斯克于2018年离开OpenAI的董事会,转变为赞助者和顾问。

C 2019年,在训练模型的高成本压力下,OpenAI划分出有利润上限的盈利性组织OpenAI LP。紧随其后,微软宣布为OpenAI注资10亿美元,并获得了将OpenAI部分AI技术商业化、赋能产品的许可,后续微软可能会将OpenAI的技术与搜索引擎、办公软件等相整合。

OpenAI 2022年营业收入约8000万美元,且据OpenAI预测,2023、2024年营业收入将分别达到2亿和10亿。(路透社)

? 目前,OpenAI董事会由董事长兼总裁Greg Brockman、首席科学家Ilya Sutskever和首席执行官Sam Altman等人组成。其中,首席科学家Ilya Sutskever是AI领域全球最有影响力的学者之一,文献引用量高达36万,单篇最高引用量12万,主导或参与了AlexNet,AlphaGo,GPT、CLIP、DALL-E和Codex的研发。

? OpenAI主要投资者包括微软、Reid Hoffman’s charitable foundation和Khosla Ventures。路透社称,微软希望向OpenAI追加投资100亿美元,如谈判达成,微软将持有OpenAI 49%的股权,OpenAI的非营利性母公司持有2%,其余投资者持有剩余49%。


ERFishing

erfi是什么

新手操作徒手安装Ubuntu,踩坑无数。

分享一篇好的经验:https://blog.csdn.net/xrinosvip/article/details/80428133(下附原博客)

踩坑大集合:

num0:没有压缩卷,分区的时候直接安装在存有数据的机械硬盘里,导致数据全清

接着进行第二次安装....

num1:自行进行分区,没有将ubuntu的boot安装在 Windows boot Manager 中,导致重启后没有导引,无法进入Ubuntu,双硬盘的同志们注意(红色警告

接着卸载一顿瞎操作导致win10崩溃...神队友给力挽回进行第三次安装...

好的经验贴,神一般的队友,成就你的双系统(撒花耶耶耶)

 

 

copy经验帖,感谢博主大大:

 

温馨提示:  本贴适用于 Win10 UEFI 模式启动+双硬盘(固态硬盘+机械硬盘)安装 ubuntu18.04 双系统

本人电脑型号: 戴尔游匣5575 (128固态+1T机械硬盘),Win10UEFI启动模式,64位操作系统
 
ubuntu18.04下载链接:
 
系统安装过程应注意的事项:
    1、安装原理
    2、安装环境
    3、安装过程
        3.1、安装环境配置
        3.2、分配硬盘安装空间
        3.3、制作启动U盘
        3.4、U盘启动安装
            3.4.1、基本步骤
            3.4.2、盘符选择
            3.4.3、分区挂载
     4、安装完成
 
1、安装原理:
        不管是单系统还是双系统,是legacy启动还是uefi启动,系统安装原理都是一样的,核心就是:系统部署+系统引导,电脑在启动后只有根据引导文件找到已经部署的系统才能正常启动。那些img、iso等各种类型的镜像文件,是系统的封装形式;进PE安装或者U盘、光盘启动盘安装,是系统的安装方式;用easyBCD、Bootice等工具修复系统引导,是改变系统的启动路径。
 
2、安装环境:
        安装双系统之前首先要了解自己电脑的软硬件环境,不同的软硬件环境搭配会导致不同的安装方法,这一点一定牢记!!网上有很多种安装教程,但是我们直接拿来用却不一定能成功,而且是往往不能成功,原因一般都不是这些教程本身有错误,而是因为其应用的环境与我们安装系统的软硬件环境有差异。
  我的环境是:uefi启动模式下的win10 + ubutu18.04,其中win10 安装在 128G固态硬盘上(这也是为啥现在win10 启动时间仅仅10 几秒的原因),Ubuntu18.04LTS 安装在1T 机械硬盘上
 
3、安装过程:
 
    3.1、环境配置
        开机按住 F2 进入  BOIS 设置(不同电脑品牌可能不太一样,有些品牌的电脑开机在右下角有提示,比如戴尔,具体方式自己百度) 用键盘上的方向键 右键 移动光标 到 Boot 选项 ,再用 键盘上的方向键 下键 移动光标至 Secure Boot 将其  Enabled  修改为 Disabled,(Secure Boot 是安全启动项,不关闭的安装到 选择安装类型时 会提提示输入 安全启动项 密码,这个东西打售后技术支持 他们也不会告诉你的,所以为避免不必要的麻烦,一定要记得关闭 安全启动项 ),如图所示:
 
进入 BOIS 界面:按下图设置:
 
 
完成上述修改后,按下 F10,按下图设置:
 

 

重启后,按 F2 进入 BIOS ,设置完成后 Boot 的界面如下图:
 
这说明 Secure Boot 项设置完成,之后 按  ESC 退出 BOIS ,电脑重启
 
    3.2、 分配硬盘安装空间
        win10 自带分区功能,鼠标放在 此电脑 上 右键  选择  管理  ,打开界面后选择 磁盘管理  ,接下来在你的 机械硬盘  上  找到一个 容量比较大的磁盘  鼠标选中 容量比较大的磁盘  鼠标右键 压缩磁盘  ,至于压缩磁盘的 大小是自己的磁盘可用量而定  ,我的 压缩磁盘 210GB (刚开始只分配了 150GB ,后来发现不够用, 卸载重新 压缩磁盘 安装的,建议:如果磁盘容量足够大,可以压缩空间大于 200G ),如下图所示:
        注意: 压缩的磁盘空间  一定不要分配盘符(即  不要新建卷  ,也即是不需要盘符 D、 E、F这些东西,保持未分配状态)
 
查看 磁盘1 的分区方式 ,如下图:
 

 

压缩后的磁盘空间 210GB  状态 : 未分配(不要新建卷,保持未分配状态)
 

 

磁盘空间分配完成
 
     3.3、制作启动U盘
            这一步很关键,若电脑是 UEFI 启动模式,而不是  传统的 Legacy 启动,制作的  启动U盘 也要选择 UEFI 启动模式  否则 无法启动
           还要注意磁盘的 分区表 是 GPT 还是 MBR ,MBR是旧的分区表形式,GPT 是新的分区表形式,至于二者的具体区别这里不多说,想了解的自行百度,若是 GPT 分区表,制作 U盘 时 就要选择 GPT  ,否则 无法启动
制作 启动U盘的工具 推荐这一款 :   下载链接:https://download.csdn.net/download/xrinosvip/10568860   (当然你也可以用其他U盘制作工具,自行百度)
            由于我的笔记本 是  UEFI模式启动,机械硬盘是  GPT 分区方案,故在制作  启动U盘  时,选择  用于UEFI计算机的GPT分区方案
        至于有些教程说 把 UEFI 模式 在 Boot 中修改为 Legacy 启动模式,对于UEFI 启动模式的 电脑,这是没必要的,这种方法陈旧了,对于新启动模式的电脑 早已不适用,而且就算安装成功,启动win10  和 Ubuntu 时,也要来回修改 Boot 下的 Boot List Option(启动模式),而且这种方法安装的双系统有一个 致命的缺点 就是容易出现 系统崩溃 ,况且 ubuntu18.04 LTS 也是长期支持版,本来就支持  UEFI 启动模式,而且 Legacy 模式 也无法 启动win10 ,具体制作过程如图下图所示:
 

hyper-v server 2012安装 安装hyper-v导致无法开机

hyper-v是什么意思,hyper-threading要打开吗,hyper-v 网络设置,hyper-v和vmware哪个好

和终端用户相比,企业用户对于业务的连续性和可靠性更为在意。相对而言,企业一般不会将追逐单一硬件的性能排在第一位。

如何衡量业务是否持续可用,一般使用"x 个 9"这种方式来定义。如我们常说的"3 个 9",即表示年可用性为 99.9%,也即意味着一年只能有 8.76 个小时的系统停机时间。对于单台物理服务器而言,这意味着该设备一年内不能出现硬件损坏的情况,否则更换配件和重新上架的时间过长,很容易导致可用性等级超出这个标准。

像"5 个 9",甚至"6 个 9"这种高可用性是如何实现的呢?可想而知,通过单台物理服务器来实现这种目标将是非常苛刻且成本高昂的。

常见的可用性与相应的可允许停机时间如表 8-1 所示。

可用性%

每年可停机时间

每月可停机时间

每周可停机时间

99%

3.65 天

7.20 小时

1.68 小时

99.50%

1.83 天

3.60 小时

50.4 分钟

99.80%

17.52 小时

86.23 分钟

20.16 分钟

99.90%

8.76 小时

43.8 分钟

10.1 分钟

99.95%

4.38 小时

21.56 分钟

5.04 分钟

99.99%

52.56 分钟

4.32 分钟

1.01 分钟

99.999%

5.26 分钟

25.9 秒

6.05 秒

99.9999%

31.5 秒

2.59 秒

0.605 秒

99.99999%

3.15 秒

0.259 秒

0.0605 秒

表 8-1 可用性与停机时间简表

为了满足企业对业务持续可用的追求,降低年故障停机时间,系统、网络、存储各大厂商都引入了"群集"的概念。"群集"的作用是通过多台硬件同时运行来实现的,当故障发生时,通过快速且自动化的切换故障服务器,从而实现业务的持续运行。和传统的硬件故障或网络故障发生后,需要人为参与排障不同的是,群集技术是不需要人为参与的,可以做到全自动运行。当故障发生时第一时间转移故障节点,从而极大限度的提升业务持续可用的能力。

Windows Server 2012 R2 作为新一代的 Cloud OS,其 Hyper-V 角色自然也拥有"群集" 的能力。Windows 下的群集技术被称之为"故障转移群集",Hyper-V 角色的故障转移群集目的很明确:当群集内某一台 Hyper-V 主机出现故障无法提供服务时,可由群集内的其他主机快速接管任务,继续为用户提供持续可用的服务。

在介绍微软私有云之前,必须对微软的故障转移群集有深入的了解,它属于微软私有云实现高可用性的核心技术。

故障转移群集(Failover Cluster)是 Windows Server 下的群集技术的全称。它指的是一组协同工作的独立服务器,通过物理链路和软件进行连接,以相应的技术手段来实现更好的服务可用性:当群集内某一台物理服务器出现故障时,另一台服务器开始接管故障服务器的服务(此转移的过程被称为故障转移过程)。群集角色会主动监测群集内的主机工作是否正常,通过故障转移,最终用户所能感知到的停机时间将会非常短暂。尽管群集多数是由两台以上的独立服务器组成,但在逻辑上,它们被认为是一个紧密的整体。

故障转移群集在 Windows Server 下是一项覆盖面很广的技术,其不仅可以提升 Hyper-V 的服务可用性,还可以将以下几个重要角色添加到故障转移群集中:

  • DFS 命名空间服务器:命名空间是一个组织中文件共享的虚拟视图。当用户查看命名空间时,共享看似驻留于单个硬盘中。用户无需了解承载数据的服务器名称或文件共享,即可导航命名空间。
  • DHCP 服务器:DHCP 服务器自动提供客户端计算机和其他基于 TCP/IP 并具有有效 IP 地址的网络设备。
  • 虚拟机:虚拟机是在物理计算机上运行的虚拟化的计算机系统。多个虚拟机可运行在同一台计算机上。关于虚拟机的故障转移群集也是本书的重点之一。
  • Hyper-V 副本代理:故障转移群集可以使用 Hyper-V 副本代理加入具有 Hyper-V 副本的虚拟机复制。每个故障转移群集上只能配置一个 Hyper-V 副本代理。通过Hyper-V 副本代理,使得 Hyper-V 副本可以在故障转移群集中使用。
  • 文件服务器:文件服务器的群集可以为用户提供基于文件共享的高可用实例。
  • 通用服务、脚本、应用程序:可以将本不是用于在故障转移群集中运行的服务、脚本、应用程序配置高可用性。
  • Exchange 服务器:在早期的 Exchange 中,如 Exchange2007,即采用的故障转移群集技术,最新的 Exchange2010 和 2013 所采用的 DAG 技术则采用了故障转移群集组件提供的有限的一部分群集功能。DAG 使用群集数据库、群集心跳(Cluster heartbeat)及文件共享见证(File Share Witness,FSW)功能
  • SQL Server,SQL Server 是一套数据库系统,通过故障转移群集,可为 SQL Server 带来高可用性,使用户免遭服务中断的影响。

高可用性(High_Availability)简称 HA,其不限制具体采用的技术,只要利用到了"未雨绸缪"的设计思想,均算是高可用性的一种。如正常的系统备份、硬件级别的离线冷备份、硬件级别在线热备份、异地灾备、软件群集技术,这些均算是高可用性的范畴内。唯一不同

的是,由于所采用的技术不同,其所提供的可用性级别不同,出现故障时的转移时间不同。

故障转移群集的优点正如其名称一样,通过转移故障,为最终用户带来自动化的,中断时间相对较短的高可用性。总的来说,故障转移群集可以实现以下几个目标:

  • 适应计划内的停机维护,通过故障转移群集,可以在设定的时间范围内对群集内的一部分服务器进行停机维护,同时可以保障业务的连贯性。使用故障转移群集,可以在白天进行一些维护工作,而无需等到夜深人静时加班去做这些操作。
  • 减少计划外的停机时间,故障转移群集通过自有的算法机制,自动接管意外停机服务器上的服务,减少由于硬件或软件的故障造成的停机,对业务连贯性的影响,维护整套系统的高可用性。

由此可以看出,故障转移群集是一种为提供更高可用性而存在的技术。在 Windows Server 2012 R2 中,故障转移群集支持最多 64 个节点,而在 Windows Server 2008 R2 中,仅仅支持 16 个节点。在数据中心越来越庞大的今天,16 个节点的限制显然是捉襟见肘的,要满足用户的需求,升级系统势在必行。同时,在 Windows Server 2012 R2 中,每个群集中的最大虚拟机数量也从 Windows Server 2008 R2 中的 1000 个提升到了 8000 个。

故障转移群集可以为企业带来更高的可用性,相应的,为了搭建故障转移群集需要付出一部分代价方可实现。

  • 相对较低的资源利用率,由于希望当故障发生时,可以有备用的服务器随时转移故障,接管服务,因此群集内的所有服务器不可能会满负荷运行,至少要预留一部分资源,以完成可能会发生的故障转移的操作。
  • 增加响应时间,由于最终用户不是直接和目标服务器通信,而是由一套群集机制来负载和分流,因此对于维护故障转移群集本身,这需要消耗一部分系统资源去实现,相应的,会增加一些系统响应时间。
  • 额外的成本,由于使用故障转移群集需要投入冗余的硬件成本和共享存储,因此在设备投资上会超越非高可用架构的设计规划。
  • 相对较高的技术要求,由于使用了冗余的架构设计,因此需要 IT 管理人员的知识面要更加广泛。

故障转移群集要求网络存在冗余,一般实际部署中,单台物理服务器会使用两条网线,其中一条接入生产网络,另外一条作为心跳线(heart line),为群集之间互相验证存活的手段。需要注意的是,心跳线在 Windows Server 2012/2012 R2 中并不是必要条件。故障转移群集建议的是网络链路的"最好"存在冗余,至于冗余的线路是承载生产网络还是单纯作为心跳使用,并没有严格要求。

如果希望业务能够很好的分层处理,在规划服务器虚拟化或微软私有云之初,就需要对故障转移群集的网络部分进行统筹设计。任何方案都类似,当架构成型后,再做架构方面的变动,就会牵扯到很多环节,继而有可能影响业务的持续可用。

如果希望使用故障转移群集,则必须要为故障转移群集准备共享存储,共享存储可以使用直连存储、iSCSI 存储、光纤存储中的一种。关于三种存储的优缺点,以及所采用的硬盘所带来的性能差异可参考本书前面的章节。如果企业预算紧张或在测试环境中希望对群集的功能进行验证,则可以使用 Windows Server 2012 R2 自带的角色功能来搭建"iSCSI 目标服务器"。

作为 Windows Server 2012 起自带的一项系统功能,"iSCSI 目标服务器"最大的优势是搭建简单,应用方便。在 Windows Server 2008 R2 时代,如果希望搭建虚拟化的共享存储,一般会采用"Openfiles"的类 Linux 操作系统来实现,Openfiles 配置共享存储的操作步骤较多,设置选项也较为复杂,相比我们熟知的 Windows Server 系统,其部署难度和管理难度都超出预期。Windows Server 2012 R2 提供了简便快捷的"iSCSI 目标服务器",将部署和运维共享存储的难度进一步降低。

另一方面,Windows Server 2012 R2 中"iSCSI 目标服务器"所生成的存储格式为 vhd 或 vhdx,在 Windows Server 2012/2012 R2 操作系统中,这种文件格式极易被编辑和拷贝、增减、维护。这一点也是该功能的显著优势。

为了使用"iSCSI 目标服务器"来模拟 iSCSI 共享存储,首先需要为目标服务器添加"iSCSI 目标服务器"角色。如果希望保证"iSCSI 目标服务器"的性能,建议最好在物理服务器上安装此角色。如果为了验证功能,不考虑性能,则可以在虚拟化环境中搭建。在继续进行下面的操作之前,需要简单理解三个概念:

  • iSCSI 目标服务器:为其他计算机提供 iSCSI 存储的服务器,角色性质类似于FTP/HTTP,以对外提供服务为主要特征。
  • iSCSI 发起程序:连接 iSCSI 目标服务器的客户端信息,可以为 IP 地址、MAC 地址、DNS 名称等。
  • iSCSI 目标:iSCSI 目标是 iSCSI 发起程序的集合,一个 iSCSI 目标可以包含多个并且不同种类的发起程序。iSCSI 目标对应的主机可以是 iSCSI 目标服务器,也可以是 iSCSI 发起程序所在的主机。

第 1 步,登录 hv4.contoso.com 这台计算机,本地登录或远程桌面登录均可。依次点击打开"服务器管理器"→"仪表盘"→"添加角色和功能"。如图 8-1 所示。

图 8-1 添加角色和功能

第 2 步,弹出"添加角色和功能向导",在"开始之前"对话框中,点击"下一步"以继续安装。如图 8-2 所示。

图 8-2 开始之前

第 3 步,在"安装类型"对话框中,选择"基于角色或基于功能安装",点击"下一步",如图 8-3 所示。

图 8-3 安装类型

第 4 步,在"服务器选择"对话框中,选择"从服务器池中选择服务器",点选 hv4.contoso.com,点击"下一步",如图 8-4 所示。如之前通过"添加要管理的其他服务器" 整合了多台服务器,则此处可以看到服务器列表,需要手动予以选择。

图 8-4 服务器选择

第 5 步,在"服务器角色"对话框中,依次展开"文件和存储服务"→"文件和 iSCSI 服务",点选"iSCSI 目标服务器",如图 8-5 所示,点击"下一步"继续。

图 8-5 服务器选择

第 6 步,在"功能"对话框中,无需勾选任何选项,直接点击"下一步",如图 8-6 所示。

图 8-6 功能选择

第 7 步,在"确认"对话框中,勾选"如果需要,自动重新启动目标服务器",点击"安装",稍等片刻即会安装成功。如此时系统存在挂起的任务,则服务器可能会重新启动,如图 8-7 所示。

图 8-7 确认功能,并开始安装

完成"iSCSI 目标服务器"的角色安装后,即开始创建 iSCSI 虚拟磁盘的操作。

第 1 步,打开"服务器管理器",于列表左侧依次点击"文件和存储服务"→"iSCSI",在 iSCSI 虚拟磁盘对话框中,点击蓝色斜体字部分(若要创建 iSCSI 虚拟磁盘,请启动"新建 iSCSI 虚拟磁盘向导"),如图 8-8 所示。

图 8-8 进入"新建 iSCSI 虚拟磁盘向导"

第 2 步,在"新建 iSCSI 虚拟磁盘向导"中,于"iSCSI 虚拟磁盘位置" 对话框点击存储位置的"按卷选择",选中此例中的 F 盘,可以看到该磁盘下还有 172G 空间,默认 iSCSI 虚拟磁盘保存在选定卷的\iSCSIVirtualDisk 目录中,如图 8-9 所示,点击"下一步"继续,配置 iSCSI 虚拟磁盘的名称,便于识别即可。

图 8-9 定义虚拟磁盘位置

第 3 步,在"iSCSI 虚拟磁盘大小"对话框中,为了获得更好的存储性能,选择"固定大小"选项,关于固定大小、动态扩展、差异磁盘的优缺点,可参考本书前面的章节。这里同时输入的还有虚拟磁盘的空间大小,此处输入 140G。只要输入的大小不超过物理磁盘的实际大小即可,如图 8-10 所示,点击"下一步