淘优惠

淘优惠

open ai跟谷歌是什么关系 open ai是谷歌的吗

热门文章 0

淘宝搜:【天降红包222】领超级红包,京东搜:【天降红包222】
淘宝互助,淘宝双11微信互助群关注公众号 【淘姐妹】


近日,ChatGPT 背后技术公司 OpenAI 的首席执行官(CEO)Sam Altman 接受了《纽约时报》科技播客节目 Hard Fork 的专访。

在访谈中,Sam Altman 解答了关于微软发布的新版必应(Bing)搜索、人工智能(AI)的犯错行为、AI 的安全,以及 ChatGPT 未来的版本等问题。

他提到,对于任何新技术,我们都无法完美地预测其所有问题和解决措施,因此需要从人类的反馈中不断学习和改进。" 重要的是,人们还需要真正认真对待 AI 的安全和道德规范。"

此外,他还表示,当一切准备就绪时,OpenAI 将发布更强大的 ChatGPT 版本,但现在还不是时候。

谈新版必应:很快会变得不可或缺

当地时间 2 月 7 日,微软公司宣布推出新版必应搜索和 Edge 浏览器。在这之前,微软和 OpenAI 已经对必应测试了至少几个星期的时间了,必应搜索引擎整合了 ChatGPT 系统背后的技术。

在该播客节目中,主持人问到," 您认为必应将如何改变人们的搜索方式?或者说,它是否拥有一些过往搜索引擎所不能达到的功能?"

Sam Altman 认为,(必应)很快会变得不可或缺。" 当我无法访问它时,我会想念它。"

他同时说到他的亲身经历," 我有一个 14 岁的女儿,她喜欢说‘ riz ’和‘ bussing ’之类的话,而我不知道她在说什么。你可以输入比如,嘿,我有一个十几岁的孩子,她在说这些话,我不明白。此时,必应会充当一个 Z 世代的翻译。"

Sam Altman 补充说," 它真的非常擅长这样的事情。还有一个例子是,昨天我装作是一名制造商,一直在寻找工业套结缝纫机。使用新的必应后,它向我展示了我以前在任何其他搜索中从未见过的东西,帮我确定了需要购买的机器,"。

" 你不会再想回去使用谷歌(搜索)了," 他说道。

Sam Altman(右) 图片来源:Sam Altman 社交媒体

谈 ChatGPT 犯错:不可避免,但反馈会帮助提高

在访谈中,Sam Altman 语出惊人地表示,"ChatGPT 是一个可怕(horrible)的产品。" 随后,他给出了这样评价的理由。

" 看看人们将其整合到自己工作流程的方式就知道了,"Sam Altman 说道," 人们访问一个有时能正常工作、有时又会宕机的网站。他们在对话框输入一些东西,一直尝试,直到正确为止。随后他们复制 ChatGPT 给出的答案,并将其粘贴到其他地方,然后又返回继续尝试。"

" 当然,这很酷。人们很喜欢它,这让我们感到开心," 他说道," 不过,目前还没有人会说这是一款出色的、集成良好的产品。但它是有价值的产品,因此人们愿意忍受它。"

自从 ChatGPT 推出以来,有一件事已经是一个共识――那就是它并非是万无一失的,在某些情景下,它会犯错误。当 ChatGPT 被接入每天被大量使用的搜索引擎必应时,Sam Altman 如何看待这个问题呢?

" 首先我想说,(相比其他模型)ChatGPT 是一个错误更少的、更优秀的模型,但它仍然存在很多错误," 他这样说道," 正如微软过去许多年所经历的一样,他们围绕必应所构建的技术并不是万无一失的。你需要自己去验证它的准确性和实用性,不要完全相信它。尽管如此,我认为(必应的)体验已经比 ChatGPT 有了显著的改善。随着时间的推移,还会有更多提高。"

那么,是否存在这样一种情况,用户在必应上执行操作,应更加谨慎地去搜索某些类别,因为这些类别可能比其他类别更容易出错?

Sam Altman 承认,这一点还没有答案。不过,他表示," 我认为我们将很快了解模型犯错的原因。当我们每一次发布新产品时,我们都会学到很多东西,并了解用户如何与之交互。我们在 Copilot(Github 开发的 AI 产品)身上学到了很多东西。"

" 我要指出的一件事是这些技术带来的创新。三年前,GPT-3 还未出世,那时候很少有人相信,AI 领域将会发生意义非凡的进展," 他说道。

Sam Altman 表示,对于任何新技术,人类都无法完美地预测其所有问题和缓解措施。" 但如果它有一个非常紧密的反馈循环机制,按照事情发展的速度,我认为我们可以非常快地获得非常可靠的产品," 他颇有信心地说道。

谈 ChatGPT 的未来:一切准备就绪时,将发布更强大的版本

此前,谷歌推出了 ChatGPT 的竞品 Bard。在硅谷,这种竞争并不少见,许多其他公司都争相向 ChatGPT 看齐。

" 我们不是匆忙发布产品的人。这项技术的好处是如此之多,我认为很多人确实想要构建这些东西," 他说道," 但是,对于我们需要在这些系统上满足哪些标准,需要制定行业规范和法规。我认为这真的很重要。"

对于 ChatGPT 未来的更新路径,Sam Altman 表示,的确还有更强大的版本,但现在并没有到公布的时机。" 不马上把这些东西拿出来的原因是,人们认为我们已经是完整的 AGI(通用人工智能),随时准备好按下按钮,但实际上还差得远。"

" 当我们准备好时,这意味着已经完成了校准工作和所有安全思考,并与外部审计员和其他 AGI 实验室合作,我们就会发布这些东西," 他说道," 但是,从现在到未来更强大的系统之间,肯定还有一些东西需要思考。我们还没有弄清楚这些,其他人也没有。"

图片来源:视觉中国

谈 ChatGPT 被 " 破解 ":令人烦恼,但不应消失

近期,Reddit 论坛上有用户正致力于破解 ChatGPT,并找到了一种方法。随后 OpenAI 修补了这个 Bug。这是否将永远成为一种持续不断的猫捉老鼠的游戏?

Sam Altman 的态度颇为开放。他认为,在一个充满活力的社区,人们试图突破技术的极限找出它的突破口,并在那里做一些不寻常、有趣的事情,这很好。

他表示,"AI 系统可以做的事情范围很广,但这些范围不是由微软或 OpenAI 决定的,而是由社会、政府等来决定。在这些范围内,用户应该对 AI 的行为方式有很大的控制权,因为不同的用户会有不同的体验。"

" 这是一项非常新的技术,我们不知道如何处理它,所以我们很保守。正确的答案是由社会设定的非常广泛的范围,然后由用户来进行选择," 他说道。

" 这就是安全社区的工作方式。我宁愿受到批评,也希望人们在我的软件中发现错误,而不是让软件中那些潜在的错误被默默地利用并造成伤害。有时候,听到这类消息(破解)是挺烦恼的。但实际上,我并不希望它消失," 他这样说道。

谈 Tay 事件的教训:需认真对待 AI 安全和道德规范

2016 年春季,微软在推特上推出了聊天机器人 Tay,但在和用户开放对话后的不到一天时间里,它便由于不恰当的种族主义言论引发了激烈争议。随后微软很快就下线了 Tay,这对于人工智能行业来说是一个警示。

对此,Sam Altman 认为," 那个时代的很多东西都是由研究团队推出的,他们非常兴奋――嘿,我得到了这个技术上很有趣的东西。然而,他们并没有真正考虑产品的影响。"

如今的 AI 技术应当从中汲取什么样的教训呢?" 我们仍然非常认真地对待 AI,并且坚信它将成为最重要的技术之一。但我们从中学到的一件事是,永远不应该再犯同样的错误了。我们需要真正认真对待 AI 的安全和道德规范,"Sam Altman 表示。

" 我们必须去解决所有这些问题,以避免再次犯类似的错误,但这并不表示,我们不会再犯错误," 他说道," 在过去的五年半的时间内,我们一直在努力,并非只是嘴上说说,而是在实际工作中付诸实践。"

有人认为 AI 工具部署得过于迅速,以至于社会无法快速设置相应的安全规范。Sam Altman 也同意这一点。

" 但我有两点非常强烈的感受。一是,每个人都必须有机会了解这些工具的优缺点、使用方法,并共同塑造它。" 他进一步说道," 有人认为这种技术应该保留在科技行业的一小部分人中,因为这些人才是我们可以信任的人。我完全不同意这一点,因为人们需要尽早地参与进来。"

" 二是,在我所看到的技术史中,如果不与现实世界接触,你无法预测技术带来的美好以及它如何被误用。通过部署这些 AI 系统,通过学习,并通过获得人类反馈来改进,我们已经做出了非常好的模型," 他补充道。

每日经济新闻


谷歌搜索新的人工智能 谷歌ai搜索部门

谷歌搜索的都是国内的,谷歌搜索的网址格式,谷歌搜索的原理是什么,谷歌搜索的限制条件有哪些

  【“你不会再想回到谷歌搜索了”,OpenAI CEO最新发声:#ChatGPT将发布更强大版本#!】#OpenAI首席执行官谈ChatGPT犯错# 近日,ChatGPT背后技术公司OpenAI的首席执行官(CEO)Sam Altman接受了《纽约时报》科技播客节目Hard Fork的专访。他还表示,当一切准备就绪时,OpenAI将发布更强大的ChatGPT版本,但现在还不是时候。“你不会再想回去使用谷歌(搜索)了,”他说道。

  对于ChatGPT犯错,Sam Altman表示,“首先我想说,(相比其他模型)ChatGPT是一个错误更少的、更优秀的模型,但它仍然存在很多错误,”他这样说道,“正如微软过去许多年所经历的一样,他们围绕必应所构建的技术并不是万无一失的。你需要自己去验证它的准确性和实用性,不要完全相信它。尽管如此,我认为(必应的)体验已经比ChatGPT有了显著的改善。随着时间的推移,还会有更多提高。(每日经济新闻)

  

特别声明:以上文章内容仅代表作者本人观点,不代表新浪网观点或立场。如有关于作品内容、版权或其它问题请于作品发表后的30日内与新浪网联系。

open ai是谷歌的吗 open ai 谷歌


近日,ChatGPT背后技术公司OpenAI的首席执行官(CEO)Sam Altman接受了《纽约时报》科技播客节目Hard Fork的专访。

在访谈中,Sam Altman解答了关于微软发布的新版必应(Bing)搜索、人工智能(AI)的犯错行为、AI的安全,以及ChatGPT未来的版本等问题。

他提到,对于任何新技术,我们都无法完美地预测其所有问题和解决措施,因此需要从人类的反馈中不断学习和改进。“重要的是,人们还需要真正认真对待AI的安全和道德规范。”

此外,他还表示,当一切准备就绪时,OpenAI将发布更强大的ChatGPT版本,但现在还不是时候。

谈新版必应:很快会变得不可或缺

当地时间2月7日,微软公司宣布推出新版必应搜索和Edge浏览器。在这之前,微软和OpenAI已经对必应测试了至少几个星期的时间了,必应搜索引擎整合了ChatGPT系统背后的技术。

在该播客节目中,主持人问到,“您认为必应将如何改变人们的搜索方式?或者说,它是否拥有一些过往搜索引擎所不能达到的功能?”

Sam Altman认为,(必应)很快会变得不可或缺。“当我无法访问它时,我会想念它。”

他同时说到他的亲身经历,“我有一个14岁的女儿,她喜欢说‘riz’和‘bussing’之类的话,而我不知道她在说什么。你可以输入比如,嘿,我有一个十几岁的孩子,她在说这些话,我不明白。此时,必应会充当一个Z世代的翻译。”

Sam Altman补充说,“它真的非常擅长这样的事情。还有一个例子是,昨天我装作是一名制造商,一直在寻找工业套结缝纫机。使用新的必应后,它向我展示了我以前在任何其他搜索中从未见过的东西,帮我确定了需要购买的机器,”。

“你不会再想回去使用谷歌(搜索)了,”他说道。

Sam Altman(右) 图片来源:Sam Altman社交媒体

谈ChatGPT犯错:不可避免,但反馈会帮助提高

在访谈中,Sam Altman语出惊人地表示,“ChatGPT是一个可怕(horrible)的产品。”随后,他给出了这样评价的理由。

“看看人们将其整合到自己工作流程的方式就知道了,”Sam Altman说道,“人们访问一个有时能正常工作、有时又会宕机的网站。他们在对话框输入一些东西,一直尝试,直到正确为止。随后他们复制ChatGPT给出的答案,并将其粘贴到其他地方,然后又返回继续尝试。”

“当然,这很酷。人们很喜欢它,这让我们感到开心,”他说道,“不过,目前还没有人会说这是一款出色的、集成良好的产品。但它是有价值的产品,因此人们愿意忍受它。”

自从ChatGPT推出以来,有一件事已经是一个共识――那就是它并非是万无一失的,在某些情景下,它会犯错误。当ChatGPT被接入每天被大量使用的搜索引擎必应时,Sam Altman如何看待这个问题呢?

“首先我想说,(相比其他模型)ChatGPT是一个错误更少的、更优秀的模型,但它仍然存在很多错误,”他这样说道,“正如微软过去许多年所经历的一样,他们围绕必应所构建的技术并不是万无一失的。你需要自己去验证它的准确性和实用性,不要完全相信它。尽管如此,我认为(必应的)体验已经比ChatGPT有了显著的改善。随着时间的推移,还会有更多提高。”

那么,是否存在这样一种情况,用户在必应上执行操作,应更加谨慎地去搜索某些类别,因为这些类别可能比其他类别更容易出错?

Sam Altman承认,这一点还没有答案。不过,他表示,“我认为我们将很快了解模型犯错的原因。当我们每一次发布新产品时,我们都会学到很多东西,并了解用户如何与之交互。我们在Copilot(Github开发的AI产品)身上学到了很多东西。”

“我要指出的一件事是这些技术带来的创新。三年前,GPT-3还未出世,那时候很少有人相信,AI领域将会发生意义非凡的进展,”他说道。

Sam Altman表示,对于任何新技术,人类都无法完美地预测其所有问题和缓解措施。“但如果它有一个非常紧密的反馈循环机制,按照事情发展的速度,我认为我们可以非常快地获得非常可靠的产品,”他颇有信心地说道。

谈ChatGPT的未来:一切准备就绪时,将发布更强大的版本

此前,谷歌推出了ChatGPT的竞品Bard。在硅谷,这种竞争并不少见,许多其他公司都争相向ChatGPT看齐。

“我们不是匆忙发布产品的人。这项技术的好处是如此之多,我认为很多人确实想要构建这些东西,”他说道,“但是,对于我们需要在这些系统上满足哪些标准,需要制定行业规范和法规。我认为这真的很重要。”

对于ChatGPT未来的更新路径,Sam Altman表示,的确还有更强大的版本,但现在并没有到公布的时机。“不马上把这些东西拿出来的原因是,人们认为我们已经是完整的AGI(通用人工智能),随时准备好按下按钮,但实际上还差得远。”

“当我们准备好时,这意味着已经完成了校准工作和所有安全思考,并与外部审计员和其他AGI实验室合作,我们就会发布这些东西,”他说道,“但是,从现在到未来更强大的系统之间,肯定还有一些东西需要思考。我们还没有弄清楚这些,其他人也没有。”

图片来源:视觉中国

谈ChatGPT被“破解”:令人烦恼,但不应消失

近期,Reddit论坛上有用户正致力于破解ChatGPT,并找到了一种方法。随后OpenAI修补了这个Bug。这是否将永远成为一种持续不断的猫捉老鼠的游戏?

Sam Altman的态度颇为开放。他认为,在一个充满活力的社区,人们试图突破技术的极限找出它的突破口,并在那里做一些不寻常、有趣的事情,这很好。

他表示,“AI系统可以做的事情范围很广,但这些范围不是由微软或OpenAI决定的,而是由社会、政府等来决定。在这些范围内,用户应该对AI的行为方式有很大的控制权,因为不同的用户会有不同的体验。”

“这是一项非常新的技术,我们不知道如何处理它,所以我们很保守。正确的答案是由社会设定的非常广泛的范围,然后由用户来进行选择,”他说道。

“这就是安全社区的工作方式。我宁愿受到批评,也希望人们在我的软件中发现错误,而不是让软件中那些潜在的错误被默默地利用并造成伤害。有时候,听到这类消息(破解)是挺烦恼的。但实际上,我并不希望它消失,”他这样说道。

谈Tay事件的教训:需认真对待AI安全和道德规范

2016年春季,微软在推特上推出了聊天机器人Tay,但在和用户开放对话后的不到一天时间里,它便由于不恰当的种族主义言论引发了激烈争议。随后微软很快就下线了Tay,这对于人工智能行业来说是一个警示。

对此,Sam Altman认为,“那个时代的很多东西都是由研究团队推出的,他们非常兴奋――嘿,我得到了这个技术上很有趣的东西。然而,他们并没有真正考虑产品的影响。”

如今的AI技术应当从中汲取什么样的教训呢?“我们仍然非常认真地对待AI,并且坚信它将成为最重要的技术之一。但我们从中学到的一件事是,永远不应该再犯同样的错误了。我们需要真正认真对待AI的安全和道德规范,”Sam Altman表示。

“我们必须去解决所有这些问题,以避免再次犯类似的错误,但这并不表示,我们不会再犯错误,”他说道,“在过去的五年半的时间内,我们一直在努力,并非只是嘴上说说,而是在实际工作中付诸实践。”

有人认为AI工具部署得过于迅速,以至于社会无法快速设置相应的安全规范。Sam Altman也同意这一点。

“但我有两点非常强烈的感受。一是,每个人都必须有机会了解这些工具的优缺点、使用方法,并共同塑造它。”他进一步说道,“有人认为这种技术应该保留在科技行业的一小部分人中,因为这些人才是我们可以信任的人。我完全不同意这一点,因为人们需要尽早地参与进来。”

“二是,在我所看到的技术史中,如果不与现实世界接触,你无法预测技术带来的美好以及它如何被误用。通过部署这些AI系统,通过学习,并通过获得人类反馈来改进,我们已经做出了非常好的模型,”他补充道。