ChatGPT 可以执行与处理复杂的医疗和临床信息相关的多项复杂任务
淘宝搜:【天降红包222】领超级红包,京东搜:【天降红包222】
淘宝互助,淘宝双11微信互助群关注公众号 【淘姐妹】
在最近发表在PLOS Digital Health上的一项研究中,研究人员评估了名为ChatGPT的人工智能(AI)模型的性能,该模型在美国医疗执照考试(USMLE)上执行临床推理。
研究:ChatGPT 在 USMLE 上的表现:使用大型语言模型进行人工智能辅助医学教育的潜力。图片来源:川川/Shutterstock
USMLE包括三个标准化考试,帮助学生在美国获得医疗执照。
在过去的十年中,人工智能(AI)和深度学习取得了进步。这些技术已应用于多个行业,从制造业和金融业到消费品。然而,它们在临床护理中的应用,特别是医疗保健信息技术(IT)系统,仍然有限。因此,人工智能在广泛的临床护理中的应用相对较少。
造成这种情况的主要原因之一是缺乏特定领域的训练数据。大型通用领域模型现在正在临床成像中启用基于图像的AI。它导致了Inception-V3的开发,这是一种顶级医学成像模型,涵盖从眼科和病理学到皮肤病学的领域。
在过去的几周里,OpenAI开发的通用大型语言模型(LLM)(非特定领域)ChatGPT因其执行一套自然语言任务的特殊潜力而引起了人们的关注。它使用了一种新颖的AI算法,该算法根据之前编写的单词的上下文预测给定的单词序列。
因此,它可以基于自然人类语言生成合理的单词序列,而无需在庞大的文本数据上进行训练。使用过 ChatGPT 的人发现它能够进行演绎推理并发展思维链。
关于选择USMLE作为ChatGPT测试的基质,研究人员发现它在语言和概念上都很丰富。该测试包含多方面的临床数据(例如,体格检查和实验室测试结果),用于生成具有鉴别诊断的模棱两可的医疗场景。
在本研究中,研究人员首先将USMLE考试项目编码为带有可变引入提示的开放式问题,然后编码为没有强制理由的多项选择单答案问题(MC-NJ)。最后,他们将它们编码为多项选择单选题,并强制证明正选择和负选择(MC-J)。通过这种方式,他们评估了所有三个USMLE步骤(步骤1,2CK和3)的ChatGPT准确性。
接下来,两位医生评审员独立仲裁了 ChatGPT 在所有问题和输入格式中的一致性。此外,他们评估了其增强医学教育相关人类学习的潜力。两位医生评审员还从医学生的角度检查了人工智能生成的解释内容的新颖性、非显而易见性和有效性。
此外,研究人员评估了人工智能生成的解释中洞察力的普遍性,以量化洞察力密度(DOI)。高频和中等数字对象标识符(>0.6)表明,医学生有可能从人工智能输出中获得一些知识,尤其是在回答错误时。DOI 指出,在五个以上的答案选项中,有三个以上的答案选项提供了见解的独特性、新颖性、非显而易见性和有效性。
ChatGPT 在所有三项 USMLE 考试中均以超过 50% 的准确率执行,在某些分析中超过了 60% 的 USMLE 通过阈值。这是一项非凡的壮举,因为之前没有其他模型达到这一基准;就在几个月前,他们的准确率为36.7%。聊天 GPT 迭代 GPT3 在没有提示或训练的情况下实现了 46% 的准确率,这表明进一步的模型调整可以获得更精确的结果。随着LLM模型的成熟,AI性能可能会继续提高。
此外,ChatGPT的表现优于PubMedGPT,后者是专门接受生物医学文献培训的类似LLM(准确性~60%对50.3%)。似乎在一般非特定领域内容上接受培训的 ChatGPT 具有其优势,因为接触更多的临床内容,例如,面向患者的疾病引物更具决定性和一致性。
ChatGPT 的性能更令人印象深刻的另一个原因是,以前的模型很可能在训练时摄取了许多输入,而它没有。请注意,研究人员针对仅在 2022 年公开的更现代的 USMLE 考试对 ChatGPT 进行了测试)。然而,他们已经在MedQA-USMLE数据集上训练了其他特定领域的语言模型,例如PubMedGPT和BioBERT,自2009年以来一直公开可用。
有趣的是,ChatGPT 的准确性倾向于依次增加,步骤 1 最低,步骤 3 最高,这反映了现实世界人类用户的看法,他们也发现步骤 1 主题很困难。这一特殊的发现暴露了人工智能与人类能力建立联系的脆弱性。
此外,研究人员指出,缺少信息会导致ChatGPT响应中观察到的不准确性,这在AI中获得了较差的洞察力和优柔寡断。然而,它并没有表现出对错误答案选择的倾向。在这方面,他们可以尝试通过将 ChatGPT 与在临床领域(例如 UpToDate)中大量且经过高度验证的资源上训练的其他模型合并来提高 ChatGPT 的性能。
在 ~90% 的输出中,ChatGPT 生成的响应也提供了
ChatGPT对人工智能的影响 bing chatgpt 使用指南
人工智能 attention,人工智能lot,人工智能 transformer,人工智能tf来源:ScienceAI
编译:白菜叶
2022 年 12 月,计算生物学家 Casey Greene 和 Milton Pividori 开始了一项不同寻常的实验:他们请一名非科学家的助手帮助他们改进三篇研究论文。他们勤奋的助手建议在几秒钟内修改文档的各个部分;每份手稿大约需要五分钟的时间来审阅。在一份生物学手稿中,他们的助手甚至在引用方程式时发现了一个错误。审判并不总是顺利进行,但最终的手稿更容易阅读――而且费用适中,每份文件不到 0.50 美元。
正如 Greene 和 Pividori 在 2023 年 1 月 23 日的预印本中所报道的那样,这个助手不是一个人,而是一种名为 GPT-3 的人工智能(AI)算法,该算法于 2020 年首次发布。它是被媒体大肆宣传的生成式 AI 聊天机器人式工具之一,无论是被要求创作散文、诗歌、计算机代码,还是编辑研究论文,都可以生成令人信服的流畅文本。
论文链接:https://www.biorxiv.org/content/10.1101/2023.01.21.525030v1
这些工具中最著名的工具(也称为大型语言模型或 LLM)是 ChatGPT,它是 GPT-3 的一个版本,在 2022 年 11 月发布后一举成名,因为它免费且易于访问。其他生成式 AI 可以生成图像或声音。
「我印象非常深刻。」在费城宾夕法尼亚大学工作的 Pividori 说,「这将帮助我们提高研究人员的工作效率。」 其他科学家表示,他们现在经常使用 LLMs,不仅是为了编辑手稿,也是为了帮助他们编写或检查代码以及集思广益。
「我现在每天使用 LLMs。」冰岛大学的计算机科学家 Hafsteinn Einarsson 说,他从 GPT-3 开始,但后来改用 ChatGPT,这有助于他编写演示幻灯片、学生考试和课程作业,并将学生论文转化为论文。「许多人将其用作数字秘书或助理。」他说。
LLMs 是搜索引擎、代码编写助手甚至聊天机器人的一部分,它可以与其他公司的聊天机器人协商以获得更好的产品价格。ChatGPT 的创建者,加利福尼亚州旧金山的 OpenAI,宣布了一项每月 20 美元的订阅服务,承诺更快的响应时间和优先访问新功能(尽管其试用版仍然免费)。已经投资 OpenAI 的科技巨头微软在 2023 年 1 月份宣布进一步投资,据报道约为 100 亿美元。LLMs 注定要被纳入通用的文字和数据处理软件中。生成式 AI 未来在社会中的普遍存在似乎是有把握的,尤其是因为今天的工具代表了这项处于起步阶段的技术。
但 LLM 也引发了广泛的担忧――从他们返回谎言的倾向,到人们担心人们将 AI 生成的文本冒充为自己的文本。当 Nature 向研究人员询问聊天机器人(例如 ChatGPT)的潜在用途时,尤其是在科学领域,他们的兴奋中夹杂着忧虑。「如果你相信这项技术具有变革的潜力,那么我认为你必须对此感到紧张。」奥罗拉科罗拉多大学医学院的 Greene 说。研究人员表示,很大程度上将取决于未来的法规和指南如何限制 AI 聊天机器人的使用。
流利但不真实
一些研究人员认为,只要有人监督,LLMs 就非常适合加快撰写论文或资助等任务。「科学家们不会再坐下来为资助申请写冗长的介绍。」瑞典哥德堡萨尔格伦斯卡大学医院的神经生物学家 Almira Osmanovic Thunstr?m 说,他与人合著了一份使用 GPT-3 作为实验的手稿,「他们只会要求系统这样做。」
论文链接:https://hal.science/hal-03701250
总部位于伦敦的软件咨询公司 InstaDeep 的研究工程师 Tom Tumiel 表示,他每天都使用 LLM 作为助手来帮助编写代码。「这几乎就像一个更好的 Stack Overflow。」他说,指的是一个流行的社区网站,程序员可以在该网站上互相回答问题。
但研究人员强调,LLMs 在回答问题时根本不可靠,有时会产生错误的回答。「当我们使用这些系统来产生知识时,我们需要保持警惕。」Osmanovic Thunstr?m 说。
这种不可靠性融入了 LLM 的构建方式。ChatGPT 及其竞争对手通过学习庞大的在线文本数据库中的语言统计模式来工作――包括任何不真实、偏见或过时的知识。当 LLM 收到提示时(例如 Greene 和 Pividori 精心设计的重写部分手稿的请求),他们只是逐字吐出任何在文体上似乎合理的方式来继续对话。
结果是 LLM 很容易产生错误和误导性信息,特别是对于他们可能没有多少数据可以训练的技术主题。LLMs 也无法显示其信息的来源;如果被要求撰写学术论文,他们会编造虚构的引文。「不能相信该工具能够正确处理事实或生成可靠的参考资料。」Nature Machine Intelligence 杂志 2023 年 1 月份在 ChatGPT 上发表的一篇社论指出。
有了这些警告,ChatGPT 和其他 LLM 可以成为研究人员的有效助手,这些研究人员具有足够的专业知识来直接发现问题或轻松验证答案,例如计算机代码的解释或建议是否正确。
但是这些工具可能会误导不明真相的用户。例如,2022 年 12 月,Stack Overflow 暂时禁止使用 ChatGPT,因为网站版主发现自己被热心用户发送的大量不正确但看似有说服力的 LLM 生成的答案所淹没。这可能是搜索引擎的噩梦。
缺点能解决吗?
一些搜索引擎工具,例如以研究人员为中心的 Elicit,通过首先使用它们的功能来引导对相关文献的查询,然后简要总结引擎找到的每个网站或文档,从而解决 LLM 的归因问题――因此产生明显引用内容的输出(尽管 LLM 可能仍然错误地总结每个单独的文档)。
建立 LLM 的公司也很清楚这些问题。2022 年 9 月,谷歌子公司 DeepMind 发表了一篇关于名为 Sparrow 的「对话代理」的论文,该公司的首席执行官兼联合创始人 Demis Hassabis 后来告诉《时代》杂志,该论文将在今年内发布;该杂志报道说,谷歌的目标是开发包括引用消息来源的能力在内的功能。其他竞争对手,例如 Anthropic,表示他们已经解决了 ChatGPT 的一些问题。
一些科学家说,目前,ChatGPT 还没有接受足够专业的内容培训,无法对技术主题有所帮助。Kareem Carr 是马萨诸塞州剑桥市哈佛大学的生物统计学博士生,当他在工作中试用它时,他感到不知所措。「我认为 ChatGPT 很难达到我需要的特异性水平,」他说。(即便如此,卡尔说,当他向 ChatGPT 询问解决研究问题的 20 种方法时,它回复了胡言乱语和一个有用的想法――一个他从未听说过的统计术语,将他引向了学术文献的一个新领域。)
一些科技公司正在根据专业科学文献对聊天机器人进行培训――尽管它们也遇到了自己的问题。2022 年 11 月,拥有 Facebook 的科技巨头 Meta 发布了一个名为 Galactica 的 LLMs 项目,该项目接受过科学摘要培训,旨在使其特别擅长制作学术内容和回答研究问题。在用户让它产生不准确和种族主义之后,该演示已从公共访问中撤出(尽管其代码仍然可用)。「不再可能通过随意滥用它来获得一些乐趣。开心吗?」Meta 的首席人工智能科学家 Yann LeCun 在推特上回应批评。
安全与责任
Galactica 遇到了伦理学家多年来一直指出的一个熟悉的安全问题:如果没有输出控制,LLM 很容易被用来生成仇恨言论和垃圾邮件,以及可能隐含在其训练数据中的种族主义、性别歧视和其他有害联想。
密歇根大学科学、技术和公共政策项目主任 Shobita Parthasarathy 说,除了直接产生有毒内容外,还有人担心人工智能聊天机器人会从他们的训练数据中嵌入历史偏见或关于世界的想法,例如特定文化的优越性。她补充说,由于创建大型 LLM 的公司大多处于这些文化中,并且来自这些文化,因此他们可能很少尝试克服这种系统性且难以纠正的偏见。
OpenAI 在决定公开发布 ChatGPT 时试图回避其中的许多问题。它将其知识库限制在 2021 年,阻止其浏览互联网并安装过滤器以试图让该工具拒绝为敏感或有毒提示生成内容。然而,要实现这一点,需要人工审核员来标记有毒文本。记者报道说,这些工人的工资很低,有些人还受到了创伤。社交媒体公司也对工人剥削提出了类似的担忧,这些公司雇用人员来训练自动机器人来标记有毒内容。
OpenAI 的护栏并没有完全成功。2022 年 12 月,加州大学伯克利分校的计算神经科学家 Steven Piantadosi 在推特上表示,他已要求 ChatGPT 开发一个 Python 程序,以确定一个人是否应该根据其原籍国受到酷刑。聊天机器人回复了代码,邀请用户输入一个国家;如果那个国家是朝鲜、叙利亚、伊朗或苏丹,则打印「这个人应该受到折磨」。(OpenAI 随后关闭了此类问题。)
2022 年,一群学者发布了一个名为 BLOOM 的替代 LLMs。研究人员试图通过在少量高质量的多语言文本源上对其进行训练来减少有害输出。相关团队还完全开放了其训练数据(与 OpenAI 不同)。研究人员已敦促大型科技公司负责任地效仿这个例子――但尚不清楚他们是否会遵守。
一些研究人员表示,学术界应该完全拒绝支持大型商业 LLM。除了偏见、安全问题和受剥削的工人等问题外,这些计算密集型算法还需要大量能量来训练,这引发了人们对其生态足迹的担忧。更令人担忧的是,通过将思维转移给自动聊天机器人,研究人员可能会失去表达自己想法的能力。「作为学者,我们为什么会急于使用和宣传这种产品?」 荷兰拉德堡德大学大学的计算认知科学家 Iris van Rooij 在一篇博文中写道,敦促学术界抵制他们的吸引力。
进一步的混乱是一些 LLMs 的法律地位,这些 LLMs 是根据从互联网上抓取的内容进行培训的,有时权限不太明确。版权和许可法目前涵盖像素、文本和软件的直接复制,但不包括其风格的模仿。当这些通过 AI 生成的模仿品通过摄取原件进行训练时,就会出现问题。包括 Stable Diffusion 和 Midjourney 在内的一些 AI 艺术程序的创作者目前正在被艺术家和摄影机构起诉;OpenAI 和微软(连同其子公司技术网站 GitHub)也因创建其 AI 编码助手 Copilot 而被起诉盗版软件。英国纽卡斯尔大学互联网法专家 Lilian Edwards 表示,强烈抗议可能会迫使法律发生变化。
强制诚实使用
一些研究人员表示,因此,为这些工具设定界限可能至关重要。Edwards 建议,现有的关于歧视和偏见的法律(以及计划中的对 AI 的危险使用的监管)将有助于保持 LLM 的使用诚实、透明和公平。「那里有大量的法律,」她说,「这只是应用它或稍微调整它的问题。」
同时,有人推动 LLM 的使用透明公开。学术出版商(包括《Nature》的出版商)表示,科学家应该在研究论文中披露 LLM 的使用情况;老师们表示,他们希望学生也有类似的行为。《Science》杂志走得更远,称不能在论文中使用由 ChatGPT 或任何其他人工智能工具生成的文本。
一个关键的技术问题是人工智能生成的内容是否可以轻易被发现。许多研究人员正致力于此,其中心思想是使用 LLM 本身来发现 AI 创建的文本的输出。
例如,2022 年 12 月,新泽西州普林斯顿大学计算机科学本科生 Edward Tian 发布了 GPTZero。这种 AI 检测工具以两种方式分析文本。一个是「困惑」,衡量 LLMs 对文本的熟悉程度。Tian 的工具使用了一个早期的模型,称为 GPT-2;如果它发现大部分单词和句子都是可预测的,那么文本很可能是人工智能生成的。该工具还检查文本的变化,一种称为「突发性」的度量:与人类编写的文本相比,人工智能生成的文本在语气、节奏和困惑度方面往往更加一致。
许多其他产品同样旨在检测 AI 编写的内容。OpenAI 本身已经发布了 GPT-2 检测器,并在 1 月份发布了另一个检测工具。出于科学家的目的,由反剽窃软件开发商 Turnitin 公司开发的工具可能特别重要,因为 Turnitin 的产品已被世界各地的学校、大学和学术出版商使用。该公司表示,自 GPT-3 于 2020 年发布以来,它一直在开发人工智能检测软件,预计将在今年上半年推出。
然而,这些工具中没有一个声称是万无一失的,尤其是在随后编辑 AI 生成的文本的情况下。此外,德克萨斯大学奥斯汀分校的计算机科学家兼 OpenAI 的客座研究员 Scott Aaronson 说,检测器可能会错误地暗示一些人类编写的文本是人工智能生成的。该公司表示,在测试中,其最新工具在 9% 的情况下将人类编写的文本错误地标记为 AI 编写的,并且仅正确识别了 26% 的 AI 编写的文本。Aaronson 说,例如,在指控一名学生仅仅根据检测器测试隐瞒他们对 AI 的使用之前,可能需要进一步的证据。
另一个想法是人工智能内容将带有自己的水印。2022 年 11 月,Aaronson 宣布他和 OpenAI 正在研究一种为 ChatGPT 输出添加水印的方法。它尚未发布,但由马里兰大学帕克分校的计算机科学家 Tom Goldstein 领导的团队在 1 月 24 日发布的预印本提出了一种制作水印的方法。这个想法是在 LLM 生成输出的特定时刻使用随机数生成器,以创建 LLM 被指示从中选择的合理替代词列表。这会在最终文本中留下一些选定单词的痕迹,这些单词可以通过统计方式识别,但对读者来说并不明显。编辑可能会消除这种痕迹,但戈德斯坦建议编辑必须更改超过一半的单词。
论文链接:https://arxiv.org/abs/2301.10226
Aaronson 指出,加水印的一个优点是它很少产生误报。如果有水印,则文本可能是用 AI 生成的。不过,它不会是万无一失的,他说:「如果你有足够的决心,肯定有办法击败任何水印方案。」 检测工具和水印只会让欺骗性地使用 AI 变得更加困难――并非不可能。
与此同时,LLM 的创建者正忙于开发基于更大数据集的更复杂的聊天机器人(OpenAI 有望在今年发布 GPT-4)――包括专门针对学术或医学工作的工具。2022 年 12 月下旬,谷歌和 DeepMind 发布了一份关于名为 Med-PaLM 的以临床为重点的 LLMs 的预印本。该工具几乎可以像普通人类医生一样回答一些开放式的医学问题,尽管它仍然有缺点和不可靠。
论文链接:https://arxiv.org/abs/2212.13138
斯克里普斯研究转化研究所(位于圣地亚哥)所长 Eric Topol 表示,他希望在未来,包括 LLMs 在内的 AI 甚至可以通过交叉检查来自学术界的文本来帮助诊断癌症和了解这种疾病。反对身体扫描图像的文学。但他强调,这一切都需要专家的明智监督。
生成人工智能背后的计算机科学发展如此之快,以至于每个月都会出现创新。研究人员如何选择使用它们将决定他们和我们的未来。「认为在 2023 年初,我们已经看到了这种情况的结束,这太疯狂了。」Topol 说,「真的才刚刚开始。」
相关报道:https://www.nature.com/articles/d41586-023-00340-6
未来智能实验室的主要工作包括:建立AI智能系统智商评测体系,开展世界人工智能智商评测;开展互联网(城市)大脑研究计划,构建互联网(城市)大脑技术和企业图谱,为提升企业,行业与城市的智能水平服务。每日
chatgpt会给生活带来什么变化 chatgpt免费和付费的区别
ChatGPT会给生活带来什么变化近两周,大家在各平台上讨论/看到的最火爆的话题是什么?毫无疑问,ChatGPT。
自去年11月30日推出以来,ChatGPT 以其类人的沟通技能迅速火遍全球。社交媒体上到处都是关于 ChatGPT 是或不是世界上最强大工具的帖子。在谷歌上搜索“ChatGPT”一词,会出现近2.8亿个结果,比如它能写诗、作词、玩游戏、考试,甚至能编写一个完整的网站。
ChatGPT 似乎强大到能够帮助/威胁到各行各业。那么,具体到酒旅业来看,ChatGPT 和其他生成式 AI 聊天机器人对其意味着什么呢?企业和个体经营者会非常有效地使用这项技术吗?或者,一旦过了炒作期,它会消失吗?
对此,石基信息搜索了全球范围内酒旅行业一些品牌和个人观点,并对其做了归纳和总结,以期通过更加广泛的视角,帮助大家客观地认知该项技术。
1
Rajesh Naidu
Expedia集团高级副总裁兼首席架构师
最近,ChatGPT 的爆火让我们看到,通过技术解决现实世界问题依然存在巨大的机会。很长一段时间以来,AI一直被视做一种辅助企业摸索最佳实践的技术。但是随着经济状况的转变,企业对于技术的投资也更加谨慎和务实,这在无形中也给了科技领导者压力:他们需要向企业证明,将业务系统与 AI 集成的这一投资是能够获取真正的回报的。正因为如此,科技公司看到了数据驱动的个性化解决方案的价值,ChatGPT 正好填补了这一需求。它可以帮助公司节省时间、金钱,从而将资源用于解决更复杂和具体的问题上。
AI 开创了一个个性化体验的新时代,而 ChatGPT 可以让其变得更加精细化。人工智能工具需要大量的数据集来喂养,而 Expedia 平台拥有超过70pb的数据,每年为60亿次AI 预测提供动力。所以,在已有大型数据集的情况下,我们将这项技术集成到 Expedia 平台中,可以为旅行者提供超个性化的搜索结果,同时,这也有助于我们愿景的实现,即为旅行者提供开放式、灵活的搜索选项。
不可否认,在过去十年里,聊天机器人的对话能力已经有了很大的进步,但通过训练聊天机器人来理解和预测旅行者的偏好,我们仍然有很大的机会来提升它。在短短几年时间里,我们的平台支持了超过2900万次虚拟对话,节省了超过800万小时的代理时间,这也使旅行者能够通过自助服务更快地解决问题。
ChatGPT 在旅游业的另一个应用场景是帮助制定旅行计划。试想一下,如果旅行者可以用它来创建旅行路线或确定旅行中的 top 酒店,并让AI自动将这些建议添加到他们的 Expedia 的旅行规划上将是多么美妙的事情。这样一来,ChatGPT 就可以简化旅行者的手工规划过程,包括筛选大量的选项,将时间缩短到几分钟。
2
Arjan Dijk
Booking高级副总裁兼首席营销官
ChatGPT 在推出时确实吸引了所有人的注意力,但在我看来,这项技术仍然处于非常早期的阶段,目前行业对该技术的评价不一而足,有人认为其回答的内容富有创意而且娱乐性很强,也有人认为是明显不准确的。当然,和所有快速发展的新兴技术一样,随着ChatGPT能力的不断发展,会有一些有趣的潜在用例显现,而这也是我们会去探索的东西,特别是如果我们看到它为客户体验增加了价值的话。
说到营销用例,我们认为结合了科学和艺术时,营销才是最好的。技术、数据固然能够使营销更具严谨性和精确性,但行业专家的创造力和直觉却能够锦上添花。现在说ChatGPT之类的软件能否真正模仿人类的本能还为时过早。所以,我们现在还只是对其观望,但我不希望很快看到它在我们的工作中发挥作用。
对于一项技术,只有当它被证明可以积极地解决客户的问题,消除摩擦,让每个人都更容易地体验世界,我们才会花费时间和精力去研究它。也就是说,机器学习和 AI 已经成为我们客户旅程的重要组成部分,而这些创新将为我们实现消费者顺滑体验铺平道路。从由 AI 驱动的即时翻译服务,到机器学习模型,技术将继续以越来越巧妙和主动的方式解决旅行道路上不可预见的障碍。当然,ChatGPT或类似的创新是否会帮助旅行者增加这种体验还有待观察。
3
Patrick Surry
Hopper首席数据科学家
ChatGPT的火爆表明,我们正处于社会与计算机交互方式发生重大变化的风口浪尖,这将导致工作、教育和商业发生巨大变化。我们认为它有可能影响我们与客户的互动方式。我们希望探索一些有趣的用例,比如通过聊天(甚至是语音和视频)提高常见客户服务请求的自动化和响应速度,以及推荐旅游目的地、创建个性化行程等类似礼宾服务。
它还将对我们的工作方式产生重大影响,特别是在产品开发方面,因为我们学会了使用这些新工具来提高交付产品的速度和质量,并提高我们自己的效率和生产力。我们计划试验一下该技术将如何帮助我们进行软件开发,以及其他用例,比如,将工作性质描述的更具吸引力等。当然,接下来我们还是需要回到第一原理:重新思考我们为何用现在的方式做事。对于那些能够快速适应并接受变化的组织来说,这将意味着巨大的机遇;而这也是我们在Hopper一直引以为豪的事情。
4
Peter Syme
1000 Mile Journey创始人
毫无疑问,这将对生产力和内容生产产生重大影响。酒旅行业的各个企业现在都有机会与比自己大得多的公司一样高效。我将其视作一种商品――每个人都可以获得并使用它,因此,在某种程度上,这就是它的价值所在。而这也是我目前见过其最能提高效率的用途。
然而,我不认为该技术的影响止于此。这只是游戏的开始。一旦AI开始进入实际体验――不仅仅是旅游体验,还有酒店、机场……加速和增强实际体验的能力,尤其是在目前体验不佳的地方,比如机场,将会非常引人注目。
真正改变游戏规则的是,一旦大众拥有了它,一切都会改变。你是一个旅行商,你可以制定行程。拥有了这项技能后,消费者现在可以做和你完全一样的事情,而且是实时的。1000个人可以根据自己的喜好创造1000种不同的体验。因此,未来,由旅行社主导的旅行体验,将有望被旅行者所颠覆。
该应用目前的弱点是,它只收集到2021年的数据。所以它不是实时数据,不是最新的,而且它目前没有地理定位功能。所以,它可能会给你一个毫无意义的行程安排。但是像Tripadvisor,谷歌这样的公司却能够把事实和地理位置联系起来。我可以想象到,Tripadvisor的战略团队此刻正整夜未眠,试图弄清楚自己是否获得了所有独特的数据,如何将数据与类似ChatGPT的能力联系起来,最终如何将其货币化。
这可能创造全新的业务,也可能摧毁业务。它的发展速度比互联网的发展速度快一千倍。所有这些使用它的人都在加速它的发展。如果说互联网向我们证明了什么,那就是一旦消费者发现了真正有用,可以让日常生活变得更好的东西,他们就会坚持下去。因此,这里既有威胁,也有机会。
5
Matt Barker
Horizon Guides创始人兼CEO
到目前为止,我看到该技术的应用呈现两极分化状态:早期的采用者已充分利用起该技术,落后者却几乎没有意识到它的存在。对于早期采用者来说,当然有很大的机会,但也有一些很大的风险。我正在与一个邮轮品牌合作,他们决定在几乎所有的新网站内容上使用ChatGPT,这将节省数十万美元的自由职业者成本,所以这将是一个巨大的颠覆。ChatGPT 的写作质量很好,而且会变得更好,可能比大多数人写的都好。对于一些基本的服务,比如复制简单的产品描述、基本的文章、电子邮件活动之类的东西,它都可以做,这对品牌来说非常有用,但对内容创作者来说非常痛苦。
但在这里,我想给大家提几个重要的警告。首先,人们需要认识到,它并没有像抓取和反刍互联网那样产生任何新东西。因此,准确性和真实性存在问题,需要人类通过其专业知识来对输出内容进行事实核查。这也意味着它不能添加任何新颖的细节或见解,而这对于内容质量的保证是很重要的。最大的风险是谷歌如何回应,以及他们是否会接受在结果中展示 AI 内容。从长远来看,我对他们识别AI内容的能力持怀疑态度,当然他们肯定可以优先考虑将经过验证的人类专业知识作为排名的标准。所以,谷歌可能不会因为你使用了 AI 内容而惩罚你,但可能会因为你的内容是由能够提供新颖见解的人类专家所写,而提升你的内容展示位置。
就 Horizon Guides 而言,你可能认为 AI 对那些在新内容创作上投入巨资的专业发行商构成了生存威胁。事实上,我们正在加倍增加人类内容贡献者,并将很快推出问答功能,让读者直接向我们的贡献者提问。ChatGPT可能预示着自动内容创建的革命,但我也认为它也可能为真正的人类专业知识创造新的溢价。
6
Alex Bainbridge
Autoura创始人兼CEO
作为一个自2018年以来一直全职研究 AI 对当地旅游业影响的人,我认为在该技术的具体应用方面,我们需要考虑的非常非常多。这主要是因为我并不真正理解这些生成式AI背后的核心逻辑。25年前,我获得了计算机科学学位,从那时起发生的所有变化都在我本科所学的范围内,所以,我是可以理解的。现在,作为一名数字企业家,我在想,我对人工智能技术的了解还不够多,不足以进行创新。这是我人生中第一次体会到被新技术淘汰是什么感觉。
我的第二个主要想法是,如果你可以生成无限多的旅游线路,你就需要能够运营这么多的旅游线路。这需要数字旅游的辅助,从长远来看,这也是自动驾驶需要的能力。我将其称之为“旅游运营AI”。这将是一个能够使生成式AI成为旅游业和酒店业消费级产品的重大突破。
我的第三个主要想法是,为了使生成式 AI 能够在旅游业中可用,对技术的个性化能力要求就非常关键。这就是SSI发挥作用的地方――我们需要集体分享对这个行业的偏好,否则游客就会发现,与他们互动的每一个 AI,都是冷冰冰的。
7
Max Starkov
酒店和在线旅游技术顾问和策略师
ChatGPT 所搜集的的数据信息只截至2021年底。而旅游业作为一个超级动态的领域,今天早上的信息在几小时甚至几分钟后就不再有意义了。库存可用性、价格、房间/座位/汽车类别每分钟都在变化。你需要CRS、WBE、RMS等老式技术来处理这些动态变化,而不是ChatGPT。
另一方面,行业内的聊天机器人已经非常训练有素了,它们多年来一直在OTA、航空公司和主要酒店网站上提供客户服务、问题解决和预订服务。这些聊天机器人也是 AI 驱动的,并且是高度专业化的,自我学习能力很强的,它们比ChatGPT更聪明,更有经验。所以如果我是一个旅游者,我会玩 ChatGPT,问一些愚蠢的问题,但如果我想设想、研究、计划和预订旅行,我会去旅游品牌或OTA网站。
领英上面有一场关于ChatGPT的激烈讨论,即ChatGPT的推出是否标志着谷歌在搜索方面近乎垄断的局面即将结束。谷歌已经是世界上最先进的AI公司,实际上比这个星球上任何其他公司或政府都要好得多。他们已经在搜索算法中应用AI十多年了。在某种程度上,谷歌已经通过谷歌问答框提供了一个由AI驱动的聊天机器人,它可以快速回答问题(不是愚蠢的问题!),且用户不需要点击进一步阅读。
谷歌可以提供比ChatGPT更好的AI聊天机器人,在毫秒内提供更好的答案,但他们怎么赚钱呢?这是谷歌而非AI技术目前的主要问题所在。用户每次使用AI聊天机器人都要收费?向他们每月收取订阅费?正如许多流媒体和其他服务最近发现的那样,人们普遍存在“订阅疲劳”。
8
Dave Goulden
Sojern产品副总裁
人工智能可以做很多令人惊叹的事情,ChatGPT就是一个很好的例子。在旅游业,AI 技术在客户服务、旅行计划和个性化客户体验方面提供了一些令人兴奋的用例。例如,它可以帮助旅游企业分析客户反馈,识别趋势或模式,提供有价值的客户情绪洞察和个性化机会。
我们认为ChatGPT就是一个很好的例子,它的出现说明人工智能正在朝着更加对话化的方向发展,但我们在人工智能方面做的事情远不止于此。例如,我们在Sojern平台中利用人工智能来推动营销绩效和用户个性化。简而言之,我们处理大量的旅游搜索和预订数据,然后将其提炼成用户行为模型,用于预测未来的旅游搜索和预订行为。这是我们客户成功和持续增长的动力。我们能够根据旅行者之前的预订为他们提供相关信息――如果没有底层人工智能来理解数据,这种大规模的个性化是不可能实现的。
具体到ChatGPT,我相信除了整个互联网之外,这项技术最终会与品牌自身的内容结合使用,这样就可以由品牌对其进行培训和内容定制,以回答相关问题。
9
Mike Coletta
Phocuswright研究和创新经理
我对接下来一年,旅游企业会如何利用生成式AI的所有用例非常感兴趣,如营销文案,销售文案的撰写,帮助旅行者做行程安排,帮助企业进行客户服务,后端流程优化等。但就像大多数新的突破一样,我最期待的是人们还没有想到的用途。但是类似技术的长期影响是很难预测的。
同样有趣的是,这再次证明了最具颠覆性的创新往往来自旅游行业之外。例如,在行程生成方面,人工智能旅行计划工具并不缺乏,但它们很难被非资深旅行者所信任。ChatGPT的普及和日常使用使得其逐渐赢得人们的信任,所以我认为旅行者可能更容易接受它的行程建议,而不需要做太多的调查。这也会对代理机构产生影响。
来源:石基信息供稿