Jasper?for?Business发布,仍使用OpenAI技术;Instagram宣布放弃直播购物|36氪企业服务日报0215
淘宝搜:【天降红包222】领超级红包,京东搜:【天降红包222】
淘宝互助,淘宝双11微信互助群关注公众号 【淘姐妹】
36氪To B产业组会为大家汇总每日企业服务领域的主要新闻,2月15日企业服务行业动态日报如下:
聚焦ChatGPT Jasper发布Jasper for Business:生成式人工智能工具不必通用
据外媒消息,Jasper于美国当地时间2月14日举办了公司首届行业活动Gen AI会议。会上,Jasper发布了企业版AI平台Jasper for Business。Jasper是较早使用OpenAI GPT-3作为技术底层的公司之一。据悉,产品的所有新功能都是基于一系列不同的生成式AI模型开发的,包括OpenAI。该版本包括新的Brand Voice和Jasper Everywhere功能,支持企业生成匹配品牌调性和特定风格的内容,并能够在内容管理系统、在线文档场景中使用生成式AI工具。同时,Jasper还更新了API,以满足企业开发自有应用程序的需求。
成为百度一员后,GBI期望接入文心一言
近日,百度集团完成对医疗信息数据提供商GBI的并购。GBI在官方公众号宣布正式联手百度大健康事业群(HCG),以人工智能技术打破数据边界,颠覆医疗行业传统模式。同时,GBI发文表示,“百度即将上线中国ChatGPT文心一言,希望将人工智能的独特技术优势赋能医疗垂直行业”。
https://mp.weixin.qq.com/s/HMuAlZ41NbeQ5t1RsaUoGw
文心一言+三体,集度“三体版”汽车机器人呼之欲出
近期,集度汽车正式发布数字宇宙体验计划ROBOVERSE(汽车机器人宇宙)。公司计划将在年内推出“三体版”汽车机器人,并接入百度文心一言。
https://www.cs.com.cn/5g/202302/t20230215_6323514.html
极光闪达宣布将在邮件服务中整合ChatGPT技术
近日,极光闪达(SendCloud)是极光旗下电子邮件服务提供商。公司将通过整合ChatGPT技术,使客户能够根据收件人的信息和偏好,生成个性化邮件内容。
https://www.jiemian.com/article/8906999.html
行业动态 微信也要做外卖?腾讯:不,只是为了内测“门店快送”服务
近日,有消息称微信正通过小程序内测外卖类服务,或将入局外卖。据悉,腾讯内部人士回应称,目前“门店快送”服务内测在广深地区进行,目的是接入具备外送能力的商家,帮助消费者发现附近提供快送服务的优质小程序,并非要入局外卖。
https://m.thepaper.cn/baijiahao_21929390
Reddit拟于今年下半年IPO
近日,外媒援引知情人士消息称,美国社交媒体平台Reddit计划于今年上市,时间可能定在下半年。据悉,Reddit早已于2021年12月向美国证券监管机构秘密提交首次公开募股申请。目前,Reddit尚未实现盈利。
Instagram宣布放弃直播购物
据外媒报道,美国当地时间2月14日,Instagram宣布从3月开始将不再允许创作者在直播(Instagram Live Streams)中标记产品。Instagram母公司Meta在去年10月已经关闭了Facebook的直播购物功能。据悉,直播功能本身,以及Instagram线上商店功能并不受影响。
融资要闻 「六棱镜」宣布完成新一轮战略融资
本轮战略投资方为成都高新区高科集团盈创动力。双方将围绕产业链智能决策、智慧招商、科技人才、科技金融、科企培育与知识产权等进行全方位合作。六棱镜是一家数字科创一站式解决方案提供商,主要基于云计算、大数据、AI等数字技术,面向科创企业提供综合服务,助力科创服务业数字化转型。
https://www.chinaventure.com.cn/news/83-20230215-373620.html
「布鲁米亚」宣布完成数千万元Pre-A轮融资
本轮投资方信息未透露。所融资金将主要用于产品研发和市场推广等方面。布鲁米亚专注于将机器学习、数据挖掘等人工智能和数据技术应用到直播领域,面向实体企业提供AI直播解决方案。
https://www.sohu.com/a/640769000_121628715
「Aspire Fintech」宣布完成1亿美元C轮融资
本轮融资由Lightspeed和Sequoia Capital SEA联合领投,PayPal Ventures、腾讯、LGT Capital Partners及部分现有投资者参投。据悉,Aspire在一份声明中表示,所融资金将主要用于推进产品开发、团队建设以及区域扩张等。Aspire是一家新加坡金融科技服务商,主要面向中小企业提供信贷额度,帮助其一站式解决财务运营中的问题。目前,Aspire平台已经集成了Xero、Quickbook、Netsuite、Accurate、Jurnal等主流会计软件。
https://cn.technode.com/post/2023-02-14/sg-fintech-startup-aspire-100m-series-c-funding-from-tencent-and-others/
整理:沈筱
编辑:王与桐
Nature|ChatGPT和生成式AI对科学意味着什么?
nature杂志,nature发表论文什么水平,nature communications影响因子,nature杂志中文官网新智元报道
来源:科技世代千高原
编辑:好困
【新智元导读】研究人员对人工智能的最新进展感到兴奋,但也感到忧虑。
12 月,计算生物学家 Casey Greene 和 Milton Pividori 开始了一项不同寻常的实验:他们请一名非科学家的助手帮助他们改进三篇研究论文。
他们勤奋的助手建议在几秒钟内修改文档的各个部分,每份手稿大约需要五分钟的时间。 在一份生物学手稿中,他们的助手甚至在引用方程式时发现了一个错误。
审查并不总是顺利进行,但最终的手稿更容易阅读――而且费用适中,每份文件不到 0.50 美元。
论文地址:https://www.biorxiv.org/content/10.1101/2023.01.21.525030v1
正如 Greene 和 Pividori 在1 月 23 日的预印本中所报道的那样,这个助手不是一个人,而是一种名为 GPT-3 的人工智能算法,该算法于 2020 年首次发布。
它是一种被大肆宣传的生成式 AI 聊天机器人式工具,无论是被要求创作散文、诗歌、计算机代码,还是编辑研究论文。
其中最著名的工具(也称为大型语言模型或 LLM)是 ChatGPT,它是 GPT-3 的一个版本,在去年 11 月发布后一举成名,因为它免费且易于访问。其他生成式 AI 可以生成图像或声音。
文章地址:https://www.nature.com/articles/d41586-021-00530-0
「我印象非常深刻,」在费城宾夕法尼亚大学工作的 Pividori 说。「这将帮助我们提高研究人员的工作效率。」其他科学家表示,他们现在经常使用 LLM,不仅是为了编辑手稿,也是为了帮助他们编写或检查代码以及集思广益。
「我现在每天都用 LLM,」位于雷克雅未克的冰岛大学的计算机科学家 Hafsteinn Einarsson 说。
他从 GPT-3 开始,但后来改用 ChatGPT,这有助于他编写演示幻灯片、学生考试和课程作业,并将学生论文转化为论文。「许多人将其用作数字秘书或助理,」他说。
LLM是搜索引擎、代码编写助手甚至聊天机器人的一部分,它可以与其他公司的聊天机器人协商以获得更好的产品价格。
(其试用版仍然免费)。
已经投资 OpenAI 的科技巨头微软在 1 月份宣布进一步投资,据报道约为 100 亿美元。
LLM注定要被纳入通用的文字和数据处理软件中。生成式 AI 未来在社会中的普遍存在似乎是有把握的,尤其是因为今天的工具代表了这项技术还处于起步阶段。
但 LLM 也引发了广泛的关注――从他们返回谎言的倾向,到担心人们将 AI 生成的文本冒充为自己的文本。
文章地址:https://www.nature.com/articles/d41586-023-00288-7
当Nature向研究人员询问聊天机器人(例如 ChatGPT)的潜在用途时,尤其是在科学领域,他们的兴奋中夹杂着忧虑。
「如果你相信这项技术具有变革的潜力,那么我认为你必须对此感到紧张,」奥罗拉科罗拉多大学医学院的Greene说。 研究人员表示,很大程度上将取决于未来的法规和指南如何限制 AI 聊天机器人的使用。
流利但不真实
一些研究人员认为,只要有人监督,LLM 就非常适合加快撰写论文或资助等任务。
「科学家们不会再坐下来为资助申请写冗长的介绍,」瑞典哥德堡萨尔格伦斯卡大学医院的神经生物学家 Almira Osmanovic Thunstr?m 说,他与人合着了一份使用 GPT-3 作为实验的手稿。「他们只会要求系统这样做。」
总部位于伦敦的软件咨询公司 InstaDeep 的研究工程师 Tom Tumiel 表示,他每天都使用 LLM 作为助手来帮助编写代码。
「这几乎就像一个更好的 Stack Overflow,」他说,指的是一个流行的社区网站,程序员可以在该网站上互相回答问题。
但研究人员强调,LLM 在回答问题时根本不可靠,有时会产生错误的回答。「当我们使用这些系统来产生知识时,我们需要保持警惕。」
这种不可靠性体现在 LLM 的构建方式上。ChatGPT 及其竞争对手通过学习庞大的在线文本数据库中的语言统计模式来工作――包括任何不真实、偏见或过时的知识。
当 LLM 收到提示时(例如 Greene 和 Pividori 精心设计的重写部分手稿的请求),他们只是逐字吐出任何在文体上似乎合理的方式来继续对话。
结果是 LLM 很容易产生错误和误导性信息,特别是对于他们可能没有多少数据可以训练的技术主题。LLM 也不能显示其信息的来源;如果被要求撰写学术论文,他们会编造虚构的引文。
「不能相信该工具能够正确处理事实或生成可靠的参考资料,」Nature Machine Intelligence 杂志 1 月份在 ChatGPT 上发表的一篇社论指出。
文章地址:https://www.nature.com/articles/d41586-023-00107-z
有了这些注意事项,ChatGPT 和其他 LLM 可以成为研究人员的有效助手,这些研究人员具有足够的专业知识来直接发现问题或轻松验证答案,例如计算机代码的解释或建议是否正确。
但是这些工具可能会误导天真的用户。
这对搜索引擎来说可能是一场恶梦。
缺点能克服吗?
一些搜索引擎工具,例如以研究人员为中心的 Elicit,解决了 LLM 的归因问题,首先使用它们的功能来指导对相关文献的查询,然后简要总结引擎找到的每个网站或文档――因此产生明显引用内容的输出(尽管 LLM 可能仍会错误总结每个单独的文档)。
建立 LLM 的公司也很清楚这些问题。
去年 9 月,DeepMind 发表了一篇关于名为 Sparrow 的「对话智能体」的论文。 报道称 ,其 目标是开发包括引用消息来源的能力在内的功能。
其他竞争对手,例如 Anthropic,表示他们已经解决了 ChatGPT 的一些问题。
一些科学家说,目前,ChatGPT 还没有接受足够专业的内容训练,无法对技术课题有所帮助。
Kareem Carr 是马萨诸塞州剑桥市哈佛大学的生物统计学博士生,当他在工作中试用它时,他感到很失望。
「我认为 ChatGPT 很难达到我需要的特异性水平,」他说。(即便如此,Carr 说,当他向 ChatGPT 询问 20 种解决研究问题的方法时,它回复了胡言乱语和一个有用的想法――一个他从未听说过的统计术语,将他引向了学术文献的一个新领域。)
一些科技公司正在根据专业科学文献对聊天机器人进行训练――尽管它们也遇到了自己的问题。
去年 11 月,拥有 Facebook 的科技巨头 Meta 发布了一个名为 Galactica 的 LLM 项目,该项目接受过科学摘要训练,旨在使其特别擅长制作学术内容和回答研究问题。 在 用户让它产生不准确和种族主义之后,该演示已从公共访问中撤出(尽管其代码仍然可用)。
安全与责任
Galactica 遇到了伦理学家多年来一直指出的一个熟悉的安全问题:如果没有输出控制,LLM 很容易被用来生成仇恨言论和垃圾信息,以及可能隐含在其训练数据中的种族主义、性别歧视和其他有害联想。
除了直接产生有毒内容外,人们还担心人工智能聊天机器人会从他们的训练数据中嵌入历史偏见或关于世界的想法,例如特定文化的优越性,密歇根大学科学、技术和公共政策项目主任 Shobita Parthasarathy 表示,由于创建大型 LLM 的公司大多处于这些文化中,并且来自这些文化,因此他们可能很少尝试克服这种系统性且难以纠正的偏见。
OpenAI 在决定公开发布 ChatGPT 时试图回避其中的许多问题。它将其知识库限制在 2021 年,阻止其浏览互联网并安装过滤器以试图让该工具拒绝为敏感或有毒提示生成内容。
然而,要实现这一点,需要人工审核员来标记有毒文本。记者报道说,这些工人的工资很低,有些人还受到了创伤。社交媒体公司也对工人剥削提出了类似的担忧,这些公司雇用人员来训练自动机器人来标记有毒内容。
但现实是,OpenAI 的护栏并没有完全成功。去年 12 月,加州大学伯克利分校的计算神经科学家 Steven Piantadosi 在推特上表示,他已要求 ChatGPT 开发一个 Python 程序,以确定一个人是否应该根据其原籍国受到酷刑。聊天机器人回复了代码,邀请用户输入一个国家;如果是某些特定的国家,则输出「这个人应该受到折磨」。(OpenAI 随后关闭了此类问题。)
相关团队还完全开放了其训练数据(与 OpenAI 不同)。研究人员已敦促大型科技公司负责任地效仿这个例子――但尚不清楚他们是否会遵守。
一些研究人员表示,学术界应该完全拒绝支持大型商业 LLM。除了偏见、安全问题和受剥削的工人等问题外,这些计算密集型算法还需要大量能量来训练,这引发了人们对其生态足迹的担忧。
更令人担忧的是,通过将思维转移给自动聊天机器人,研究人员可能会失去表达自己想法的能力。
「作为学者,我们为什么会急于使用和宣传这种产品?」 荷兰奈梅亨 Radboud 大学的计算认知科学家 Iris van Rooij 在博客中写道,敦促学术界抵制他们的吸引力。
进一步的混乱是一些 LLM 的法律地位,这些 LLM 是根据从互联网上抓取的内容进行训练的,有时权限不太明确。版权和许可法目前涵盖像素、文本和软件的直接复制,但不包括其风格的模仿。
当这些通过 AI 生成的模仿品通过摄取原件进行训练时,就会出现问题。包括 Stable Diffusion 和 Midjourney 在内的一些 AI 艺术程序的创作者目前正在被艺术家和摄影机构起诉;OpenAI 和微软(连同其子公司技术网站 GitHub)也因创建其 AI 编码助手 Copilot 而被起诉盗版软件。英国纽卡斯尔大学互联网法专家Lilian Edwards表示,强烈抗议可能会迫使法律发生变化。
强制诚实使用
一些研究人员表示,因此,为这些工具设定界限可能至关重要。Edwards建议,现有的关于歧视和偏见的法律(以及计划中的对 AI 的危险使用的监管)将有助于保持 LLM 的使用诚实、透明和公平。「那里有大量的法律,」她说,「这只是应用它或稍微调整它的问题。」
同时,有人推动 LLM 的使用透明公开。 学术出版商(包括《自然》)表示,科学家应该在研究论文中披露 LLM 的使用情况; 老师们表示,他们希望学生也有类似的行动。 《科学》杂志则更进一步,称论文中不能使用由 ChatGPT 或任何其他人工智能工具生成的文本。
文章地址:https://www.nature.com/articles/d41586-023-00191-1
一个关键的技术问题是人工智能生成的内容是否可以轻易被发现。许多研究人员正致力于此,其中心思想是使用 LLM 本身来发现 AI 创建的文本的输出。
例如, 这种 AI 检测工具以两种方式分析文本。
一个是「困惑度」,衡量LLM对文本的熟悉程度。 Tian 的工具使用 了一个早期的模型,称为 GPT-2; 如果它发现大部分单词和句子都是可预测 的,那么文本很可能是人工智能生成的。
另一个是「突发性」,用于检查文本的变化。人工智能生成的文本在语气、节奏和困惑度方面往往比人类编写的文本更一致。
出于科学家的目的,由反剽窃软件开发商 Turnitin 公司开发的工具可能特别重要,因为 Turnitin 的产品已被世界各地的学校、大学和学术出版商使用。该公司表示,自 GPT-3 于 2020 年发布以来,它一直在开发人工智能检测软件,预计将在今年上半年推出。
然而,这些工具中没有一个声称是万无一失的,尤其是在随后编辑 AI 生成的文本的情况下。
对此,德克萨斯大学奥斯汀分校的计算机科学家兼 OpenAI 的客座研究员 Scott Aaronson 说,检测器可能会错误地暗示一些人类编写的文本是人工智能生成的。该公司表示,在测试中,其最新工具在 9% 的情况下将人类编写的文本错误地标记为 AI 编写的,并且仅正确识别了 26% 的 AI 编写的文本。Aaronson 说,例如,在指控一名学生仅仅根据检测器测试隐瞒他们对 AI 的使用之前,可能需要进一步的证据。
另一个想法是让人工智能内容带有自己的水印。去年 11 月,Aaronson 宣布他和 OpenAI 正在研究一种为 ChatGPT 输出添加水印的方法。虽然它尚未发布,但在 1 月 24 日发布的预印本中,由马里兰大学帕克分校的计算机科学家 Tom Goldstein 领导的团队提出了一种制作水印的方法。这个想法是在 LLM 生成输出的特定时刻使用随机数生成器,以创建 LLM 被指示从中选择的合理替代词列表。这会在最终文本中留下一些选定单词的痕迹,这些单词可以通过统计方式识别,但对读者来说并不明显。编辑可能会消除这种痕迹,但 Goldstein 认为这需要更改超过一半的单词。
Aaronson 指出,加水印的一个优点是它永远不会产生误报。如果有水印,则文本是用 AI 生成的。不过,它不会是万无一失的,他说。「如果你有足够的决心,肯定有办法击败任何水印方案。」检测工具和水印只会让欺骗性地使用 AI 变得更加困难――并非不可能。
与此同时,LLM 的创建者正忙于开发基于更大数据集的更复杂的聊天机器人(OpenAI 有望在今年发布 GPT-4)――包括专门针对学术或医学工作的工具。12
OpenAI CEO“凡尔赛”:称ChatGPT是糟糕的产品
openai账号购买,openai chatgpt,openai not available in your country,openai和微软的关系近一段时间,包括比尔・盖茨、黄仁勋等一系列科技行业的“顶流”人物,纷纷将ChatGPT视作新时代的标志,对其寄予厚望。
但打造ChatGPT的OpenAI,似乎对这款产品并不满意。
近日,OpenAI的联合创始人兼CEO Sam Altman在接受一档博客节目的采访时颇有些“凡尔赛”的表示,ChatGPT是一个“糟糕的产品”。
Altman指出,目前的ChatGPT是一个频繁出现错误,有时能用,有时又不能用的网站。
此外,他对目前ChatGPT功能的过于简洁也不太满意:“人们会输入一些东西,不停输入,直到搞定,然后把答案复制下来,粘贴到某个地方――然后再回过头来将此与搜索结果或他们的其他工作流整合起来。”
事实上,OpenAI的另一位联合创始人Greg Brockman之前就曾表示,以目前的形式推出ChatGPT,是公司的Beta测试员在遇到内部问题后采取的最后手段。
这也在一定程度上导致了ChatGPT容易崩溃,经常告知用户“目前的容量已满”,并拒绝用户的查询。
显然,OpenAI对于目前的ChatGPT并不满意,这或许意味着在不久的将来,我们将看到一个比它更完善,更聪明的AI。
返回搜狐,查看更多
责任编辑: