Web3信用协议Getaverse 活动频频,大事发“声”
淘宝搜:【天降红包222】领超级红包,京东搜:【天降红包222】
淘宝互助,淘宝双11微信互助群关注公众号 【淘姐妹】
最近两周,【【微信】】 频频“搞”动作,活动(线上嘉年华、线下海外商演会议、VC 酒会)一场接一场。从官方推特、社区信息透露,【【微信】】 1.0 版本近期将上线公测,在为产品 /Token 上线预热,大事发“声”?让我们来回顾下 【【微信】】 近期的活动和资讯:
活动聚集了全球顶级孵化 31 家 Web3 创新项目进行 Demo 演示,48 家 Web3 创投机构(包括 Bing 【【微信】】、OKx 【【微信】】、【【微信】】、Cobo 【【微信】】、A&T Capital 等)参会。更有数十家 Web3 孵化实验室参与,给予项目专业点评和孵化扶持。
官方推文透露 Geta【【微信】】 产品即将上线!
活动结合当下火热的 OpenAI 和 Web3 热潮,邀请硅谷科技巨头和 Web3 风投机构代表共同探讨。活动受邀嘉宾有 OpenAI、Coinbase、Hashkey 资本、谷歌 AI、KuCoin 实验室、亚马逊 AI 以及 ChainUp 资本等。【【微信】】 团队代表给到场的硅谷科技大厂和 Web3 机构代表进行了展示,介绍了 【【微信】】 背景、产品机制和生态愿景等,共同探讨了 Web3 DID 与 AI 的结合。
【【微信】】 官推透露 DID 产品上线以及空投“近在咫尺”。
【【微信】】 正在构建基于 Web3 生态的可成长信用协议,实现用户在 Web3 世界中身份去中心化、身份价值确权,强调数字内容产权并确保用户获得价值的去中心化社会。其着重解决当下围绕 Web2 科技巨头和用户关于数据主权及隐私安全、个人信用积累、用户信息价值捕获等痛点。
用户通过 【【微信】】 信誉系统实现全网一站式的数字身份主权,能在保护自己隐私的情况下提供其行为证明(数据标记),从而确立 / 证明自己的数字身份及数据主权,拥有完全的数据所有权。并且,【【微信】】 协议能够自动帮助用户甄别交易过程中的风险地址,通过 API 开放能够自动阻止风险交易授权,以及针对用户信用系统的风险评估和预警管理等。Web3 项目也根据 【【微信】】 筛选真实用户地址排除恶意刷量行为的低价值地址,建立监控地址库观察用户地址质量,以及风控交易监控,增加项目运作过程中的资金安全。
目前,【【微信】】 首批合作项目达 50+,涵盖 Web3 基础设施、DeFi、NFT、SocialFi、Dao 等赛道项目。同时已上线 【【微信】】 可信验证节点激励测试网,验证节点持有人数达 8800+,测试网验证率达 98%+。随着节点数的不断增加,【【微信】】 生态的去中心化和数据隐私程度将不断提升。并且 【【微信】】 现在也是 【【微信】】 最新孵化计划的孵化项目之一,获得了广泛的指导,包括技术、合作关系发展、代币经济等领域!
【【微信】】 随着即将发布的 Geta ID,其在保护用户隐私与匿名需求的同时对用户身份进行验证,从而优化 KYC、KYB 等服务体验。零知识证明,使得用户在身份校验过程中只需证明自己持有合法身份文件,而无需让第三方阅读文件内容本身,从而向第三方或监管机构泄露隐私信息。值得注意的是,即使需要进行 KYC 环节以规避风险,Geta 仍然可以选择在不接触隐私内容的情况下完成验证。
【免责声明】市场有风险,投资需谨慎。本文不构成投资建议,用户应考虑本文中的任何意见、观点或结论是否符合其特定状况。据此投资,责任自负。
OpenAI发布多模态大模型GPT-4:直接开放API,ChatGPT升级
open模型,open模块不过,【【微信】】表示,GPT-4仍然有许多正在解决的局限性,例如社会偏见、幻觉和对抗性prompt(提示)。
目前,【【微信】】在付费版的ChatGPT Plus上提供GPT-4,并为开发人员提供API(应用程序编程接口)以构建应用和服务。值得一提的是,微软的新必应(【【微信】】)早就用上了GPT-4。
【【微信】】还开源了Evals框架,以自动评估AI模型性能,允许用户报告模型中的缺点,帮助其改进。
“GPT-4是世界第一款高体验,强能力的先进AI系统,我们希望很快把它推向所有人。”【【微信】】工程师在介绍视频里说。
【【微信】】在官网发布公告,宣布推出GPT-4。
比GPT-3.5更可靠,更有创造力
GPT是Generati【【微信】】ormer(生成式预训练Transformer)的缩写。【【微信】】于2018年推出具有1.17亿个参数的GPT-1模型,2019年推出具有15亿个参数的GPT-2,2020年推出有1750亿个参数的GPT-3。ChatGPT是【【微信】】对GPT-3模型微调后开发出来的对话机器人。
3月14日,【【微信】】在其官网上发布了推出GPT-4的公告。公告称,【【微信】】已正式推出GPT-4,这也是【【微信】】在扩大深度学习方面的最新里程碑。GPT-4是大型多模态模型,尽管在许多现实世界的场景中能力不如人类,但它可以在各种专业和学术基准上,表现出近似人类水平的性能。
例如:GPT-4通过了模拟的律师考试,分数约为全部应试者的前10%。而相比之下,GPT-3.5的分数大约是后10%。“我们团队花了6个月时间,利用对抗性测试项目以及基于ChatGPT的相关经验,反复对GPT-4进行调整。结果是,GPT-4在事实性(factuality)、可引导性(steerability)和拒绝超范围解答(非合规)问题方面取得了有史以来最好的结果(尽管它还不够完美)。”
【【微信】】表示,在过去两年里,他们重构了整个深度学习堆栈,并与Azure(微软云服务)合作,共同设计了一台超级计算机。一年前,【【微信】】训练了GPT-3.5,作为整个系统的首次“试运行”。他们发现并修复了一些错误,改进了之前的理论基础。“因此,我们的GPT-4训练、运行(自信地说:至少对我们来说是这样!)空前稳定,成为我们首个训练性能可以进行提前准确预测的大模型。随着我们继续专注于可靠扩展,中级目标是磨出方法,以帮助【【微信】】能够持续提前预测未来,并且为未来做好准备,我们认为这一点对安全至关重要。”
【【微信】】承认,在简单闲聊时,也许不太好发现GPT-3.5和GPT-4之间的区别。但是,当任务的复杂性达到足够的阈值时,它们的区别就出来了。具体来说,GPT-4比GPT-3.5更可靠,更有创造力,能够处理更细微的指令。
GPT-4相比GPT-3.5在各项考试中的成绩。
为了理解这两个模型之间的差异,【【微信】】在各种不同的基准上进行了测试,包括模拟为人类设计的考试。“我们还在为机器学习模型设计的传统基准上对GPT-4进行了评估。GPT-4大大超过现有的大语言模型,与多数最先进的(SOTA)模型并驾齐驱。”
许多现有的机器学习基准测试都是用英语编写的,为了初步了解GPT-4在其他语言上的能力,研究团队使用Azure Translate将MMLU基准――一套涵盖57个主题的14000个多项选择题――翻译成多种语言。“在测试的26种语言中的24种语言中,GPT-4的表现优于GPT-3.5和其他大模型(Chinchilla,PaLM)的英语表现,这种优秀表现还包括类似拉脱维亚语、威尔士语和斯瓦希里语等。”
多模态功能有多强大?
GPT-4可以接受文本和图像的提示语。比如,可以让用户指定任何视觉或语言任务,它可以生成文本输出(自然语言、代码等),给定的输入包括带有文字和照片的文件、图表或屏幕截图,GPT-4表现出与纯文本输入类似的能力。不过,目前图像输入仍然属于研究预览,不针对普通用户开放。
发现图片的可笑之处。
读懂图表并进行分析。
发现图片中的不寻常之处。
阅读文件并总结概要。
读懂网上的梗图。
【【微信】】表示,他们一直在努力实现AI的可控制性。与经典ChatGPT的固定语气和风格不同,开发者现在可以通过在系统消息中描述这些方向,来规定自己的AI的风格和任务。系统消息允许API用户在一定范围内大幅对用户体验进行定制。
仍然不是完全可靠的
不过,GPT-4仍然存在与早期GPT模型类似的限制。它仍然不是完全可靠的,比如会对事实产生“幻觉”,并出现推理错误。【【微信】】提醒,在使用语言模型的输出时,特别是在高风险的情况下,应该非常小心谨慎。
但相较于以前的模型,GPT-4大大减少了hallucinations(网络错觉)。在内部的对抗性事实性评估中,GPT-4的得分比GPT-3.5高40%。
“该模型在其输出中会有各种偏差,我们在这些方面已经取得了进展,但仍有更多工作要做。根据我们最近的博文,我们的目标是使我们建立的人工智能系统具有合理的默认行为,以反映广泛的用户价值观,允许这些系统在广泛的范围内被定制,并获得公众对这些范围的意见。”公告称。
【【微信】】还指出,GPT-4通常缺乏对其绝大部分数据截止后(2021年9月)发生的事件的了解,也不会从其经验中学习。它有时会犯一些简单的推理错误,或者过于轻信用户明显的虚假陈述。有时它也会像人类一样在困难的问题上失败,例如在它产生的代码中引入安全漏洞。GPT-4也可能在预测中自信地犯错。
GPT-4与过去的模型会存在类似风险,如产生有害的建议、错误代码或不准确信息。然而,GPT-4的额外能力还导致了新的风险面。“为了明确这些风险的具体情况,我们聘请了50多位来自人工智能对接风险、网络安全、生物风险、信任和安全以及国际安全等领域的专家对该模型进行对抗性测试。”【【微信】】表示,这些领域专家的反馈和数据为缓解和改进模型提供了依据,比如他们已经收集了额外的数据,以提高GPT-4拒绝有关如何合成危险化学品的请求的能力。
此外,GPT-4在RLHF训练中加入了一个额外的安全奖励信号,通过训练模型来拒绝对此类内容的请求,从而减少有害产出。
与GPT-3.5相比,这些缓解措施大大改善了GPT-4的许多安全性能。与GPT-3.5相比,【【微信】】将模型对非法内容请求的响应倾向降低了82%,而GPT-4对敏感请求(如医疗建议和自我伤害)的响应符合【【微信】】政策的频率提高了29%。
【【微信】】强调,总的来说,模型级干预措施增加了诱发不良行为的难度,但仍然存在“越狱”的情况,以产生违反使用指南的内容。
付费用户将获得有使用上限的GPT-4权限
和之前的GPT模型一样,GPT-4基础模型的训练是为了预测文档中的下一个单词,并使用公开的数据(如互联网数据)以及【【微信】】授权的数据进行训练。这些数据来自于极大规模的语料库,包括数学问题的正确和错误的解决方案,弱的和强的推理,自相矛盾的和一致的声明,以及种类繁多的意识形态和想法。因此,当被提示有一个问题时,基础模型可以以各种各样的方式作出反应,而这些反应可能与用户的意图相去甚远。为了使其与用户的意图保持一致,【【微信】】使用人类反馈的强化学习(RLHF)对模型的行为进行微调。
【【微信】】正在开源其软件框架【【微信】】 Evals,用于创建和运行评估GPT-4等模型的基准,同时逐个样本检查其性能。用户可以应用它来跟踪不同模型版本(现在将定期推出)和不断发展的产品集成的性能。“我们邀请大家使用Evals来测试我们的模型,并提交最有趣的例子。我们相信Evals将成为使用和建立在我们的模型之上的过程中不可或缺的一部分,我们欢迎直接贡献、问题和反馈。”
ChatGPT Plus用户将获得有使用上限的GPT-4权限。【【微信】】将根据实际需求和系统性能调整确切的使用上限,但预计容量将受到严重限制。
【【微信】】还可能为更高的GPT-4使用量引入一个新的订阅级别,也希望在某个时候提供一定数量的免费GPT-4查询,使没有订阅的用户也可以尝试。
要获得GPT-4的API,需要去【【微信】】的官方等待名单上注册。获得访问权限后,用户目前可以向GPT-4模型发出纯文本请求(图像输入仍处于有限的测试阶段)。定价为每1k个prompt token 0.03美元,每1k个completion token 0.06美元。