OpenAI发布GPT-4多模态预训练大模型,机器学习新进展

释放双眼,带上耳机,听听看~!
OpenAI发布了多模态预训练大模型 GPT-4,具有更可靠、更有创意的能力,是机器学习领域的新进展。文章详细介绍了GPT-4的能力、视觉输入、操纵性、限制以及获取访问权限的方式。

本文正在参加 人工智能创作者扶持计划

大家好,我是小寒。

原文链接

今天凌晨,OpenAI 发布了多模态预训练大模型 GPT-4。

GPT-4 是一个大型多模态模型(接受图像和文本输入,发出文本输出)。

虽然在许多现实世界场景中的能力不如人类,但在各种专业和学术基准上表现出人类水平。

例如,它通过模拟律师考试,分数在应试者的前 10% 左右;相比之下,GPT-3.5 的得分在倒数 10% 左右。

能力

GPT-3.5 和 GPT-4 之间的区别可能很微妙。当任务的复杂性达到足够的阈值时,差异就会出现,GPT-4 比 GPT-3.5 更可靠、更有创意,并且能够处理更细微的指令。为了了解这两种模型之间的区别,OpenAI 在各种基准测试中进行了测试,包括最初为人类设计的模拟考试。

OpenAI发布GPT-4多模态预训练大模型,机器学习新进展

OpenAI发布GPT-4多模态预训练大模型,机器学习新进展

OpenAi 还在为机器学习模型设计的传统基准上评估了 GPT-4。

GPT-4 大大优于现有的大型语言模型,以及大多数最先进的 (SOTA) 模型。

OpenAI发布GPT-4多模态预训练大模型,机器学习新进展

视觉输入

GPT-4 可以接受文本和图像 prompt。

具体来说,它在给定由文本和图像组成的输入的情况下生成文本输出

比如问:这张照片有什么不寻常之处?

GPT4 的回答是:这张照片的不同寻常之处在于,一名男子正在移动的出租车车顶上的熨衣板上熨烫衣服。

可以看到,GPT4 回到的还真的是不错。

OpenAI发布GPT-4多模态预训练大模型,机器学习新进展

不过 OpenAI 在这里说了,图像输入是研究预览,仍不公开,这里只能遗憾的期待一波了。。。

操纵性

与具有固定冗长、语气和风格的经典 ChatGPT 个性不同,开发人员(以及 ChatGPT 用户)现在可以通过在 “system” 消息中描述这些方向来规定他们的 AI 的风格和任务。

系统消息 允许 API 用户在一定范围内显着定制他们的用户体验。

OpenAI发布GPT-4多模态预训练大模型,机器学习新进展

限制

尽管功能强大,但 GPT-4 与早期的 GPT 模型具有相似的局限性。最重要的是,它仍然不完全可靠(它 “幻觉” 事实并出现推理错误)。

在使用语言模型输出时应格外小心,特别是在高风险上下文中。

但 GPT-4 相对于以前的模型显着减少了幻觉。在 OpenAI 内部对抗性真实性评估中,GPT-4 的得分比最新的 GPT-3.5 高 40%。

OpenAI发布GPT-4多模态预训练大模型,机器学习新进展

ChatGPT Plus 直接 升级 GPT-4 版本

ChatGPT Plus 订阅者将在 chat.openai.com 上获得具有使用上限的 GPT-4 访问权限。

OpenAI 根据实践中的需求和系统性能调整确切的使用上限,但预计会受到严重的容量限制(尽管 OpenAi 将在未来几个月内扩大规模和优化)。

要通过 **API 访问 GPT-4 **,可以通过 openai.com/waitlist/gp… 进行注册,等待 OpenAI 的审核通过。OpenAi 将开始邀请一些开发人员,并逐步扩大规模以平衡容量与需求。

OpenAI发布GPT-4多模态预训练大模型,机器学习新进展

OpenAI发布GPT-4多模态预训练大模型,机器学习新进展

获得访问权限后,你可以向 gpt-4 模型发出纯文本请求(图像输入仍处于有限的 alpha 阶段)。

最后,明天就是百度 文心一言 的发布时刻,然我们一起来期待一下吧。

随后,我会带大家一起测试一下 GPT-4,如果有想一起加入的,可以联系我

本文正在参加 人工智能创作者扶持计划

本网站的内容主要来自互联网上的各种资源,仅供参考和信息分享之用,不代表本网站拥有相关版权或知识产权。如您认为内容侵犯您的权益,请联系我们,我们将尽快采取行动,包括删除或更正。
AI教程

深度学习模型NFM及其特点

2023-12-4 20:54:14

AI教程

ChatGPT 4.0:如何在国内使用及其背后的算法和文献解读

2023-12-4 21:05:14

个人中心
购物车
优惠劵
今日签到
有新私信 私信列表
搜索