OpenAI 首届开发者大会 (OpenAI DevDay) 于北京时间 11 月 7 日凌晨 02:00 开始,Keynote 主论坛环节由该公司首席执行官萨姆・奥特曼 (Sam Altman) 主讲并在 YouTube 现场直播,展示了多款新产品的发布。
https://openai.com/blog/new-models-and-developer-products-announced-at-devday
下面是大会内容概览总结。
Sam Altman 称 ChatGPT 的周活用户数达到 1 亿, 开发者数量达到 200 万,以及 92% 的财富 500 强企业在使用 OpenAI 产品。
他还宣布了多项重磅变化:GPT-4 Turbo 模型,128k 上下文窗口、GPTs 商店、Agent 工具、API 提速降价、更多的 API 开放…
-
GPT-4 Turbo
OpenAI 于 3 月发布了 GPT-3.5 Turbo,在 OpenAI 首届开发者大会上,宣布推出 GPT-4 Turbo,这款模型正处于预览状态,号称对于开发者而言“比上代 GPT-4 便宜三倍”。
- 能力:比前一代GPT-4更强大。
- 知识更新:知识覆盖到2023年4月的世界事件。
- 上下文窗口:拥有128k的上下文窗口,能够处理相当于300多页文本的内容。
- 性能优化:性能得到优化,价格降低,输入令牌价格降低3倍,输出令牌价格降低2倍。
-
新的 Assistants API
Assistant API 文档:https://platform.openai.com/docs/assistants/overview
- 目的:帮助开发者构建具有目标的辅助AI应用程序。
- 功能:可以调用模型和工具,进行任务执行。
- 应用范围:从自然语言数据分析应用到编码助手,再到AI驱动的假期规划器等。
-
多模态能力
- 视觉:平台新增了视觉功能。
- 图像创建:集成了DALL·E 3。
- 文本到语音(TTS):新增了文本到语音转换功能。
-
功能调用更新:
- 描述:允许描述应用程序的功能或外部API。
- 智能选择:模型可以智能地选择输出包含调用这些功能的参数的JSON对象。
-
改进的指令跟随和JSON模式:
- 指令跟随:在需要仔细遵循指令的任务上表现更好。
- JSON模式:支持新的JSON模式,确保模型以有效的JSON格式响应。
-
可复现输出和对数概率:
- seed参数:使模型能够返回一致的完成结果。
- 用途:对于调试、编写单元测试等场景非常有用。
-
更新的GPT-3.5 Turbo:
- 上下文窗口:支持默认16K上下文窗口。
- 改进:在指令跟随、JSON模式和并行功能调用方面进行了改进。
-
助手API、检索和代码解释器:
- 助手API:允许开发者创建具有特定指令的AI。
- 检索:从模型外部增加知识,如专有领域数据。例如专有领域数据、产品信息或用户提供的文档。
- 代码解释器:在沙盒执行环境中编写和运行Python代码。允许 Assistants 迭代运行代码来解决具有挑战性的代码和数学问题等等。
-
新的API模态:
- GPT-4 Turbo视觉:可以接受图像作为输入。
- DALL·E 3:现在可以通过Images API直接集成到应用程序和产品中。
- 文本到语音(TTS)API:现在可以从文本生成人类质量的语音。
-
模型定制:
- GPT-4细微调整:提供了细微调整的实验性访问。
- 定制模型程序:为需要超出细微调整提供的定制化程度的组织提供了定制模型程序。
-
降低价格和提高速率限制:
- 价格降低:平台降低了多个价格。
- 速率限制提高:为所有付费GPT-4客户提高了每分钟令牌限制的两倍。
-
版权保护:
- 版权保护盾:如果客户面临版权侵权的法律索赔,OpenAI将介入并支付费用。
-
Whisper v3和一致性解码器:
- Whisper large-v3:发布了下一版本的开源自动语音识别模型。
- 一致性解码器:为Stable Diffusion VAE解码器的替代品,改进了与Stable Diffusion 1.0+ VAE兼容的所有图像。
这些更新旨在提高模型的能力、降低成本,并为开发者提供更多的工具和 API 以构建更高质量的 AI 应用程序。