来源:AICG工具箱 责编:网络 时间:2025-06-11 12:12:07
6月1日报道丨转载自 APPSO
OpenAI 的 CEO Sam Altman 和 AI 开发平台 HumanLoop 的创始人Raza Habib 等 20 多位开发者开展了一次闭门讨论会,主要聊了 OpenAI 的使命、AI 的影响以及一些在开发过程中的实际问题。
会后 Raza Habib 做了一份详细的会议要点整理,其中提到了 OpenAI 接下来的重要工作安排以及时间节点,我们对其进行了全文编译,Enjoy it!
划重点:
OpenAI 严重受限于 GPU,需要更多的 GPU 来解决突破 ChatGPT 遇到的技术问题给 GPT-4 降本提效是 OpenAI 当前的首要任务很快 ChatGPT 能支持输入更多的文字(最高可达 100 万 tokens)GPT-4 的多模态功能(视觉识别等)要到 2024 年才会公开OpenAI 正在考虑开源 GPT-3以下是 Raza Habib 的全文记录:
1. OpenAI 目前严重受限于 GPU
在整场讨论中,一个反复提到主题是 OpenAI 目前极度依赖 GPU,这让他们很多短期计划都延迟了。
OpenAI 收到最多的用户投诉都是关于 API 的可靠性和速度。Sam 理解他们的担忧,并解释说问题的大部分是由于 GPU 资源短缺造成的。
ChatGPT 此前支持的 32k tokens 上下文功能还不能推广给更多的人,OpenAI 还有一些问题需要解决,因此,尽管他们可能很快就会有 100k - 1M 的 tokens 上下文窗口(今年内),但还都需要在研究上取得突破。
微调 API 也目前受限于 GPU 资源。他们还没有使用像 Adapters 或 LoRa 这样的高效微调方法,因此微调运行和管理非常消耗计算资源。未来会有更好的微调方式。他们甚至可能会主持一个社区贡献模型的市场。
专用容量供应同样受限于 GPU 资源。OpenAI 为有私有需求的客户提供了专用容量,可以让客户在专用的空间运行私人数据。要访问此服务,客户需要承诺预支 10 万美元。
2. OpenAI 路线图
Sam 分享了 OpenAI API 的暂定的短期路线图。
2023:
更便宜、更快的GPT-4 —— 这是他们的首要任务。总的来说,OpenAI的目标是尽可能降低「智能的成本」,因此他们将努力继续降低「API」的成本。更长的上下文窗口 —— 在不久的将来,最高可达 100 万个 tokens 的上下文窗口是可能的。微调 API —— 微调 API 将扩展到最新的模型,但具体形式将由开发者实际需求的决定。有状态的API —— 当你今天调用聊天API时,你必须反复传递相同的对话历史,并反复支付相同的tokens。将来将有一个记住对话历史的API版本。2024:
多模态ーー这是作为 GPT-4 发行版的一部分演示的,但是在获得更多的 GPU 资源之前不能扩展到所有人。3. 插件「没有 PMF」,短期内应该不会出现在 API 中
很多开发人员都对通过 API 访问 ChatGPT 插件感兴趣,但 Sam 说他认为这些插件短期内不会发布。除了浏览之外,插件的使用表明他们还没有 PMF。
他指出,很多人认为他们希望自己的应用程序位于 ChatGPT 之内,但他们真正想要的是应用程序中的 ChatGPT。
4. 除了与「类 ChatGPT」竞争外,OpenAI 将避免与其客户竞争
有不少开发者表示,他们担心在 OpenAI 可能最终发布与他们竞争的产品的情况下使用 OpenAI 的 API。Sam 表示,OpenAI 不会发布 ChatGPT 之外的更多产品。
Sam 表示,按照惯例伟大的平台都会有杀手级应用,ChatGPT 将允许他们通过成为自己产品的客户来使 API 更好。ChatGPT 的愿景是成为工作的超级智能助手,但 OpenAI 不会涉及其他许多 GPT 用例
不少开发人员表示,他们担心未来 OpenAI 针对他们的产品会开发出强大的竞品,因此他们对使用 OpenAI API 持着谨慎的态度。对此,Sam 说 OpenAI 不会在 ChatGPT 之外发布更多的产品。
5. 监管是必要的,但开源也是必要的
虽然 Sam 呼吁对 AI 的未来进行监管,但他并不认为现有模式是危险的,并认为监管或禁止现有模式将是个大错误。
他重申了他对开源重要性的信念,并表示 OpenAI 正在考虑将 GPT-3开源。他们之所以还没有开源是因为他们觉得没多少人和公司有能力妥善管理如此大型的大语言模型。
6. 模型比例定律仍然成立
最近许多文章声称「巨型人工智能模型的时代已经结束」。但这并不准确。
OpenAI 的内部数据表明,模型性能的与规模成比例的规律仍然成立,并且使模型更大性能更强。
值得注意的是,由于 OpenAI 在短短几年内就将模型扩大了数百万倍,这样的扩展速度不可能持续下去。OpenAI 会继续尝试把模型做得更大,但它们每年的规模可能只会增加一倍或两倍,而不是增加很多数量级。
事实上,扩大模型规模对 AGI 开发的时间表有重大影响。扩大规模的理念是,我们可能已经有构建 AGI 所需的大部分工作,剩下的大部分工作将采用现有的方法,并将它们扩展到更大的模型和更大的数据集。
如果规模扩张的时代已经结束,那么我们应该预期 AGI 会很遥远。比例定律仍然成立的事实也表示我们会用更短的时间实现 AGI。
近日,谷歌又摊上了美国社会最敏感的「种族政治正确」问题,这一次,追求多元性的谷歌,没有惹恼有色人种,而是惹到了白人族群。Gemini 1 5生成历史人物的图像,竟然诞生了一个平行时空的荒诞感十足的新宇宙。?
本地SD部署速度一直被大家诟病,本次视频就给大家分享Tensorrt插件是如何秒变“5090”,让你的显卡生图速度提升4倍!
在这个时代里,不是模型越大越好,而是更加贴合实际应用场景的小型化、定制化模型正在成为主流。
DeepL 发布了新一代面向翻译和编辑应用的大型语言模型。据 DeepL 官方称,该模型在翻译质量和流畅度方面均优于当前市场上的其他竞争对手。
TensorRT插件安装_TensorRT插件怎么提升SD生图速度_stable diffusion插件
阿里“通义听悟”升级:支持6小时超长视频内容解析提问,还可一键生成巨幅思维导图
MJ怎么批量出图_怎么用MJ批量生图
苹果与OpenAI合作,发布新版Siri与生成式AI功能丨马斯克宣布将禁用iPhone丨OpenAI百万年薪挖角谷歌芯片人才
华为HDC 2024大会将发布盘古大模型5.0丨谷歌Gemini手机版将迎来多项功能更新丨马斯克xAI计划融资60亿美元
苹果WWDC定档6月10日将发布AI战略丨中国时报:苹果与百度尚未达成AI合作丨抖音发布AI数字人治理公告
OpenAI CEO奥特曼最新讲话汇总,再次曝光GPT-5细节:性能飞跃超乎想象,低估它的人都会被吓傻
李开复:最好的AI大模型已经达到人类平均智商的三倍,“杀手级应用”已经出现
重磅!英伟达正式官宣「AI核弹级」芯片B100,性能比H100强两倍的H200将于2024年第二季度出货
面对Sora训练数据来源一问三不知!OpenAI遭遇成立以来最为惨烈的公关灾难