来源:AICG工具箱 责编:网络 时间:2025-06-10 13:51:58
6月4日报道丨本周早些时候,OpenAI CEO奥特曼邀请AI开发平台HumanLoop的创始人Raza Habib等一行20人举办了一次闭门会议,Raza Habib根据参会的笔记整理出了一篇博文,将OpenAI的后续AI开发计划公布于世(既然是一场闭门会议,咱也比较困惑,不知为何会议内容就这么被公开了)。
根据Raza Habib的这篇博文,我们大概整理了以下五个重点:
公司目前的研发进展极其受限于GPU的算力,需要更多的图形显卡支持ChatGPT的后续开发GPT-4目前的运营存在不少问题,比如:如何实现降本增效ChatGPT很快可以实现更大的数据吞吐量,可以达到100 万tokensGPT-4 的多模态能力(比如:视觉识别能力等)最快会在2024年推出OpenAI正在考虑开源GPT-3以下是浓缩后的博文内容:
1. OpenAI需要更多更好的显卡支持开发任务
OpenAI目前收到最多的客诉就是关于速度响应太慢以及API接口的执行效率低下的问题。奥特曼坦言,目前大部分的网络延迟都是因为GPU资源短缺造成的。ChatGPT目前最高支持32000 tokens,但是并非每位用户都能用到这个速率,据说今年晚些时候,OpenAI就能做到100万tokens的文本内容吞吐能力。同样的,开发的微调API也极其受限于GPU资源,OpenAI目前还没有拿的出手的Adapters 或 LoRa 这样的高效微调方法,因此每一次执行微调任务都非常消耗GPU的运算资源。OpenAI希望后续推出一个更好的微调方案。公司对于企业客户也提出了一些友情建议,如果企业主能够一次性拿的出10万美元的支持,OpenAI会提供更好的接口支持。
2. OpenAI的开发路线图:2023-2024
OpenAI计划今年能够加速降本增效,让GPT-4能够以更便宜且更高效的模样呈现在用户面前。并且在不久的将来支持100万tokens的上下文内容,支持聊天记录的随时调用以及再次被AI读取,反复支付相同的tokens,这将有助于提升用户的实际聊天体验。如果一切顺利的话,2024年还可以向用户开放多模态的更多能力,比如说十分令人期待的视觉识别能力。
3. 短期内不会提供APP内置ChatGPT的接口
目前已经有许多开发者提出,希望能够提供在APP内置入ChatGPT的插件能力。奥特曼指出,短期内不会开放这一能力,很多人认为他们想让APP拥有ChatGPT的能力,但他们真正想要的其实是让APP直接调用ChatGPT的能力。
4. ChatGPT将避免与非竞品进行竞争
有部分开发者提出,他们担心未来OpenAI会推出与他们竞争的APP,奥特曼表示,他理解开发者们的忧思,OpenAI后续不会开发除了ChatGPT之外的其他实际落地应用的APP。他说,按照往常的互联网产品开发的惯例,伟大的平台都会有杀手级应用以及垄断性的APP,而ChatGPT的愿景是成为生产力的超级助手,OpenAI不会涉及其他过多无谓的应用领域。
5. 奥特曼呼吁,加强AI的监管,同时兼顾必要的信息开源
奥特曼最近一直在呼吁对AI的未来进行有效的监管,包括立法与设立国际合作组织。但他并不认为现有模式是危险的,禁止目前的研发模式将是个大错误。他重申了对于AI开发以及数据信息开源的重要性,并表示OpenAI正在考虑将GPT-3开源。他们之所以还没有开源是因为他们觉得没多少人和公司有能力妥善管理如此大型的大语言模型。
6. 参数量越大越强!模型比例定律仍然成立
包括谷歌在内,最近不少学者认为,巨型的人工智能大语言模型的时代已经结束,奥特曼认为这并不准确。OpenAI的内部数据表明,模型性能的与规模成比例的规律仍然成立,并且使模型更大性能更强。在短短几年内,OpenAI就将模型的参数量扩大了数百万倍,并且公司依然在尝试把模型做得更大。当然,越大的模型意味着下一次迭代增长的参数量比例也将越小,不会再像刚开始那样的指数级增长。OpenAI认为,如果模型扩张的时代结束,那么距离预期的AGI(通用人工智能)时代也会变得更遥远,公司依然致力于高质量实现AGI的目标。
有趣的是,伴随着Raza Habib这篇博客的发布,这两天引发了圈内的一些热议,有人表示对OpenAI的肯定,也有人表达了某种不放心。出于某种特殊原因,或者特殊的商业公关考量,目前OpenAI官方已经正式向Raza Habib方面提出书面请求,希望撤掉这篇文章。作者本人也表示配合,并且在博客上也特别标注了来自官方的声明。
近日,谷歌又摊上了美国社会最敏感的「种族政治正确」问题,这一次,追求多元性的谷歌,没有惹恼有色人种,而是惹到了白人族群。Gemini 1 5生成历史人物的图像,竟然诞生了一个平行时空的荒诞感十足的新宇宙。?
本地SD部署速度一直被大家诟病,本次视频就给大家分享Tensorrt插件是如何秒变“5090”,让你的显卡生图速度提升4倍!
在这个时代里,不是模型越大越好,而是更加贴合实际应用场景的小型化、定制化模型正在成为主流。
DeepL 发布了新一代面向翻译和编辑应用的大型语言模型。据 DeepL 官方称,该模型在翻译质量和流畅度方面均优于当前市场上的其他竞争对手。
TensorRT插件安装_TensorRT插件怎么提升SD生图速度_stable diffusion插件
阿里“通义听悟”升级:支持6小时超长视频内容解析提问,还可一键生成巨幅思维导图
MJ怎么批量出图_怎么用MJ批量生图
苹果与OpenAI合作,发布新版Siri与生成式AI功能丨马斯克宣布将禁用iPhone丨OpenAI百万年薪挖角谷歌芯片人才
快手APP上线首个AI社交技能:「AI小快」聊天机器人,成为评论区的欢乐喜剧人
华为HDC 2024大会将发布盘古大模型5.0丨谷歌Gemini手机版将迎来多项功能更新丨马斯克xAI计划融资60亿美元
苹果WWDC定档6月10日将发布AI战略丨中国时报:苹果与百度尚未达成AI合作丨抖音发布AI数字人治理公告
OpenAI CEO奥特曼最新讲话汇总,再次曝光GPT-5细节:性能飞跃超乎想象,低估它的人都会被吓傻
李开复:最好的AI大模型已经达到人类平均智商的三倍,“杀手级应用”已经出现
重磅!英伟达正式官宣「AI核弹级」芯片B100,性能比H100强两倍的H200将于2024年第二季度出货