作为AI大模型的“杠把子”,OpenAI没有停下自我迭代的步伐。
(资料图)
当地时间6月13日(北京时间6月14日凌晨),OpenAI发布新版本的GPT-3.5-turbo和GPT-4。这两个模型是基于GPT-3.5的优化版本,反应速度更快。
本次更新主要有三个亮点:
1、更优质的模型:
OpenAI推出了处理更长的文本(允许提示的长度达16k个token)的GPT-3.5-turbo,相比标准版本的GPT-3.5-turbo(允许提示的长度为4k个token),可在单次请求中支持多达20页的文本,适用于法律、学术文件的解读以及项目管理应用场景。
2、更强大的功能:
在Chat Completions API新增函数调用(Function call)功能,允许开发人员向GPT-3.5-turbo和GPT-4用自然语言描述编程函数,并让模型创建代码来执行这些函数。简单来说,该功能可理解为“无代码编程”,GPT不再需要开发者为它描述复杂的Prompt,便可实现从自然语言到API调用或数据库查询的转换,人机互动将更加流畅。
例如,它可以将如“Email Anya to see if she wants to get coffee next Friday”(给Anya发电子邮件,看看她下周五是否想喝咖啡)的提示转换为“send_email(to: string, body: string)”的函数调用。
当你向ChatGPT 提问“波士顿的天气怎么样?”时,该问题会被模型解读为调用第三方天气API,进一步去检索相关的数据,输出准确的回答。
3、更低的价格:
对于使用量最大的模型GPT-3.5-turbo(可处理4K token的版本),tokens输入价格降低了25%:每1K输入token0.0015美元(1美元66.6万token)、每1K输出token0.002美元(1美元50万token),相当于1美元大约可以处理700页文件;新推出的16K token版GPT3.5-Turbo提供了4K版本四倍的处理能力,但价格只有两倍,输入及输出token的价格分别是0.003和0.004美元每千token。
最新的嵌入模型(text-embedding-ada-002)的价格降幅更大,降低了75%,每1K token 0.0001美元(1美元1000万token)。嵌入模型类似于计算机的翻译器,将单词和概念转化为机器可以理解的数值语言,这对于搜索文本和提供相关内容建议等任务非常重要。
相关应用将于6月27日自动升级到新版本,OpenAI还披露了大模型上一个版本(GPT-3.5-turbo-0301和GPT-4-0314)的淘汰时间:9月13日之前,用户选择升级到新的模型,过了这个时间后,旧模型将不再可用。
目前,GPT-4 API仍然处于内测阶段。OpenAI的最新表态是,未来几周内邀请更多人试用GPT-4,直到清空候补名单。
▌质优价减 OpenAI自己“卷”自己
综合来看,OpenAI的产品更新能力和降价策略或将对AI产品迭代以及AI生态和产业的发展产生巨大影响。
网友在将函数调用功能称为“杀手级能力”的同时,也开始担忧有了该功能加持的OpenAI将重创一些AI初创公司。
他们认为,OpenAI新出的“函数调用”基本就是Langchain里“Tools”的翻版。Langchain是大模型领域最火的开源开发框架,能够把各种大模型能力整合起来快速构建应用程序。
有网友称,OpenAI的这次更新还不至于直接“杀死”Langchain这个创业项目。但是开发者们本来需要LangChain才能实现一些功能,现在不再需要了。
在产品迅速迭代的同时,OpenAI的降价策略一如既往,自家推广者都称之为“疯狂”。OpenAI开发者推广大使Logan Kilpatrick表示,“我想花点时间重申下嵌入模型降价75%这件事,这实际上很疯狂。过去需花费约5000万美元嵌入整个互联网,现在已降至约1250万美元。”
此前3月份,OpenAI正式向第三方开发者开放ChatGPT API的同时,还宣布将以0.002美元的价格提供1K token,这一API调用价格是GPT-3.5模型原来价格(1K token 0.02美元)的十分之一。
彼时OpenAI表示,自去年12月以来,ChatGPT对于处理查询的方式进行了“一系列系统范围的优化”,使成本降低了90%,最终带来了面向用户的大幅降价。
OpenAI加速奔跑,势必给其他竞争者带来压力。另一方面,大模型使用费降低意味着会有更多公司愿意接入ChatGPT,应用端成本将大大降低。
正如OpenAI所说,其模型更新旨在为开发人员提供一个扩展的工具箱,用于创建复杂、高性能的AI应用程序,以满足现代工作环境的复杂性。