美国软件开发商HubSpot创始人兼CTO Dharmesh Shah近日撰文称,表面上,OpenAI在本次开发者日上推出的GPT-4 Turbo是其最重大的更新,这也是目前强大的语言模型,但这并不意味着绝对的战略优势。
因为抛开单个模型不谈,语言模型们的底层接口实际上非常一致。不管是GPT-3.5、GPT-4还是Claude,它们传递文本并获取文本输出的过程都相对简单,而用户从一个模型切换到另一个模型使用也并没有什么难度。
这也就意味着,大模型们之间的护城河其实并没有多宽,几乎每周都会有新的语言模型推出,而它们的底层接口趋于同质化。用户甚至可以同时使用多个模型,或者在模型之间“反复横跳”。
但这也是本次OpenAI开发者日上的一个微妙但重要的变化。
在活动上,OpenAI推出了一系列的新功能,除了模型本身的提升(比如容量、时间节点和速度的提升),那些使模型更易于使用的功能,可以提高开发者的体验和易用性,并且这些功能的抽象级别越高,集中于平台的开发人员就更多。
同时,随着这些新功能加入,ChatGPT不再只是简单的聊天机器人,其底层接口也不再只是文本的传入和传出。
比如,在新的辅助功能“Threads”API中,OpenAI可以为使用者管理内存,能自动记住对话历史,节省开发者的时间,令他们不再需要管理对话历史。
如果越来越多的开发者开始使用这些新功能,他们就不再能够随心所欲切换到其他的模型,而是必须要考虑这些新模型是否同样拥有类似记忆的功能,即使新模型支持,他们也必须弄清楚代码是否必须更改以匹配新模型支持记忆管理的方式。
不仅是记忆功能,代码解释器和数据分析等其他API也都是如此。这些功能不仅强大,同时也使OpenAI的模型与其他的模型越来越不同。
Dharmesh认为,这样的结果是,随着OpenAI的用户习惯逐渐养成,他们的转换成本就会越来越高,OpenAI的护城河因此日渐拓宽。