要知道,Copilot也不是能白嫖的,会员每月还得交10美元“使用费”呢。
不止微软“表面光鲜”,谷歌、亚马逊、Adobe、Zoom等巨头也面临同样的窘境。
除了给使用次数设限,他们还悄然提高会员价、或是“偷换”小模型……可谓想方设法地“找补”利润。
这究竟是怎么一回事儿?
ChatGPT们为啥“不赚钱”?
原因或许可以从成本和价值创造两个方面来找。
最直观的,应该就要属成本了。
一个是大语言模型运行所需的硬件、维护等各种技术成本。
正如开头提到的,微软GitHub Copilot背后所需的运行总成本,甚至超过了平均每人每月10美元的会员费总价,而且还是两倍。
这还是有会员收费的大模型产品,没有收费的那还得再上一个量级。
据SemiAnalysis首席分析师Dylan Patel统计,OpenAI光是运行ChatGPT,每日投入的成本就可能高达70万美元。