OpenAI的GPU不够用了,GPT-4.5只能分批上线!
最近,OpenAI的山姆奥特曼发文表示,由于公司GPU资源紧缺,GPT-4.5的发布不得不采取“分阶段”策略。他透露,GPT-4.5是一个超大规模、成本极高的模型,需要成千上万块GPU才能支撑更多用户使用。
所以,GPT-4.5将优先向ChatGPT Pro用户开放,之后才会轮到ChatGPT Plus用户。这种做法是为了应对当前的算力短缺,让更多人能逐步体验到这个新模型。
不过,GPT-4.5的使用成本也相当惊人 —— OpenAI计划对输入的每百万个token(大约75万字)收75美元,而输出每百万token则要150美元!这个定价比他们之前的GPT-4o贵了好几倍,这确实有点贵了。
奥特曼在声明中表示:“我们的增长速度太快了,导致GPU不够用。我们计划下周增加成千上万块GPU,然后再逐步开放给Plus用户。GPU短缺并非我们想要的状况,但这种增长潮确实很难预测。” 他还透露,OpenAI一直在为算力焦虑,未来可能会自己研发AI芯片,甚至建大型数据中心来解决这个问题。