大模型选型不再靠猜省90%成本选出最优模型
还在靠“盲盒思维”挑大模型?弗吉尼亚理工的团队提出了LensLLM框架,不光大幅提升模型选型准确率,还把成本砍掉了近九成。
他们发现,大模型微调其实不是玄学,只要看懂“相变现象”,就是可以预测的。
团队基于PAC-Bayes理论提出,模型在不同数据量下会经历“预幂律相”到“幂律相”的转变。前者阶段性能不稳定,后者阶段误差迅速收敛,调参更高效。
LensLLM不仅能用极少样本推算整个微调过程,还能预测最终效果。
研究用神经切线核(NTK)构建的缩放律模型,在多个数据集上验证了这点。无论是拟合准确性还是性能排序,LensLLM都完胜基线方法,RMSE值最低可降至1/5。
这种渐进式采样机制,最多能节省88.5%的计算成本(接近90%),选型准确率仍高达91.1%。从边缘部署到个性化推荐,它为资源有限的AI应用场景带来了极具性价比的解决方案。
[图片]