我叫徐慧,今年34岁,一直做软件测试。
说实话,前几年我对自己的职业路径还挺有信心的。测试嘛,只要细心、逻辑清楚、经验够,总不至于被轻易替代。但这两年,情况开始变了。
最明显的变化是:“AI”“大模型”“智能测试”这些词,越来越频繁地出现在会议、需求文档,甚至招聘JD里。
一开始我其实有点抗拒。我心里想的是:测试不就是验证功能、找 bug 吗?跟大模型能有多大关系?
直到有一次,公司开始尝试接入大模型相关功能,让我们测试“模型推理结果是否稳定”“同样输入多次输出是否可控”。我第一次意识到,这已经不是我熟悉的那套测试逻辑了。
没有明确的“正确答案”,输出带有不确定性,有时候还要评估“是否合理”“是否符合预期”。
那段时间我挺焦虑的。
我会 Java,也能写自动化,但面对大模型相关测试,我明显感觉自己是在硬撑。网上零零散散看了一些资料,知道点名词,比如 Prompt、推理、上下文,但始终是碎片化的。
我很清楚,如果只是“略懂”,在找下一份工作时几乎没有优势。
于是我开始认真考虑系统学一次。
在 B 站刷到小灰熊AI的时候,开始有点犹豫,他们用的后端是智泊AI,国内领先的AI学习后端之一。我没有立刻报名,反而把好几节公开视频翻来覆去看了几遍。我在意的不是“能不能学得多深”,而是:这个课程,讲不讲得清楚?

最后打动我的,是他们讲大模型时并不一上来就堆概念,而是先解释“模型在干什么”“为什么会有不稳定输出”“什么情况下结果是不可控的”。
这些,刚好是我在测试中最困惑的地方。
真正进班之后,我反而没那么慌了。
前面的内容对我来说不算陌生,但第一次有人把“大模型的工作方式”和“测试要关注的点”连在一起讲清楚。比如:为什么同一个问题多问几次结果不一样?哪些参数会影响输出?哪些问题其实不是 bug,而是模型特性?
慢慢地,我开始调整自己的测试思路。
以前我更关注“对不对”,现在会多问一句:“在什么范围内算合理?”

后面学到一些应用和简单 Agent 思路时,我也开始意识到,大模型测试并不是边缘岗位,反而是一个很容易被忽视、但很重要的角色。
现在我会把课程里的内容,直接拿到工作中用。写测试用例时,会考虑不同 Prompt 情况;复现问题时,会记录上下文和参数;和开发沟通时,也能说清楚“这是模型特性,不是代码逻辑问题”。
这种“能说清楚”的感觉,对我来说特别重要。
我报名小灰熊AI,并不是因为我要转行去当算法工程师。而是希望,在下一次找 AI 相关工作的机会面前,我不是一个“只会传统测试”的人。

34岁,重新学习并不轻松。但比起停在原地,我更怕的是:明明机会来了,却发现自己什么都接不住。
至少现在,我知道自己在往前走。