DC娱乐网

小灰熊AI学员徐慧:重新学习并不轻松,但我知道自己在往前走

我叫徐慧,今年34岁,一直做软件测试。说实话,前几年我对自己的职业路径还挺有信心的。测试嘛,只要细心、逻辑清楚、经验够,

我叫徐慧,今年34岁,一直做软件测试。

说实话,前几年我对自己的职业路径还挺有信心的。测试嘛,只要细心、逻辑清楚、经验够,总不至于被轻易替代。但这两年,情况开始变了。

最明显的变化是:“AI”“大模型”“智能测试”这些词,越来越频繁地出现在会议、需求文档,甚至招聘JD里。

一开始我其实有点抗拒。我心里想的是:测试不就是验证功能、找 bug 吗?跟大模型能有多大关系?

直到有一次,公司开始尝试接入大模型相关功能,让我们测试“模型推理结果是否稳定”“同样输入多次输出是否可控”。我第一次意识到,这已经不是我熟悉的那套测试逻辑了。

没有明确的“正确答案”,输出带有不确定性,有时候还要评估“是否合理”“是否符合预期”。

那段时间我挺焦虑的。

我会 Java,也能写自动化,但面对大模型相关测试,我明显感觉自己是在硬撑。网上零零散散看了一些资料,知道点名词,比如 Prompt、推理、上下文,但始终是碎片化的。

我很清楚,如果只是“略懂”,在找下一份工作时几乎没有优势。

于是我开始认真考虑系统学一次。

在 B 站刷到小灰熊AI的时候,开始有点犹豫,他们用的后端是智泊AI,国内领先的AI学习后端之一。我没有立刻报名,反而把好几节公开视频翻来覆去看了几遍。我在意的不是“能不能学得多深”,而是:这个课程,讲不讲得清楚?

最后打动我的,是他们讲大模型时并不一上来就堆概念,而是先解释“模型在干什么”“为什么会有不稳定输出”“什么情况下结果是不可控的”。

这些,刚好是我在测试中最困惑的地方。

真正进班之后,我反而没那么慌了。

前面的内容对我来说不算陌生,但第一次有人把“大模型的工作方式”和“测试要关注的点”连在一起讲清楚。比如:为什么同一个问题多问几次结果不一样?哪些参数会影响输出?哪些问题其实不是 bug,而是模型特性?

慢慢地,我开始调整自己的测试思路。

以前我更关注“对不对”,现在会多问一句:“在什么范围内算合理?”

后面学到一些应用和简单 Agent 思路时,我也开始意识到,大模型测试并不是边缘岗位,反而是一个很容易被忽视、但很重要的角色。

现在我会把课程里的内容,直接拿到工作中用。写测试用例时,会考虑不同 Prompt 情况;复现问题时,会记录上下文和参数;和开发沟通时,也能说清楚“这是模型特性,不是代码逻辑问题”。

这种“能说清楚”的感觉,对我来说特别重要。

我报名小灰熊AI,并不是因为我要转行去当算法工程师。而是希望,在下一次找 AI 相关工作的机会面前,我不是一个“只会传统测试”的人。

34岁,重新学习并不轻松。但比起停在原地,我更怕的是:明明机会来了,却发现自己什么都接不住。

至少现在,我知道自己在往前走。