NovelCline Easy同学正在独立开发 这种主动省略是AI生成长文时经常遇到的情况,最根本的原因是上下文和输出Token的限制。
即使一些128K上下文的模型,输出Token最大也只有4~8k,折合中文可能2千字左右,如果还要输出思维链,那就少了。
解决办法有两个,一个是拆章,让一个章就一千字。这是目前效果最好的办法,既能适配模型的限制,又能反向推动目录和剧情足够细化,不容易跑偏。
另一个办法是在后边加一句「一次写不完的内容,可以分成多次」,如果模型智商上线,会让NovelCline自动分几次续写。好处是方便,坏处就是比较费Token。