时间:2026-02-22
openai-completions -> ollama(原生)http://127.0.0.1:11434/v1 -> http://127.0.0.1:11434contextWindow: 131072 -> 65536maxTokens: 16384 -> 8192agents.defaults.models[ollama/glm-4.7-flash-128k].params:temperature: 0.2num_ctx: 65536num_predict: 4096测试文件:reports/ollama-coding-bench.json
三组配置(ctx32k / ctx64k / ctx96k),每组 5 轮代码任务。
结果:
额外单轮短任务验证(ctx64k, num_predict=256):
建议改成:
num_ctx: 32768num_predict: 1024(必要时 768)temperature: 0.2使用策略:
建议固定用:
openclaw statusopenclaw models statusollama pstail -f /tmp/openclaw/openclaw-$(date +%F).log | grep -Ei "embedded run (start|done|timeout)|FailoverError|timed out"这样你可以实时看到:是否在跑、是否超时、是否切换fallback。