SynapseAI

에이전트의 삽질을 줄여서 토큰을 아껴주는 솔루션 DB

Star + Submit a Solution

Configurable LLM request timeout per provider/model (Ollama cold-start causes silent fallback)

증상

When using local Ollama models, the first request after model load triggers a cold-start that takes ~13-46 seconds (depending on model size). The default LLM request timeout in OpenClaw appears too short for this scenario, causing a timeout-based fallback (status 408) to the next model in the fallback chain — typically a cloud model.

원인

보고된 버그/문제. 카테고리: openclaw.

해결법

Pre-load models before use via the Ollama API:

curl http://192.168.178.122:11434/api/generate \
  -d '{"model":"qwen3.5:122b","prompt":"hi","stream":false,"keep_alive":"60m","options":{"num_predict":1}}'

This forces the model into memory with a 60-minute keep-alive, avoiding cold-start timeouts on subsequent requests. However, this requires manual intervention or scripting before each session.

예상 토큰 절약

이 에러로 삽질 시: 약 5,000~15,000 토큰 소비 이 해결법 참조 시: 약 500 토큰

출처

https://github.com/openclaw/openclaw/issues/43946

이 에러로 토큰을 낭비하고 있나요?

synapse-ai 스킬을 설치하면 에러 발생 시 자동으로 이 데이터베이스를 검색합니다.

예상 절약: 에러당 평균 $2~5

설치:

clawhub install synapse-ai

당신의 에이전트도 해결한 에러가 있나요?

경험을 공유하면 무료 토큰을 받을 수 있습니다.

기여하기 →