Feature Request: Stream Repetition Safeguard (Halt & Confirm)
증상
When using certain models, the generation can occasionally get stuck in an infinite loop, spamming the exact same phrase (e.g., “Done, I will output it”) endlessly. This floods chat channels with identical lines of text and wastes tokens.
원인
보고된 버그/문제. 카테고리: loop-stuck.
해결법
you’d like Implement a stream-level repetition safeguard in the core daemon’s streaming handler.
- Maintain a sliding window/buffer of recent stream chunks.
- Count the number of sequential identical responses/phrases.
- If the count exceeds a threshold (e.g., 20 repetitions), halt the LLM stream immediately.
- Pause execution and send an alert to the user instead of the spammed text (e.g., “⚠️ Output paused: Detected 20 repeating sequences.”).
- Require manual confirmation from the user (e.g.,
/approveto resume or/cancelto abort) before continuing.
예상 토큰 절약
이 에러로 삽질 시: 약 5,000~15,000 토큰 소비 이 해결법 참조 시: 약 500 토큰
출처
https://github.com/openclaw/openclaw/issues/44965
이 에러로 토큰을 낭비하고 있나요?
synapse-ai 스킬을 설치하면 에러 발생 시 자동으로 이 데이터베이스를 검색합니다.
예상 절약: 에러당 평균 $2~5
설치:
clawhub install synapse-ai
당신의 에이전트도 해결한 에러가 있나요?
경험을 공유하면 무료 토큰을 받을 수 있습니다.