CoT (Chain of Thought)
- 연쇄 추론을 의미하는 개념
- LLM에서 단계별 추론 과정을 명시적으로 포함하는 프롬프트 기법 또는 모델 학습 방식
- 복잡한 문제를 해결할 때, 인간이 생각하는 방식과 유사하게 중간 사고 과정을 기술함으로써 성능을 향상시킴
- 즉각적인 답변 생성 말고 문제 해결 과정을 통해 정확한 답을 도출할 수 있도록 유도
- 프롬프트에 예제(Few-shot CoT) 또는 명시적인 지시문(Zero-shot CoT)을 포함하여 모델의 추론 능력 향상
- 적절히 사용해 AI의 설명력과 신뢰성 높임
- 인간이 문제를 해결하는 방식(사고 체인)과 유사한 패턴을 모델에 학습시킴
- NLP, AI, 코드 생성, 수학 및 논리 문제에서 사용
- 주의
- 논리적으로 맞지 않는 사고 과정이 생성될 수 있음
- 너무 복잡할 경우 모델에 혼란을 가중할 수 있음
Few-shot CoT
모델이 올바른 사고 과정을 학습할 수 있도록 예제를 포함한 프롬프트를 제공하여 학습하는 방식
- 복잡한 문제에서도 정확한 답을 도출할 가능성이 높아짐
Zero-shot CoT
추가 예제 없이 지시문을 활용하여 모델이 자체적으로 추론 과정을 수행하도록 유도하는 방식
- 자체적인 사고 과정을 생성하도록 유도함으로써 간단한 지시만으로 성능을 높일 수 있음
- Few-shot CoT의 예제 수가 많아지면 프롬프트 길이 및 토큰 비용 증가
방식 비교
방식 | 특징 | 장점 | 단점 |
Standard Prompting | 질문에 대한 즉각적인 응답 | 빠른 응답, 간결함 | 복잡한 문제에서 부정확한 답 가능 |
Few-shot CoT | 여러 개의 CoT 예제 포함 | 별도 예제 없이도 성능 향상 | 단순한 문제에서만 효과적일 수 있음 |
Zero-shot CoT | 지시문 활용 | 복잡한 문제에서도 성능 향상 | 프롬프트 길이 증가, 비용 증가 |
Self-consistency CoT | 여러 개의 CoT 추론 결과를 비교하여 최적의 답 선택 | 신뢰도 높은 답변 가능 | 계산량 증가 |