카테고리 없음

LLM_CoT

멍주다배 2025. 1. 31.

CoT (Chain of Thought)

  • 연쇄 추론을 의미하는 개념
  • LLM에서 단계별 추론 과정을 명시적으로 포함하는 프롬프트 기법 또는 모델 학습 방식
    • 복잡한 문제를 해결할 때, 인간이 생각하는 방식과 유사하게 중간 사고 과정을 기술함으로써 성능을 향상시킴
    • 즉각적인 답변 생성 말고 문제 해결 과정을 통해 정확한 답을 도출할 수 있도록 유도
  • 프롬프트에 예제(Few-shot CoT) 또는 명시적인 지시문(Zero-shot CoT)을 포함하여 모델의 추론 능력 향상
    • 적절히 사용해 AI의 설명력과 신뢰성 높임
  • 인간이 문제를 해결하는 방식(사고 체인)과 유사한 패턴을 모델에 학습시킴
  • NLP, AI, 코드 생성, 수학 및 논리 문제에서 사용
  • 주의
    • 논리적으로 맞지 않는 사고  과정이 생성될 수 있음
    • 너무 복잡할 경우 모델에 혼란을 가중할 수 있음

 

Few-shot CoT

모델이 올바른 사고 과정을 학습할 수 있도록 예제를 포함한 프롬프트를 제공하여 학습하는 방식

  • 복잡한 문제에서도 정확한 답을 도출할 가능성이 높아짐

 

Zero-shot CoT

추가 예제 없이 지시문을 활용하여 모델이 자체적으로 추론 과정을 수행하도록 유도하는 방식

  • 자체적인 사고 과정을 생성하도록 유도함으로써 간단한 지시만으로 성능을 높일 수 있음
  • Few-shot CoT의 예제 수가 많아지면 프롬프트 길이 및 토큰 비용 증가

 

방식 비교

방식 특징 장점 단점
Standard Prompting 질문에 대한 즉각적인 응답 빠른 응답, 간결함 복잡한 문제에서 부정확한 답 가능
Few-shot CoT 여러 개의 CoT 예제 포함 별도 예제 없이도 성능 향상 단순한 문제에서만 효과적일 수 있음
Zero-shot CoT 지시문 활용 복잡한 문제에서도 성능 향상 프롬프트 길이 증가, 비용 증가
Self-consistency CoT 여러 개의 CoT 추론 결과를 비교하여 최적의 답 선택 신뢰도 높은 답변 가능 계산량 증가