[인공지능 활용 가이드 #3]AI에게 생각하는 법을 가르치다

Date:

[프롬프트 마스터 클래스 3편] AI에게 ‘생각’하는 법을 가르치다: CoT와 자가 비판 테크닉

안녕하세요! 전문 프롬프트 엔지니어입니다.

지난 1편에서 프롬프트의 ‘기초 체력(5대 기둥)’을 다지고, 2편에서 ‘설계 도면(RTF, TRACE 프레임워크)’을 익혔다면, 이제는 AI의 지능을 극한으로 끌어올릴 ‘두뇌 개조’ 단계에 들어설 차례입니다.

많은 분이 제미나이(Gemini)나 챗GPT에게 복잡한 수학 문제를 풀게 하거나, 논리적인 사업 전략을 짜달라고 할 때 “답변이 엉뚱하다” 혹은 “깊이가 얕다”라고 느낍니다. 이는 AI가 머리가 나빠서가 아닙니다. 바로 ‘생각할 시간과 과정’을 생략하고, 곧바로 정답을 내놓으라고 재촉했기 때문입니다.

오늘 3편에서는 AI가 인간처럼 추론하고, 스스로의 오류를 찾아내 수정하게 만드는 CoT(사고의 사슬)와 자가 비판(Self-Criticism) 기술을 아주 상세하게 파헤쳐 드립니다. 이 기술을 익히면, 여러분의 AI는 단순한 ‘검색기’에서 ‘전략가’로 진화할 것입니다.

1. 왜 내 AI는 ‘생각’하지 않고 ‘찍는’ 걸까?

먼저 대규모 언어 모델(LLM)의 작동 원리를 이해해야 합니다. 2026년의 최신 모델들도 기본적으로는 ‘다음에 올 가장 확률 높은 단어’를 예측하는 기계입니다.

여러분이 “3,456 x 123은?”이라고 물었을 때, AI는 계산기를 두드리는 것이 아니라, 인터넷상의 방대한 텍스트 데이터에서 이 숫자 조합 뒤에 나올 법한 숫자를 확률적으로 찍어서 내놓습니다. 이것이 바로 단순 질문 시 AI가 엉뚱한 오답(환각)을 내놓는 이유입니다.

하지만, “이 문제를 풀기 위한 과정을 단계별로 서술해”라고 지시하면 상황은 달라집니다. AI는 중간 과정을 글로 쓰면서, 그 글(토큰)을 다시 자신의 입력값으로 삼아 다음 논리를 전개합니다. 즉, 글을 쓰는 행위 자체가 AI에게는 ‘사고(Thinking)’ 과정이 되는 것입니다.

2. CoT (Chain-of-Thought): “단계별로 생각하라”의 마법

CoT(사고의 사슬)는 프롬프트 엔지니어링의 판도를 바꾼 가장 강력한 기술 중 하나입니다. AI에게 답을 바로 요구하지 않고, “답을 도출하기까지의 추론 과정을 보여달라”고 요청하는 기법입니다.

① CoT의 놀라운 효과: 수학 점수가 3배 오르다

연구 결과에 따르면, 구글의 PaLM 모델에게 수학 문제를 그냥 풀게 했을 때 정답률은 17.9%에 불과했습니다. 하지만 CoT를 적용하여 “단계별로 생각해보자”라고 유도했을 때, 정답률은 무려 58.1%로 급상승했습니다. 이 기술은 수학뿐만 아니라 코딩, 법률 분석, 전략 기획 등 논리력이 필요한 모든 분야에 적용됩니다.

② Zero-shot CoT: 가장 쉬운 적용법

복잡한 예시를 들 필요도 없습니다. 프롬프트 마지막에 딱 한 문장만 추가하세요.

“Let’s think step by step.” (단계별로 생각해보자.)

이 마법의 문장은 AI가 급하게 결론을 내리는 것을 막고, 스스로 논리적인 단계를 밟아나가도록 강제합니다.

  • 나쁜 프롬프트: “삼성전자 주가 전망 알려줘.” (단순 정보 나열 혹은 환각 위험)
  • CoT 프롬프트: “삼성전자의 최근 재무제표, 반도체 시장 동향, 거시 경제 상황을 분석해서 주가 전망을 예측해줘. 각 요소를 단계별로 차근차근 분석한 뒤, 최종 결론을 도출해.”

③ Few-shot CoT: 예시를 통해 사고 방식을 가르치다

AI에게 단순히 “생각해”라고 하는 것보다, “나는 이런 식으로 생각해서 문제를 풀어. 너도 이렇게 해봐”라고 사고의 패턴을 보여주는 것이 훨씬 강력합니다.

질문: 사과 10개가 있는데 2개를 먹고 3개를 더 샀어. 몇 개 남았어?
사고 과정:
1. 처음에 사과가 10개 있었다.
2. 2개를 먹었으므로 10 – 2 = 8개다.
3. 3개를 더 샀으므로 8 + 3 = 11개다.
정답: 11개

질문: (여러분이 해결하고 싶은 복잡한 문제 입력)
사고 과정:

이렇게 입력하면 AI는 마지막 질문에 대해 여러분이 보여준 ‘1-2-3 단계’ 논리 구조를 모방하여 답변합니다. 이는 모델의 추론 능력을 극대화하는 가장 확실한 방법입니다.

3. 자가 비판 (Self-Criticism): “자신의 답을 의심하게 하라”

AI는 기본적으로 ‘자신감 넘치는 거짓말쟁이’가 될 소지가 있습니다. 답변을 완성해야 한다는 강박 때문에 틀린 정보도 당당하게 말하곤 합니다. 이를 해결하는 기술이 바로 ‘자가 비판(Self-Criticism)’ 또는 ‘성찰(Reflexion)’입니다.

① Reflexion(성찰) 기법의 핵심

이 기법은 AI에게 저자(Author)검수자(Reviewer)의 역할을 동시에 부여하는 것입니다. AI가 답변을 내놓은 직후, 스스로 그 답변을 평가하고 수정하게 만듭니다.

1. 초안 작성: “에세이 초안을 작성해줘.”
2. 비판(Critique): “방금 쓴 글을 비판적으로 검토해. 논리적 비약이나 근거가 부족한 부분을 3가지 찾아내.”
3. 수정(Refinement): “지적된 3가지 문제점을 보완해서 완벽한 최종본을 다시 작성해.”

이 과정을 거치면 AI는 자신의 실수를 스스로 교정하며, 인간의 개입 없이도 답변 품질을 비약적으로 높입니다.

② 팩트체크를 위한 자가 비판

환각(Hallucination)을 줄이는 데에도 이 기술이 쓰입니다.

“답변을 생성한 뒤, 네가 말한 정보가 사실인지 스스로 검증해. 만약 확신할 수 없는 정보라면 삭제하거나 ‘확실하지 않음’이라고 표시해.”

4. 고급 기술: AI를 천재로 만드는 심화 전략

기초적인 CoT와 자가 비판을 넘어, 2026년형 프롬프트 엔지니어들이 사용하는 최고급 테크닉을 소개합니다.

① 생각의 나무 (Tree of Thoughts, ToT)

복잡한 문제를 풀 때, 사람은 여러 가지 가능성을 생각하다가 막히면 돌아가서 다른 방법을 시도합니다. AI에게도 이 방식을 적용하는 것이 ‘생각의 나무(ToT)’입니다.

“이 문제에 대해 가능한 해결책 3가지를 먼저 브레인스토밍해. 각 해결책의 장단점과 실현 가능성을 평가해. 그중 가장 유망한 해결책을 선택하고, 그 이유를 설명한 뒤 최종 답변을 작성해.”

② 멀티 페르소나 토론 (Multi-Agent Debate)

AI 안에서 여러 전문가가 토론하게 만드는 기법입니다. 집단지성의 힘을 빌리는 것과 같습니다.

“이 프로젝트에 대해 세 명의 전문가 입장에서 토론해줘.

재무 전문가: 수익성과 비용 관점에서 비판.
마케팅 전문가: 브랜드 이미지와 홍보 관점에서 의견 제시.
기술 전문가: 구현 가능성과 보안 관점에서 분석.

세 전문가가 서로의 의견을 반박하고 보완하며 최선의 합의안을 도출해줘.”

③ 최소 개입 원칙 (Thinking Intervention Minimization)

최근 등장한 추론 전문 모델(예: OpenAI o1, DeepSeek R1)을 사용할 때 주의할 점입니다. 이 모델들은 이미 내부적으로 강력한 CoT 과정을 거치도록 훈련되어 있습니다. 따라서 인간이 어설프게 “단계별로 생각해”라고 지시하면 오히려 모델의 고유한 사고 과정을 방해하여 성능이 떨어질 수 있습니다.

이런 모델을 쓸 때는 ‘간섭을 최소화’하고 목표만 명확히 주는 것이 더 나은 결과를 냅니다. “생각할 시간을 충분히 줄 테니, 네가 알아서 최적의 경로를 찾아봐”라는 태도가 필요합니다.

5. 프롬프트 엔지니어의 핵심 철학: “질문은 대화다”

많은 초보자가 AI를 ‘자판기’처럼 대합니다. 동전을 넣으면(프롬프트) 음료수(답변)가 바로 나와야 한다고 생각하죠. 하지만 고수들은 AI를 ‘똑똑한 인턴’처럼 대합니다.

  • 초보자: “마케팅 전략 짜줘.” (끝)
  • 엔지니어: “일단 마케팅 전략 초안을 짜봐. (답변 확인 후) 좋은데, 예산 부분이 너무 과해. 예산을 반으로 줄이면서도 효과를 낼 방법은 없을까? 다시 생각해봐.”

AI와의 대화를 한 번에 끝내려 하지 마세요. [지시 -> 결과 확인 -> 비판 및 재지시]의 과정을 반복하는 것, 즉 반복적 개선(Iterative Refinement)이야말로 AI 성능의 한계를 뚫는 열쇠입니다.

6. 요약 및 실전 적용 과제

오늘 배운 심화 기술을 정리해 봅시다.

  • CoT: “단계별로 생각하라”는 말을 넣어 AI의 추론 능력을 깨우세요.
  • Few-shot CoT: 예시를 통해 사고의 과정을 보여주세요.
  • 자가 비판(Reflexion): 답변 후 스스로 검수하게 하여 오류를 잡으세요.
  • ToT & 멀티 페르소나: 여러 해결책을 비교하거나 전문가들이 토론하게 하세요.

[오늘의 실전 과제]

지금 바로 여러분이 풀지 못했던 난제를 AI에게 던져보세요. 단, 이번에는 그냥 물어보지 말고 아래의 ‘슈퍼 프롬프트’를 사용해 보세요.

“[역할] 당신은 20년 경력의 전략 컨설턴트입니다.
[작업] 제가 운영하는 온라인 쇼핑몰의 매출이 정체되어 있습니다. 이를 타개할 혁신적인 전략을 제안해주세요.
[CoT & 비판] 바로 답을 내지 말고, 먼저 문제의 원인을 3가지 관점(마케팅, UX, 상품 경쟁력)에서 단계별로 분석하세요. 그 후, 각 원인에 대한 해결책 3가지를 브레인스토밍하고, ‘실행 용이성’과 ‘기대 효과’를 기준으로 스스로 평가하여 최적의 안을 선정하세요.
[형식] 분석 과정과 최종 제안을 보고서 형식으로 작성해주세요.”

이 프롬프트 하나가 여러분의 AI 활용 능력을 완전히 다른 차원으로 이끌어 줄 것입니다.

🚀 다음 편 예고: “거짓말은 이제 그만!”

아무리 논리적이어도 정보가 가짜라면 아무 소용이 없겠죠? AI가 그럴듯하게 거짓말을 하는 ‘환각(Hallucination)’ 현상은 모든 사용자의 골칫거리입니다.

다음 [4편: AI 환각 완벽 제어 및 팩트체크 전략]에서는 AI가 오직 ‘진실’만을 말하게 만드는 소스 그라운딩(Source Grounding) 기술과 RAG(검색 증강 생성)의 핵심 원리를 일반인 눈높이에서 파헤칩니다. 여러분의 AI를 ‘신뢰할 수 있는 파트너’로 만들고 싶다면, 다음 편을 절대 놓치지 마세요!

Related articles

10분만에 배우는 제미나이 마스터 가이드 #1

구글 제미나이 완벽 입문 가이드: 생성형 AI 활용법 body { font-family: 'Noto Sans KR', sans-serif; line-height: 1.8; color: #333; margin: 0 auto; padding:...

2026년 2월 13일 한국 주식시장 가이드: 18만 전자 시대와 KOSPI 전망

2026년 2월 13일 한국 주식시장 가이드: '18만 전자' 등극과 향후 투자 전략 최근 국제금융시장이슈가 복잡하게 얽히며 변동성이 커지고 있지만,...

[인공지능 활용 가이드 #5]2026년 프롬프트 엔지니어의 워크플로우와 사고방식

2026년형 프롬프트 엔지니어의워크플로우와 사고방식 ...