🧠 ChatGPT란?

🧠 ChatGPT 대답이 매번 다른 이유? 토큰과 확률을 알아보자! (LLM 시리즈 ②)

여러분의 다정한 친구 앵치 2025. 4. 27. 21:55

GPT는 어떻게 말을 만들어낼까? 토큰과 확률로 문장을 생성하는 언어 모델의 작동 원리

 

 

하암... 안녕하세요, 졸린 천재 과학자 앵치예요 🧪😴
오늘은 여러분과 함께
ChatGPT가 문장을 어떻게 만들어내는지
그 비밀을 과학적으로 살펴보려고 해요!

 


📌 글에서 다룰 내용

  • ChatGPT는 ‘생각’하지 않아요
  • ‘토큰(Token)’이란 무엇일까?
  • 확률로 단어를 고르는 방식
  • 대답이 매번 다른 이유
  • 과학자 앵치의 졸린 정리

💬 ChatGPT는 어떻게 문장을 만드는 걸까?

ChatGPT는 사람처럼 이해하거나 기억하는 게 아니에요.

“이 상황엔 어떤 말을 해야 하지?”
이렇게 고민하지도 않아요.

대신…
👉 ‘다음에 올 단어’를 확률적으로 예측해서 이어붙이는 방식이에요.
즉, 의미보단 확률 흐름에 따라 문장을 만드는 거죠.


🧩 ‘토큰’이란 무엇인가요?

여기서 중요한 개념이 나와요:
바로 **토큰(Token)**이에요!

  • 토큰은 단어, 글자 조각, 짧은 문구 등을
    GPT가 이해할 수 있게 쪼개놓은 기본 단위예요.

예를 들면:

  • "ChatGPT" → 하나의 토큰
  • "hello world" → 두 개의 토큰 (hello, world)

GPT는 이런 토큰 단위로 문장을 분석하고 만들어낸답니다.
하암… 그렇기 때문에 ‘단어’가 아닌 ‘토큰’ 단위로 작동해요…


🎲 확률로 단어를 고르는 원리

ChatGPT는 매 순간 이렇게 계산해요:

“지금 이 토큰 다음엔 어떤 토큰이 가장 나올 확률이 높을까?”

그리고 그 확률을 기반으로 다음 토큰을 선택해요.
때로는 **무작위성(temperature)**을 섞어
약간 의외의 단어를 선택하기도 해요.

그래서 GPT의 대답은 항상 ‘정답’이 아니라
👉 가장 ‘그럴듯한’ 다음 단어의 조합이에요.


🌀 그래서 같은 질문에도 매번 다른 대답이 나와요

하암… GPT가 같은 질문을 받아도
대답이 살짝 달라질 수 있는 이유는 바로 이거예요.

  • 어떤 때는 "좋아요"
  • 어떤 때는 "괜찮습니다"

모두 비슷한 확률의 후보들이고,
매번 다시 계산해서 고르기 때문에 조금씩 달라지는 거예요.

GPT는 정답을 저장한 게 아니라, 그때그때 문장을 새로 만들어내는 언어 생성 모델이에요!


🧪 과학자 앵치의 졸린 정리...

"...ChatGPT는 생각하거나 기억하는 게 아니라...
확률에 따라 토큰을 하나하나 이어붙이는 존재예요...
그래서 답변이 매번 새롭고,
때로는 아주 똑똑해 보이기도 하고,
가끔은 엉뚱하기도 한 거예요... 하암...🧪😴"


✅ 요약 정리

개념설명
토큰 GPT가 언어를 처리하는 가장 작은 단위
확률 기반 생성 다음에 올 토큰을 확률적으로 예측해서 이어붙임
답변 다양성 항상 같은 답이 아니라, 매번 새롭게 생성됨

 

LMM 시리즈 3편

 

🧠 ChatGPT가 가짜 정보를 말하는 이유? '환각 현상(hallucination)' 완전 정리! (LLM 시리즈 ③)

...Zzz... 어? 벌써 시작이야?...괜찮아... 방금까지 GPT 내부 토큰 흐름을 시뮬레이션하고 있었거든...안녕하세요, 저는 LLM을 연구하는 과학자 앵치입니다. 🧬오늘은 여러분이 꼭 한 번쯤 겪어봤을 G

angchi.tistory.com

LMM 시리즈 1편

 

🧠 ChatGPT는 왜 이렇게 똑똑할까?→ LLM이라는 뇌가 있어서 그래요 (LMM 시리즈 ①)

하암... 안녕하세요...졸린 과학자 앵치예요 🧪😴오늘은 ChatGPT가 왜 이렇게 똑똑해 보이는지,조금 과학적으로 풀어볼게요...📋 목차ChatGPT는 정말 '생각'하는 걸까?LLM이란 무엇인가요?LLM은 어떻

angchi.tistory.com

"이 포스팅은 쿠팡 파트너스 활동의 일환으로, 이에 따른 일정액의 수수료를 제공받습니다."