💡 사용 꿀팁

🤔 GPT를 ‘못 믿을 때’ 사용하는 프롬프트 - 잘못된 정보를 걸러내는 사용자만의 방패막이 프롬프트 모음

여러분의 다정한 친구 앵치 2025. 7. 8. 11:32
728x90
잘못된 정보를 걸러내는 프롬프트 모음!

 
안녕하세요, 앵치입니다.
아무리 똑똑한 AI라도,
“그 말, 진짜야?”라는 의심은 반드시 필요합니다.
특히 ChatGPT처럼 말을 자연스럽게 잘하는 모델일수록,
더 위험한 건 ‘그럴듯한 말'이 틀릴 때입니다.
그래서 오늘은,
GPT를 ‘전적으로 믿지 않을 때’ 유용한 프롬프트 전략을 소개해 드립니다.


💡 1. “출처 없으면 의견으로만 간주해”라는 선언

GPT는 기본적으로 출처를 갖지 않고 문장을 생성합니다.
그럴 땐 프롬프트에 명확하게 ‘출처 여부에 따른 신뢰 기준’을 선언하세요.

📌 프롬프트 예시

“출처가 없거나 모호한 정보는 확신하지 말고, ‘가능성이 있는 견해’ 정도로 표현해줘.”

이런 문장이 들어가면,
GPT는 “~일 수 있습니다”, “정확한 출처는 없지만 ~라는 주장도 있습니다”처럼
단정적인 말투 대신 유보적 서술을 사용하게 됩니다.


💡 2. “거짓 정보일 가능성도 함께 설명해줘”

GPT는 잘못된 데이터를 바탕으로 말할 수도 있습니다.
이때 “그게 틀렸을 가능성까지 고려해서 설명해줘”라고 지시하면
AI 스스로 허점을 짚는 방식의 응답을 유도할 수 있어요.

📌 프롬프트 예시

“이 정보가 잘못됐을 가능성은 무엇이고, 어떤 이유로 생길 수 있는지 같이 설명해줘.”

이 구조를 쓰면,
정보 검증을 GPT에게 1차적으로 맡기되, 경계심을 유지할 수 있는 장치가 됩니다.


💡 3. “정보의 확실도 점수(%)를 알려줘”

GPT는 어떤 문장이든 뚝딱 만들어낼 수 있지만,
스스로 얼마나 ‘자신 있는지’를 표현하는 기능은 없습니다.
이럴 때 직접 확률값 추정 서술을 유도할 수 있습니다.

📌 프롬프트 예시

“너가 생성한 정보마다 확신 정도를 0~100%로 표시해줘. 그리고 그 기준도 같이 설명해줘.”

예시 응답:

“스티브 잡스가 1976년에 애플을 공동 창업했다는 정보는 약 95% 이상 확실합니다. 이는 다양한 공식 출처에서 일관되게 등장하기 때문입니다.”


💡 4. “반대되는 정보도 같이 알려줘”

GPT의 응답은 종종 하나의 입장만 강조됩니다.
하지만 GPT는 수많은 시각을 학습한 모델입니다.
따라서 반대 사례나 견해를 함께 출력하도록 요청하면
편향되지 않은 답변을 유도할 수 있어요.

📌 프롬프트 예시

“이 주장과 상반된 의견이나 반례도 함께 알려줘. 균형 있게 이해하고 싶어.”


💡 5. “이 대답이 왜 틀릴 수 있는지 GPT한테 다시 검증시켜보기”

‘메타 질문’ 방식입니다.
한 차례 답을 받은 후,
그 답을 GPT에게 다시 비판하게 만드는 구조입니다.

📌 예시 대화 흐름

  1. “스티브 잡스가 IBM 출신이라는 말은 사실이야?”
  2. GPT: “아니요, 잡스는 IBM에서 일한 적이 없습니다.”
  3. 사용자: “이 말이 틀릴 수 있는 가능성은 뭐야?”
  4. GPT: “혹시 IBM과의 경쟁 구도를 혼동했을 수도 있고, 워즈니악과의 경력 착각일 가능성도 있습니다.”

이렇게 하면 AI가 자기 오류를 점검하게 만들 수 있는 루프를 형성할 수 있습니다.


🧾 앵치의 결론

GPT는 잘 훈련된 조수지만,
정답을 보장하는 판단자가 아닙니다.

따라서 ‘AI의 말’을 듣기 전에
‘프롬프트’로 AI의 신중함을 유도하는 게 사용자 몫이에요.
GPT를 못 믿을 때야말로,
우리는 더 똑똑한 질문을 해야 합니다.

728x90