
안녕하세요, 앵치입니다.
아무리 똑똑한 AI라도,
“그 말, 진짜야?”라는 의심은 반드시 필요합니다.
특히 ChatGPT처럼 말을 자연스럽게 잘하는 모델일수록,
더 위험한 건 ‘그럴듯한 말'이 틀릴 때입니다.
그래서 오늘은,
GPT를 ‘전적으로 믿지 않을 때’ 유용한 프롬프트 전략을 소개해 드립니다.
💡 1. “출처 없으면 의견으로만 간주해”라는 선언
GPT는 기본적으로 출처를 갖지 않고 문장을 생성합니다.
그럴 땐 프롬프트에 명확하게 ‘출처 여부에 따른 신뢰 기준’을 선언하세요.
📌 프롬프트 예시
“출처가 없거나 모호한 정보는 확신하지 말고, ‘가능성이 있는 견해’ 정도로 표현해줘.”
이런 문장이 들어가면,
GPT는 “~일 수 있습니다”, “정확한 출처는 없지만 ~라는 주장도 있습니다”처럼
단정적인 말투 대신 유보적 서술을 사용하게 됩니다.
💡 2. “거짓 정보일 가능성도 함께 설명해줘”
GPT는 잘못된 데이터를 바탕으로 말할 수도 있습니다.
이때 “그게 틀렸을 가능성까지 고려해서 설명해줘”라고 지시하면
AI 스스로 허점을 짚는 방식의 응답을 유도할 수 있어요.
📌 프롬프트 예시
“이 정보가 잘못됐을 가능성은 무엇이고, 어떤 이유로 생길 수 있는지 같이 설명해줘.”
이 구조를 쓰면,
정보 검증을 GPT에게 1차적으로 맡기되, 경계심을 유지할 수 있는 장치가 됩니다.
💡 3. “정보의 확실도 점수(%)를 알려줘”
GPT는 어떤 문장이든 뚝딱 만들어낼 수 있지만,
스스로 얼마나 ‘자신 있는지’를 표현하는 기능은 없습니다.
이럴 때 직접 확률값 추정 서술을 유도할 수 있습니다.
📌 프롬프트 예시
“너가 생성한 정보마다 확신 정도를 0~100%로 표시해줘. 그리고 그 기준도 같이 설명해줘.”
예시 응답:
“스티브 잡스가 1976년에 애플을 공동 창업했다는 정보는 약 95% 이상 확실합니다. 이는 다양한 공식 출처에서 일관되게 등장하기 때문입니다.”
💡 4. “반대되는 정보도 같이 알려줘”
GPT의 응답은 종종 하나의 입장만 강조됩니다.
하지만 GPT는 수많은 시각을 학습한 모델입니다.
따라서 반대 사례나 견해를 함께 출력하도록 요청하면
편향되지 않은 답변을 유도할 수 있어요.
📌 프롬프트 예시
“이 주장과 상반된 의견이나 반례도 함께 알려줘. 균형 있게 이해하고 싶어.”
💡 5. “이 대답이 왜 틀릴 수 있는지 GPT한테 다시 검증시켜보기”
‘메타 질문’ 방식입니다.
한 차례 답을 받은 후,
그 답을 GPT에게 다시 비판하게 만드는 구조입니다.
📌 예시 대화 흐름
- “스티브 잡스가 IBM 출신이라는 말은 사실이야?”
- GPT: “아니요, 잡스는 IBM에서 일한 적이 없습니다.”
- 사용자: “이 말이 틀릴 수 있는 가능성은 뭐야?”
- GPT: “혹시 IBM과의 경쟁 구도를 혼동했을 수도 있고, 워즈니악과의 경력 착각일 가능성도 있습니다.”
이렇게 하면 AI가 자기 오류를 점검하게 만들 수 있는 루프를 형성할 수 있습니다.
🧾 앵치의 결론
GPT는 잘 훈련된 조수지만,
정답을 보장하는 판단자가 아닙니다.
따라서 ‘AI의 말’을 듣기 전에
‘프롬프트’로 AI의 신중함을 유도하는 게 사용자 몫이에요.
GPT를 못 믿을 때야말로,
우리는 더 똑똑한 질문을 해야 합니다.
'💡 사용 꿀팁' 카테고리의 다른 글
스레드(Threads) 알고리즘 잘 타는 법 📈조회수, 리포스트, 팔로우까지 한 번에 올리는 전략! (7) | 2025.07.12 |
---|---|
💻 디지털 노마드란? 자유롭게 일하는 새로운 삶의 방식 (10) | 2025.07.09 |
✈ ChatGPT로 항공권 최저가 예약하는 프롬프트 6가지 - AI의 똑똑한 조언으로 ‘항공권 테크’ 타는 법 (10) | 2025.07.04 |
"왜 그렇게 생각했는지 말해줘" - GPT의 중간 사고를 이끌어내는 프롬프트 구조화 방법 (다단계 사고 유도 고급 프롬프트 추천) (12) | 2025.06.28 |
"어린이도 쓰는 GPT, 부모가 꼭 알아야 할 ChatGPT 사용 수칙 5가지” (9) | 2025.06.25 |