본문 바로가기
카테고리 없음

지피티 거짓말, 왜 생기고 어떻게 구분할까요?

by 지식줍기 2025. 6. 1.

인공지능이 발전하면서 대화형 AI인 ChatGPT를 활용하는 일이 많아졌습니다. 질문에 술술 대답해주는 모습이 마치 전문가 같지만, 가끔은 ‘이거 진짜 맞아?’ 하는 의심이 들 때가 있지요. 실제로 GPT는 때때로 사실과 다른 답변을 하기도 합니다. 그래서 많은 분들이 ‘지피티가 거짓말을 하는 건가?’라는 궁금증을 갖게 되죠. 이번 글에서는 그 이유와 실제 사례, 대응 방법까지 쉽게 풀어보겠습니다.

지피티가 거짓말을 하는 건가요?

먼저 중요한 건, GPT는 의도를 가진 존재가 아니라는 점입니다. 즉, 고의로 속이거나 거짓을 말하는 게 아니라 그럴듯한 답변을 생성하려는 과정에서 오류가 생기는 것이에요. 이러한 현상은 AI 분야에서는 ‘환각(hallucination)’ 또는 ‘혼동(confabulation)’이라고 불립니다. GPT는 단순히 대규모 데이터를 기반으로 다음에 나올 단어를 예측할 뿐, 진위를 판별하는 능력은 제한적입니다.

결국 ‘거짓말’이라는 표현보다는 ‘사실이 아닌 답변’ 또는 ‘착오’에 가깝다고 이해해야 합니다.

왜 그런 일이 일어날까요?

GPT는 수많은 문서를 학습한 언어 모델입니다. 그러나 그 데이터는 완벽하지 않으며, 시간이 지나면서 정보가 낡기도 합니다.
또한 질문이 모호하거나 잘못된 정보가 섞여 있을 경우, GPT는 가장 ‘말이 되는’ 답을 만들어내려고 하다 보니 존재하지 않는 인물, 사건, 논문, 숫자 등을 조작해서라도 문장을 완성하려는 경향을 보입니다.

예를 들어 “2024년 노벨 문학상 수상자는 누구야?”라고 질문하면, GPT는 존재하지 않는 이름을 만들어내기도 합니다. 이유는? 해당 정보를 학습하지 못했거나 질문 시점의 데이터가 부족했기 때문입니다.

실제 사례로 보는 지피티의 거짓말

실제로 2025년 미국 유타주에서는 한 변호사가 GPT를 사용해 작성한 법률 문서에 ‘존재하지 않는 판례’가 포함되어 법정에서 문제가 되었습니다. 이 판례는 GPT가 자동으로 만들어낸 가짜 내용이었고, 이로 인해 변호사는 징계를 받았습니다.

또한, 2024년 연구에서는 GPT가 제공한 참고문헌 중 절반 이상이 허구라는 결과도 나왔습니다. 존재하는 문헌의 경우에도 요약 내용이 틀리거나 왜곡된 경우가 많았죠.
이처럼 ‘지피티의 거짓말’은 때때로 실제 피해로 이어질 수 있기 때문에, 사용자 입장에서도 주의가 필요합니다.

사용자가 주의해야 할 점은?

GPT를 사용할 때는 항상 ‘비판적 사고’를 동반해야 합니다. 특히 법률, 의료, 금융처럼 중요한 분야에선 GPT의 정보를 그대로 신뢰하지 말고 전문가의 검토가 필요합니다. GPT는 검색 엔진이 아니라 예측 모델이기 때문에, ‘답을 아는 척’ 할 수 있습니다.

출처가 불분명한 정보는 별도로 확인하고, 직접 링크나 문헌을 요청해서 검증하는 습관을 들이세요. 또한 질문을 명확하게 하면 혼동을 줄일 수 있습니다.

지피티 오답 방지를 위한 꿀팁 정리

아래 표는 GPT 사용 시 잘못된 정보로부터 스스로를 지키는 팁을 정리한 것입니다.

상황 유의할 점
복잡한 정보 요청 공식 자료 확인, 출처 요구
날짜 기반 정보 훈련일자 이후의 정보는 제한적
인물/사건/숫자 관련 사실 확인 필수
중요한 판단 상황 GPT 단독 결정 피하기

이 팁을 기억하면 GPT의 정보 활용에 훨씬 더 안전하고 똑똑하게 접근할 수 있습니다.


GPT는 매우 유용한 도구지만, 어디까지나 언어 예측 모델이라는 점을 잊어선 안 됩니다.
가짜 정보를 마치 진짜처럼 말하는 순간도 있지만, 이것은 고의적인 속임수가 아닌 기술적 한계에서 비롯된 현상입니다. 우리가 해야 할 일은 이를 올바르게 이해하고, 도구로서 똑똑하게 활용하는 것입니다.
지피티의 거짓말, 이제 더 이상 속지 마시고, 정확한 정보 판단의 눈을 키워보세요.