목차
AI 글쓰기와 관련하여 최근 나온 심박한 뉴스는 AI를 이용해서 자기소개서나 면접을 봐서 기업에 부정 합격했다는 뉴스라고 생각해요. 물론 아직 국내 보다는 해외 이슈가 더 많은 것 같기는 합니다만, 개인적으로 이런 뉴스가 조금 이상한 것은 AI 글쓰기의 결과를 보면 문체가 상당히 이상할텐데라는 생각이 들더군요.
엄청나게 많은 문서와 자료를 학습해서 추론까지 가능한 인공지능 모델들이 등장하는 요즘이지만, AI 글쓰기는 여전히 사람의 눈으로 보기에는 아직 어색한 부분이 있다는게 궁금해 졌습니다. 오늘은 현재 상용화 생성형 AI 중 가장 앞서있는 GPT는 어떻게 글을 작성하고, 어떻게 문맥을 이해하는지 살펴보려 합니다.

AI 글쓰기의 한계 #1 – 왜 GPT는 사람처럼 글을 못 쓸까?
GPT는 왜 사람처럼 못 쓰는가?
AI 글쓰기와 관련하여, 최근 Grok3나 DeepSeek-r1 등 상당히 놀라운 AI 모델들이 등장했음에도, OpenAI의 GPT 모델은 여전히 기술적으로 상당히 다양한 작업을 살 수 있다는 점에서 다른 어떤 모델보다 앞서 있다고 할 수 있습니다. 그럼에도 불구하고, API로 모델을 특정해서 작업하거나, 챗GPT를 사용할 때나, 어떤 글을 작성하도록 한다면 여전히 인간의 감각과는 조금 거리가 있는, 조금은 어색한 문장을 만들고는 합니다.
AI 글쓰기의 문체를 예를 들면 이런 거죠.
- “~입니다”, “~합니다” 같은 정형화된 어미만 반복하여 뭔가 단조로운 문체로만 일관하거나,
- “~하죠”, “~거든요” 등을 쓰면서 톤이 통일되지 않고 어색할 만큼 지나치게 문체가 가벼워 지기도 합니다.
- 또는, “혁신”, “탐구”, “창출” 같은 과도하게 포멀한 단어를 남발하여 현재의 우리가 사용하는 어휘와 조금 이질감이 느껴지기도 합니다.
- 실제 경험이나 아주 사적인 감정 요소가 빠져 있어서, 뭔가 공감되는 느낌이 부족하기도 합니다.
GPT vs. 인간 문장 예시
- AI 글쓰기 문장: “본 제품은 혁신적이며, 탁월한 사용 경험을 창출합니다. 사용자의 가치를 극대화하는 데 기여합니다.”
- 인간 작성 문장: “이거 써보면 솔직히 ‘와, 진짜 편하다’ 싶을 거예요. 생각보다 튼튼하고, 디자인도 꽤 예쁩니다.”
GPT가 만든 글은 자연스럽게 읽히는 듯하면서도, 어딘가 부자연스러운 점이 존재합니다.
GPT는 글을 어떻게 쓰는가?
GPT는 우리가 생각하는 것처럼 “이야기를 풀어가자”라며 의미를 중심으로 글을 쓰지 않아요. 대신, 확률 기반 예측으로 단어를 하나씩 이어붙이는 방식으로 작동하죠.
예를 들어,
“나는 오늘 아침에 따뜻한 커피를 __”
GPT는 이 빈칸에 들어갈 단어를 예측해요. “마셨다”, “들고 나갔다”, “만들었다” 같은 후보들 중에서 가장 확률이 높은 단어를 골라 문장을 이어가는 거예요. 이 방식은 다음 단어 예측(Next Token Prediction), 즉 확률적 언어 모델(Probabilistic Language Model)이라고 불립니다.
GPT의 핵심 구조, Transformer 모델
GPT는 단순히 단어를 무작정 이어붙이는 게 아니라, Transformer라는 똑똑한 구조를 기반으로 작동해요. Transformer는 문장 안 단어들이 서로 어떻게 연결되는지 분석하고, 그 관계를 바탕으로 글을 만들어냅니다. 그 안에서 특히 중요한 기술이 Attention 메커니즘이에요.
- Self-Attention: 문장 안의 모든 단어가 서로 얼마나 중요한지 계산해요. 예를 들어, “커피가 따뜻했다”에서 “따뜻했다”는 “커피”와 더 밀접한 관계로 판단되죠.
- Causal Attention: GPT는 문장을 왼쪽에서 오른쪽으로 읽으며, 이전 단어들만 보고 다음 단어를 예측해요. 이 방식 덕분에 문장이 자연스럽게 이어지는 거예요.
Attention의 작동 예시
문장: “그는 커피를 마셨다. 그것은 따뜻하고 향긋했다.”
GPT가 “그것은”을 쓸 때, 바로 앞 문장에서 “커피”라는 단어에 가장 많은 주목(Attention)을 줘요. 그래서 “그것은” 다음에 “따뜻하고” 같은 표현이 자연스럽게 붙는 거죠.
이런 메커니즘 덕분에 GPT는 문맥을 제법 잘 파악하는 것처럼 보여요. 하지만 사실은 문장의 전체적인 목적이나 감정, 혹은 글쓴이의 의도를 깊게 이해하지 못해요. 그냥 그 순간 가장 그럴듯한 단어를 골라 붙일 뿐이죠.
GPT는 문맥을 어떻게 파악하는가?
GPT는 Transformer 구조, 그중에서도 Attention 메커니즘을 사용합니다. GPT는 문장을 단순히 왼쪽에서 오른쪽으로 쓰는 것만이 아니라, 각 단어가 다른 단어와 어떻게 연결되어 있는지를 계산합니다.
Self-Attention 단어 간 관계를 계산
GPT는 한 문장 안의 모든 단어가 서로 어떤 관련이 있는지를 파악합니다. 예를 들어,
“그는 커피를 마셨다. 그것은 따뜻하고 향긋했다.”
엄밀하게 한국어 기준으로 분석하자면, 이 예시 역시 자연스러운 문자은 아닙니다만, GPT 역시 원어는 영어라는 입장에서 생각해 보죠. GPT는 수학적으로 계산된 Attention 값을 통해서, 이 문장에서 “그것은”이라는 표현은 앞에 나온 “커피”를 가리키고 있다는 것을 파악합니다. 이처럼 문장 안의 단어들 사이에서 어떤 단어가 중심인지, 무엇이 무엇을 지칭하는지를 계산하면서 문맥을 파악해 나가는거예요.
Causal Attention 시간 순서 규칙
GPT는 입력된 문장을 왼쪽에서 오른쪽으로 읽으며 단어를 생성합니다. 이때 GPT는 미래 단어를 미리 볼 수 없고, 오직 앞에 나온 단어들만 참고해서 다음 단어를 예측합니다. 이 방식 덕분에 문장이 시간적 흐름에 따라 자연스럽게 이어지는 구조를 유지할 수 있습니다.
문맥 파악의 한계
하지만 GPT가 문맥을 파악한다고 해서, 인간처럼 전체적인 글의 의도나 감정 흐름까지 이해하는 것은 아닙니다. GPT는 단지 앞뒤 단어의 연결과 빈도에 따라 ‘그럴듯한’ 문장을 만드는 것이고, 말하는 사람의 감정이나 맥락의 뉘앙스를 느끼는 것은 아니에요.
예를 들어,
“커피가 너무 쓰다니까 기분까지 우울해졌다”
GPT는 위와 같은 문장도 작성할 수 있어요. 그러나 이런 것의 어떤 의도와 감정적인 연결이 있는 것이 아니라, 단지 수많은 텍스트에서 그러한 연결을 자주 학습한 결과일 뿐입니다.
왜 GPT 문체는 어색할까?
GPT가 사람처럼 글을 쓰지 못하는 이유는 몇 가지로 정리할 수 있어요.
- 학습 데이터의 한계
- GPT는 주로 전문 문서나 공식 텍스트를 학습했기 때문에, 문체가 지나치게 딱딱하거나 포멀한 경우가 많아요. 일상적인 대화나 감성적인 글쓰기는 상대적으로 덜 익숙한 영역이죠.
- 확률에 의존한 글쓰기
- GPT는 “가장 무난한” 단어나 어미를 고르는 경향이 있어요. 그래서 “~입니다”, “~할 것입니다” 같은 표현이 자꾸 반복되죠. 반면, 사람처럼 문체를 유연하게 바꾸거나 의도적으로 톤을 조절하는 건 어려워요.
- 감정과 경험의 부재
- GPT는 실제로 커피를 마셔본 적이 없어요. 그래서 “따뜻한 커피 한 잔이 주는 기분” 같은 감성적인 표현은 학습된 패턴에 의존할 뿐, 진짜 경험에서 우러나오지 않죠.
- AI 글쓰기의 한계 #1 – 왜 GPT는 사람처럼 글을 못 쓸까?
- OpenAI API 요금은 어떻게 계산될까? 토큰 개념과 tiktoken 활용 #1
- 챗지피티 프롬프트로 지브리 스타일, 픽사 스타일 이미지 생성 방법
- 생성형 AI 소유권, 챗지피티 지브리 스타일 이미지 사례 #1
- OpenAI API로 구현하는 AI Agent #2, “프로그래밍 AI 에이전트”