망가진 LLM 봇 트윗, 하지만 구조는 살아있다?
· 카테고리: llm-engineering
망가진 LLM 봇 트윗, 하지만 구조는 살아있다?
트위터 봇이 또 이상한 트윗을 올렸는데…
X(구 트위터)에서 활동하는 jisoo100(@jisoo100bot) 봇 아시나요? 백지수x(@100thievespedia)님의 트윗을 학습시켜서 비슷한 스타일로 자동 트윗을 작성하는 봇인데요. Solo Self Found(@SoloSelfFounded)님이 만드신 프로젝트죠.
진짜 신기한 게, 가끔은 정말 백지수x님이 쓴 것 같은 트윗을 올리거든요. 그런데 또 가끔은… 완전히 망가진 것 같으면서도 묘하게 사람스러운 트윗을 올립니다.
오늘은 그런 ‘망가진 트윗’을 하나 가져와봤어요. 근데 자세히 보니까 이게 단순히 망가진 게 아니더라고요?
이 트윗 좀 보세요
“짝이 마키마라서 맥도날드 망함.” “짝이 마키마라서 맥도날드 망한다고 울었는데 그래서 맥도날드 망함.”
ㅋㅋㅋㅋ 이게 무슨 소리야 싶죠? 마키마랑 맥도날드가 무슨 상관이람…
근데 신기한 건, 우리도 가끔 이런 식으로 말한다는 거예요.
망가졌는데 왜 이렇게 사람같지?
1. 논리는 없지만 감정은 있다
‘짝이 마키마다’라는 주장… 황당하긴 한데요. 체인소맨 보신 분들은 알겠지만 마키마라는 캐릭터가 주는 그 압도적인 이미지를 생각하면… 아 맥도날드 정도는 망하게 할 수도 있겠네? 싶은 거예요.
우리도 이런 과장된 비유 많이 쓰잖아요:
- “오늘 너무 추워서 펭귄 되는 줄 알았어”
- “회의가 너무 길어서 영혼이 탈출했어”
- “그 사람 눈빛이 너무 강렬해서 건물이 무너질 뻔했어”
LLM이 이런 패턴을 완벽하게 학습했다는 거죠.
2. 같은 말 반복하는 것도 인간의 특징
“맥도날드 망함”을 두 번이나 다른 이유로 반복하는 게 웃기긴 한데… 생각해보면 우리도 그래요.
약속에 늦었을 때:
- 나올 때: “아 지갑 놓고 나왔어! 금방 갈게!”
- 도착해서: “미안, 차가 너무 막혀서…”
- 앉으면서: “아니 진짜 오늘따라 신호등이 다 빨간불이더라”
같은 결과에 대해 여러 가지 이유를 대는 거, 완전 인간적인 패턴이잖아요?
3. 논리의 연쇄 구조는 유지된다
내용은 엉망이지만 구조를 보면:
1층에 맥도날드가 있음 → 짝이 마키마임 → 맥도날드 망함 → 근데 난 맥도날드가 좋음 → 그래서 1층에 맥도날드가 있음
순환논리의 완벽한 예시네요. 우리가 자기합리화할 때 쓰는 논리구조랑 똑같아요:
- “운동해야 해 → 근데 피곤해 → 피곤하니까 당 충전해야 해 → 초콜릿 먹어야 해 → 운동은 내일부터”
4. 트위터식 펀치라인까지 완벽 재현
마지막에 “양기가 勝つ!”라고 끝나는 거 보셨어요?
트위터 특유의 “짧고 강렬하게 마무리” 패턴을 그대로 따라한 거예요. 심지어 디코딩 오류로 일본어가 튀어나왔는데도 문법은 맞아요!
오류마저도 문법적으로 완벽하다니
한국어가 일본어로 바뀌었는데도 문법이 맞는 이유
제가 여기서 “디코딩 오류”라고 부르는 건, 기계적으로 다시 붙이는(detokenize) 단계가 고장 났다기보단, 모델이 다음 토큰을 고르는(=디코딩·샘플링) 과정에서 엉뚱한 언어의 토큰을 하나 끼워 넣어버린 현상에 더 가까워요. LLM은 글자를 그대로 다루지 않고 한국어·일본어가 섞여 있는 하나의 거대한 서브워드(토큰) 사전을 공유하거든요. 그래서 확률상 비슷한 자리에 일본어 토큰이 튀면 그게 그대로 문자열로 복원(detokenization)되면서 갑자기 코드스위칭된 것처럼 보여요. 결과만 보면 “한국어 쓰다 말고 일본어로 바뀐” 느낌이라 우리가 편하게 오류라고 부르는 거죠.
근데 신기한 건:
- 한국어: “양기가” → 주격 조사 ‘-가’
- 일본어: “陽気が” → 주격 조사 ‘が’
두 언어의 문법 구조가 비슷해서, 오류가 나도 문법적으로는 맞는 문장이 나온다는 거예요!
“양기가 勝つ!” = “양기가 이긴다!”
완벽한 주어-서술어 구조죠. 망가져도 문법은 지킨다… 이게 바로 LLM의 무서운 점이에요.
그래서 뭐가 무서운데?
처음엔 그냥 웃긴 봇 트윗이라고 생각했어요. 근데 자세히 분석해보니까…
LLM은 망가진 상태에서도:
- 인간의 감정적 표현 패턴을 유지하고
- 과장법과 비유법을 자연스럽게 구사하며
- 논리 구조의 틀은 절대 깨지 않고
- 심지어 오류가 나도 문법은 지킨다
이 정도면… 몇 년 뒤엔 진짜 사람인지 봇인지 구분 못 하는 시대가 올 수도 있겠네요.
지금도 가끔 댓글 보면서 “이거 봇 아니야?” 싶은 것들 있잖아요. 근데 반대로 “이거 진짜 사람이 쓴 거 맞아?” 싶을 정도로 이상한 댓글들도 있고…
경계가 점점 모호해지고 있다는 게 느껴지지 않나요?
여러분은 어떻게 생각하시나요? 이런 봇들이 더 발전하면 우리의 온라인 소통은 어떻게 바뀔까요?

출처 표기: 이하나 · 수정 / 2차 저작물 작성 시 동일한 라이선스로 공유해야 합니다.
License / Attribution Info
- 라이선스 전문: 로컬 사본
- 원문: CreativeCommons.org
- SPDX ID:
CC-BY-SA-4.0