본문으로 건너뛰기

zz. 확률론적 앵무세

AI으로 공부하면 생기는 문제

AI는 1950년대에 시작해서 꽤 오랫동안 발전해왔다. 중간의 긴 암흑기가 있었지만 결국 최근의 AI 발전은 급진적으로 발전했고 보통 사람들도 쉽게 접근할 수 있게 되었다. 이제 사람의 일자리를 뺏는 위협이 되었다.

ChatGPT, Claude, Gemini의 기반은 LLM(Large Language Model)이라는 언어 모델이다. 모델이라는 것은 데이터(숫자)를 이용해서 되풀이 할 수 있는 규칙을 찾아내서 문제를 해결하는데 다시 이용하는 것을 말한다. 언어 모델은 언어 문제를 해결하는 모델이다.

언어 모델이 해결해야 하는 문제는

  • 통역과 번역
  • 음성 인식
  • 음성 생성
  • 문맥 이해
  • 문서 요약 및 분류
  • 자동 문서 생성

이런 것들이다.

LLM은 생성형 AI인데 이름에 포함되어 있듯이 문서 생성에 특화되어 있다. 하지만 문서 생성만 잘 하는게 아니라 LLM의 응용해서 사용하면 문서 요약, 분류까지도 할 수 있게 된다.

학률론적 앵무새의 의미

구글의 보고서에 언급된 후에 LLM의 본질을 설명할 때 확률론적 앵무새라고 말하는데 매우 적절한 표현이라고 생각한다. LLM이 확률론적 앵무새인 이후는 사용자가 입력한 문장의 뒤에 나올 단어들을 확률적으로 예측해서 계속 붙여서 긴 문장을 생성하기 때문이다. 즉 입력한 단어의 후속해서 나올 정답을 붙여서 완성하는것이 아니라 가장 높은 확률의 단어들 중에 하나를 찾아서 붙여 나가는 것이다. 확률론적으로 붙이는 것이기 때문에 할루시네이션(hallucination)이라고 부르는 거짓을 작성 하는 일도 빈번하게 일어나며 완벽하게 해결하는 것은 불가능하다.

LLM을 백과사전 대신 쓸 수 있을까?

LLM을 백과사전대용으로 쓸 수 있지만 완전히 맹신해서는 안된다. LLM은 여전히 확률적으로 학습된 데이터를 기반으로 가장 그럴싸한 문장을 생성하도록 훈련되고 있다. 거짓이나 비하, 성적인 발언을 하지 않도록 학습하고 있지만 우회할 수 있는 방법이 존재하며 충분히 학습되지 않은 영역의 단어들로 여전히 거짓이나 다른 문제될 문장을 생성할 수 있다. LLM을 백과사전처럼 써도 높은 확률도 도움이 되겠지만 백과사전을 직접 보고 이해하는 것 보다는 틀린 사실을 알려줄 확률이 더 높다. LLM의 구조적인 특징으로 완벽한 진실(Ground Truth)를 다르게 말하지 않도록 훈련할 수 있는 방법이 없다. 그래서 언제나 거짓을 말할 수 있다는 것을 기억하면서 사용해야 한다.

LLM으로 공부할 때 주의할 것

공부를 한다는 것은 자료를 찾고 지식을 쌓는 것인데 LLM은 명백한 사실을 틀리는 경우도 있지만 일부의 사실만 알아차리지 못하게 틀리는 경우도 많다. 이 부분을 매우 주의해야 하는데 대부분의 내용이 사실이지만 극히 일부의 몇가지를 틀리게 알게 되는 경우 그로 인해 나중에 큰 낭패를 당할 수 있다. 이렇게 극히 일부만 틀리는 경우는 쉽게 알아차리기 어렵기 때문에 LLM이 생성한 문장을 면밀하게 확안해야 한다.

그래서 LLM을 쓰지 말아햐 하는가?