본문 바로가기
기본기 탄탄

LLM 파헤치기: 인공지능(AI)이 이렇게 똑똑해진 비밀! 🕵️‍♀️

by 수다쟁이PM 2025. 6. 12.

수다쟁이 PM의 LLM 파헤치기: 인공지능(AI)이 이렇게 똑똑해진 비밀! (기본기) 🕵️‍♀️

안녕하세요, 수다쟁이 PM입니다! 🙋‍♀️ 요즘 인공지능, 특히 '챗GPT' 같은 친구들 덕분에 'LLM'이라는 단어를 정말 많이 듣게 되죠? LLM이 대체 뭐길래 이렇게 세상을 바꾸고 있는지 궁금하지 않으셨나요? 🤔
이 글은 프로젝트 관리자(PM), 사업관리자(PMO), 품질관리자(QA) 등 정보화 사업을 이끄는 전문가분들을 위해 작성되었습니다. 다소 기술적인 개념들이 등장할 수 있지만, 최신 기술 동향의 기본 개념들을 이해하는 것은 성공적인 프로젝트 수행과 미래 전략 수립에 필수적입니다. 그러니 잠시 집중해서 LLM의 핵심 원리를 함께 파헤쳐 볼까요? 🚀
오늘은 여러분이 궁금해할 만한 LLM의 핵심 기술과 원리를, 마치 일타강사님이 설명해 주듯 쉽고 재미있게 파헤쳐 보겠습니다. 단순히 '똑똑하다'는 것을 넘어, 어떤 과정을 거쳐 똑똑해지는지 그 비밀을 하나씩 열어볼게요! 자, 준비되셨나요? 🚀

1. LLM, 너 정체가 뭐니? (feat. 거대 언어 모델) 🧐

LLM은 Large Language Model의 줄임말입니다. 말 그대로 '아주 큰 언어 모델'이라는 뜻인데요. 우리가 쓰는 자연어를 이해하고, 새로운 텍스트를 생성하며, 번역이나 요약 같은 다양한 언어 관련 작업을 수행할 수 있는 인공지능 모델을 말합니다. 🗣️✍️
핵심은 '거대함'에 있습니다. 📏 어마어어마하게 많은 양의 텍스트 데이터(인터넷의 거의 모든 글, 책, 논문 등)를 학습해서, 언어 속에 숨겨진 패턴, 문맥, 심지어 세상의 지식까지 배우는 것이죠. 마치 수십 년간 수억 권의 책을 읽고 세상의 대화를 엿들은 엄청난 독서광이 된 것과 비슷하다고 할 수 있습니다. 📚🧠


2. 우리 말을 이해하는 방법!: '토크나이저(Tokenizer)'와 '임베딩(Embedding)' 👟

LLM이 우리의 말을 이해하려면, 먼저 우리가 쓰는 언어를 컴퓨터가 이해할 수 있는 형태로 바꿔줘야 합니다. 이 첫 단계가 바로 '토크나이저(Tokenizer)'와 '임베딩(Embedding)'입니다.

  • 토크나이저 (Tokenizer): 단어 조각 만들기 🧩 LLM은 우리가 건네는 긴 문장을 통째로 이해하지 못합니다. 먼저 문장을 작은 단위로 쪼개야 하는데, 이때 토크나이저가 등장합니다. 토크나이저는 "안녕하세요, 수다쟁이 PM입니다."라는 문장을 ['안녕', '하세요', ',', '수다', '쟁이', 'PM', '입니다', '.'] 와 같이 의미 있는 '토큰(Token)' 단위로 쪼갭니다. 마치 긴 퍼즐을 맞추기 전에 조각들을 먼저 나누는 것과 비슷하죠. 이렇게 잘게 쪼개진 조각들이 LLM의 이해를 돕는 기본 단위가 됩니다. 👀
  • 임베딩 (Embedding): 단어에 의미 부여하기 🧬 토크나이저가 단어 조각을 만들었다면, 이제 이 조각들을 LLM이 이해할 수 있는 '의미 있는 숫자'로 바꿔줘야 합니다. 이게 바로 '임베딩'입니다. 단순히 번호를 매기는 게 아니라, 각 단어가 가진 '의미'를 숫자의 형태로 표현하는 거죠. 예를 들어, '왕'과 '여왕'은 비슷한 의미를 가지므로 숫자 공간에서 가까운 위치에, '바나나'와 '사과'도 비슷한 과일이므로 가까운 위치에 놓이게 만듭니다. 이렇게 단어들의 '의미 관계'를 숫자의 형태로 표현해서 LLM이 단어들을 더욱 깊이 있게 이해할 수 있게 해줍니다. 마치 단어마다 DNA 코드를 부여하는 것과 같다고 할 수 있습니다. 💡


3. 언어를 처리하는 핵심!: '트랜스포머(Transformer)' 🤖✨

LLM이 이렇게 똑똑해질 수 있었던 결정적인 계기는 바로 '트랜스포머(Transformer)'라는 기술 덕분입니다. 토크나이저와 임베딩을 거쳐 의미 있는 숫자로 변환된 단어들을 트랜스포머가 처리합니다.
이전의 인공지능 모델들은 문장을 처리할 때 단어를 하나씩 순서대로 읽어나가는 방식이라, 문장이 길어지면 앞쪽의 내용을 잊어버리거나 중요도를 파악하기 어려웠습니다. 😥
하지만 트랜스포머는 다릅니다. 문장 전체를 한꺼번에 보고, 각 단어가 문장 내에서 어떤 다른 단어들과 관련이 깊은지, 얼마나 중요한지 스스로 판단하는 능력이 있습니다. 이걸 '어텐션(Attention) 메커니즘'이라고 부르는데, 마치 여러 개의 눈을 동시에 떠서 문장 전체를 훑어보며 중요한 부분에 집중하는 것과 같죠. 👁️‍🗨️ 집중력 만렙!
이 트랜스포머 덕분에 LLM은 문맥을 훨씬 더 정확하게 이해하고, 길고 복잡한 문장도 능숙하게 처리할 수 있게 되었습니다. 마치 뛰어난 독해력과 논리력을 갖추게 된 셈입니다. 💯

현재의 AI 모델에서  '트랜스포머(Transformer)' 라는 개념은 아주 중요한 개념이라서 이 부분은 아래의 링크를 통해서 한번 살펴보고 오시는걸 추천합니다. (한글 번역이 있고 길지 않으니(약 8분) 후다닥 보고오세요~ 👁️‍🗨️)

 

https://www.cloudskillsboost.google/course_templates/538/video/513254


4. 똑똑해 지기 위한 스터디!: '사전 학습(Pre-training)'! 💧📚

트랜스포머라는 강력한 두뇌를 가진 LLM은 이제 학습을 시작합니다. 그런데 학습 방식이 좀 특별합니다. 바로 '사전 학습(Pre-training)'이라는 건데요.
인터넷에 있는 방대한 텍스트 데이터(웹페이지, 책, 뉴스 기사, 논문 등)를 통째로 모델에게 먹이는 겁니다. 이때 모델은 주로 다음과 같은 방식으로 학습합니다.

  1. 빈칸 채우기 (Masked Language Modeling): 문장에서 특정 단어를 가려놓고 그 단어가 무엇일지 예측하게 합니다. (예: "나는 [ ]를 마셨다." → '물', '커피', '주스' 등) 🥛
  2. 다음 단어 예측 (Next Token Prediction): 주어진 문장 다음에 어떤 단어가 올지 예측하게 합니다. (예: "오늘 날씨가 정말" → '좋다', '덥다', '맑다' 등) ☀️

이 과정을 통해 LLM은 단어와 단어 사이의 관계, 문맥, 문법, 그리고 세상의 일반적인 지식까지 흡수하게 됩니다. 마치 수억 권의 책을 읽으면서 언어와 세상을 통째로 이해하는 것이죠. 이렇게 '대충 아는' 지식을 엄청나게 많이 쌓는 것이 사전 학습의 핵심입니다. 💡✨

 

5. 똑똑한 답변 생성 원리: '확률'과 '디코더' 🎲🗣️

LLM에게 질문을 던지면, 녀석은 어떻게 그렇게 똑똑한 답변을 내놓을까요? 이것이 바로 '추론 및 생성의 원리'이자 LLM이 '확률 기반의 언어 모델'인 이유입니다.
사전 학습을 통해 방대한 지식과 언어 패턴을 습득한 LLM은, 여러분이 던진 질문을 받으면 다음과 같은 과정을 거쳐 답변을 생성합니다.

  1. 질문 이해: 질문의 의도와 핵심 키워드를 파악합니다. (토크나이저, 임베딩, 트랜스포머의 도움을 받죠!) 🧐
  2. 내부 지식 검색 및 확률 계산: 사전 학습된 어마어마한 지식 속에서 질문과 관련된 정보를 찾아내고, 이 정보를 바탕으로 '다음에 어떤 단어가 올 확률이 가장 높은지'를 계산합니다. 📊
  3. 답변 생성 (디코더): 트랜스포머의 '디코더' 부분이 이 역할을 맡습니다. LLM은 단어를 한 번에 통째로 뱉어내는 게 아니라, 마치 문장을 쓰는 것처럼 '가장 그럴듯한 다음 단어'를 하나씩 예측해서 이어 붙여 나갑니다. '나는' 다음에 '밥'이 올 확률이 높고, '밥' 다음에는 '을'이 올 확률이 높은 식으로요. 이렇게 단어 하나하나를 '최고의 확률'로 이어 붙여서 자연스러운 문장을 만들어내는 거죠. 📝

결론적으로, LLM은 우리가 생각하는 것처럼 '의식'을 가지고 사고하는 것이 아닙니다. 수많은 텍스트를 통해 '다음에 어떤 단어가 나올 확률이 가장 높은지'를 학습한 통계 전문가에 가깝습니다. 질문을 받으면, 자신이 학습한 방대한 데이터 속에서 가장 적절하다고 판단되는 '확률적으로 그럴듯한' 단어들을 조합해서 답변을 만들어내는 것입니다. 🤖➡️✨

 

6. 나만의 맞춤형 비서 만들기: '파인 튜닝(Fine-tuning)' 👩‍💻✨

사전 학습된 LLM은 똑똑하지만, 특정 분야나 회사 업무에는 100% 맞춰지지 않을 수 있습니다. 예를 들어, 우리 회사만의 복지 규정을 LLM이 알 리 없죠. 이때 필요한 것이 바로 '파인 튜닝(Fine-tuning)'입니다.
파인 튜닝은 일반적인 지식을 학습한 LLM에게 특정 목적(예: 회사 고객 상담 챗봇, 특정 산업 분야 전문가)에 맞는 소량의 추가 데이터를 학습시켜 '정교하게 조정'하는 과정입니다. 🎯
마치 최고의 요리사에게 특정 지역의 특별한 식재료와 레시피를 추가로 가르쳐 '지역 특색을 살린 요리사'로 만드는 것과 같습니다. 👨‍🍳 파인 튜닝을 통해 LLM은 특정 업무에 특화된 지식과 말투를 익혀 더욱 유용해질 수 있습니다. 🚀

 

7. 공부한 내용 말고 최신 정보도 반영하기: 'RAG(Retrieval-Augmented Generation)' 🔍💡

파인 튜닝을 해도 LLM은 학습 시점 이후의 최신 정보기업 내부의 아주 세부적인 내부 자료까지는 알 수 없습니다. 예를 들어, 어제 나온 따끈따끈한 뉴스우리 회사만의 복지 규정 같은 것들 말이죠. 📰📜
이런 문제를 해결하기 위해 등장한 것이 'RAG(Retrieval-Augmented Generation)'입니다.
RAG는 LLM이 답변을 생성하기 전에, 외부 데이터베이스(최신 뉴스, 회사 문서, 특정 웹사이트 등)에서 질문과 관련된 정보를 '검색(Retrieval)'해 와서, 그 검색된 정보를 바탕으로 '답변을 생성(Generation)'하게 하는 방식입니다.
마치 똑똑한 비서가 "잠시만요, 제가 최신 자료를 찾아보고 정확하게 말씀드릴게요!"라고 말한 뒤, 바로 인터넷이나 내부 문서 시스템을 검색해서 답변하는 것과 같습니다. 👩‍💼 덕분에 LLM은 항상 최신 정보를 바탕으로, 훨씬 더 정확하고 신뢰할 수 있는 답변을 제공할 수 있게 됩니다. 👍

 

8. LLM의 그림자: '환각(Hallucination)' 현상 👻❓

LLM이 너무나 똑똑해 보이지만, 가끔은 우리를 당황하게 하는 현상을 보이기도 합니다. 바로 '환각(Hallucination)'입니다.
이는 모델이 학습한 방대한 데이터 내에서 패턴을 찾아 가장 그럴듯한 답변을 생성하는 과정에서, 사실이 아닌 내용을 마치 사실인 것처럼 확신에 차서 말하는 현상입니다. 마치 꿈속에서 현실 같은 장면을 보지만 실제로는 없는 일인 것처럼요. 😵‍💫 LLM은 '진실'을 아는 것이 아니라 '확률적으로 그럴듯한' 단어 조합을 만들기에 발생하는 일입니다.
예시:
실제로 LLM에게 "2023년 노벨 물리학상 수상자가 누구죠?"라고 물었을 때, 존재하지 않는 인물이나 가짜 연구 내용을 그럴듯하게 지어내어 답변하는 경우가 있었습니다. 예를 들어, '엘리자베스 스미스 박사의 양자 얽힘 연구'처럼 실제로는 없는 연구나 수상자를 사실인 양 설명하는 식입니다. 심지어 관련 논문 제목과 가짜 저널명까지 함께 제시하여 더욱 그럴듯하게 만들기도 합니다. 😮
따라서 LLM의 답변은 항상 비판적으로 검토하고, 특히 중요한 정보는 반드시 여러 출처를 통해 사실 확인을 거치는 것이 필수적입니다. 팩트 체크는 늘 중요하죠! 🧐 아직은 LLM을 '똑똑한 조수'로 활용하되, 그 한계를 명확히 인지하는 지혜가 필요합니다. 🧠💡

 

9. LLM의 다음 진화? 'MCP(Multi-modal & Complex Problem-solving)' 🌐🚀

LLM의 발전은 여기서 멈추지 않습니다. 이제 LLM은 단순한 텍스트를 넘어, 이미지, 음성, 비디오 등 다양한 형태의 데이터(Multi-modal)를 이해하고 생성하는 방향으로 진화하고 있습니다. 또한, 복잡한 문제 해결(Complex Problem-solving) 능력도 향상되고 있습니다.
MCP는 LLM의 미래를 보여주는 키워드입니다.

  • Multi-modal: 텍스트를 입력하면 이미지를 생성하고, 이미지를 보고 내용을 설명하며, 음성을 인식하고 답변하는 등 다양한 양식의 정보를 통합적으로 처리합니다. 🖼️🎤 마치 보고, 듣고, 말하고, 쓰는 모든 감각을 활용하여 세상을 이해하는 인간처럼 되는 것이죠. 🧑‍🤝‍🧑
  • 예시: 미래의 LLM 기반 헬스케어 AI는 환자의 음성 기록(음성), X-ray나 MRI 영상(이미지), 진료 차트(텍스트)를 모두 분석하여 종합적인 진단 의견을 제시하고, 가장 효과적인 치료 계획까지 추천할 수 있게 될 것입니다. 🩺💊
  • Complex Problem-solving: 단순히 질문에 답하는 것을 넘어, 복잡한 상황을 분석하고, 여러 정보를 조합하여 해결책을 제시하며, 논리적인 추론을 통해 실제 문제를 해결하는 능력을 의미합니다. 📈✍️ 마치 전문 컨설턴트처럼 문제를 정의하고 해결 과정을 제시하는 수준으로 발전하는 것을 목표로 합니다. 🌟
  • 예시: 기업 환경에서 LLM은 단순히 데이터를 요약하는 것을 넘어, 시장 보고서(텍스트), 판매 데이터(수치), 경쟁사 전략 문서(텍스트), 고객 피드백(음성, 텍스트) 등 복합적인 정보를 분석하여 새로운 사업 기회를 발굴하거나, 공급망 문제를 진단하고 최적의 해결 방안을 제시하는 등 고도의 전략적 의사결정을 지원하게 될 것입니다. 💡💼

이러한 MCP의 발전은 LLM이 단순한 챗봇을 넘어, 우리의 일상과 업무 전반에 걸쳐 혁신적인 변화를 가져올 것임을 시사합니다. 기대되죠? 🤩

 

마무리하며

오늘 LLM의 핵심 기술과 원리에 대해 제가 몇달동안 학습한 내용을 최대한 심플하게 정리해 보았습니다. 토크나이저와 임베딩으로 언어를 이해하고, 트랜스포머의 등장으로 언어 처리 능력이 비약적으로 발전했으며, 사전 학습으로 방대한 지식을 습득했습니다. 또한, 확률 기반의 생성 원리를 통해 답변을 만들어내고, 파인 튜닝으로 특정 목적에 최적화되며, RAG로 최신 정보까지 반영할 수 있게 되었습니다. 아직은 할루시네이션이라는 한계가 있지만, 미래에는 다양한 양식의 데이터를 이해하고 복잡한 문제까지 해결하는 MCP로 진화할 것입니다. 🚀
LLM은 아직 완벽하지 않지만, 그 발전 속도는 정말 놀랍습니다. 앞으로 LLM이 우리의 삶을 어떻게 더 풍요롭게 만들지 기대되지 않나요? ✨
궁금한 점이 있다면 언제든지 댓글로 물어봐 주세요! 수다쟁이 PM은 또 다른 유익한 정보로 찾아오겠습니다. 😊