내용으로 바로가기
Paul's Media Set
메뉴
  • 홈
  • Tech_issues
  • 견생14년
  • 재테크_light
  • 잡담&info

[태그:] LLM

한국어 AI 모델 만들기
Tech_issues

나만의 한국어 AI 모델 만들기 #1 – SentencePiece와 GPT-2 토크나이저

오늘은 나만의 한국어 AI 모델 만들기의 첫 번째 이야기로 자연어 처리의 기본이 되는 토크나이저(tokenizer)에 대해 이야기해 보겠습니다. 영어를 기본으로 다루는 BPE와 보다 더 다양한 언어에 적합한 sentenepiece에 대해 정리해 보려 …

소형 언어 모델로 한국어 AI 만들기
Tech_issues

소형 언어 모델로 한국어 AI 만들기 – 생성형 AI 만들기 #2

지난 글에서는 한국어 AI를 구축하기 위해서, HyperCLOVA의 토크나이저를 GPT-2 Medium 모델에 이식하는 과정을 정리해 봤어요. 한국어에 특화된 토크나이저를 적용함으로써 한국어 문장 구성에 대한 학습 효과를 높이려는 시도였죠. 오늘은 그 실험 …

HyperCLOVA의 Tokenizer로 한국어 AI 생성하기
Tech_issues

HyperCLOVA의 Tokenizer로 한국어 AI 생성하기 – 생성형 AI 만들기 #1

그동안 대형 언어 모델, Tokenizer는 물론, AI (인공지능) 기술과 관련하여 다양한 이야기를 해 왔습니다. 이제부터는 지금까지 다뤄본 기술들을 기반으로 실제 나만의 생성형 AI 모델을 만들어 보고자 합니다. 개인 프로젝트다 보니 …

LoRA와 QLoRA로 VRAM 부담 줄이기
Tech_issues

LoRA와 QLoRA로 VRAM 부담 줄이기 – 미세조정(PEFT) 기술 #1

이번 글부터는 미세조정(Fine-tunning)에 대해 또 이야기를 해 보겠습니다. 최근 여러 가지 이유로 또다시 AI 모델을 다루고 있는데요, 이전에는 그냥 미세조정 모델을 실험해 봤다면 이번에는 조금 장기 기획으로 나만의 목표에 이르는 …

Qwen3-0.6B fine-tuning 단계별 실습 #2-1
Tech_issues

Qwen3-0.6B fine-tuning 단계별 실습 #2-1 한국어 글쓰기 모델 만들기

오늘은 파인튜닝(fine-tuning)을 다시한번 실행해 보도록 하겠습니다. 지난 번에는 Llama3.2 1b 모델을 기준으로 저사양 PC에서 8일이나 걸려서 진행해 봤죠. 물론, 그 때의 결과는 사실 그다지 좋지 못했어요. 로컬PC 사양으로 다시 실행할 …

글 탐색

이전 글

최신 글

  • GPT-5 모델 업그레이드, 성능 벤치마크, GPT-4o/4.5 비교
  • Corpus(말뭉치) 준비와 데이터 전처리 – 한국어 AI 모델 만들기 #2
  • 나만의 한국어 AI 모델 만들기 #1 – SentencePiece와 GPT-2 토크나이저
  • 소형 언어 모델로 한국어 AI 만들기 – 생성형 AI 만들기 #2
  • HyperCLOVA의 Tokenizer로 한국어 AI 생성하기 – 생성형 AI 만들기 #1
Paul's Media Set
Paul's Media Set
Copyright © 2025 Paul's Media Set – OnePress 테마 제작자 FameThemes