양자화로 LLM 모델의 경량화 방법 – Quantization #1
이번에는 양자화(Quantization) 기술에 대해 정리해 보겠습니다. 오픈 소스로 공개되는 인공지능 언어 모델이 점점 더 많이 등장하고 있지만, 이러한 모델들은 상당히 고사양일 수록 그 모델 사이즈도 상당히 거대한 경우가 많습니다. 이러한 …
이번에는 양자화(Quantization) 기술에 대해 정리해 보겠습니다. 오픈 소스로 공개되는 인공지능 언어 모델이 점점 더 많이 등장하고 있지만, 이러한 모델들은 상당히 고사양일 수록 그 모델 사이즈도 상당히 거대한 경우가 많습니다. 이러한 …
오늘은 지난 번 이야기한 “생성형 AI가 가져온 변화 #1”에 이어서 그 두 번째 이야기로 ChatGPT o1과 DeepSeek-R1에 대해 이야기해 보겠습니다. 이 두 생성형 인공지능 모델의 공통점은 추론 능력을 보유하고 있다고 …
드디어 파인튜닝(Fine-Tuning)이 완료되었습니다. 훈련 시작 시 80시간을 예상했으나, 워낙 오래된 PC라 보니 대략 20시간 정도 더 지연된 것 같습니다. 4일내 끝날 줄 알았지만 5일이 걸렸죠. 오늘은 이전 글 “llama fine …
지난 글에서 llama fine tuning을 위한 첫 번째 준비 작업으로 hugging face에서 다운로드한 llama 3.2 1b 모델을 포멧 변경하여 ollama 플랫폼에 맞게 생성하는 것까지 진행해 봤습니다. 오늘은 두 번째 준비 …
오늘부터는 연속하여 llama fine tuning(라마 모델 파인 튜닝)에 대해 이야기해 보려 합니다. 특히 llama fine tuning을 위한 사전 작업과 튜닝 과정을 자세하게 다뤄볼 예정입니다. 지금까지 llama 3.1, llama 3.2를 설치하고 …