내용으로 바로가기
Paul's Media Set
메뉴
  • 홈
  • Tech_issues
  • 견생14년
  • 재테크_light
  • 잡담&info

[태그:] Meta

GPT-4.5
Tech_issues

OpenAI의 GPT-4.5 발표. 왜 지금일까? AI 시장의 경쟁와 동향

미국 시간으로 2025년 2월 27일, Openai는 GPT의 최신 모델 GPT-4.5를 발표했습니다. 2023년 GPT-4가 발표된 이후 거의 매년 업그레이드된 모델을 발표하고 있습니다. OpenAI의 GPT-4.5 발표. 왜 지금일까? GPT-4.5, 어떤 변화가 있을까? …

ChatGPT o1과 DeepSeek-R1의 추론 능력-01
Tech_issues

챗GPT o1과 DeepSeek-R1의 추론 능력 비교 – AI가 가져온 변화 #2

오늘은 지난 번 이야기한 “생성형 AI가 가져온 변화 #1”에 이어서 그 두 번째 이야기로 ChatGPT o1과 DeepSeek-R1에 대해 이야기해 보겠습니다. 이 두 생성형 인공지능 모델의 공통점은 추론 능력을 보유하고 있다고 …

RAG 기술이 주는 실시간 정보
Tech_issues

생성형 인공지능의 진화, RAG 기술이 주는 실시간 정보 #104

오늘은 RAG(검색 증강 생성: Retrieval-Augmented Generation) 기술에 대해 이야기해 보겠습니다. 저희 블로그에서는 Meta의 라마(llama) 모델을 주제로 여러 이야기를 해왔는데요, 항상 아쉬운 것은 라마 모델은 학습된 데이터만을 사용하기 때문에 최근 정보와 …

llama 파인튜닝 결과 보기
Tech_issues

llama 3.2 1b 파인튜닝으로 한국어 능력 향상시키기 #4

드디어 파인튜닝(Fine-Tuning)이 완료되었습니다. 훈련 시작 시 80시간을 예상했으나, 워낙 오래된 PC라 보니 대략 20시간 정도 더 지연된 것 같습니다. 4일내 끝날 줄 알았지만 5일이 걸렸죠. 오늘은 이전 글 “llama fine …

llama fine tuning 방법 #1
Tech_issues

llama fine tuning 방법 #1 – gguf 파일 변환과 Ollama 모델 생성

오늘부터는 연속하여 llama fine tuning(라마 모델 파인 튜닝)에 대해 이야기해 보려 합니다. 특히 llama fine tuning을 위한 사전 작업과 튜닝 과정을 자세하게 다뤄볼 예정입니다. 지금까지 llama 3.1, llama 3.2를 설치하고 …

글 내비게이션

이전 글

최신 글

  • Google AI Gemini API 무료 사용 방법과 OpenAI와 차이점 #1
  • 머신러닝과 딥러닝 차이, 파이썬 인공지능 기초 개념 #1
  • 양자화로 LLM 모델의 경량화 방법 – Quantization #1
  • 워드 클라우드 – 파이썬으로 네이버 데이터랩 키워드 활용 방법 #2
  • LangChain 프롬프트 템플릿으로 GPT 프롬프트 자동화하기 #1
Paul's Media Set
Paul's Media Set
Copyright © 2025 Paul's Media Set – OnePress 테마 제작자 FameThemes