2024년 6월 27일 목요일

LLM 모델 파닝튜닝 도중 만난 삽질 기록

이 글은 LLM 모델 파닝튜닝 도중 만난 삽질을 기록한다. 이 상황은 GPU 24GB 내에서 3B 모델을 파인튜닝하는 과정에서 발생된 문제이다(GPU 거지). 각 모델에 따라 다양한 삽질이 있는 데 대표적인 것만 추려본다.

Google LLM model의 Huggingface google model 403 Client Error 문제 삽질
이 글은 403 Client Error: Forbidden for url: https://huggingface.co/google config.json 삽질을 기록한다. 

허깅페이스에서 구글 학습 모델을 다운로드 시도할 때 나오는 메시지인데, 이게 시도하는 상황에 따라 랜덤이라 문제이다. 
짜증(내 피 같은 시간을 낭비하다니T.T)

물론 모델 사용은 허가를 받고 진행한 것이다.

이 상황에서 물론 다음 질답과 같이 모든 것을 시도 해보았다. 각 답변을 보면 알겠지만, 다들 안되서 헤매고 있다.
  • https://huggingface.co/google/gemma-2b/discussions/28
  • https://huggingface.co/google/gemma-2b/discussions/11
  • https://huggingface.co/google/gemma-7b/discussions/31
  • https://huggingface.co/google/gemma-2b-it/discussions/31
  • https://huggingface.co/google/gemma-2b/discussions/25
  • https://github.com/huggingface/diffusers/issues/6223
구글 모델은 개발자 접근성에 문제가 있어 보인다. 

패지키 설치 의존성 에러
작은 리소스에서 Lora를 파인튜닝 어답터로 사용하다 보니 bitandbytes 등 패키지를 기본으로 사용하는 데, 의존성 에러 문제가 발생하였다(최근에는 문제가 많이 해결된 것으로 보임).

결론
세상에 공짜는 없는 듯.. 딥러닝 초창기 우분투, NVIDIA CUDA, 벽돌 PC 반복할 때 생각나네. 아직은 sLLM 개발이 초창기라 발생하는 문제인 듯 보인다. 

추신. 그래도, 라마, 파이는 잘 되는 것 같다.




댓글 없음:

댓글 쓰기