진짜 vLM 라이브리 안 맞으면 고생하는 accelerate, deepspeed, transformers
torch==2.4.1+cu124 또는 torch=2.7.1+cu128에서 돌아가는 것을 확인했다.
내가 찾은 최적의 버전
accelerate==0.34.2
deepspeed==0.15.4
transformers==4.37.2
728x90
'공부하는삶 > (v)LLM' 카테고리의 다른 글
| GraphRAG를 실무에 적용하기 위한 고려요소 (0) | 2025.10.12 |
|---|---|
| [TIL] PyTorch + DeepSpeed 학습 중 !block->expandable_segment_ 에러 해결 (1) | 2025.08.25 |
| [TIL] PyTorch CUDA Out of Memory(OOM) 오류 해결기 (feat. VLM 모델 학습) (1) | 2025.08.05 |
| NVILA: Efficient Frontier Visual Language Models (5) | 2025.07.31 |
| 거대 언어모델(LLM)에 대한 자체 개발 수준에 따른 등급 (4) | 2025.07.29 |
| ChatGPT Prompt 가이드 (4) | 2025.07.16 |