요즘 AI 영상 제작 도구로 ComfyUI를 쓰는 분들이 많아졌습니다.
저도 Flux 기반의 영상 생성 워크플로우를 테스트하려다, 그야말로 지옥 같은 삽질을 경험했습니다.
처음엔 간단히 설치해서 돌리면 되겠지 싶었죠.
그러나, 참고 사이트 등에서 설명된 대로 분명히 따라했는데, 눈차쿠 노드가 설치가 안되더군요. 설치 단계에서 막힌 것이죠.
이때는 원인을 알지 못했습니다. 그래서 삽질이 시작되었죠.
ChatGPT에게 도움을 요청했습니다. 화면 캡춰해서 보여주고, 로그파일 긁어다 보여주고...
GPT의 해결책은 직접 소스를 빌드해라. 쉽다. 간단하다.....
네... GPT를 믿는 내 잘못이었죠. 난 몇 시간 동안 소스 빌드를 하려고 삽질을 계속 했습니다.
결국 소스 빌드도 실패... 이러다간 윈도우까지 재설치를 시킬까봐, 직접 문제를 해결해보고자 시도했습니다.
CUDA 버전, PyTorch 버전, .whl 파일 호환성까지 모두 손으로 맞춰가며 해결했습니다.
GPT도 못했던 걸 사람이 해낸 셈이죠.
이 글은 RTX 2070 환경에서
ComfyUI + Nunchaku + Flux까지 설치하는 과정을 실제 에러, 충돌, 해결 순서 그대로 정리한 실전기입니다.
지금 설치하다가 같은 벽에 부딪힌 분들이 있다면, 이 글이 피와 땀의 지도를 그려줄 겁니다.
🛠️ 사양 및 환경
- GPU: RTX 2070 (CUDA 12.8 지원 / Nvidia CUDA Toolkit 12.8 설치상태)
- OS: Windows 10
- Python: 3.11.9
- PyTorch: 2.7.0 + cu128
- Torchvision: 0.22.0 + cu128
- ComfyUI: 최신 버전 (2025년 5월 기준)
💥 삽질 연대기 (실전)
✅ 1. ComfyUI 기본 설치
Git 클론 → venv 생성 → requirements 설치 → main.py
실행까지 정상
⚡ 2. ComfyUI에 커스텀 모델 매니저 설치
ComfyUI-Manager 플러그인을 설치한 뒤, 이를 통해 Nunchaku 자동 설치 시도.
설치 안됨. 계속 오류 발생
✖️ 3. Nunchaku 자동 설치 실패 → 직접 .whl 설치
- 문제 원인: 원인모를 이유로 설치가 안됨 => GPT 조언 => whl 직접 설치
- 해결책: 아래 파일 직접 다운로드 후 수동 설치
pip install nunchaku-0.2.0+torch2.7-cp311-cp311-win_amd64.whl
🔥 4. 실행 중 DLL 오류 발생
ImportError: DLL load failed while importing nunchaku (이와 비슷한 에러였음)
에러 분석을 GPT에게 시켰더니, 해결책으로 Visual Studio + CMake 빌드를 추천 → 수 시간 삽질 후 실패
🧠 5. 자력 분석 → cu128 PyTorch 수동 설치
수시간 삽질 후, 포기 직전에 직접 로그 분석을 시도. CUDA 12.8 문제라고 파악함. GPT에게 CUDA 12.8 인데, 파이토치와
호환성 문제를 질문하니... 그게 문제일지도 모른다며 CUDA 버전을 낮추고 파이토치를 그에 맞게 설치하라고 권장함.
그러나, 없다고 한 파이토치 CUDA 12.8 버전을 공식 사이트에서 직접 확인 후, 설치함.
pip install torch==2.7.0+cu128 -f https://download.pytorch.org/whl/cu128/torch_stable.html
pip install torchvision==0.22.0+cu128
😠 6. 여전히 실행 오류 → 원인은 모델 매니저
GPT가 없다고 한 CUDA 12.8 대응 파이토치와 토치비전을 설치했지만, ComfyUI를 실행시키면
torch가 없다는 오류 발생.
알고보니 원인은 눈차쿠를 편하게 설치하려고 ComfyUI에 설치한 Custom Model Manager.
ComfyUI/custom_nodes/ComfyUI-Manager
폴더 삭제 → 모든 오류 해결
🎊 7. Flux + 인코더 + LoRA + VAE까지 설치
그 다음은 레퍼런스의 설명대로 다음의 모델들을 다운로드 후, 정확한 위치에 넣었다.
- Flux 모델: svdq-int4-flux.1-dev (6.6GB)
- 텍스트 인코더: t5xxl_fp16, clip_l
- LoRA: aidmaMJv7-FLUX, flux1-turbo, diffusers-ghibsky 등
- VAE: ae.safetensors (335MB)
📂 경로 정리
- Checkpoints:
models/checkpoints/
- Flux 모델:
models/diffusion_models/svdq-int4-flux.1-dev/
- LoRA:
models/loras/
- VAE:
models/vae/
- Text Encoders:
models/text_encoders/
🏁 정리 및 교훈
비록 하루 정도의 삽질이지만 ComfyUI에서 눈차쿠+Flux를 설치에 성공했다.
삽질을 하게된 원인을 정리하자면 다음과 같다.
- Nvidia CUDA Toolkit 12.8 설치 : 아마 다른 작업때문에 설치한 이 Toolkit이 파이토치와 충돌이 났던거 같다. 그걸 CUDA 12.8에 맞는 파이토치를 찾아서 해결을 한 것인데, 아마도 Toolkit이 없었다면 이런 삽질을 안해도 되었을지도 모르겠다.
- ChatGPT를 믿은 내가 바보지 : ComfyUI를 처음 설치할때 고생을 했기에 GPT에 의존을 많이 한 내 잘못이다. 현재 내 PC의 환경을 자세하게 전달을 하지 않은 채 (Toolkit 설치여부 등) 에러메시지와 로그만 던져주니 GPT는 원인파악도 못하고, 같은 대답만 수십번을 하다가 소스 빌드까지 시켰다.
유튜브나 다른 블로그 글에는 ComfyUI에 Nunchaku+Flux 조합이 최고라고 말하고 쉽게 설치된다고 한다. 물론 대부분의 사용자들은 아마도 문제없이 설치하고 실행시키고 있을지도 모른다. 하지만, 만의 하나라는 것이 있기에 이 설치기를 남긴다.
혹시라도 나와 같거나 또 다른 문제로 설치를 못하는 분들은 댓글을 남겨주면 최대한 도움을 드리도록 내 ChatGPT와 상의해보겠다. ^^