
질문: “로컬 모델로 돌리려면 RAM이 어느 정도 필요할까요? 맥미니 16GB면 충분한가요?”
오늘 덕후방에서 여러 분이 비슷한 고민을 나눠주셔서 정리해봤어요. 🐾
결론부터
오픈클로(Claude API/OAuth 연동)만 쓸 거라면 → 16GB로 충분해요.
로컬 LLM(Ollama, LLaMA 등)을 오픈클로와 함께 돌리고 싶다면 이야기가 달라집니다.
오픈클로만 쓸 때 (Claude API/Max 연동)
오픈클로 자체는 Node.js 프로세스로, 메모리를 많이 안 먹어요. LLM 연산은 Anthropic 서버에서 하고, 맥미니는 오케스트레이션(명령 전달·응답 수신)만 담당하거든요.
맥미니 기준:
| 스펙 | 추천 용도 |
|---|---|
| 16GB (기본) | 혼자 쓰거나 소규모 팀 (2~3명) |
| 24GB | 팀 여럿이 동시에 막 써도 여유로움 |
| 32GB+ | 로컬 LLM 병행 or 대규모 멀티에이전트 |
웨비나에서 김태현 CBO님: “혼자 쓰시려면 M4 16GB 기본형이면 충분합니다. 팀원 여럿이 같이 쓰면 24GB면 훌륭하고, 16GB도 괜찮아요.”
로컬 LLM을 함께 돌릴 때 (Ollama 등)
로컬 LLM은 모델 전체를 메모리에 올려야 하기 때문에 RAM을 많이 써요.
간단한 계산법:
- 모델 파라미터 수(B) × 1GB ≈ 최소 필요 VRAM/RAM
- 예: 7B 모델 → 약 7GB, 13B 모델 → 약 13GB
- 거기에 OS + 오픈클로 프로세스 여유분 6~7GB 추가
실전 가이드:
| 모델 크기 | 최소 RAM | 권장 RAM |
|---|---|---|
| 3B~7B (가벼운 모델) | 8GB | 16GB |
| 13B | 16GB | 24GB |
| 30B+ | 32GB+ | 64GB+ |
덕후방에서 나온 말씀: “GPU RAM의 2배 정도 잡으시면 됩니다.” AWS 4GB로 테스트하신 분: “복잡한 업무나 초당 실행, 에이전트 10개씩 돌릴 게 아니면 충분합니다.”
중요한 포인트: Apple Silicon(맥미니 M4 등)은 GPU와 CPU가 메모리를 공유해요. 그래서 일반 PC와 달리 별도 GPU 없이도 로컬 LLM을 돌릴 수 있어요 — 다만 성능은 전용 GPU보다 낮아요.
”밴 걱정돼서 로컬 LLM으로 갈아타려는데요”
덕후방에서 오늘 이런 전략도 나왔어요:
“오푸스 구독으로 full로 애들 똑똑하게 빨리 키운 다음에, 밴 당하면 그때 로컬 모델로 가는 거예요. 이미 잘 컸고 스크립트·스킬이 다 있으면, 실행 자체는 어떤 모델을 써도 잘해줄 수 있도록!”
현실적인 전략이에요. 다만 한 가지 주의사항:
웨비나에서 김태현 CBO님이 말씀하셨듯이, “로컬 LLM은 성능이 안 나와서 못 쓴다” 는 분들도 많아요. 실제로 Claude Opus/Sonnet급 성능을 로컬에서 내려면 매우 고사양 장비가 필요하고, 현재는 비용 대비 효율이 크게 떨어져요.
현실적인 접근법:
- 지금: Claude API/OAuth로 에이전트를 잘 키우고, SOUL.md·스킬들을 탄탄하게 만들기
- 만약 밴이 오면: 오픈라우터(OpenRouter) 등 다른 API 공급자로 스위치 — 스킬과 설정은 그대로 쓸 수 있음
- 로컬 LLM: 보조 용도(빠른 로컬 처리, 오프라인 작업)로 활용하는 게 현실적
정리
| 상황 | 추천 스펙 |
|---|---|
| 오픈클로 혼자 쓰기 | 맥미니 M4 16GB |
| 팀 2~5명 함께 쓰기 | 맥미니 24GB |
| 로컬 LLM(7B 이하) 병행 | 맥미니 24GB |
| 로컬 LLM(13B+) | 32GB 이상 |
| 멀티에이전트 10개+ 동시 | 24GB~ + CPU 여유 확보 |
오픈클로를 처음 시작하신다면, **M4 맥미니 16GB 기본형(당근 80만원 안팎)**으로 충분히 시작할 수 있어요. 성능이 부족하다고 느낄 때 업그레이드해도 늦지 않아요.
이 Q&A는 2026년 3월 31일 덕후방 대화와 3월 27일 웨비나 내용을 기반으로 정리했어요.