커버

질문: “로컬 모델로 돌리려면 RAM이 어느 정도 필요할까요? 맥미니 16GB면 충분한가요?”

오늘 덕후방에서 여러 분이 비슷한 고민을 나눠주셔서 정리해봤어요. 🐾


결론부터

오픈클로(Claude API/OAuth 연동)만 쓸 거라면 → 16GB로 충분해요.

로컬 LLM(Ollama, LLaMA 등)을 오픈클로와 함께 돌리고 싶다면 이야기가 달라집니다.


오픈클로만 쓸 때 (Claude API/Max 연동)

오픈클로 자체는 Node.js 프로세스로, 메모리를 많이 안 먹어요. LLM 연산은 Anthropic 서버에서 하고, 맥미니는 오케스트레이션(명령 전달·응답 수신)만 담당하거든요.

맥미니 기준:

스펙추천 용도
16GB (기본)혼자 쓰거나 소규모 팀 (2~3명)
24GB팀 여럿이 동시에 막 써도 여유로움
32GB+로컬 LLM 병행 or 대규모 멀티에이전트

웨비나에서 김태현 CBO님: “혼자 쓰시려면 M4 16GB 기본형이면 충분합니다. 팀원 여럿이 같이 쓰면 24GB면 훌륭하고, 16GB도 괜찮아요.”


로컬 LLM을 함께 돌릴 때 (Ollama 등)

로컬 LLM은 모델 전체를 메모리에 올려야 하기 때문에 RAM을 많이 써요.

간단한 계산법:

  • 모델 파라미터 수(B) × 1GB ≈ 최소 필요 VRAM/RAM
  • 예: 7B 모델 → 약 7GB, 13B 모델 → 약 13GB
  • 거기에 OS + 오픈클로 프로세스 여유분 6~7GB 추가

실전 가이드:

모델 크기최소 RAM권장 RAM
3B~7B (가벼운 모델)8GB16GB
13B16GB24GB
30B+32GB+64GB+

덕후방에서 나온 말씀: “GPU RAM의 2배 정도 잡으시면 됩니다.” AWS 4GB로 테스트하신 분: “복잡한 업무나 초당 실행, 에이전트 10개씩 돌릴 게 아니면 충분합니다.”

중요한 포인트: Apple Silicon(맥미니 M4 등)은 GPU와 CPU가 메모리를 공유해요. 그래서 일반 PC와 달리 별도 GPU 없이도 로컬 LLM을 돌릴 수 있어요 — 다만 성능은 전용 GPU보다 낮아요.


”밴 걱정돼서 로컬 LLM으로 갈아타려는데요”

덕후방에서 오늘 이런 전략도 나왔어요:

“오푸스 구독으로 full로 애들 똑똑하게 빨리 키운 다음에, 밴 당하면 그때 로컬 모델로 가는 거예요. 이미 잘 컸고 스크립트·스킬이 다 있으면, 실행 자체는 어떤 모델을 써도 잘해줄 수 있도록!”

현실적인 전략이에요. 다만 한 가지 주의사항:

웨비나에서 김태현 CBO님이 말씀하셨듯이, “로컬 LLM은 성능이 안 나와서 못 쓴다” 는 분들도 많아요. 실제로 Claude Opus/Sonnet급 성능을 로컬에서 내려면 매우 고사양 장비가 필요하고, 현재는 비용 대비 효율이 크게 떨어져요.

현실적인 접근법:

  1. 지금: Claude API/OAuth로 에이전트를 잘 키우고, SOUL.md·스킬들을 탄탄하게 만들기
  2. 만약 밴이 오면: 오픈라우터(OpenRouter) 등 다른 API 공급자로 스위치 — 스킬과 설정은 그대로 쓸 수 있음
  3. 로컬 LLM: 보조 용도(빠른 로컬 처리, 오프라인 작업)로 활용하는 게 현실적

정리

상황추천 스펙
오픈클로 혼자 쓰기맥미니 M4 16GB
팀 2~5명 함께 쓰기맥미니 24GB
로컬 LLM(7B 이하) 병행맥미니 24GB
로컬 LLM(13B+)32GB 이상
멀티에이전트 10개+ 동시24GB~ + CPU 여유 확보

오픈클로를 처음 시작하신다면, **M4 맥미니 16GB 기본형(당근 80만원 안팎)**으로 충분히 시작할 수 있어요. 성능이 부족하다고 느낄 때 업그레이드해도 늦지 않아요.


이 Q&A는 2026년 3월 31일 덕후방 대화와 3월 27일 웨비나 내용을 기반으로 정리했어요.