TL;DR
MoneyPrinterTurbo는 영상 주제만 입력하면 AI가 전체 제작 파이프라인을 자동화하는 오픈소스 도구입니다. GitHub 53K+ 스타, MIT 라이선스, GPU 불필요.
git clone https://github.com/harry0703/MoneyPrinterTurbo.git
cd MoneyPrinterTurbo
docker-compose up
# WebUI: localhost:8501, API: localhost:8080
문제: 영상 제작 비용과 시간
숏폼 영상 1편을 전통적으로 제작하면 약 $1,200, 60시간이 소요됩니다. 유튜브 쇼츠, 틱톡, 릴스 채널을 운영하려면 이 비용이 반복적으로 발생하죠.
유료 SaaS (Opus Clip, Lumen5 등)도 있지만, 월 구독료 + 데이터 통제 부재 + LLM 선택 제한이 단점입니다.
해결: MoneyPrinterTurbo
MoneyPrinterTurbo는 Python 기반 오픈소스로 이 문제를 해결합니다.
작동 흐름
주제/키워드 입력
-> LLM이 대본 생성 (12+ LLM 지원)
-> Pexels API로 HD 영상 소재 자동 매칭
-> Edge TTS/Azure TTS로 나레이션 생성
-> Whisper/Edge로 자막 생성
-> FFmpeg로 모든 요소 합성
-> 완성된 숏폼 영상 출력 (9:16 또는 16:9)
비용 비교
| 항목 | 전통적 방식 | MoneyPrinterTurbo |
|---|---|---|
| 비용/편 | $1,200 | $25 |
| 시간/편 | 60시간 | 22분 |
| 절감 | - | 비용 98%, 시간 99.4% |
LLM 설정: 무료로 쓰는 법
12개 이상의 LLM을 지원하는데, 무료 옵션이 두 가지 있어요.
DeepSeek (무료 티어)
# .env 설정
LLM_PROVIDER=deepseek
DEEPSEEK_API_KEY=your-key
DEEPSEEK_MODEL=deepseek-chat
Ollama (완전 무료, 로컬 실행)
# Ollama 설치 + 모델 다운로드
brew install ollama
ollama pull llama3
# .env 설정
LLM_PROVIDER=ollama
OLLAMA_MODEL=llama3
OLLAMA_BASE_URL=http://localhost:11434
Ollama를 쓰면 API 비용 0원입니다. 로컬에서 돌아가니 데이터 프라이버시도 보장되고요.
설치 방법
Docker (추천)
git clone https://github.com/harry0703/MoneyPrinterTurbo.git
cd MoneyPrinterTurbo
cp .env.example .env
# .env에 API 키 설정
docker-compose up -d
최소 사양: CPU 4코어, RAM 4GB. GPU 불필요.
수동 설치
conda create -n MoneyPrinterTurbo python=3.11
conda activate MoneyPrinterTurbo
pip install -r requirements.txt
sh webui.sh
ImageMagick과 FFmpeg가 사전 설치되어 있어야 합니다.
성능 벤치마크 (AWS c5.4xlarge)
| 동시 작업 | 메모리 | CPU | 평균 시간 |
|---|---|---|---|
| 5작업 | 3.4GB | 81% | 4분 18초 |
| 10작업 | 5.3GB | 95% | 7분 32초 |
한계점
솔직히 단점도 있습니다:
- 공식 지원 언어: 중국어/영어 (한국어는 Edge TTS 우회 가능)
- 영상 소재가 Pexels 의존 (니치 주제는 소재 부족 가능)
- 완전 자동이라 수동 제작 대비 퀄리티 차이 존재
활용 시나리오
- 유튜브 쇼츠/틱톡/릴스 대량 생산
- 교육 콘텐츠 챕터별 영상 자동화
- 마케팅 A/B 테스트용 영상 변형 생성
- 배치 생성으로 하루 수십 편 제작
마무리
MoneyPrinterTurbo는 영상 제작의 진입장벽을 획기적으로 낮춘 오픈소스입니다. Docker 한 줄 설치, 무료 LLM 조합이면 비용 없이 시작할 수 있어요.
GitHub: harry0703/MoneyPrinterTurbo
써보신 분들 계시면 어떤 LLM + TTS 조합이 가장 좋았는지 댓글로 공유해주세요!
Top comments (0)