7단계
7단계 — NotebookLM vs 자체 RAG
20 분
7단계 — NotebookLM vs 자체 RAG
여기까지 RAG 파이프라인을 직접 짰어요 (임베딩 → pgvector → retrieve → prompt → generate). 그런데 비슷한 결과를 클릭 몇 번 으로 주는 SaaS 가 있어요 — Google NotebookLM. 둘 중 어느 쪽이 우리 상황에 맞는지 정해 봐요.
한 표 비교
| 항목 | NotebookLM | 자체 RAG (LM Studio + pgvector) |
|---|---|---|
| 셋업 시간 | 5분 (계정만 있으면) | 1~2일 |
| 자료 | PDF·Docs·웹·YouTube·오디오 50개 (Plus 300) | 무제한 (디스크 한도) |
| 인용 | 자동 (페이지·timestamp) | 직접 구현 (chunk id 메타) |
| 팟캐스트 | 자동 (Audio Overview) | TTS API 별도 구축 |
| 마인드맵 | 자동 | ✗ |
| 외부 노출 | Google 클라우드 | 사내 네트워크 가능 |
| 모델 교체 | ✗ (Gemini 고정) | LM Studio · Gemini · OpenAI 자유 |
| API | ✗ (2026-05) | 자체 API |
| 학습 정책 | Free 는 일부 학습 사용 가능 | 외부로 안 나감 |
| 비용 | $0 (Free) ~ $20/월 (Plus) | 서버 + LLM API |
| 한국어 | 텍스트 강함, 팟캐스트 영어 우세 | 모델 선택에 따라 |
언제 NotebookLM 인가
- 외부 공개 가능한 자료 — 책·논문·공개 문서·강의 PDF
- 빠르게 결과 — 시안·학습 목적
- 인용 + 팟캐스트 둘 다 필요
- 개인 학습·소규모 팀
- 주제별 노트북 분리 (50자료 한도 안)
언제 자체 RAG 인가
- 외부 반출 금지 자료 — 사내 매뉴얼·고객 데이터·계약서
- API 자동화 필요 — 프로덕트에 RAG 임베드
- 모델 교체 자유 (한국어 특화 모델·내부 호스팅)
- 50자료 + 일일 채팅 한도 부족
- 검색·랭킹·재정렬 (rerank) 정교화
실험 — 같은 자료로 두 결과 비교
- 자체 RAG 챗봇 (4단계 결과물) 에 PDF 5개 색인.
- 같은 PDF 5개를 NotebookLM 노트북에 업로드.
- 동일 질문 5개 (예: 요약 / 비교 / 모순점 / 출처 추적 / 요약본 단일 카드).
- 답변·인용 품질·소요 시간 비교.
체감되는 차이 (예시):
- 인용 — NotebookLM 이 페이지 단위 정밀.
- 깊이 — 자체 RAG 는 top-k·rerank 조정으로 쇼트 컨텍스트 가능, NotebookLM 은 자료 전체 1M+ 토큰 활용.
- 속도 — NotebookLM 즉시, 자체 RAG 는 임베딩 시간.
- 한국어 — 자체 RAG 가 모델 선택 자유.
하이브리드 패턴
운영 환경에서 자주 쓰는 조합:
- NotebookLM 으로 시안 — 자료 합의 / 초안 검증.
- 자체 RAG 로 프로덕트 — 사내 문서 임베드, API 연결.
- NotebookLM 과 자체 RAG 양쪽이 공통 자료 를 보면 정합성 자가 검증 가능.
더 깊이
다음 강좌
architecture-patterns— RAG 아키텍처를 더 큰 시스템 안에 배치.ai-agent-tooling— 결과 RAG 를 Cursor/Claude Code 와 묶어 코드 작업 도우미 로 진화.
🎉 로컬 LLM · pgvector · RAG 챗봇 만들기 완주를 축하해요
이어서 어떤 걸 배워 볼까요?