반응형

안드레 카파시의 LLM Wiki:
지식의 복리 성장을 만드는 AI 지식 관리
안드레 카파시가 제안한 LLM Wiki는 단순히 정보를 검색하는 도구를 넘어, AI가 스스로 지식을 구조화하고 '복리'처럼 지식을 쌓아나가는 시스템입니다. 이는 개인 지식 관리(PKM) 분야에 엄청난 패러다임 전환을 예고하고 있습니다.
1. 기존 RAG와 무엇이 다른가?
기존의 RAG(검색 증강 생성) 방식은 질문이 들어올 때마다 파편화된 정보를 뒤져서 답을 찾습니다. 즉, 매번 맨땅에서 시작하는 구조입니다. 반면 LLM Wiki는 다릅니다.
- 누적과 통합: 단순 검색이 아니라 지속적으로 성장하는 마크다운 파일의 집합(Wiki)을 구축합니다.
- 지식 컴파일: 새로운 정보가 들어오면 기존 지식과 통합하고 문서 간 교차 참조 링크를 생성하여 지식을 미리 '컴파일'해 둡니다.
- 효율성 극대화: AI가 지식의 지도를 그려두었기 때문에 복잡한 질문에도 훨씬 빠르고 정확하게 대응합니다.
2. 시스템 아키텍처: 3가지 핵심 계층
LLM Wiki는 역할을 명확히 분리한 세 가지 레이어로 구성됩니다.
- Raw sources (원본 자료): 기사, 논문 등 불변의 진실 공급원입니다. LLM은 이를 수정하지 않고 읽기만 합니다.
- The wiki (위키): LLM이 전적으로 소유하고 관리하는 마크다운 파일 저장소입니다. 요약과 개념 페이지가 담깁니다.
- The schema (스키마): 단순한 챗봇을 '규율 잡힌 관리자'로 만들어주는 설정 파일(CLAUDE.md 등)입니다.
3. 핵심 운영 프로세스 (Operations)
단순히 저장하는 것에 그치지 않고, 시스템은 끊임없이 움직입니다.
- Ingest (수집): 새 자료를 분석해 기존 지식망에 편입시킵니다. 이 과정에서 여러 위키 페이지가 동시에 수정됩니다.
- Query (확장): 질의응답 결과 중 가치 있는 통찰은 휘발되지 않고 새로운 위키 페이지로 자동 저장됩니다.
- Lint (유지보수): 페이지 간의 모순을 찾고, 구식이 된 정보를 갱신하며 연결되지 않은 고립된 페이지를 관리합니다.
4. 인덱싱과 로깅 (Indexing & Logging)
방대한 데이터 속에서 LLM이 길을 잃지 않도록 돕는 특수 파일들입니다.
- index.md: 모든 콘텐츠를 카테고리별로 나열한 카탈로그입니다. LLM은 이곳을 먼저 읽고 필요한 정보로 파고듭니다.
- log.md: 모든 활동을 시간순으로 기록하여 LLM이 최근 작업 맥락을 파악할 수 있게 돕습니다.
5. 실전 활용: Obsidian과의 결합
"Obsidian은 IDE(개발환경), LLM은 프로그래머, 위키는 코드베이스와 같다."
카파시는 Obsidian을 이 시스템의 가장 완벽한 파트너로 꼽습니다. 웹 클리퍼로 기사를 수집하고, Git으로 버전 관리를 하며, 시각적인 그래프 뷰를 통해 지식의 연결 상태를 한눈에 파악할 수 있기 때문입니다.
결론: 왜 이 방식이 근본적인 해결책인가?
개인 지식 베이스가 실패하는 이유는 '유지보수의 귀찮음' 때문입니다. LLM Wiki는 이 귀찮은 구조화와 관리를 지치지 않는 AI에게 위임합니다.
사용자는 오직 '사고(Thinking)'와 '올바른 질문'에만 집중하면 됩니다. 이것이 바로 우리가 그토록 원했던 '진정한 의미의 성장하는 두뇌'를 가질 수 있는 방법입니다.
반응형
'콩's AI' 카테고리의 다른 글
| 아마존 Kiro(키로)에서 제미나이 연동 가이드 (0) | 2026.04.06 |
|---|---|
| 아마존 Kiro(키로)에서 클로드 연동 가이드 (0) | 2026.04.06 |
| 클로드 코드(Claude Code) 하네스(Harness) 구조 (0) | 2026.04.03 |
| 제미나이(gemini) 웹 앱에서 하네스(Harness) 구조 활용하기 (0) | 2026.04.03 |
| Cursor 3 출시 : 에이전트와 함께하는 소프트웨어 개발의 새 시대 (0) | 2026.04.03 |