Andrej Karpathy — ex-Tesla AI, cofundador da OpenAI e um dos nomes mais respeitados em IA — publicou um Gist que está viralizando: um padrão para construir bases de conhecimento pessoais usando LLMs. A ideia é simples, mas profunda: em vez de usar IA apenas para recuperar informações de documentos (RAG), use-a para manter uma wiki persistente que cresce e se refina com cada fonte que você adiciona.
O texto é denso e vale a leitura completa, mas vamos desmontar a ideia e mostrar como aplicar — especialmente para quem trabalha com conteúdo, pesquisa ou product building.
O problema do RAG tradicional
A maioria das pessoas usa LLMs com documentos assim: upload de arquivos → consulta → resposta. Funciona, mas tem um defeito fundamental: a IA redescobre o conhecimento a cada pergunta.
Pergunta sutil que exige sintetizar cinco documentos? A LLM precisa encontrar e remontar os fragmentos relevantes toda vez. Nada se acumula. NotebookLM, ChatGPT file uploads e a maioria dos sistemas RAG funcionam assim.
É como ler o mesmo capítulo de um livro toda vez que alguém faz uma pergunta sobre ele — em vez de anotar os pontos-chave e consultar suas notas.
A ideia do Karpathy: wiki persistente que compõe
A abordagem diferente: em vez de apenas recuperar de documentos brutos no momento da consulta, a LLM constrói e mantém incrementalmente uma wiki persistente — uma coleção estruturada e interligada de arquivos markdown que fica entre você e as fontes brutas.
Quando você adiciona uma nova fonte, a LLM não apenas a indexa para recuperação posterior. Ela lê, extrai as informações-chave e integra na wiki existente — atualizando páginas de entidades, revisando resumos de tópicos, anotando onde novos dados contradizem afirmações anteriores, fortalecendo ou desafiando a síntese em evolução.
A diferença-chave: a wiki é um artefato persistente e cumulativo. As referências cruzadas já estão lá. As contradições já foram sinalizadas. A síntese já reflete tudo que você leu.
As três camadas
Karpathy define três camadas que compõem o sistema:
1. Fontes brutas (Raw Sources)
Sua coleção curada de documentos-fonte. Artigos, papers, imagens, dados. São imutáveis — a LLM lê delas, mas nunca modifica. Este é seu source of truth.
2. A wiki
Um diretório de arquivos markdown gerados pela LLM. Resumos, páginas de entidades, páginas de conceitos, comparações, visão geral, síntese. A LLM possui esta camada inteiramente. Ela cria páginas, atualiza quando novas fontes chegam, mantém referências cruzadas e giữ tudo consistente.
Você lê; a LLM escreve.
3. O schema
Um documento (como CLAUDE.md ou AGENTS.md) que diz à LLM como a wiki está estruturada, quais são as convenções e quais fluxos seguir ao ingerir fontes, responder perguntas ou manter a wiki. Este é o arquivo de configuração-chave — é o que transforma a LLM em um maintainers disciplinado da wiki em vez de um chatbot genérico.
Os três fluxos de trabalho
Ingest (Ingestão)
Você coloca uma nova fonte na coleção bruta e diz à LLM para processá-la. O fluxo típico:
- LLM lê a fonte
- Discute os pontos-chave com você
- Escreve uma página de resumo na wiki
- Atualiza o índice
- Atualiza páginas de entidades e conceitos relevantes em toda a wiki
- Adiciona uma entrada ao log
Uma única fonte pode tocar 10–15 páginas da wiki. Karpathy prefere ingerir fontes uma vez e manter envolvimento — ler os resumos, verificar as atualizações e guiar a LLM sobre o que enfatizar.
Query (Consulta)
Você faz perguntas contra a wiki. A LLM busca páginas relevantes, lê-as e sintetiza uma resposta com citações. A descoberta importante: boas respostas podem ser arquivadas de volta na wiki como novas páginas. Uma comparação que você pediu, uma análise, uma conexão que descobriu — tudo isso é valioso e não deve desaparecer no histórico de chat.
Suas explorações se acumulam na base de conhecimento, assim como fontes ingeridas.
Lint (Manutenção)
Periodicamente, peça à LLM para fazer um health-check da wiki. Procure por:
- Contradições entre páginas
- Afirmações obsoletas que fontes mais recentes já substituíram
- Páginas órfãs sem links de entrada
- Conceitos importantes mencionados mas sem sua própria página
- Referências cruzadas ausentes
- Lacunas de dados que podem ser preenchidas com uma busca web
A LLM é boa em sugerir novas perguntas para investigar e novas fontes para buscar. Isso mantém a wiki saudável conforme ela cresce.
Duas ferramentas especiais
index.md (orientado a conteúdo)
Um catálogo de tudo na wiki — cada página listada com um link, uma linha de resumo e opcionalmente metadados como data ou contagem de fontes. Organizado por categoria. A LLM atualiza a cada ingestão. Quando responde uma consulta, a LLM lê o índice primeiro para encontrar páginas relevantes, depois se aprofunda.
Funciona surpreendentemente bem em escala moderada (~100 fontes, ~centenas de páginas) e evita a necessidade de infraestrutura de RAG baseada em embeddings.
log.md (cronológico)
Um registro append-only do que aconteceu e quando — ingests, queries, passagens de lint. Dica: se cada entrada começa com um prefixo consistente (ex.: ## [2026-04-02] ingest | Article Title), o log fica parseável com ferramentas unix simples.
A sacada principal: manutenção zero
A parte tediosa de manter uma base de conhecimento não é a leitura ou o pensamento — é o bookkeeping. Atualizar referências cruzadas, manter resumos atuais, anotar quando novos dados contradizem afirmações antigas, manter consistência entre dezenas de páginas.
Humanos abandonam wikis porque o fardo de manutenção cresce mais rápido que o valor. LLMs não ficam entediadas, não esquecem de atualizar uma referência cruzada e podem tocar 15 arquivos em uma passagem.
A wiki se mantém porque o custo de manutenção é próximo de zero.
O trabalho do humano é curar fontes, direcionar a análise, fazer boas perguntas e pensar sobre o que tudo isso significa. O trabalho da LLM é todo o resto.
Conexão com o Memex de Vannevar Bush
Karpathy faz referência ao Memex de Vannevar Bush (1945) — um armazenamento pessoal e curado de conhecimento com trilhas associativas entre documentos. Bush imaginava algo mais próximo disto do que da web como conhecemos: privado, ativamente curado, com as conexões entre documentos tão valiosas quanto os próprios documentos.
A parte que Bush não conseguiu resolver foi: quem faz a manutenção? A LLM resolve isso.
Como aplicar na prática
Para empreendedores e profissionais de tech/SaaS, os casos de uso são imensos:
- Pesquisa de mercado: acumular insights de concorrentes, tendências e dados ao longo do tempo, com uma wiki que evolui a cada artigo lido.
- ** Produto:** documentar decisões, feedback de usuários, métricas e aprendizados em uma base viva.
- Conteúdo: manter um segundo cérebro com referências, citações e conexões entre ideias — a wiki do seu blog.
- Due diligence: pesquisar um investimento ou parceiro ao longo de semanas, com a wiki compilando automaticamente o que você descobre.
A ferramenta não precisa ser Obsidian (embora seja a escolha do Karpathy). Pode ser qualquer diretório de markdown no Git. O padrão é flexível — o importante é a estrutura: fontes brutas imutáveis + wiki mantida por LLM + schema que define as regras.
Conclusão
A ideia do Karpathy não é sobre uma ferramenta específica — é sobre um padrão de trabalho. Em vez de tratar LLMs como máquinas de responder perguntas, trate-as como maintainers de uma base de conhecimento que cresce e compõe valor com o tempo. O custo de manutenção cai para quase zero, e o conhecimento acumulado se torna um ativo real.
Se você ainda trabalha com RAG tradicional (upload → query → resposta), vale a pena experimentar este padrão. Comece com 5–10 fontes, um schema simples e Obsidian ou Markdown no Git. Em algumas semanas, a diferença é visível.

Não conheca alguma sigla? Veja o glossário de tecnologia e inovação.
Veja também
Lovable Lança App de Vibe Coding para iOS e Android
A ferramenta de IA para criar apps sem código agora está disponível no celular. Crie web apps e sites com comandos de voz ou texto de qualquer lugar.
Automação Inteligente: Da Gestão Reativa Para a Proativa
Descubra como a combinação de IA e automação de processos está transformando gestores reativos em líderes proativos, com dashboards inteligentes e alertas em tempo real.
IA na Saúde: Como o Brasil Lidera a Transformação Digital na América Latina
Healthtechs brasileiras concentram 64,8% dos investimentos LatAm. Veja como IA está revolucionando diagnósticos, telemedicina e clínicas híbridas.