Karpathys LLM-wiki och vad det betyder for moteskunskap

Andrej Karpathy visade att LLM:er kan kompilera radata till sjalvunderhallande kunskapsbaser. For moten ar det precis sa har nasta generations verktyg borde fungera.

knowledge-graphai-knowledgemeeting-aillm

I april 2026 publicerade Andrej Karpathy ett inlagg pa X dar han beskrev nagot han kallade en "LLM Knowledge Base" — ett arbetsflode dar stora sprakmodeller kompilerar ra information till en strukturerad, sjalvunderhallande markdown-wiki. Det var inte ett produktlansering. Det var inte ett ramverksslapp. Det var en tidigare AI-chef pa Tesla och medgrundare av OpenAI som delade sitt personliga arbetsflode for kunskapshantering, och det skapade en tyst chockvag genom AI-varlden.

Anledningen till att det spelade roll var inte sjalva arbetsFlodet, som ar elegant men enkelt. Det spelade roll for vad det visade om var det verkliga vardet av LLM:er finns — och var storsta delen av branschen tittar at fel hall.

Vad Karpathy byggde

Arbetsfl;odet ar bedraugligt enkelt. Radata — artiklar, forskning, anteckningar, vad som helst — matas in i en LLM som "kompilerar" det till lankade markdown-filer. Det ar inte sammanfattningar i traditionell mening. Det ar strukturerade, korsrefererade kunskapsartiklar med konsekvent formatering, explicita lankar mellan koncept och underhallna index. Obsidian fungerar som IDE — en plats att browsa, fraga och utoka wikin.

Darifran lagger systemet pa ytterligare funktioner: fraga-och-svar mot hela kunskapsbasen, automatiserad "linting" som kontrollerar motsagelser och luckor, samt generering av nya dokument fran den ackumulerade kunskapen.

Det centrala resultatet var slaende: vid praktisk skala — ungefar 100 artiklar och 400 000 ord — overtraffade denna strukturerade markdown-approach de flesta RAG-pipelines. Inte i teori. I faktisk daglig anvandning, for en person som forstar bada tillvagagangssatten djupt.

Med Karpathys ord: "a large fraction of my recent token throughput is going less into manipulating code, and more into manipulating knowledge." Det ar ett betydande uttalande fran nagon som tillbringat det senaste artiondet i framkanten av AI-teknik. Den mest vardefulla tillampningen av LLM:er, enligt hans erfarenhet, ar inte att skriva kod. Det ar att strukturera kunskap.

Anti-RAG-insikten

Detta resultat fortjanar uppmaunsamhet eftersom det gar emot enorma industrinvesteringar.

Den dominerande metoden for AI-driven kunskapshantering under 2025 och 2026 har varit RAG: ta dina dokument, dela upp dem, bädda in dem i en vektordatabas och hamta relevanta delar vid frågetillfället. Miljarder dollar har investerats i vektordatabaser, inbäddningsmodeller, uppdelningsstrategier och hämtningsoptimering. Varje AI-startup för företag har en RAG-pipeline i sin kärna.

Karpathys resultat ar inte att RAG ar vardelost. Vid massiv skala — miljoner dokument, företagsomspannande arkiv — ar hamtning nodvandig eftersom inget kontextfonster kan rymma allt. Men vid den skala dar de flesta individer och team faktiskt arbetar fungerar en annan metod bättre: lat LLM:en lasa allt, strukturera det, underhalla strukturen och arbeta fran den strukturerade versionen.

Varfor fungerar detta? Flera anledningar:

Struktur bevarar resonemang. Nar en LLM skapar en strukturerad sammanfattning fattar den redaktionella beslut om vad som ar viktigt, hur koncept relaterar och vilken detaljniva som ska bevaras. Dessa beslut kodar en form av resonemang som ra hamtning forlorar.

Lankar slår inbaddningar vid mansklig skala. Explicita korsreferenser mellan dokument ar mer användbara an implicita likhetspoang nar du har hundratals, inte miljoner, dokument. Du kan folja en lank. Du kan inte folja en vektor.

Underhall mojliggor tillit. Eftersom LLM:en kontinuerligt "lintar" kunskapsbasen — kontrollerar motsagelser, uppdaterar inaktuell information, flaggar luckor — ar resultatet nagot du faktiskt kan lita pa.

Kontextfonster vaxer. Nar Karpathys metod hade varit opraktisk — saga 2023-erans 4K-kontextfonster — var RAG det enda alternativet. Med moderna kontextfonster som stracker sig till hundratusentals eller miljoner tokens har kalkylerna andrats.

Implikationen ar tydlig: for personlig och teambaserad kunskap ar den vinnande arkitekturen inte "hamta och generera." Den ar "kompilera, strukturera, underhall och resonera."

Det framvaxande landskapet

Karpathy ar inte ensam om att utforska detta territorium. Landskapet for AI-driven kunskapshantering utvecklas snabbt och berättar en intressant historia.

Googles NotebookLM har tyst blivit en av de mest overtygande produkterna i detta utrymme. Den tar in dina dokument — upp till 500 kallor — och skapar vad som i princip ar en AI-expert pa just ditt material.

Mem.ai tog in 29 miljoner dollar pa loftet om AI-native anteckningar med automatisk organisering. Det kampade med att hitta ratt produkt-marknads-passning trots stark teknik, vilket illustrerar ett aterkommande monster: att bygga ett fristaaende kunskapsverktyg ar svart nar kunskapen lever nagon annanstans.

Rewind blev Limitless och pivoterade fran full systemfangst till motesfokuserad AI, innan det koeptes upp av Meta. Banan ar talande — bred fangst ar tekniskt imponerande men praktiskt overväldigande. Motesfokuserad kunskap visade sig vara mer handlingsbar.

Daniel Miesslers Fabric tog en helt annan vag: open source AI-monster som du kor lokalt, dar AI behandlas som ett Unix-liknande verktyg for informationsbearbetning.

Obsidian har medvetet stannat utanfor AI och behaller sin position som ett verktyg for manskligt driven kunskapshantering. Karpathys val av Obsidian som frontend ar anmarkningsvart — det antyder att det basta kunskapsgranssnittet kanske ar separat fran den AI som underhaller kunskapen.

Notion har rordt sig aggressivt in i AI-agenter som kan resonera over hela din arbetsyta.

Och genom allt detta looper Model Context Protocol (MCP), som haller pa att vdxa fram som en standard for hur AI-system ansluter till externa verktyg och datakallor.

Monstret over alla dessa ar konvergens mot samma insikt som Karpathy formulerade: radata ar inte kunskap. Nagot maste kompilera det.

Vad detta betyder for moten

Har blir det konkret. Karpathy byggde sin kunskapsbas fran artiklar och forskning. Men moten ar utan tvekan en battre passning for detta tillvagagangssatt — och ett mer bradskande sadant.

Overväg moteskunskapens egenskaper:

  • Den genereras kontinuerligt, i varje mote, utan anstrångning
  • Den ar i grunden relationell — involverar manniskor, beslut, projekt och atataganden
  • Den ackumuleras over tid — det hundrade motet i ett projekt ar langt mer vardefullt i kontext an isolerat
  • Den ar farskvaura — detaljerna bleknar inom timmar om de inte fangas
  • Den slosas bort i hissnandeomfattning

Den "nar blir detta en produkt?"-spanning som Karpathys inlagg antyder besvaras tydligast i motesdomänen. Hans personliga wiki kraver kurering och avsikt. En moteskunskapsbas kan vara automatisk — eftersom moten har en naturlig struktur (deltagare, agenda, resultat) och en naturlig trigger (sjalva motet).

Det ar precis tesen bakom Proudfrogs metod for motesintelligens. Raljud blir strukturerat transkript. Strukturerat transkript blir beslut, entiteter, atgardsuppgifter och relationskontext. Och den strukturerade outputen ackumuleras over varje mote och bygger en kunskapsgraf som blir mer vardefull med varje samtal.

Ackumuleringseffekten ar det som spelar storst roll. Ditt tionde mote i ett projekt ar mer användbart an ditt forsta inte for att transkriptet ar battre, utan for att systemet nu har kontext: vem sa vad tidigare, vad beslutades, vilka atataganden gjordes och om de uppfylldes.

Motestillampningar av Karpathys koncept

Karpathys ramverk passar anmarkningsvart väl in pa motesdomanen. Varje koncept i hans arbetsflode har en direkt motsvarighet:

Kompilering

I Karpathys system innebar kompilering att ta radata och strukturera det till lankade, formaterade kunskapsartiklar. For moten innebar det att AI bearbetar varje inspelning till strukturerade utdata: beslut extraherade och taggade, entiteter identifierade och lankade till tidigare forekomster, atgardsuppgifter fangade med agare och deadlines, amnessammanfattningar som knyter an till tidigare diskussioner.

Det ar inte transkription. Transkription ger dig ett protokoll over vad som sades. Kompilering ger dig kunskap — strukturerad, lankad, fragbar.

Linting

Karpathys "linting"-steg kontrollerar kunskapsbasen for motsagelser, luckor och inaktuell information. I moteskontext innebar detta: att flagga nar ett beslut pa tisdagens mote motsager ett fran forra manaden, att lyfta fram forsenade atataganden som aldrig foljdes upp, att identifiera bortglomda uppfoljningar och att belysa nar samma fraga stanndigt dyker upp utan att losas.

Det ar har moteskunskap borjar bli genuint aktiv — inte bara ett protokoll, utan en radgivare.

Den sjalvunderhallande wikin

Karpathys wiki uppdaterar sig sjalv nar ny information kommer in. For moten innebar det en kunskapsgraf som vaxer med varje samtal — som automatiskt uppdaterar projekttidslinjer, relationskartor, beslutsloggar och amnestraddar. Inget manuellt underhall. Ingen kurering kravs.

Anti-RAG-resultatet vid motesskala

Karpathys upptackt att strukturerade sammanfattningar overtraffar vektorsok vid praktisk skala passar perfekt in pa motesdomanen. En persons moteskorpus — aven en aktiv yrkesperson — ar typiskt hundratals dokument, inte miljoner. Vid denna skala ar strukturerad kunskap med explicita lankar mellan moten, manniskor och beslut langt mer användbar an likhetsbaserad hamtning.

Konkurrenslaget

De flesta motesverktyg stannar idag vid transkription, eller i basta fall enkel sammanfattning. Marknaden segmenteras ungefar i nivaer:

Standardtranskription — verktyg som Otter.ai och Fireflies.ai som spelar in, transkriberar och ger sokbar text. Anvandbart, men platt. Ditt hundrade transkript ar inte mer vardefullt an ditt forsta eftersom det saknas kopplingar mellan dem.

Anteckningsforstärkning — verktyg som Granola som utökar dina befintliga anteckningar med AI-genererad kontext. Smart och praktiskt, men fortfarande forankrat vid det enskilda motet.

Karpathy-idealet — ett system som kompilerar varje mote till strukturerad kunskap, underhaller lankarna mellan moten, lintar for motsägelser och luckor, samt mojliggor resonemang over hela korpusen. Det ar har det verkliga vardet finns, och det ar har overraskande fa verktyg opererar.

Gapet mellan "sokbara transkript" och "sjalvunderhallande moteskunskapsbas" ar enormt. Det ar skillnaden mellan ett arkivskap och en kollega som narvarit vid varje mote och kan resonera om hela historien.

Proudfrogs metod ar att bygga mot Karpathy-idealet specifikt for moten. Explore-funktionen mojliggor redan AI-driven sokning over hela din moteshistorik — inte nyckelordssok utan genuint resonemang om beslut, atataganden, manniskor och projekt.

Ar detta fullt realiserat idag? Nej. Visionen Karpathy formulerade — med automatiserad linting, sjalvunderhallande index och somlous kompilering — satter en ribba som hela branschen fortfarande stracka sig mot. Men arkitekturen ar ratt och riktningen ar tydlig.

Vad som kommar härnäst

Karpathys inlagg spelar roll for att det hojer forvantningsnivan for alla. Nar du vdl sett hur LLM-kompilerad kunskap ser ut — strukturerad, lankad, underhallen, fragbar — kan du inte sluta se det. Du kan inte ga tillbaka till platta anteckningar och nyckelordssok och kanna dig nojd.

Detta far konsekvenser for varje verktyg som beror kunskapsarbete:

Motesverktyg maste rora sig bortom transkription. Grundkraven hojs. Om ditt motesverktyg inte kan resonera over moten, koppla beslut till resultat och lyfta fram bortglomda atataganden ar det en standardvara.

Anteckningsappar maste inkorporera kompilering. Manuell organisering ar inte hallbar i den takt kunskapsarbetare genererar information.

Kunskapsplattformar for foretag maste forsona RAG med kompilering. Vid foretagsskala ar hamtning nodvandig. Men Karpathys resultat antyder att hamtningen bor operera over kompilerad, strukturerad kunskap — inte ra dokumentfragment.

Det bredare skiftet gar fran verktyg som lagrar information till verktyg som forstar den. Karpathy demonstrerade detta med artiklar och forskning. For moten ar mojligheten annu storre eftersom informationen ar rikare, mer relationell och genereras kontinuerligt.

Fragan ar inte om motesverktyg kommer att utvecklas i denna riktning. Det ar hur snabbt marknaden kommer att rora sig och vem som nar dit forst.

Se hur Proudfrog hanterar moteskunskap eller utforska priserna for att komma igang.


Vanliga fragor

Vad ar Karpathys LLM Knowledge Base-metod?

Andrej Karpathy beskrev ett arbetsflode dar LLM:er "kompilerar" ra information till strukturerade, sammanlankade markdown-artiklar — i princip en sjalvunderhallande wiki. LLM:en laser radata, strukturerar det med konsekvent formatering och korsreferenser, och underhaller sedan kunskapsbasen over tid genom att kontrollera motsagelser, uppdatera inaktuell information och flagga luckor. Hans centrala resultat var att detta tillvagagangssatt overtraffar traditionella RAG-pipelines vid praktisk, personlig skala.

Varfor overtraffar strukturerad kunskap RAG vid personlig skala?

RAG fungerar genom att hitta dokumentfragment liknande din fraga med hjalp av vektorinbaddningar. Det fungerar val vid massiv skala men forlorar kontext vid mindre skala. Nar du har hundratals dokument snarare an miljoner kan en LLM lasa och strukturera alla, och bevara resonemang om hur koncept hangar ihop, vad som ersatter vad och vad den overgripande berattelsen ar.

Hur tillämpas detta pa moten specifikt?

Moten genererar relationell kunskap — beslut kopplade till manniskor, projekt lankade till tidslinjer, atataganden bundna till resultat. Denna typ av kunskap gynnas enormt av kompilering snarare an enkel lagring. Istallet for att soka i transkripttext later en kompilerad moteskunskapsbas dig spara hur beslut utvecklades, vem som var involverad, vilka atataganden som gjordes och om de uppfylldes.

Vad gor Proudfrog idag jamfort med vad denna vision innebar?

Proudfrog spelar idag in moten utan botar, transkriberar med talaridentifiering och bearbetar varje mote genom en AI-pipeline som extraherar beslut, nyckeltermer, entiteter, atgardsuppgifter och amnessammanfattningar. Explore-funktionen mojliggor AI-driven sokning over hela din moteshistorik. Visionen Karpathy beskriver — med automatiserad linting, sjalvunderhallande index och somlous kompilering — representerar den riktning produkten ror sig mot.

Behover jag forsta AI eller kunskapsgrafer for att anvanda detta?

Nej. Hela poangen med Karpathys metod — och Proudfrogs implementering av den for moten — ar att AI:n hanterar kompilering och underhall. Du deltar i dina moten som vanligt, och systemet bygger kunskapsbasen automatiskt. Ingen manuell taggning, ingen mapporganisering, ingen kurering kravs. Arbetsfldet for kunskapsarbetare ar utformat for att vara osynligt tills du behover soka i det.

Hur skiljer sig detta fran att bara soka i mina motestranskript?

Att soka i transkript hittar nyckelord. En kompilerad kunskapsbas forstar kontext. Nar du fragar "Vad beslutade vi om tidsplanen for Q3?" returnerar transkriptsokning varje omnamnande av "Q3" och "tidsplan." En kunskapsbas returnerar de specifika besluten, i ordning, med resonemanget och vem som var involverad — fran flera moten for att ge dig hela bilden. Skillnaden ar hamtning mot forstaelse.