Karpathys LLM-wiki og hvad det betyder for modeviden
Andrej Karpathy viste, at LLM'er kan kompilere radata til selvvedligeholdende vidensbaser. For moder er det praecis saadan, naeste generations vaerktojer bor se ud.
I april 2026 offentliggjorde Andrej Karpathy et opslag pa X, hvor han beskrev noget, han kaldte en "LLM Knowledge Base" — et workflow, hvor store sprogmodeller kompilerer ra information til en struktureret, selvvedligeholdende markdown-wiki. Det var ikke en produktlancering. Det var ikke et framework-udgivelse. Det var en tidligere AI-chef hos Tesla og medstifter af OpenAI, der delte sit personlige workflow til videnshåndtering, og det sendte en stille chokbolge gennem AI-verdenen.
Grunden til, at det betod noget, var ikke selve workflowet, som er elegant, men simpelt. Det betod noget pa grund af, hvad det demonstrerede om, hvor den reelle vaerdi af LLM'er ligger — og hvor det meste af branchen kigger i den forkerte retning.
Hvad Karpathy byggede
Workflowet er bedragelig simpelt. Radata — artikler, forskning, noter, hvad som helst — fores ind i en LLM, der "kompilerer" det til linkede markdown-filer. Det er ikke resumeer i traditionel forstand. Det er strukturerede, krydsrefererede vidensartikler med konsistent formatering, eksplicitte links mellem koncepter og vedligeholdte indekser. Obsidian fungerer som IDE — et sted at gennemse, sporge og udvide wikien.
Derfra laegger systemet yderligere funktioner pa: sporgsmaal og svar mod hele vidensbasen, automatiseret "linting", der tjekker for modsigelser og huller, og generering af nye dokumenter fra den akkumulerede viden.
Hovedresultatet var slaende: ved praktisk skala — omkring 100 artikler og 400.000 ord — overga denne strukturerede markdown-tilgang de fleste RAG-pipelines. Ikke i teori. I faktisk daglig brug, for en person der forstar begge tilgange grundigt.
Med Karpathys ord: "a large fraction of my recent token throughput is going less into manipulating code, and more into manipulating knowledge." Det er en betydelig udtalelse fra en, der har tilbragt det seneste arti i frontlinjen af AI-engineering. Den mest vaerdifulde anvendelse af LLM'er, i hans erfaring, er ikke at skrive kode. Det er at strukturere viden.
Anti-RAG-indsigten
Dette resultat fortjener omhyggelig opmaerksomhed, fordi det gar imod strommenaf enorme brancheinvesteringer.
Den dominerende tilgang til AI-drevet videnshandtering i 2025 og 2026 har vaeret RAG: tag dine dokumenter, del dem op, embed dem i en vektordatabase, og hent relevante dele ved sporgetidspunktet. Milliarder af dollars er gaaet til vektordatabaser, embedding-modeller, opdelingsstrategier og hentingsoptimering. Enhver enterprise AI-startup har en RAG-pipeline i sin kerne.
Karpathys resultat er ikke, at RAG er ubrugeligt. Ved massiv skala — millioner af dokumenter, virksomhedsomspendende arkiver — er hentning nodvendig, fordi intet kontekstvindue kan rumme det hele. Men ved den skala, hvor de fleste individer og teams faktisk opererer, fungerer en anden tilgang bedre: lad LLM'en laese alt, strukturere det, vedligeholde strukturen og arbejde ud fra den strukturerede version.
Hvorfor virker dette? Flere grunde:
Struktur bevarer raesonnement. Nar en LLM skaber et struktureret resume, traeffer den redaktionelle beslutninger om, hvad der er vigtigt, hvordan koncepter relaterer sig, og hvilket detaljeniveau der skal bevares. Disse beslutninger koder en form for raesonnement, som ra hentning mister.
Links slar embeddings ved menneskelig skala. Eksplicitte krydsreferencer mellem dokumenter er mere nyttige end implicitte lighedsscorer, nar du har hundreder, ikke millioner, af dokumenter.
Vedligeholdelse muliggor tillid. Fordi LLM'en kontinuerligt "linter" vidensbasen — tjekker for modsigelser, opdaterer forceldet information, flagger huller — er resultatet noget, du faktisk kan stole pa.
Kontekstvinduer vokser. Med moderne kontekstvinduer, der strekker sig til hundredtusinder eller millioner af tokens, har regnestykket aendret sig.
Implikationen er klar: for personlig og teambaseret viden er den vindende arkitektur ikke "hent og generer." Det er "kompiler, strukturer, vedligehold og raesonner."
Det fremvoksende landskab
Karpathy er ikke den eneste, der udforsker dette territorium. Landskabet for AI-drevet videnshandtering udvikler sig hurtigt.
Googles NotebookLM er stille blevet et af de mest overbevisende produkter i dette rum. Det indtager dine dokumenter — op til 500 kilder — og skaber, hvad der i praksis er en AI-ekspert pa netop dit materiale.
Mem.ai rejste 29 millioner dollars pa loftet om AI-native notatskrivning med automatisk organisering. Det kampede med at finde produkt-markeds-fit trods staerk teknologi — et tilbagevendende monster: at bygge et fristaaende vidensvaerktoj er svaert, nar videnen lever et andet sted.
Rewind blev Limitless og pivoterede fra fuld systemopfangning til modefokuseret AI, for det blev kobt af Meta. Banen er talende — bred opfangning er teknisk imponerende, men praktisk overveldende. Modefokuseret viden viste sig at vaere mere handlingsbar.
Daniel Miesslers Fabric tog en helt anden tilgang: open source AI-monstre, du korer lokalt, hvor AI behandles som et Unix-lignende vaerktoj til informationsbehandling.
Obsidian har bevidst holdt sig uden for AI og bevarer sin position som et vaerktoj til menneskedrevet videnshandtering.
Notion har bevaeget sig aggressivt ind i AI-agenter, der kan raesonnere over hele din arbejdsplads.
Og gennem alt dette lober Model Context Protocol (MCP), som vokser frem som en standard for, hvordan AI-systemer forbindes til eksterne vaerktojer og datakilder.
Monsteret pa tvaers af alle disse er konvergens mod den samme indsigt, Karpathy formulerede: radata er ikke viden. Noget skal kompilere det.
Hvad dette betyder for moder
Her bliver det konkret. Karpathy byggede sin vidensbase fra artikler og forskning. Men moder er uden tvivl en bedre pasform for denne tilgang — og en mere presserende en.
Overvej egenskaberne ved modeviden:
- Den genereres kontinuerligt, i hvert mode, uden anstrengelse
- Den er iboende relationel — involverer mennesker, beslutninger, projekter og forpligtelser
- Den akkumuleres over tid — det hundrede mode i et projekt er langt mere vaerdifuldt i kontekst end isoleret
- Den er ferskvare — detaljerne falmer inden for timer, hvis de ikke fanges
- Den spildes i svimlende omfang
"Hvornaar bliver dette et produkt?"-spaendingen, som Karpathys opslag antyder, besvares tydeligst i modedomaenet. Hans personlige wiki kraever kuratering og intention. En modevidensbase kan vaere automatisk — fordi moder har en naturlig struktur (deltagere, dagsorden, resultater) og en naturlig trigger (selve modet).
Det er praecis tesen bag Proudfrogs tilgang til modeintelligens. Ra lyd bliver struktureret transkription. Struktureret transkription bliver beslutninger, entiteter, handlingspunkter og relationskontekst. Og det strukturerede output akkumuleres over hvert mode og bygger en vidensgraf, der bliver mere vaerdifuld med hver samtale.
Akkumuleringseffekten er det, der betyder mest. Dit tiende mode i et projekt er mere nyttigt end dit forste, ikke fordi transkriptet er bedre, men fordi systemet nu har kontekst: hvem sagde hvad for, hvad blev besluttet, hvilke forpligtelser blev gjort, og om de blev opfyldt.
Modeanvendelser af Karpathys koncepter
Karpathys rammevaerk passer bemerkelsesvaerdigt godt til modedomaenet. Hvert koncept i hans workflow har en direkte analog:
Kompilering
I Karpathys system betyder kompilering at tage radata og strukturere det til linkede, formaterede vidensartikler. For moder betyder det, at AI behandler hver optagelse til strukturerede outputs: beslutninger udtrukket og tagget, entiteter identificeret og linket til tidligere forekomster, handlingspunkter fanget med ejere og deadlines, emneresumeer der knytter sig til tidligere diskussioner.
Det er ikke transkription. Transkription giver dig en oversigt over, hvad der blev sagt. Kompilering giver dig viden — struktureret, linket, sporbar.
Linting
Karpathys "linting"-trin tjekker vidensbasen for modsigelser, huller og forceldet information. I modekontekst bliver dette: at flagge, nar en beslutning pa tirsdagens mode modsiger en fra sidste maned, at fremhaeve forsinkede forpligtelser, der aldrig blev fulgt op, at identificere glemte opfolgninger, og at belyse, nar det samme sporgsmaal bliver ved med at dukke op uden at blive lost.
Det er her, modeviden begynder at blive genuint aktiv — ikke bare et referat, men en radgiver.
Den selvvedligeholdende wiki
Karpathys wiki opdaterer sig selv, nar ny information ankommer. For moder betyder dette en vidensgraf, der vokser med hver samtale — der automatisk opdaterer projekttidslinjer, relationskort, beslutningslogge og emnetrude. Intet manuelt vedligehold. Ingen kuratering kreves.
Anti-RAG-resultatet ved modeskala
Karpathys opdagelse af, at strukturerede resumeer overgar vektorsogning ved praktisk skala, passer perfekt til modedomaenet. En persons modekorpus — selv en aktiv professionel — er typisk hundreder af dokumenter, ikke millioner. Ved denne skala er struktureret viden med eksplicitte links mellem moder, mennesker og beslutninger langt mere nyttig end lighedsbaseret hentning.
Konkurrencebilledet
De fleste modevaerktojer stopper i dag ved transkription eller i bedste fald simpel opsummering. Markedet segmenteres omtrent i niveauer:
Standard transkription — vaerktojer som Otter.ai og Fireflies.ai, der optager, transkriberer og giver sogbar tekst. Nyttigt, men fladt. Dit hundrede transkript er ikke mere vaerdifuldt end dit forste, fordi der mangler forbindelser mellem dem.
Notatforbedring — vaerktojer som Granola, der udvider dine eksisterende noter med AI-genereret kontekst. Smart og praktisk, men stadig forankret i det enkelte mode.
Karpathy-idealet — et system, der kompilerer hvert mode til struktureret viden, vedligeholder links mellem moder, linter for modsigelser og huller, og muliggor raesonnement over hele korpusset. Det er her, den reelle vaerdi ligger, og det er her, overraskende fa vaerktojer opererer.
Gabet mellem "sogbare transkripter" og "selvvedligeholdende modevidensbase" er enormt.
Proudfrogs tilgang er at bygge mod Karpathy-idealet specifikt for moder. Explore-funktionen muliggor allerede AI-drevet sogning over hele din modehistorik — ikke noglesordssogning, men genuint raesonnement om beslutninger, forpligtelser, mennesker og projekter.
Er dette fuldt realiseret i dag? Nej. Visionen Karpathy formulerede saetter en standard, som hele branchen stadig strekker sig efter. Men arkitekturen er rigtig, og retningen er klar.
Hvad der kommer
Karpathys opslag er vigtigt, fordi det haever forventningsniveauet for alle. Nar du forst har set, hvordan LLM-kompileret viden ser ud — struktureret, linket, vedligeholdt, sporbar — kan du ikke stoppe med at se det.
Modevaerktojer skal bevaege sig forbi transkription. Grundkravene stiger. Hvis dit modevaerktoj ikke kan raesonnere over moder, koble beslutninger til resultater og fremhaeve glemte forpligtelser, er det en standardvare.
Notatapps skal inkorporere kompilering. Manuel organisering er ikke baeredygtigt i det tempo, vidensarbejdere genererer information.
Vidensplatforme for virksomheder skal forene RAG med kompilering. Ved virksomhedsskala er hentning nodvendig. Men Karpathys resultat antyder, at hentningen bor operere over kompileret, struktureret viden.
Det bredere skifte gar fra vaerktojer, der opbevarer information, til vaerktojer, der forstar den. Karpathy demonstrerede dette med artikler og forskning. For moder er muligheden endnu storre, fordi informationen er rigere, mere relationel og genereres kontinuerligt.
Se, hvordan Proudfrog handterer modeviden, eller udforsk priserne for at komme i gang.
Ofte stillede sporgsmaal
Hvad er Karpathys LLM Knowledge Base-metode?
Andrej Karpathy beskrev et workflow, hvor LLM'er "kompilerer" ra information til strukturerede, sammenlinkede markdown-artikler — i praksis en selvvedligeholdende wiki. LLM'en laeser radata, strukturerer det med konsistent formatering og krydsreferencer, og vedligeholder derefter vidensbasen over tid ved at tjekke for modsigelser, opdatere forceldet information og flagge huller. Hovedresultatet var, at denne tilgang overgar traditionelle RAG-pipelines ved praktisk, personlig skala.
Hvorfor overgar struktureret viden RAG ved personlig skala?
RAG fungerer ved at finde dokumentbiter, der ligner dit sporgsmaal, ved hjaelp af vektorembeddings. Det fungerer godt ved massiv skala, men mister kontekst ved mindre skala. Nar du har hundreder af dokumenter i stedet for millioner, kan en LLM laese og strukturere dem alle og bevare raesonnement om, hvordan koncepter haenger sammen.
Hvordan gaelder dette for moder specifikt?
Moder genererer relationel viden — beslutninger koblet til mennesker, projekter linket til tidslinjer, forpligtelser knyttet til resultater. Denne type viden drager enormt fordel af kompilering frem for simpel opbevaring. I stedet for at soge i transkriptionstekst lader en kompileret modevidensbase dig spore, hvordan beslutninger udviklede sig, hvem der var involveret, hvilke forpligtelser der blev gjort, og om de blev opfyldt.
Hvad gor Proudfrog i dag versus hvad denne vision indeberer?
Proudfrog optager i dag moder uden botter, transkriberer med taleridentifikation og behandler hvert mode gennem en AI-pipeline, der udtraekker beslutninger, nogletermer, entiteter, handlingspunkter og emneresumeer. Explore-funktionen muliggor AI-drevet sogning over hele din modehistorik. Visionen Karpathy beskriver representerer den retning, produktet bevaeger sig mod.
Skal jeg forsta AI eller vidensgrafer for at bruge dette?
Nej. Hele pointen med Karpathys metode — og Proudfrogs implementering af den for moder — er, at AI'en handterer kompilering og vedligeholdelse. Du deltager i dine moder som normalt, og systemet bygger vidensbasen automatisk. Ingen manuel tagging, ingen mappeorganisering, ingen kuratering kreves. Workflowet for vidensarbejdere er designet til at vaere usynligt, indtil du har brug for at sporge det.
Hvordan adskiller dette sig fra bare at soge i mine modetranskripter?
At soge i transkripter finder nogleord. En kompileret vidensbase forstar kontekst. Nar du sporger "Hvad besluttede vi om Q3-tidslinjen?" returnerer transkriptionssogning enhver omtale af "Q3" og "tidslinje." En vidensbase returnerer de specifikke beslutninger, i raekkefolge, med raesonnemmentet og hvem der var involveret — fra flere moder for at give dig det fulde billede.