Karpathys LLM-wiki og hva det betyr for motekunnskap
Andrej Karpathy viste at LLM-er kan kompilere radata til selvvedlikeholdende kunnskapsbaser. For moter er det akkurat slik neste generasjons verktoy bor se ut.
I april 2026 publiserte Andrej Karpathy et innlegg pa X der han beskrev noe han kalte en "LLM Knowledge Base" — en arbeidsflyt der store sprakmodeller kompilerer ra informasjon til en strukturert, selvvedlikeholdende markdown-wiki. Det var ikke en produktlansering. Det var ikke et rammeverksslipp. Det var en tidligere AI-sjef hos Tesla og medgrunnlegger av OpenAI som delte sin personlige arbeidsflyt for kunnskapshandtering, og det sendte en stille sjokkbolge gjennom AI-miljoet.
Grunnen til at det var viktig var ikke selve arbeidsflyten, som er elegant men enkel. Det var viktig pa grunn av hva det demonstrerte om hvor den virkelige verdien av LLM-er ligger — og hvor det meste av bransjen ser i feil retning.
Hva Karpathy bygde
Arbeidsflyten er bedragelig enkel. Radata — artikler, forskning, notater, hva som helst — mates inn i en LLM som "kompilerer" det til lenkede markdown-filer. Det er ikke sammendrag i tradisjonell forstand. Det er strukturerte, kryssrefererte kunnskapsartikler med konsistent formatering, eksplisitte lenker mellom konsepter og vedlikeholdte indekser. Obsidian fungerer som IDE — et sted a bla, sporr og utvide wikien.
Derfra legger systemet pa tilleggsfunksjoner: sporsmal og svar mot hele kunnskapsbasen, automatisert "linting" som sjekker for motsetninger og hull, og generering av nye dokumenter fra den akkumulerte kunnskapen.
Hovedfunnet var slaende: ved praktisk skala — omtrent 100 artikler og 400 000 ord — overga denne strukturerte markdown-tilnærmingen de fleste RAG-pipelines. Ikke i teori. I faktisk daglig bruk, for en person som forstar begge tilnarminger grundig.
Med Karpathys ord: "a large fraction of my recent token throughput is going less into manipulating code, and more into manipulating knowledge." Det er en betydelig uttalelse fra noen som har tilbrakt det siste tiaret i frontlinjen av AI-engineering. Den mest verdifulle anvendelsen av LLM-er, i hans erfaring, er ikke a skrive kode. Det er a strukturere kunnskap.
Anti-RAG-innsikten
Dette funnet fortjener noye oppmerksomhet fordi det gar mot strommen av enorme bransjeinvesteringer.
Den dominerende tilnarmingen til AI-drevet kunnskapshandtering i 2025 og 2026 har vart RAG: ta dokumentene dine, del dem opp, embed dem i en vektordatabase, og hent relevante biter ved sporretidspunktet. Milliarder av dollar har gatt til vektordatabaser, embedding-modeller, oppdeling-strategier og hentingsoptimalisering. Hver enterprise AI-startup har en RAG-pipeline i kjernen.
Karpathys funn er ikke at RAG er ubrukelig. Ved massiv skala — millioner av dokumenter, bedriftsomspennende arkiver — er henting nodvendig fordi intet kontekstvindu kan romme alt. Men ved den skalaen der de fleste individer og team faktisk opererer, fungerer en annen tilnarming bedre: la LLM-en lese alt, strukturere det, vedlikeholde strukturen og arbeide fra den strukturerte versjonen.
Hvorfor fungerer dette? Flere grunner:
Struktur bevarer resonnement. Nar en LLM lager et strukturert sammendrag, tar den redaksjonelle beslutninger om hva som er viktig, hvordan konsepter relaterer seg, og hvilket detaljniva som skal bevares. Disse beslutningene koder en form for resonnement som ra henting mister.
Lenker slar embeddings ved menneskelig skala. Eksplisitte kryssreferanser mellom dokumenter er mer nyttige enn implisitte likhetspoeng nar du har hundrevis, ikke millioner, av dokumenter.
Vedlikehold muliggjor tillit. Fordi LLM-en kontinuerlig "linter" kunnskapsbasen — sjekker for motsetninger, oppdaterer utdatert informasjon, flagger hull — er resultatet noe du faktisk kan stole pa.
Kontekstvinduer vokser. Med moderne kontekstvinduer som strekker seg til hundretusener eller millioner av tokens, har regnestykket endret seg.
Implikasjonen er klar: for personlig og teambasert kunnskap er den vinnende arkitekturen ikke "hent og generer." Det er "kompiler, strukturer, vedlikehold og resonner."
Det fremvoksende landskapet
Karpathy er ikke den eneste som utforsker dette territoriet. Landskapet for AI-drevet kunnskapshandtering utvikler seg raskt.
Googles NotebookLM har stille blitt et av de mest overbevisende produktene i dette rommet. Det tar inn dokumentene dine — opp til 500 kilder — og skaper det som i praksis er en AI-ekspert pa akkurat ditt materiale.
Mem.ai hentet inn 29 millioner dollar pa loftet om AI-native notatforing med automatisk organisering. Det slet med a finne produkt-markeds-tilpasning til tross for sterk teknologi — et gjentagende monster: a bygge et fristaaende kunnskapsverktoy er vanskelig nar kunnskapen lever et annet sted.
Rewind ble Limitless og pivoterte fra full systemfangst til motefokusert AI, for det ble kopt av Meta. Banen er talende — bred fangst er teknisk imponerende men praktisk overveldende. Motefokusert kunnskap viste seg a vare mer handlingsbar.
Daniel Miesslers Fabric tok en helt annen tilnarming: open source AI-monstre du kjorer lokalt, der AI behandles som et Unix-lignende verktoy for informasjonsbehandling.
Obsidian har bevisst holdt seg unna AI og beholder sin posisjon som et verktoy for menneskelig drevet kunnskapshandtering. Karpathys valg av Obsidian som frontend er bemerkelsesverdig.
Notion har beveget seg aggressivt inn i AI-agenter som kan resonnere over hele arbeidsflaten din.
Og gjennom alt dette loper Model Context Protocol (MCP), som vokser fram som en standard for hvordan AI-systemer kobles til eksterne verktoy og datakilder.
Monsteret pa tvers av alle disse er konvergens mot den samme innsikten Karpathy formulerte: radata er ikke kunnskap. Noe ma kompilere det.
Hva dette betyr for moter
Her blir det konkret. Karpathy bygde sin kunnskapsbase fra artikler og forskning. Men moter er uten tvil en bedre passform for denne tilnarmingen — og en mer presserende en.
Vurder egenskapene til motekunnskap:
- Den genereres kontinuerlig, i hvert mote, uten anstrengelse
- Den er iboende relasjonell — involverer mennesker, beslutninger, prosjekter og forpliktelser
- Den akkumuleres over tid — det hundrede motet i et prosjekt er langt mer verdifullt i kontekst enn isolert
- Den er ferskvare — detaljene falmer innen timer hvis de ikke fanges
- Den kastes bort i svimlende omfang
"Nar blir dette et produkt?"-spenningen som Karpathys innlegg antyder, besvares tydeligst i motedomenet. Hans personlige wiki krever kuratering og intensjon. En motekunnskapsbase kan vare automatisk — fordi moter har en naturlig struktur (deltakere, agenda, resultater) og en naturlig trigger (selve motet).
Det er akkurat tesen bak Proudfrogs tilnarming til moteintelligens. Ra lyd blir strukturert transkript. Strukturert transkript blir beslutninger, entiteter, handlingspunkter og relasjonskontekst. Og den strukturerte outputen akkumuleres over hvert mote og bygger en kunnskapsgraf som blir mer verdifull med hver samtale.
Akkumuleringseffekten er det som betyr mest. Ditt tiende mote i et prosjekt er mer nyttig enn ditt forste ikke fordi transkriptet er bedre, men fordi systemet na har kontekst: hvem sa hva for, hva ble besluttet, hvilke forpliktelser ble gjort og om de ble oppfylt.
Moteanvendelser av Karpathys konsepter
Karpathys rammeverk passer bemerkelsesverdig godt til motedomenet. Hvert konsept i arbeidsflyten hans har en direkte analog:
Kompilering
I Karpathys system betyr kompilering a ta radata og strukturere det til lenkede, formaterte kunnskapsartikler. For moter betyr dette at AI behandler hver opptak til strukturerte utdata: beslutninger trukket ut og tagget, entiteter identifisert og lenket til tidligere forekomster, handlingspunkter fanget med eiere og tidsfrister, emnesammendrag som knytter seg til tidligere diskusjoner.
Dette er ikke transkripsjon. Transkripsjon gir deg en oversikt over hva som ble sagt. Kompilering gir deg kunnskap — strukturert, lenket, sporbar.
Linting
Karpathys "linting"-steg sjekker kunnskapsbasen for motsetninger, hull og utdatert informasjon. I motekontekst blir dette: a flagge nar en beslutning pa tirsdagens mote motsigerr en fra forrige maned, a lofte frem forsinkede forpliktelser som aldri ble fulgt opp, a identifisere glemte oppfolginger, og a fremheve nar det samme sporsmalet stadig dukker opp uten a bli lost.
Det er her motekunnskap begynner a bli genuint aktiv — ikke bare et referat, men en radgiver.
Den selvvedlikeholdende wikien
Karpathys wiki oppdaterer seg selv nar ny informasjon ankommer. For moter betyr dette en kunnskapsgraf som vokser med hver samtale — som automatisk oppdaterer prosjekttidslinjer, relasjonskart, beslutningslogger og emnetrader. Ikke noe manuelt vedlikehold. Ingen kuratering kreves.
Anti-RAG-funnet ved moteskala
Karpathys oppdagelse av at strukturerte sammendrag overgar vektorsok ved praktisk skala, passer perfekt til motedomenet. En persons motekorpus — selv en aktiv profesjonell — er typisk hundrevis av dokumenter, ikke millioner. Ved denne skalaen er strukturert kunnskap med eksplisitte lenker mellom moter, mennesker og beslutninger langt mer nyttig enn likhetsbasert henting.
Konkurransebildet
De fleste moteverktoy stanser i dag ved transkripsjon, eller i beste fall enkel oppsummering. Markedet segmenteres omtrent i nivaer:
Standard transkripsjon — verktoy som Otter.ai og Fireflies.ai som spiller inn, transkriberer og gir sokbar tekst. Nyttig, men flat. Ditt hundrede transkript er ikke mer verdifullt enn ditt forste fordi det mangler koblinger mellom dem.
Notatforbedring — verktoy som Granola som utvider dine eksisterende notater med AI-generert kontekst. Smart og praktisk, men fortsatt forankret til det enkelte motet.
Karpathy-idealet — et system som kompilerer hvert mote til strukturert kunnskap, vedlikeholder lenkene mellom moter, linter for motsetninger og hull, og muliggjor resonnement over hele korpuset. Det er her den virkelige verdien ligger, og det er her overraskende fa verktoy opererer.
Gapet mellom "sokbare transkripter" og "selvvedlikeholdende motekunnskapsbase" er enormt.
Proudfrogs tilnarming er a bygge mot Karpathy-idealet spesifikt for moter. Explore-funksjonen muliggjor allerede AI-drevet soking over hele din motehistorikk — ikke nokkelsordssok, men genuint resonnement om beslutninger, forpliktelser, mennesker og prosjekter.
Er dette fullt realisert i dag? Nei. Visjonen Karpathy formulerte setter en standard som hele bransjen fortsatt strekker seg etter. Men arkitekturen er riktig, og retningen er klar.
Hva som kommer
Karpathys innlegg er viktig fordi det hever forventningsnivaat for alle. Nar du forst har sett hvordan LLM-kompilert kunnskap ser ut — strukturert, lenket, vedlikeholdt, sporbar — kan du ikke slutte a se det.
Moteverktoy ma bevege seg forbi transkripsjon. Grunnkravene stiger. Hvis moteverktoyel ditt ikke kan resonnere over moter, koble beslutninger til resultater og lofte frem glemte forpliktelser, er det en standardvare.
Notatapper ma inkorporere kompilering. Manuell organisering er ikke barekraftig i det tempoet kunnskapsarbeidere genererer informasjon.
Kunnskapsplattformer for bedrifter ma forene RAG med kompilering. Ved bedriftsskala er henting nodvendig. Men Karpathys funn antyder at hentingen bor operere over kompilert, strukturert kunnskap.
Det bredere skiftet gar fra verktoy som lagrer informasjon til verktoy som forstar den. Karpathy demonstrerte dette med artikler og forskning. For moter er muligheten enda storre fordi informasjonen er rikere, mer relasjonell og genereres kontinuerlig.
Se hvordan Proudfrog handterer motekunnskap eller utforsk prisene for a komme i gang.
Ofte stilte sporsmal
Hva er Karpathys LLM Knowledge Base-metode?
Andrej Karpathy beskrev en arbeidsflyt der LLM-er "kompilerer" ra informasjon til strukturerte, sammenlenkede markdown-artikler — i praksis en selvvedlikeholdende wiki. LLM-en leser radata, strukturerer det med konsistent formatering og kryssreferanser, og vedlikeholder deretter kunnskapsbasen over tid ved a sjekke for motsetninger, oppdatere utdatert informasjon og flagge hull. Hovedfunnet var at denne tilnarmingen overgar tradisjonelle RAG-pipelines ved praktisk, personlig skala.
Hvorfor overgar strukturert kunnskap RAG ved personlig skala?
RAG fungerer ved a finne dokumentbiter som ligner pa sporsmalet ditt ved hjelp av vektorembeddings. Det fungerer godt ved massiv skala, men mister kontekst ved mindre skala. Nar du har hundrevis av dokumenter i stedet for millioner, kan en LLM lese og strukturere alle, og bevare resonnement om hvordan konsepter henger sammen og hva den overordnede fortellingen er.
Hvordan gjelder dette for moter spesifikt?
Moter genererer relasjonell kunnskap — beslutninger koblet til mennesker, prosjekter lenket til tidslinjer, forpliktelser knyttet til resultater. Denne typen kunnskap drar enormt nytte av kompilering fremfor enkel lagring. I stedet for a soke i transkripttekst lar en kompilert motekunnskapsbase deg spore hvordan beslutninger utviklet seg, hvem som var involvert, hvilke forpliktelser som ble gjort og om de ble oppfylt.
Hva gjor Proudfrog i dag versus hva denne visjonen innebarer?
Proudfrog spiller i dag inn moter uten boter, transkriberer med taleridentifisering og behandler hvert mote gjennom en AI-pipeline som trekker ut beslutninger, nokkeltermer, entiteter, handlingspunkter og emnesammendrag. Explore-funksjonen muliggjor AI-drevet soking over hele din motehistorikk. Visjonen Karpathy beskriver representerer retningen produktet beveger seg mot.
Trenger jeg a forsta AI eller kunnskapsgrafer for a bruke dette?
Nei. Hele poenget med Karpathys metode — og Proudfrogs implementering av den for moter — er at AI-en handterer kompilering og vedlikehold. Du deltar i motene dine som vanlig, og systemet bygger kunnskapsbasen automatisk. Ingen manuell tagging, ingen mappeorganisering, ingen kuratering kreves. Arbeidsflyten for kunnskapsarbeidere er designet for a vare usynlig til du trenger a sporr den.
Hvordan skiller dette seg fra a bare soke i motetranskriptene mine?
A soke i transkripter finner nokkelord. En kompilert kunnskapsbase forstar kontekst. Nar du spor "Hva bestemte vi om Q3-tidslinjen?" returnerer transkriptssok hvert omtale av "Q3" og "tidslinje." En kunnskapsbase returnerer de spesifikke beslutningene, i rekkefolge, med resonnementet og hvem som var involvert — fra flere moter for a gi deg hele bildet.