AI-hukommelsesugen der aendrede videnstyring

Karpathys LLM-wiki den 2. april. Mem0s Serie A den 4. april. MemPalace med 23.000 stjerner pa 72 timer. Letta Code-lancering. Hindsight Hermes. Fem projekter, en uge, en erkendelse: vidensarbejdere er traette af AI-amnesi.

ai-memoryknowledge-graphmempalacekarpathyllm

Om en uge, nar stovet har lagt sig, kommer den forste uge i april 2026 til at se ud som oejeblikket, hvor AI-hukommelse holdt op med at vaere et ingenioremne pa subreddits og blev en kategori. Fem projekter blev udgivet mellem den 2. og 8. april. Ingen af dem var koordineret. Alle argumenterede for det samme fra lidt forskellige vinkler: den dominerende tilgang til at give sprogmodeller en hukommelse er forkert, og den naeste losning findes allerede.

Dette er den redaktionelle gennemgang -- ikke en lanceringsopsummering, ikke en benchmark-krig og ikke et produktpitch. Vi har to laengere artikler om Karpathys wiki specifikt og om dens aerlige svagheder, og denne artikel er den bredere ramme omkring begge. Det der folger er briefingversionen: hvad der skete, hvorfor det skete nu, hvad der faktisk er nyt, hvad der er overhypet, og hvad det betyder for de naeste tolv maneder.

Ugen, i en tidslinje

  • 2. april. Andrej Karpathy poster sin "LLM Knowledge Base"-arbejdsgang pa X. Traden passerer seksten millioner visninger inden for fem dage. Citatet der spreder sig overalt: "a large fraction of my recent token throughput is going less into manipulating code, and more into manipulating knowledge."
  • 4. april. Karpathy publicerer den formelle gennemgang som en GitHub-gist. Samme dag publicerer Mem0 sin rapport "State of AI Agent Memory 2026" og annoncerer en Serie A-runde.
  • 6. april. MemPalace lanceres pa GitHub. Letta udgiver Letta Code, en hukommelsesforst kodningsagent. Hindsight Hermes leverer sin MCP-integration.
  • 6.--8. april. MemPalace gar fra nul til cirka 23.000 GitHub-stjerner pa tooghalvfjerds timer. En benchmark-kontrovers bryder ud, faellesskabet presser tilbage, projektet korrigerer sig offentligt.

Fem udgivelser, en uge, en faelles diagnose: vidensarbejdere er traette af AI-amnesi. Enhver samtale begynder fra nul. Ethvert sporgsmal genopdager kontekst, som modellen allerede sa i gar. Intet akkumuleres. Karpathy var den forste store stemme, der sagde det hojt, og i det oejeblik han gjorde det, havde fire andre hold et faerdigt svar klar til at sende inden for fire dage. Uafhaengig konvergens er sjaeldent en tilfaeldighed. Det betyder som regel, at problemet har vaeret modent laengere end tweets antyder.

Hvorfor denne uge skete nu

I cirka to ar har svaret pa "hvordan giver vi en LLM viden?" vaeret det samme: opdel dine dokumenter, embed dem i en vektordatabase, hent top-k-matchene ved sporgetidspunktet, generer. RAG. Arkitekturen absorberede milliarder af dollars i investeringer og blev standardhistorien, som enhver enterprise-AI-startup fortalte.

Den holdt ogsa op med at foles tilstraekkelig for cirka et ar siden. Frustrationen var diffus men konsistent. Avancerede brugere beskrev det pa samme made med forskellige ord: modellen laerer aldrig noget af mig. Jeg forklarer mit projekt pa mandag, jeg forklarer det igen pa tirsdag, jeg forklarer det igen pa fredag. Vektorlageret husker strenge; det husker ikke relationer, og det husker bestemt ikke de redaktionelle beslutninger, jeg hele tiden traeffer om, hvad der er vigtigt. Hent-og-glem er en fundamentalt amnesisk lokke, og nar man har levet i den laenge nok, begynder man at onske noget andet, selv om man ikke kan formulere hvad.

Hvad den 2.--8. april demonstrerede er, at flere hold allerede havde formuleret det privat og ventede pa det kulturelle oejeblik. Karpathys indlaeg var det oejeblik. Han var ikke den forste person, der byggede en kompileret wiki -- markdown-wikier er aeldre end de fleste, der bygger dem -- men han var den forste bredt betroede stemme, der sagde "jeg har provet det her serioost, og det virker bedre end RAG i den skala, jeg faktisk lever i." Daemningen brast, fordi mange mennesker havde holdt den samme ide bag den samme daemning.

De to arkitektoniske poler

Den mest brugbare ramme for ugen er at ignorere markedsforingen og se pa de arkitektoniske filosofier. Tre af dem er nu synlige, og to af dem star i direkte modsaetning.

Kompiler-sa-sporg. Dette er Karpathys wiki. LLM'en laeser radata ved indtagelse og traeffer redaktionelle beslutninger: hvilke koncepter der er vigtige, hvilke links der skal traekkes, hvordan den resulterende markdown-artikel skal struktureres, hvor en eksisterende side skal opdateres kontra hvor en ny skal oprettes. Ved sporgetidspunktet navigerer LLM'en den kompilerede wiki, ikke radataarkivet. Viden er, i Karpathys formulering, kompileret en gang og holdt opdateret, ikke udledt ved hvert sporgsmal. Styrkerne er reelle: minimal infrastruktur, struktureret raesonnement bevaret pa tvaers af gennemgange, viden der akkumuleres fordi hver indtagelse beriger den eksisterende struktur i stedet for at blive fladet tilbage til et chunk-lager. Svaghederne er ogsa reelle: indeksfiler vokser ud af kontekstvinduer forbi et par hundrede artikler, citatpraecisionen er los, og den samme model der kompilerer er den model der kvalitetssikrer, med alle de selvkontrolbegraensninger det medfoerer.

Lagr-sa-hent. Dette er MemPalaces pol, og den er abent et argument mod den tredje tilgang, vi kommer til om et oejeblik. MemPalaces pitch er, at man aldrig skal lade en sprogmodel afgoere, hvad der er vaerd at huske, for i det oejeblik man gor det, har man tabt information, man ikke kan fa tilbage. Lagr alt ordret. Hent via metadatafiltreret vektorsogning over en lokal SQLite-og-ChromaDB-stak. README'en formulerer den filosofiske position rent: "Other memory systems try to fix this by letting AI decide what's worth remembering. It extracts 'user prefers Postgres' and throws away the conversation where you explained why." Styrkerne: intet informationstab, hurtig lokal hentning, reel datasuveraenitet, ingen skyafhaengighed. Svaghederne: der er intet iboeende synteselag, hentning afhaenger stadig af den samme vektorlighed som alle andre afhaenger af, og den meget hypede "paladsstruktur" er, nar man laeser koden, mest metadatafiltrering oven pa ChromaDB. Det er et godt ingenioorvalg. Det er ikke en ny form for hukommelse.

Ekstraher-sa-lagr. Dette er den tredje pol, og det er den der angribes fra begge sider samtidig. En LLM ekstraherer fakta under indtagelse -- "Patrik foretraekker Postgres," "Q3-deadline blev flyttet til oktober" -- og lagrer komprimerede repraesentationer som hukommelsesenhed. Det er hvad de fleste eksisterende hukommelsessystemer, inklusive Mem0, faktisk gor. Karpathys wiki er et argument for, at de ekstraherede fakta bor linkes ind i en struktureret artefakt snarere end lagres som flade fragmenter. MemPalaces pitch er, at selve akten med at ekstrahere er den oprindelige synd -- man smider forklaringen vaek, forbeholdet, nuancen, samtalen omkring faktumet. Begge siger, i forskellige vokabularer, at tabsgivende opsummering ved indtagelse er fjenden.

Det aerlige produktionssvar kommer til at involvere alle tre. Vi vender tilbage til det i afslutningssektionen.

Benchmark-krigene

Dette er den del af ugen, der skal fortaelles omhyggeligt, fordi det er den del, hvor mest skade pa offentlig forstaelse blev gjort.

MemPalace lancerede med en pastand om 100 % pa LongMemEval, standard-benchmark'et for langkonteksthukommelse fra LongMemEval-artiklen. En perfekt score er den slags tal, der far et projekt til treogtyve tusind stjerner pa tre dage, og det er cirka hvad der skete. Faellesskabet pressede derefter tilbage, hardt, pa en made der endte med at blive en model for, hvordan denne slags uenighed bor foga.

Den faktiske historie har fire dele, og alle fire er vigtige.

For det forste maler MemPalace recall@5 -- en ren hentingsmetrik. Den officielle LongMemEval-toppliste maler end-to-end QA-nojagtighed: hent, generer, bliv bedomt pa om svaret er rigtigt. Det er ikke den samme metrik, og det er ikke engang taet pa. Som GitHub-bruger dial481 udtrykte det i den trad, der endte med at vaere den reneste opsummering noget sted: "A system that retrieves perfectly and then answers wrong scores 100% under recall_any@5 and 0% on the leaderboard." Man kan fa perfekt pa den ene og nul pa den anden.

For det andet blev 100 %-scoren opnaet med tre malrettede patches skrevet specifikt til de tre fejlende sporgsmal i dev-saettet. Efter at patchene blev fjernet, og systemet blev kort mod de 450 tilbageholdte sporgsmal, faldt scoren til 98,4 %. Stadig fremragende. Betydeligt mere aerligt. Projektets eget BENCHMARKS.md anerkendte, til dets fortjeneste, problemet med klart sprog: "This is teaching to the test." Det er en saetning, man naesten aldrig ser i et lanceringsrepo, og det er en saetning, faellesskabet fortjener mere af.

For det tredje er ramodusets hovedscore 96,6 % pa LongMemEval recall@5, og den er reel. Uafhaengig reproduktion af bruger @gizmax pa en M2 Ultra bekraeftede tallet pa det publicerede evalueringssaet. Sa den underliggende hentningsmotor er genuint staerk. Problemet var aldrig, at MemPalace var darligt. Problemet var, at markedsforingstallet var en anden metrik end topplistens metrik, og forskellen blev ikke gjort tydelig, for faellesskabet gjorde den tydelig.

For det fjerde har Mem0s publicerede tal heller ikke haft en let tur. Uafhaengig evaluering pa LongMemEval placerede Mem0 pa cirka 49,0 % pa end-to-end-opgaven. Letta forsogte at reproducere Mem0s egne havdede benchmarks og kunne ikke. Monstret gennem ugen er, at naesten hvert hukommelsesprojekt har et publiceret hovedtal, der ikke overlever en omhyggelig tredjepartskoring, og arsagerne handler naesten altid om hvilken metrik, hvilket delsaet og hvilken dommer, snarere end direkte uaerlighed. Penfield Labs' gennemgang er den reneste eksterne analyse af specifikt MemPalace-sagen.

Konklusionen er den samme konklusion, der gjaldt for de tidlige dage af LLM-evalueringer generelt: i en sa ung kategori, behandl hovedtallene som markedsforing indtil nogen anden har kort dem. Laes metodesektionen, ikke pressemeddelelsen. Og giv anerkendelse til de projekter, der publicerer deres egne forbehold -- MemPalaces BENCHMARKS.md er, set i bakspejlet, et af de mere aerlige dokumenter fra ugen, selv om det matte tvinges frem gennem en offentlig diskussion.

Hvad der faktisk er nyt

Fjern lanceringsenergie og stil det svaerere sporgsmal: hvad bidrog denne uge genuint med til feltet?

Karpathys wiki bidrog med et argument, velartikuleret, for kompiler-sa-sporg pa personlig skala. Skemafil-monstret (en CLAUDE.md der beskriver, hvordan wikien skal formes) er nyt og brugbart. Den arkitektoniske adskillelse mellem raw/ og wiki/ -- mellem det uforanderlige kildelag og det regenererbare kompilerede lag -- er den mest forsvarlige ide i indlaegget. Det meste folk vil stjaele fra Karpathy det naeste ar er ikke selve arbejdsgangen. Det er netop den arkitektoniske distinktion.

MemPalace bidrog med nitten laese-skrive-MCP-vaerktojer, hvilket er flere end hvad alle andre hukommelses-MCP'er har leveret sammenlagt. De fleste hukommelses-MCP'er er skrivebeskyttede -- man kan bede dem huske noget, men man kan ikke bede dem lagre noget. Laese-skrive-aeraen begynder her. MemPalace bidrog ogsa med et gennemtaenkt firelagslasningssystem, der skalerer kontekstkostnaden fra cirka 170 tokens ved opstart op til dybsogning pa foresporgsel, hvilket er et reelt ingenioorvalg med malbare konsekvenser. Og det bidrog med en lokal-forst-arkitektur, der bruger SQLite til videngrafen i stedet for at kraeve Neo4j pa den made Zep gor, hvilket er forskellen mellem "selvhostbar i teori" og "selvhostbar pa en laptop i praksis." Endelig, og dette er det bede bidrag der undervurderes: projektet reagerede pa sin egen benchmark-kontrovers ved at korrigere offentligt, merge de kritiske PR'er, opdatere README'en og traekke de falske pastande tilbage. Den adfaerd er i sig selv et bidrag til en kategori, der desperat har brug for det.

Mem0 bidrog med den forste formelle "State of the field"-rapport med sin "State of AI Agent Memory 2026," og det forste signal om, at venturekapitalister prissaetter hukommelse som en kategori snarere end en funktion. Serie A-runden er den del, der far pressen, men rapporten er den del, der faktisk kommer til at forme, hvordan produkthold taler om dette resten af aret.

Letta Code bidrog med formuleringen af "hukommelse som OS-laget." En kodningsagent bygget hukommelsesforst snarere end med hukommelse boltet pa. Om formuleringen overlever kontakt med virkeligheden er et separat sporgsmal, men selve formuleringen kommer til at blive citeret meget.

Hindsight Hermes bidrog med 91,4 % pa LongMemEval end-to-end -- et reelt end-to-end-tal, ikke et rent hentningstal -- under en MIT-licens, med indlejret PostgreSQL, MCP-forst. Det er det staerkeste bevis fra ugen pa, at okosystemet for open source-hukommelse modnes hurtigt, og at kloeften mellem de lukkede og abne implementeringer er smallere, end det sa ud for en maned siden.

Det er det reelle bidragsark. Det er betydningsfuldt. Det er ogsa mindre end Twitter-daekningen antyder, hvilket er fint. De fleste uger bidrager med mindre.

Hvad alle overser

Laes kodebaserne og lanceringsindlaeggene sammen, og et fravaer bliver hojlydt. Ingen af disse systemer behandler modetransskriptioner som en forsteklasses kilde.

MemPalaces repo indeholder ikke ordene "meeting" eller "transcript" noget meningsfuldt sted. Mem0s chatcentriske formulering antager, at inputtet er en strom af chatture, hvilket er den forkerte form for et mode. Letta Code er bygget omkring udviklernes arbejdsgang. Hindsight Hermes er generel men uden holdning til kildelaget. Det ene projekt, der faktisk naevner modetransskriptioner som en gyldig radatakilde, er, ironisk nok, Karpathys gist -- han lister dem eksplicit som et input, hans monster ville haandtere -- men ingen implementering har bygget den modespecifikke indtagelsesvej.

Dette er kloeften, og det er en maerkelig kloeft at finde i slutningen af en uge om hukommelse, fordi moder er der, den mest vaerdifulde organisatoriske viden faktisk skabes. Beslutninger, kontekst, forpligtelser, hvorfor'et bag hvad'et -- disse ting sker i samtale, ikke i dokumenter. Et hukommelsessystem, der ikke kan indtage moder, mangler den storste kilde til ustruktureret viden i enhver organisation. Den laengere version af dette argument lever i artiklen om mode-til-wiki-kloeften, og det er den enkelt vigtigste brik i ugens puslespil, som lanceringerne ignorerede.

Debatten ordret-kontra-ekstraktion, anvendt pa moder

Der er en brugbar made at forankre den filosofiske uenighed mellem MemPalace og Mem0 pa i et domaene, folk faktisk forstar: den langvarige debat inden for modetransskriptionsomradet om, hvorvidt man skal beholde det ra transskript eller bare beholde de AI-ekstraherede noter.

Ordret-lejren er Otter.ai, Read.ai, ethvert juridisk og compliance-usecase, enhver sammenhaeng hvor selve samtalen kan vaere beviset. Read.ais formulering er blevet citeret meget pa det seneste, og den stemmer naesten nojagtig overens med MemPalaces pitch: "not a vague summary, but the actual discussion... captures the nuances: the edge case someone raised at minute 32." Argumentet er, at i det oejeblik man lader en model opsummere, har man smidt minut-32-kanttilfaeldet vaek, og minut-32-kanttilfaeldet er naesten altid den del, man havde brug for.

Ekstraktionslejren er Granola, de fleste AI-modeassistenter, hele "opsummering plus handlingspunkter"-skolen. Argumentet er, at ingen genlaeser transskriptioner, sa opsummeringen er hele produktet, og det ra transskript er bare en artefakt fra pipelinen. I Mem0s vokabular er det "ekstraher fakta og smid resten vaek."

Det aerlige produktionssvar, bade for moder og for hukommelse, er begge. Lagr det ordrettte transskript, fordi fremtidige sporgsmal, du ikke har taenkt pa endnu, vil have brug for det. Ekstraher ogsa det strukturerede lag -- beslutninger, entiteter, forpligtelser, emner -- fordi ingen vil grepe en lydfil. Behandl det strukturerede lag som en regenererbar cache oven pa det uforanderlige radata-lag. Det er det samme monster, Karpathy peger pa med sin opdeling i raw/ og wiki/, og det er det monster, modevaerktojsdiskussionen har kredset om i to ar uden helt at navngive det. Proudfrogs satsning, for hvad det er vaerd, er, at moder er det rette omfang for en AI-vedligeholdt vidensbase, specifikt fordi inputvolumen er naturligt begraenset -- moderne sker, uanset om man vil det eller ej, og maengden man bekymrer sig om er endelig pa en made, som "interessante artikler jeg laeser pa nettet" aldrig er.

Hvad denne uge betyder for de naeste tolv maneder

Fremadrettet, med det saedvanlige forbehold om, at prognoser i denne kategori har en halveringstid pa cirka fire uger.

Hukommelse bliver en forsteklasses arkitektonisk komponent, ikke en funktion. Enhver AI-produktlancering fremover kommer til at skulle svare pa sporsmalet "hvordan husker denne?" -- og "vi bruger et vektorlager" kommer til at holde op med at vaere tilstraekkeligt pa samme made, som "vi bruger en LLM" holdt op med at vaere tilstraekkeligt for atten maneder siden.

Lokal-forst vinder filosofikampen, selv om det ikke vinder ethvert marked. MemPalace, OMEGA, Karpathys wiki, Cognee, Hindsight Hermes -- ethvert interessant hukommelsesprojekt denne uge lagde vaegt pa lokal koorsel, datasuveraenitet og brugereejerskab af det underliggende lager. Den nordiske vinkel her er reel og ikke bare retorisk: det regulatoriske miljoe i EU har presset i denne retning i to ar, og projekterne der byggede til det er nu bedre positioneret end dem, der byggede til ubegraenset skylagring.

MCP bliver det universelle graenseflade, og den skrivebeskyttede aera slutter. Laese-skrive-hukommelses-MCP'er var den manglende primitiv. MemPalace leverer nitten af dem. De naeste seks maneder vil handle om, hvorvidt andre vaerktojer folger efter.

Benchmark-krigene bliver vaerre for de bliver bedre. LongMemEval er de facto standard, men metrikforvirringen der blev afslooret denne uge forsvinder ikke af sig selv. Forvent et renere, svaerere, rent end-to-end-benchmark der lander i Q3 2026, naesten sikkert fra en af de akademiske grupper, der stille har vaeret traette af topplisteblanding.

Modetransskriptioner er den naeste oplagte kilde. Karpathy listede dem. Ingen byggede det. Nogen kommer til at gore det, sandsynligvis inden for halvfems dage, og versionen der vinder bliver den, der behandler modet som hukommelsesenheden i stedet for chatturen som hukommelsesenheden.

Kompiler-kontra-lagr konvergerer til hybrider. Begge poler har svagheder, som den anden pol loser. Produktionssystemer om tolv maneder vil lagre ordret, ekstrahere strukturerede artefakter oven pa, og kompilere en navigerbar wiki oven pa dem. Tre lag, ikke et. Det arkitektoniske diagram eksisterer allerede i et dusin private Notion-dokumenter. Det vil eksistere offentligt snart.

Laes dette hvis du interesserede dig for Karpathy

Ugen den 2.--8. april kommer ikke til at ligne en kategoriinfleksjon i den slags historier, der skrives om den senere. Den kommer til at ligne oejeblikket, hvor fire eller fem hold indsa, at de havde arbejdet pa det samme problem fra forskellige vinkler, og besluttede, i omtrent de samme tooghalvfjerds timer, at levere. Infleksioner ser sjaeldent ud som infleksioner indefra. De ser ud som en travl uge.

Proudfrog-hypotesen, formuleret en gang, sent og uden et pitch vedhaeftet: moder er det rette omfang for en AI-vedligeholdt vidensbase, fordi inputtet er naturligt begraenset, kilden er iboeende konversationel og hojkontekstuel, og vedligeholdelsesbyrden skalerer med inputvolumen snarere end med brugerdisciplin. Hvorvidt den hypotese overlever 2026 er et sporgsmal, vi ikke kommer til at lade som om vi har afgjort.

Hvis du kom ind via Karpathy-traden og vil fortsaette, lever resten af vores daekning af ugen i tre dele:

Og hvis den modeformede kloeft i hukommelseslandskabet er den del af dette, der fangede dig, mode-til-wiki-kloeften, vidensarbejderens arbejdsgang og Proudfrogs funktionsside er resten af argumentet.


Ofte stillede sporgsmal

Hvad er den hurtigste made at forsta forskellen mellem Karpathys wiki og MemPalace?

Karpathy kompilerer. MemPalace lagrer. Karpathys monster laeser dine radata, traeffer redaktionelle beslutninger om struktur og links, og skriver en vedligeholdt markdown-wiki, som du sporger senere. MemPalace lagrer alt ordret og henter via metadatafiltreret vektorsogning ved sporgetidspunktet, pa det filosofiske princip om, at lade en LLM afgoere, hvad der skal huskes, er den oprindelige synd. De argumenterer for modsatte halvdele af det samme problem, og produktionssvaret kommer til at bruge begge.

Er MemPalaces 100 %-benchmark-score reel?

Delvist. 96,6 %-scoren i ramodus pa LongMemEval recall@5 er reel og er blevet reproduceret uafhaengigt. 100 %-tallet blev opnaet med tre malrettede patches skrevet til de tre fejlende sporgsmal i dev-saettet, og projektets eget BENCHMARKS.md anerkender nu det som "teaching to the test." Det dybere problem er, at recall@5 maler kun hentning, mens den officielle LongMemEval-toppliste maler end-to-end QA-nojagtighed -- det er forskellige metrikker, og at blande dem sammen er, hvordan perfekte scorer fabrikeres. Den underliggende motor er genuint staerk. Markedsforingen var foran metodologien.

Hvorfor bygger alle lokal-forst-hukommelsessystemer?

Tre grunde stablet oven pa hinanden. Privatliv og datasuveraenitet, saerligt i det europaeiske regulatoriske miljoe. Omkostning -- nar man eliminerer skyhentningslaget, gar marginalkostnaden for at huske mod nul. Og tillid -- brugere har laert, ofte pa den harde made, at ethvert hukommelseslager hostet af nogen anden er et hukommelseslager, der kan afvikles, omprissaettes eller opkobes og lukkes ned. Limitless-lukningen i december 2025 gjorde det konkret pa en made, som ingen der levede igennem det har glemt.

Virker noget af dette for modetransskriptioner?

Ikke endnu, i den forstand at ingen af projekterne der blev udgivet denne uge behandler modetransskriptioner som en forsteklasses kilde. Karpathys gist naevner dem som et gyldigt input, men implementerer ikke indtagelsen. MemPalaces repo naevner ikke moder. Mem0s formulering antager chatture. Den strukturelle pasform er fremragende -- moder er afgreennsede, hojkontekstuelle og naturligt relationelle -- men den modenative version af disse systemer skal stadig bygges. Det er kloeften, vi hele tiden vender tilbage til.

Hvad er MCP, og hvorfor dukker det hele tiden op?

Model Context Protocol er den fremvoksende standard for, hvordan AI-systemer forbinder til eksterne vaerktojer og datakilder. Indtil helt for nylig var de fleste hukommelses-MCP'er skrivebeskyttede -- man kunne bede dem huske noget, men ikke lagre noget. MemPalace leverede nitten laese-skrive-hukommelsesvaerktojer ved lancering, hvilket er flere end resten af kategorien sammenlagt, og det er oejeblikket, den skrivebeskyttede aera begynder at slutte. Forvent, at ethvert serioost hukommelsesprojekt leverer en laese-skrive-MCP inden for de naeste seks maneder.

Bor jeg vente pa, at denne kategori stabiliserer sig, for jeg bygger pa den?

Det afhaenger af, om du har rad til at tage fejl. Hvis du bygger et produktionssystem, der skal vaere stabilt de naeste to ar, vent -- arkitekturerne bevaeger sig stadig hurtigt, og benchmark-situationen er utilstraekkeligt pallidelig til, at dagens leder kan vaere morgendagens fodnote. Hvis du udforsker kategorien for dit eget arbejde eller korer et afgraenset internt eksperiment, byg nu, saet et budgetloft, behandl den kompilerede artefakt som regenererbar, og plan at smide din forste implementering vaek. Ideerne vil overleve de specifikke vaerktojer, og disciplinen af at have bygget en vil overleve begge.