AI-minneuken som endret kunnskapsstyring

Karpathys LLM-wiki 2. april. Mem0s Serie A 4. april. MemPalace med 23 000 stjerner pa 72 timer. Letta Code-lansering. Hindsight Hermes. Fem prosjekter, en uke, en erkjennelse: kunnskapsarbeidere er lei av AI-amnesi.

ai-memoryknowledge-graphmempalacekarpathyllm

Om en uke, nar stovet har lagt seg, kommer den forste uken i april 2026 til a se ut som oyeblikket da AI-minne sluttet a vaere et ingeniortema pa subredditer og ble en egen kategori. Fem prosjekter ble sluppet mellom 2. og 8. april. Ingen av dem var koordinert. Alle argumenterte for det samme fra litt forskjellige vinkler: den dominerende tilnaermingen til a gi sprakmodeller et minne er feil, og den neste losningen finnes allerede.

Dette er den redaksjonelle gjennomgangen -- ikke en lanseringsoppsummering, ikke en benchmark-krig og ikke et produktpitch. Vi har to lengre artikler om Karpathys wiki spesifikt og om dens aerlige svakheter, og denne artikkelen er den bredere rammen rundt begge. Det som folger er briefingversjonen: hva som skjedde, hvorfor det skjedde na, hva som faktisk er nytt, hva som er overhypet, og hva det betyr for de neste tolv manedene.

Uken, i en tidslinje

  • 2. april. Andrej Karpathy publiserer sin "LLM Knowledge Base"-arbeidsflyt pa X. Traden passerer seksten millioner visninger i lopet av fem dager. Sitatet som sprer seg overalt: "a large fraction of my recent token throughput is going less into manipulating code, and more into manipulating knowledge."
  • 4. april. Karpathy publiserer den formelle gjennomgangen som en GitHub-gist. Samme dag publiserer Mem0 sin rapport "State of AI Agent Memory 2026" og kunngjor en Serie A-runde.
  • 6. april. MemPalace lanseres pa GitHub. Letta slipper Letta Code, en minneforst kodingsagent. Hindsight Hermes leverer sin MCP-integrasjon.
  • 6.--8. april. MemPalace gar fra null til omtrent 23 000 GitHub-stjerner pa syttito timer. En benchmark-kontrovers bryter ut, fellesskapet presser tilbake, prosjektet korrigerer seg offentlig.

Fem utgivelser, en uke, en felles diagnose: kunnskapsarbeidere er trotte av AI-amnesi. Hver samtale begynner fra null. Hvert sporsmaal gjenoppdager kontekst modellen allerede sa i gar. Ingenting akkumuleres. Karpathy var den forste store stemmen som sa det hoyt, og i det oyeblikket han gjorde det hadde fire andre team et ferdig svar klart til a levere innen fire dager. Uavhengig konvergens er sjelden en tilfeldighet. Det betyr vanligvis at problemet har vaert modent lenger enn tweetene antyder.

Hvorfor denne uken skjedde na

I omtrent to ar har svaret pa "hvordan gir vi en LLM kunnskap?" vaert det samme: del opp dokumentene dine, embed dem i en vektordatabase, hent top-k-treffene ved sporringstidspunktet, generer. RAG. Arkitekturen absorberte milliarder av dollar i investeringer og ble standardhistorien alle enterprise-AI-startups fortalte.

Den sluttet ogsa a foles tilstrekkelig for omtrent et ar siden. Frustrasjonen var diffus men konsekvent. Avanserte brukere beskrev det pa samme mate med forskjellige ord: modellen laerer aldri noe av meg. Jeg forklarer prosjektet mitt pa mandag, jeg forklarer det igjen pa tirsdag, jeg forklarer det igjen pa fredag. Vektorlageret husker strenger; det husker ikke relasjoner, og det husker definitivt ikke de redaksjonelle beslutningene jeg stadig tar om hva som er viktig. Hent-og-glem er en fundamentalt amnesisk lokke, og nar man har levd inni den lenge nok, begynner man a onske noe annet selv om man ikke kan artikulere hva.

Det 2.--8. april demonstrerte er at flere team allerede hadde artikulert det, privat, og ventet pa det kulturelle oyeblikket. Karpathys innlegg var det oyeblikket. Han var ikke den forste personen som bygde en kompilert wiki -- markdown-wikier er eldre enn de fleste som bygger dem -- men han var den forste bredt betrodde stemmen som sa "jeg har provd dette seriosst og det fungerer bedre enn RAG i den skalaen jeg faktisk lever i." Demningen brast fordi mange mennesker hadde holdt den samme ideen bak den samme demningen.

De to arkitektoniske polene

Den mest nyttige rammen for uken er a ignorere markedsforingen og se pa de arkitektoniske filosofiene. Tre av dem er na synlige, og to av dem star i direkte motsetning.

Kompiler-sa-sporr. Dette er Karpathys wiki. LLM-en leser radata ved inntak og tar redaksjonelle beslutninger: hvilke konsepter som er viktige, hvilke lenker som skal trekkes, hvordan den resulterende markdown-artikkelen skal struktureres, hvor en eksisterende side skal oppdateres kontra hvor en ny skal opprettes. Ved sporringstidspunktet navigerer LLM-en i den kompilerte wikien, ikke i radataarkivet. Kunnskap er, i Karpathys formulering, kompilert en gang og holdt oppdatert, ikke utledet pa nytt ved hvert sporsmaal. Styrkene er reelle: minimal infrastruktur, strukturert resonnement bevart pa tvers av pass, kunnskap som akkumuleres fordi hvert inntak beriker den eksisterende strukturen i stedet for a bli flatet tilbake til et chunk-lager. Svakhetene er ogsa reelle: indeksfiler vokser ut av kontekstvinduer forbi noen hundre artikler, sitatpresisjonen er los, og den samme modellen som kompilerer er modellen som kvalitetssikrer, med alle selvkontrollbegrensningene det inneberer.

Lagre-sa-hent. Dette er MemPalaces pol, og den er apent et argument mot den tredje tilnaermingen vi kommer til om et oyeblikk. MemPalaces pitch er at man aldri skal la en sprakmodell avgjore hva som er verdt a huske, for i det oyeblikket man gjor det har man tapt informasjon man ikke kan fa tilbake. Lagre alt ordrett. Hent via metadatafiltrert vektorsok over en lokal SQLite-og-ChromaDB-stack. README-en formulerer den filosofiske posisjonen rent: "Other memory systems try to fix this by letting AI decide what's worth remembering. It extracts 'user prefers Postgres' and throws away the conversation where you explained why." Styrkene: intet informasjonstap, rask lokal henting, reell datasuverenitet, ingen skyavhengighet. Svakhetene: det finnes ikke noe iboende synteselag, henting avhenger fortsatt av den samme vektorlikheten som alle andre avhenger av, og den mye hypede "palassstrukturen" er, nar man leser koden, hovedsakelig metadatafiltrering opa ChromaDB. Det er et godt ingenioorvalg. Det er ikke en ny form for minne.

Ekstraher-sa-lagre. Dette er den tredje polen, og det er den som angripes fra begge sider samtidig. En LLM ekstraherer fakta under inntak -- "Patrik foretrekker Postgres," "Q3-fristen ble flyttet til oktober" -- og lagrer komprimerte representasjoner som minneenheten. Det er hva de fleste eksisterende minnesystemer, inkludert Mem0, faktisk gjor. Karpathys wiki er et argument for at de ekstraherte faktaene bor lenkes inn i en strukturert artefakt i stedet for a lagres som flate fragmenter. MemPalaces pitch er at selve handlingen a ekstrahere er den opprinnelige synden -- man kaster bort forklaringen, forbeholdet, nyansen, samtalen rundt faktumet. Begge sier, i forskjellige vokabularer, at tapsgivende oppsummering ved inntak er fienden.

Det aerlige produksjonssvaret kommer til a involvere alle tre. Vi kommer tilbake til det i avslutningsseksjonen.

Benchmark-krigene

Dette er den delen av uken som ma fortelles noye, for det er den delen der mest skade pa offentlig forstaelse ble gjort.

MemPalace lanserte med en pastand om 100 % pa LongMemEval, standard-benchmarket for langkontekstminne fra LongMemEval-artikkelen. En perfekt poengsum er den typen tall som far et prosjekt til tjuetre tusen stjerner pa tre dager, og det er omtrent hva som skjedde. Fellesskapet presset deretter tilbake, hardt, pa en mate som endte opp med a bli en modell for hvordan denne typen uenighet bor foregaa.

Den faktiske historien har fire deler, og alle fire er viktige.

For det forste maler MemPalace recall@5 -- en ren hentingsmetrikk. Den offisielle LongMemEval-topplisten maler end-to-end QA-noyaktighet: hent, generer, bli bedomt pa om svaret er riktig. Det er ikke den samme metrikken, og det er ikke engang naerme. Som GitHub-bruker dial481 uttrykte det i den saken som endte opp med a vaere den reneste oppsummeringen noe sted: "A system that retrieves perfectly and then answers wrong scores 100% under recall_any@5 and 0% on the leaderboard." Man kan fa perfekt pa den ene og null pa den andre.

For det andre ble 100 %-poengsummen oppnadd med tre maalrettede patcher skrevet spesifikt for de tre failende sporsmaalene i dev-settet. Etter at patchene ble fjernet og systemet ble kjort mot de 450 holdt-tilbake sporsmaalene, falt poengsummen til 98,4 %. Fortsatt utmerket. Betydelig mer aerlig. Prosjektets eget BENCHMARKS.md anerkjente, til dets fortjeneste, problemet med klart sprak: "This is teaching to the test." Det er en setning man nesten aldri ser i et lanseringsrepo, og det er en setning fellesskapet fortjener mer av.

For det tredje er ramodus-hovedpoengsummen 96,6 % pa LongMemEval recall@5, og den er reell. Uavhengig reproduksjon av bruker @gizmax pa en M2 Ultra bekreftet tallet pa det publiserte evalueringssettet. Sa den underliggende hentingsmotoren er genuint sterk. Problemet var aldri at MemPalace var darlig. Problemet var at markedsforingstallet var en annen metrikk enn topplistens metrikk, og forskjellen ble ikke gjort tydelig for fellesskapet gjorde den tydelig.

For det fjerde har Mem0s publiserte tall heller ikke hatt en enkel tur. Uavhengig evaluering pa LongMemEval plasserte Mem0 pa omtrent 49,0 % pa end-to-end-oppgaven. Letta forsokte a reprodusere Mem0s egne pastatte benchmarks og klarte det ikke. Monsteret gjennom uken er at nesten hvert minneprosjekt har et publisert hovedtall som ikke overlever en grundig tredjepartskjoring, og arsakene handler nesten alltid om hvilken metrikk, hvilket delsett og hvilken dommer, snarere enn ren uaerlighet. Penfield Labs' gjennomgang er den reneste eksterne analysen av MemPalace-saken spesifikt.

Konklusjonen er den samme konklusjonen som gjaldt for de tidlige dagene av LLM-evalueringer generelt: i en sa ung kategori, behandle hovedtallene som markedsforing til noen andre har kjort dem. Les metodeseksjonen, ikke pressemeldingen. Og gi anerkjennelse til prosjektene som publiserer sine egne forbehold -- MemPalaces BENCHMARKS.md er, i ettertid, et av de mer aerlige dokumentene fra uken, selv om det matte tvinges frem gjennom en offentlig diskusjon.

Hva som faktisk er nytt

Fjern lanseringsenergien og still det vanskeligere sporsmalet: hva bidro denne uken genuint med til feltet?

Karpathys wiki bidro med et argument, velartikulert, for kompiler-sa-sporr pa personlig skala. Skjemafil-monsteret (en CLAUDE.md som beskriver hvordan wikien skal formes) er nytt og nyttig. Den arkitektoniske separasjonen mellom raw/ og wiki/ -- mellom det uforanderlige kildelaget og det regenererbare kompilerte laget -- er den mest forsvarbare ideen i innlegget. Det meste folk kommer til a stjele fra Karpathy det neste aret er ikke selve arbeidsflyten. Det er akkurat den arkitektoniske distinksjonen.

MemPalace bidro med nitten lese-skrive-MCP-verktoy, noe som er mer enn hva alle andre minne-MCP-er har levert sammenlagt. De fleste minne-MCP-er er skrivebeskyttet -- man kan be dem huske noe, men man kan ikke be dem lagre noe. Lese-skrive-eraen begynner her. MemPalace bidro ogsa med et gjennomtenkt firelagslastingssystem som skalerer kontekstkostnaden fra omtrent 170 tokens ved oppstart opp til dypsoking pa forespoorsel, noe som er et reelt ingenioorvalg med maalbare konsekvenser. Og det bidro med en lokal-forst-arkitektur som bruker SQLite for kunnskapsgrafen i stedet for a kreve Neo4j slik Zep gjor, som er forskjellen mellom "selvhostbar i teori" og "selvhostbar pa en laptop i praksis." Til slutt, og dette er det myke bidraget som undervurderes: prosjektet svarte pa sin egen benchmark-kontrovers ved a korrigere offentlig, merge de kritiske PR-ene, oppdatere README-en og trekke tilbake de falske pastandene. Den atferden er i seg selv et bidrag til en kategori som saart trenger det.

Mem0 bidro med den forste formelle "State of the field"-rapporten med sin "State of AI Agent Memory 2026," og det forste signalet om at risikokapitalister priser minne som en kategori snarere enn en funksjon. Serie A-runden er den delen som far pressen, men rapporten er den delen som faktisk kommer til a forme hvordan produktteam snakker om dette resten av aret.

Letta Code bidro med formuleringen av "minne som OS-laget." En kodingsagent bygd minneforst snarere enn med minne boltet pa. Om formuleringen overlever kontakt med virkeligheten er et separat sporsmal, men selve formuleringen kommer til a bli sitert mye.

Hindsight Hermes bidro med 91,4 % pa LongMemEval end-to-end -- et reelt end-to-end-tall, ikke et rent hentingstall -- under en MIT-lisens, med innebygd PostgreSQL, MCP-forst. Det er det sterkeste beviset fra uken pa at okosystemet for apenkildekode-minne modnes raskt og at gapet mellom de lukkede og apne implementasjonene er smalere enn det sa ut for en maned siden.

Det er det reelle bidragsarket. Det er betydningsfullt. Det er ogsa mindre enn Twitter-dekningen antyder, noe som er greit. De fleste uker bidrar med mindre.

Hva alle overser

Les kodebasene og lanseringsinnleggene sammen og et fravaer blir hoyllydt. Ingen av disse systemene behandler motetranskripsjoner som en forsteklasses kilde.

MemPalaces repo inneholder ikke ordene "meeting" eller "transcript" noe meningsfullt sted. Mem0s chattsentriske formulering antar at inndataen er en strom av chatteturer, noe som er feil form for et mote. Letta Code er bygd rundt utviklerarbeidsflyten. Hindsight Hermes er generell men uten mening om kildelaget. Det ene prosjektet som faktisk nevner motetranskripsjoner som en gyldig radatakilde er, ironisk nok, Karpathys gist -- han lister dem eksplisitt som en inndata monsteret hans ville haandtere -- men ingen implementasjon har bygd den motespesifikke inntaksveien.

Dette er gapet, og det er et merkelig gap a finne i slutten av en uke om minne, fordi moter er der den mest verdifulle organisatoriske kunnskapen faktisk skapes. Beslutninger, kontekst, forpliktelser, hvorfor-et bak hva-et -- disse tingene skjer i samtale, ikke i dokumenter. Et minnesystem som ikke kan innta moter mangler den storste kilden til ustrukturert kunnskap i enhver organisasjon. Den lengre versjonen av dette argumentet lever i artikkelen om mote-til-wiki-gapet, og det er den enkelt viktigste brikken i ukens puslespill som lanseringene ignorerte.

Debatten ordrett-kontra-ekstraksjon, anvendt pa moter

Det finnes en nyttig mate a forankre den filosofiske uenigheten mellom MemPalace og Mem0 pa i et domene folk faktisk forstar: den langvarige debatten i motetranskripsjonsomradet om hvorvidt man skal beholde det ra transkriptet eller bare beholde de AI-ekstraherte notatene.

Ordrett-leiren er Otter.ai, Read.ai, alle juridiske og etterlevelses-bruksomrader, alle sammenhenger der selve samtalen kan vaere beviset. Read.ais formulering har blitt sitert mye i det siste og den stemmer nesten noyaktig overens med MemPalaces pitch: "not a vague summary, but the actual discussion... captures the nuances: the edge case someone raised at minute 32." Argumentet er at i det oyeblikket man lar en modell oppsummere, har man kastet bort minutt-32-kanttilfelle, og minutt-32-kanttilfelle er nesten alltid den delen man trengte.

Ekstraksjonsleiren er Granola, de fleste AI-moteassistenter, hele "oppsummering pluss handlingspunkter"-skolen. Argumentet er at ingen leser transkripsjoner pa nytt, sa oppsummeringen er hele produktet, og det ra transkriptet er bare en artefakt fra pipelinen. I Mem0s vokabular er det "ekstraher faktaene og kast resten."

Det aerlige produksjonssvaret, bade for moter og for minne, er begge. Lagre det ordrettee transkriptet, fordi fremtidige sporsmal du ikke har tenkt pa enna vil trenge det. Ekstraher ogsa det strukturerte laget -- beslutninger, entiteter, forpliktelser, emner -- fordi ingen vil grepe en lydfil. Behandle det strukturerte laget som en regenererbar cache opa det uforanderlige radata-laget. Det er det samme monsteret Karpathy peker pa med sin oppdeling i raw/ og wiki/, og det er monsteret som moteverktoysdiskusjonen har kretset rundt i to ar uten helt a navngi det. Proudfrogs satsing, for hva det er verdt, er at moter er riktig omfang for en AI-vedlikeholdt kunnskapsbase spesifikt fordi inndatavolumet er naturlig begrenset -- motene skjer uansett om man vil det eller ikke, og mengden man bryr seg om er endelig pa en mate som "interessante artikler jeg leser pa nettet" aldri er.

Hva denne uken betyr for de neste tolv manedene

Fremadrettet, med det sedvanlige forbeholdet om at prognoser i denne kategorien har en halveringstid pa omtrent fire uker.

Minne blir en forsteklasses arkitektonisk komponent, ikke en funksjon. Enhver AI-produktlansering fremover kommer til a matte svare pa sporsmalet "hvordan husker denne?" -- og "vi bruker et vektorlager" kommer til a slutte a vaere tilstrekkelig pa samme mate som "vi bruker en LLM" sluttet a vaere tilstrekkelig for atten maneder siden.

Lokal-forst vinner filosofikampen, selv om det ikke vinner hvert marked. MemPalace, OMEGA, Karpathys wiki, Cognee, Hindsight Hermes -- hvert interessant minneprosjekt denne uken la vekt pa lokal kjoring, datasuverenitet og brukereierskap over det underliggende lageret. Den nordiske vinkelen her er reell og ikke bare retorisk: det regulatoriske miljoet i EU har drevet i denne retningen i to ar, og prosjektene som bygde for det er na bedre posisjonert enn de som bygde for ubegrenset skylagring.

MCP blir det universelle grensesnittet, og den skrivebeskyttede eraen tar slutt. Lese-skrive-minne-MCP-er var den manglende primitiven. MemPalace leverer nitten av dem. De neste seks manedene vil handle om hvorvidt andre verktoy folger etter.

Benchmark-krigene blir verre for de blir bedre. LongMemEval er de facto standard, men metrikkforvirringen som ble avdekket denne uken forsvinner ikke av seg selv. Forvent et renere, vanskeligere, rent end-to-end-benchmark som lander i Q3 2026, nesten sikkert fra en av de akademiske gruppene som stille har vaert lei av topplisteshufflingen.

Motetranskripsjoner er den neste opplagtekilden. Karpathy listet dem. Ingen bygde det. Noen kommer til a gjore det, sannsynligvis innen nitti dager, og versjonen som vinner blir den som behandler motet som minneenheten i stedet for chatteturen som minneenheten.

Kompiler-kontra-lagre konvergerer til hybrider. Begge poler har svakheter som den andre polen loser. Produksjonssystemer om tolv maneder vil lagre ordrett, ekstrahere strukturerte artefakter opa, og kompilere en navigerbar wiki opa dem. Tre lag, ikke ett. Det arkitektoniske diagrammet finnes allerede i et dusin private Notion-dokumenter. Det vil finnes offentlig snart.

Les dette hvis du brydde deg om Karpathy

Uken 2.--8. april kommer ikke til a se ut som en kategoriinfleksjon i den typen historier som skrives om den senere. Den kommer til a se ut som oyeblikket da fire eller fem team innsa at de hadde jobbet med det samme problemet fra forskjellige vinkler og bestemte seg for, i omtrent de samme syttito timene, a levere. Infleksjoner ser sjelden ut som infleksjoner fra innsiden. De ser ut som en hektisk uke.

Proudfrog-hypotesen, formulert en gang, sent og uten et pitch vedlagt: moter er riktig omfang for en AI-vedlikeholdt kunnskapsbase fordi inndataen er naturlig begrenset, kilden er iboende konversasjonell og hoytkontekstuell, og vedlikeholdsbyrden skalerer med inndatavolum snarere enn med brukerdisiplin. Hvorvidt den hypotesen overlever 2026 er et sporsmal vi ikke kommer til a late som vi har avgjort.

Hvis du kom inn via Karpathy-traden og vil fortsette, lever resten av var dekning av uken i tre deler:

Og hvis det moteformede gapet i minnelandskapet er den delen av dette som fanget deg, mote-til-wiki-gapet, kunnskapsarbeiderens arbeidsflyt og Proudfrogs funksjonside er resten av argumentet.


Ofte stilte sporsmal

Hva er den raskeste maten a forsta forskjellen mellom Karpathys wiki og MemPalace?

Karpathy kompilerer. MemPalace lagrer. Karpathys monster leser radataene dine, tar redaksjonelle beslutninger om struktur og lenker, og skriver en vedlikeholdt markdown-wiki som du sporr senere. MemPalace lagrer alt ordrett og henter via metadatafiltrert vektorsok ved sporringstidspunktet, pa det filosofiske prinsippet om at a la en LLM avgjore hva som skal huskes er den opprinnelige synden. De argumenterer for motsatte halvdeler av det samme problemet, og produksjonssvaret kommer til a bruke begge.

Er MemPalaces 100 %-benchmark-poengsum reell?

Delvis. 96,6 %-poengsummen i ramodus pa LongMemEval recall@5 er reell og har blitt reprodusert uavhengig. 100 %-tallet ble oppnadd med tre maalrettede patcher skrevet for de tre failende sporsmaalene i dev-settet, og prosjektets eget BENCHMARKS.md anerkjenner na det som "teaching to the test." Det dypere problemet er at recall@5 maler kun henting, mens den offisielle LongMemEval-topplisten maler end-to-end QA-noyaktighet -- det er forskjellige metrikker, og a blande dem sammen er slik perfekte poengsummer fabrikeres. Den underliggende motoren er genuint sterk. Markedsforingen la foran metodologien.

Hvorfor bygger alle lokal-forst-minnesystemer?

Tre grunner stablet opa hverandre. Personvern og datasuverenitet, spesielt i det europeiske regulatoriske miljoet. Kostnad -- nar man eliminerer skyhentingslaget gar marginalkostnaden for a huske mot null. Og tillit -- brukere har laert, ofte pa den harde maten, at ethvert minnelager som hostes av noen andre er et minnelager som kan avvikles, omprises eller kjopes opp og stenges ned. Limitless-nedleggelsen i desember 2025 gjorde det konkret pa en mate som ingen som levde gjennom det har glemt.

Fungerer noe av dette for motetranskripsjoner?

Ikke enna, i den forstand at ingen av prosjektene som ble sluppet denne uken behandler motetranskripsjoner som en forsteklasses kilde. Karpathys gist nevner dem som en gyldig inndata men implementerer ikke inntaket. MemPalaces repo nevner ikke moter. Mem0s formulering antar chatteturer. Den strukturelle tilpasningen er utmerket -- moter er avgrenset, hoykontekstuelle og naturlig relasjonelle -- men den motenative versjonen av disse systemene ma fortsatt bygges. Det er gapet vi stadig kommer tilbake til.

Hva er MCP og hvorfor dukker det stadig opp?

Model Context Protocol er den fremvoksende standarden for hvordan AI-systemer kobler seg til eksterne verktoy og datakilder. Inntil helt nylig var de fleste minne-MCP-er skrivebeskyttet -- man kunne be dem huske noe men ikke lagre noe. MemPalace leverte nitten lese-skrive-minneverktoy ved lansering, noe som er mer enn resten av kategorien til sammen, og det er oyeblikket da den skrivebeskyttede eraen begynner a ta slutt. Forvent at hvert seriosst minneprosjekt leverer en lese-skrive-MCP i lopet av de neste seks manedene.

Bor jeg vente pa at denne kategorien stabiliserer seg for jeg bygger pa den?

Det kommer an pa om du har rad til a ta feil. Hvis du bygger et produksjonssystem som ma vaere stabilt de neste to arene, vent -- arkitekturene beveger seg fortsatt raskt og benchmark-situasjonen er utilstrekkelig palitelig til at dagens leder kan vaere morgendagens fotnote. Hvis du utforsker kategorien for ditt eget arbeid eller kjorer et avgrenset internt eksperiment, bygg na, sett et budsjetttak, behandle den kompilerte artefakten som regenererbar og planlegg a kaste den forste implementasjonen din. Ideene vil overleve de spesifikke verktoyene, og disiplinen av a ha bygd en vil overleve begge.