AI-minnesveckan som forandrade kunskapshantering
Karpathys LLM-wiki den 2 april. Mem0:s Series A den 4 april. MemPalace med 23 000 stjarnor pa 72 timmar. Letta Code-lansering. Hindsight Hermes. Fem projekt, en vecka, en insikt: kunskapsarbetare har fatt nog av AI-amnesi.
Om en vecka, nar dammet har lagt sig, kommer forsta veckan i april 2026 att framsta som ogonblicket da AI-minne slutade vara ett amnestopic pa ingenjorssubredditar och blev en egen kategori. Fem projekt slapptes mellan 2 och 8 april. Inget av dem var samordnat. Alla argumenterade for samma sak fran lite olika vinklar: det dominerade tillvagagangssattet for att ge sprakmodeller ett minne ar fel, och nasta losning finns redan har.
Det har ar den redaktionella genomgangen -- inte en lanseringssammanfattning, inte en benchmark-strid och inte en produktpitch. Vi har tva langre artiklar om Karpathys wiki specifikt och om dess arliga svagheter, och den har artikeln ar den bredare ramen kring bada. Det som foljer ar briefingversionen: vad som hande, varfor det hande nu, vad som faktiskt ar nytt, vad som ar overhypat och vad det betyder for de narmaste tolv manaderna.
Veckan, i en tidslinje
- 2 april. Andrej Karpathy publicerar sitt arbetsflode for "LLM Knowledge Base" pa X. Traden passerar sexton miljoner visningar inom fem dagar. Citatet som sprids overallt: "a large fraction of my recent token throughput is going less into manipulating code, and more into manipulating knowledge."
- 4 april. Karpathy publicerar den formella genomgangen som en GitHub-gist. Samma dag publicerar Mem0 sin rapport "State of AI Agent Memory 2026" och tillkannager en Series A-runda.
- 6 april. MemPalace lanseras pa GitHub. Letta slappper Letta Code, en minnesforst kodningsagent. Hindsight Hermes levererar sin MCP-integration.
- 6--8 april. MemPalace gar fran noll till ungefar 23 000 GitHub-stjarnor pa sjutiotva timmar. En benchmark-kontrovers bryter ut, communityn trycker tillbaka, projektet korrigerar sig offentligt.
Fem slapp, en vecka, en gemensam diagnos: kunskapsarbetare ar trotta pa AI-amnesi. Varje konversation borjar fran noll. Varje fraga aterupptacker kontext som modellen redan sag igar. Ingenting ackumuleras. Karpathy var den forsta stora rosten som sa det hogt, och i det ogonblick han gjorde det hade fyra andra team ett fardigt svar redo att skeppas inom fyra dagar. Oberoende konvergens ar sallan en slump. Det betyder vanligtvis att problemet har varit moget langre an tweetsarna antyder.
Varfor den har veckan hande nu
I ungefar tva ar har svaret pa "hur ger vi en LLM kunskap?" varit detsamma: chunka dina dokument, embeda dem i en vektordatabas, hamta de top-k matchningarna vid fragstallningstillfallet, generera. RAG. Arkitekturen absorberade miljarder dollar i investeringar och blev standardberattelsen som varje enterprise-AI-startup berattade.
Den slutade ocksa kanna tillracklig for ungefar ett ar sedan. Frustrationen var diffus men konsekvent. Avancerade anvandare beskrev det pa samma satt med olika ord: modellen lar sig aldrig nagot fran mig. Jag forklarar mitt projekt pa mandag, jag forklarar det igen pa tisdag, jag forklarar det igen pa fredag. Vektorlagret minns stanger; det minns inte relationer, och det minns definitivt inte de redaktionella beslut jag standig fattar om vad som ar viktigt. Hamta-och-glom ar en fundamentalt amnesisk loop, och nar man har levt i den tillrackligt lange borjar man vilja ha nagot annat aven om man inte kan artikulera vad.
Vad 2--8 april visade ar att flera team redan hade artikulerat det, privat, och vantade pa det kulturella ogonblicket. Karpathys inlagg var det ogonblicket. Han var inte den forsta personen som byggde en kompilerad wiki -- markdown-wikin ar aldre an de flesta som bygger dem -- men han var den forsta brett betrodda rosten som sa "jag har provt det har pa allvar och det fungerar battre an RAG i den skala jag faktiskt lever i." Dammen brast for att manga manniskor hade hallit samma ide bakom samma damm.
De tva arkitektoniska polerna
Den mest anvanderbara ramen for veckan ar att ignorera marknadsforingen och titta pa de arkitektoniska filosofierna. Tre av dem ar nu synliga, och tva av dem star i direkt motsatsforhjallande.
Kompilera-sedan-fraga. Det har ar Karpathys wiki. LLM:en laser radata vid inmatningen och fattar redaktionella beslut: vilka koncept som ar viktiga, vilka lankar som ska dras, hur den resulterande markdown-artikeln ska struktureras, var en befintlig sida ska uppdateras kontra var en ny ska skapas. Vid fragetillfallet navigerar LLM:en i den kompilerade wikin, inte i radataarkivet. Kunskap ar, i Karpathys formering, kompilerad en gang och hallld aktuell, inte harledd pa varje fraga. Styrkorna ar verkliga: minimal infrastruktur, strukturerat resonemang bevarat over pass, kunskap som ackumuleras for att varje inmatning berikar den befintliga strukturen istallet for att plattas tillbaka till ett chunk-lager. Svagheterna ar ocksa verkliga: indexfiler vaxer ur kontextfonster forbi nagra hundra artiklar, citatprecisionen ar los, och samma modell som kompilerar ar modellen som granskar, med alla de sjalvkontrollbegransningar det innebar.
Lagra-sedan-hamta. Det har ar MemPalace:s pol, och den ar oppet ett argument mot det tredje tillvagagangssattet vi kommer till om ett ogonblick. MemPalace:s pitch ar att man aldrig ska lata en sprakmodell avgora vad som ar vart att komma ihag, for i det ogonblick man gor det har man forlorat information man inte kan fa tillbaka. Lagra allt ordagrant. Hamta via metadatafiltrerad vektorsok over en lokal SQLite-och-ChromaDB-stack. README:n formulerar den filosofiska positionen rent: "Other memory systems try to fix this by letting AI decide what's worth remembering. It extracts 'user prefers Postgres' and throws away the conversation where you explained why." Styrkorna: ingen informationsforlust, snabb lokal hamtning, verklig datasuveranitet, inget molnberoende. Svagheterna: det finns inget inherent synteslager, hamtning beror fortfarande pa samma vektorlikhet som alla andra beror pa, och den mycket hypade "palatstrukturen" ar, nar man laser koden, mest metadatafiltrering ovanpa ChromaDB. Det ar ett bra ingenjorsval. Det ar inte en ny form av minne.
Extrahera-sedan-lagra. Det har ar den tredje polen, och det ar den som attackeras fran bada sidor samtidigt. En LLM extraherar fakta under inmatningen -- "Patrik foredrar Postgres," "Q3-deadline flyttades till oktober" -- och lagrar komprimerade representationer som minnesenheten. Det ar vad de flesta befintliga minnessystem, inklusive Mem0, faktiskt gor. Karpathys wiki ar ett argument for att de extraherade fakta bor lankas in i en strukturerad artefakt snarare an lagras som platta fragment. MemPalace:s pitch ar att sjalva akten att extrahera ar den ursprungliga synden -- man kastar bort forklaringen, forbehallet, nyansen, konversationen kring faktumet. Bada sager, i olika vokabular, att forlustbringande sammanfattning vid inmatning ar fienden.
Det arliga produktionssvaret kommer att involvera alla tre. Vi aterkom till det i det avslutande avsnittet.
Benchmark-krigen
Det har ar den del av veckan som behover berrattas noggrant, for det ar den del dar mest skada pa allmanhetens forstaelse gjordes.
MemPalace lanserades med ett pastande om 100% pa LongMemEval, standardbenchmarket for langkontextminne fran LongMemEval-artikeln. En perfekt poang ar den typ av siffra som far ett projekt till tjugotre tusen stjarnor pa tre dagar, och det ar ungefar vad som hande. Communityn tryckte sedan tillbaka, hart, pa ett satt som slutade med att bli en modell for hur den har typen av oenighet bor ga till.
Den faktiska historien har fyra delar, och alla fyra ar viktiga.
For det forsta mater MemPalace recall@5 -- ett rent hamtningsmatt. Den officiella LongMemEval-topplistan mater end-to-end QA-noggrannhet: hamta, generera, bedoms pa om svaret ar ratt. Det ar inte samma matt, och det ar inte ens nara. Som GitHub-anvandaren dial481 uttryckte det i den arende-trad som slutade med att vara den renaste sammanfattningen nagonsin: "A system that retrieves perfectly and then answers wrong scores 100% under recall_any@5 and 0% on the leaderboard." Man kan fa perfekt pa det ena och noll pa det andra.
For det andra uppnaddes 100%-poangen med tre riktade patchar skrivna specifikt for de tre underkanda fragorna i dev-setet. Efter att patcharna togs bort och systemet kordes mot de 450 dolda fragorna sjoenk poangen till 98,4%. Fortfarande utmarkt. Betydligt mer arligt. Projektets eget BENCHMARKS.md erkande, till sin forrtjanst, problemet med klart sprak: "This is teaching to the test." Det ar en mening man naastan aldrig ser i ett lanseringsrepo, och det ar en mening communityn fortjanar mer av.
For det tredje ar den ramode-huvudpoangen 96,6% pa LongMemEval recall@5, och den ar verklig. Oberoende reproduktion av anvandare @gizmax pa en M2 Ultra bekraftade siffran pa det publicerade utvarderingssetet. Sa den underliggande hamtmotorn ar genuint stark. Problemet var aldrig att MemPalace var daligt. Problemet var att marknadsforingssiffran var ett annat matt an topplistans matt, och skillnaden gjordes inte tydlig forran communityn gjorde den tydlig.
For det fjarde har Mem0:s publicerade siffror inte heller haft det latt. Oberoende utvardering pa LongMemEval placerade Mem0 pa ungefar 49,0% pa end-to-end-uppgiften. Letta forsoke reproducera Mem0:s egna havdade benchmarks och kunde inte. Monstret over veckan ar att nastan varje minnesprojekt har en publicerad huvudsiffra som inte overlever en noggrann tredjepartskorning, och orsakerna handlar nastan alltid om vilket matt, vilken delgrupp och vilken bedomare, snarare an ren ooarlighet. Penfield Labs genomgang ar den renaste externa analysen av just MemPalace-fallet.
Slutsatsen ar samma slutsats som gallde for de tidiga dagarna av LLM-utvarderingar i allmanhet: i en sa ung kategori, behandla huvudsiffrorna som marknadsforing tills nagon annan har kort dem. Las metodavsnittet, inte pressmeddelandet. Och ge berom till de projekt som publicerar sina egna forbehall -- MemPalace:s BENCHMARKS.md ar, i efterhand, ett av de mer arliga dokumenten fran veckan, aven om det behove tvingas fram genom en offentlig diskussion.
Vad som faktiskt ar nytt
Ta bort lanseringsenergin och stall den svarare fragan: vad bidrog den har veckan genuint med till omradet?
Karpathys wiki bidrog med ett argument, valartikulerat, for kompilera-sedan-fraga pa personlig skala. Schemafil-monstret (en CLAUDE.md som beskriver hur wikin ska formas) ar nytt och anvandsbart. Den arkitektoniska separationen mellan raw/ och wiki/ -- mellan det oforanderliga kalllagret och det atergenererbara kompilerade lagret -- ar den mest forsvarsbara iden i inlagget. Det mesta folk kommer att stala fran Karpathy det narmaste aret ar inte sjalva arbetsfloedet. Det ar just den arkitektoniska distinktionen.
MemPalace bidrog med nitton las-skriv-MCP-verktyg, vilket ar fler an vad alla andra minnes-MCP:er har levererat sammanlagt. De flesta minnes-MCP:er ar skrivskyddade -- man kan be dem erinra sig nagot, men man kan inte be dem lagra nagot. Las-skriv-eran borjar har. MemPalace bidrog ocksa med ett genomtankt fyralagersladdsystem som skalar kontextkostnaden fran ungefar 170 tokens vid start upp till djupsok pa begaran, vilket ar ett verkligt ingenjorsval med matbara konsekvenser. Och det bidrog med en lokal-forst-arkitektur som anvander SQLite for kunskapsgrafen istallet for att krava Neo4j pa det satt Zep gor, vilket ar skillnaden mellan "sjalvhostbar i teori" och "sjalvhostbar pa en laptop i praktiken." Slutligen, och det har ar det mjuka bidraget som underwarderas: projektet svarade pa sin egen benchmark-kontrovers genom att korrigera offentligt, merga de kritiska PR:arna, uppdatera README:n och dra tillbaka de falska pastallendena. Det beteendet ar i sig ett bidrag till en kategori som desperat behover det.
Mem0 bidrog med den forsta formella "State of the field"-rapporten med sin "State of AI Agent Memory 2026," och den forsta signalen att riskkapitalister prissatter minne som en kategori snarare an en funktion. Series A-rundan ar den del som far press, men rapporten ar den del som faktiskt kommer att forma hur produktteam pratar om det har resten av aret.
Letta Code bidrog med formuleringen av "minne som OS-lagret." En kodningsagent byggd minnesforst snarare an med minne pagskruvat. Om formuleringen overlever kontakt med verkligheten ar en separat fraga, men sjalva formuleringen kommer att citeras mycket.
Hindsight Hermes bidrog med 91,4% pa LongMemEval end-to-end -- en verklig end-to-end-siffra, inte en enbart hamtningssiffra -- under en MIT-licens, med inbaddad PostgreSQL, MCP-forst. Det ar det starkaste beviset fran veckan att ekosystemet for oppenkallkods-minne mognar snabbt och att gapet mellan de stangda och oppna implementationerna ar smalare an det sag ut for en manad sedan.
Det ar det verkliga bidragsbladet. Det ar betydelsefullt. Det ar ocksa mindre an Twitter-bevakningen antyder, vilket ar ok. De flesta veckor bidrar med mindre.
Vad alla missar
Las kodbaserna och lanseringsinlaggen tillsammans och en franvaro blir hogljudd. Inget av dessa system behandlar motestranskript som en forstklassig kalla.
MemPalace:s repo innehaller inte orden "meeting" eller "transcript" pa nagot meningsfullt stalle. Mem0:s chattcentrerade formulering antar att indata ar en strom av chatturer, vilket ar fel form for ett mote. Letta Code ar byggt kring utvecklararbetsfloedet. Hindsight Hermes ar generellt men utan asikt om kalllagret. Det enda projektet som faktiskt namner motestranskript som en giltig radatakalla ar, ironiskt nog, Karpathys gist -- han listar dem uttryckligen som en indata hans monster skulle hantera -- men ingen implementation har byggt den motesspecifika inmatningsvagen.
Det har ar gapet, och det ar ett konstigt gap att hitta i slutet av en vecka om minne, for moten ar dar den mest vardefulla organisatoriska kunskapen faktiskt skapas. Beslut, kontext, ataganden, varforet bakom vadet -- dessa saker sker i samtal, inte i dokument. Ett minnessystem som inte kan inta moten missar den storsta kallan till ostrukturerad kunskap i nagon organisation. Den langre versionen av det har argumentet finns i artikeln om mote-till-wiki-gapet, och det ar den enskilt viktigaste pusselbiten fran veckans lansseringarna som ignorerades.
Debatten ordagrant-kontra-extraktion, tilllampad pa moten
Det finns ett anvandsbart satt att forankra den filosofiska oenigheten mellan MemPalace och Mem0 i en doman som folk faktiskt forstar: den langtgaende debatten inom motestranskriberingsomradet om huruvida man ska behalla det raa transkriptet eller bara behalla de AI-extraherade anteckningarna.
Ordagrant-lagret ar Otter.ai, Read.ai, varje juridiskt och regelefterlevnadsanvandsfall, varje sammanhang dar sjalva konversationen kan vara beviset. Read.ai:s formulering har citerats mycket pa sistone och den stammer nastan exakt overens med MemPalace:s pitch: "not a vague summary, but the actual discussion... captures the nuances: the edge case someone raised at minute 32." Argumentet ar att i det ogonblick man later en modell sammanfatta har man kastat bort minut-32-kantfallet, och minut-32-kantfallet ar nastan alltid den del man behover.
Extraktionslagret ar Granola, de flesta AI-motesassistenter, hela "sammanfattning plus atgardspunkter"-skolan. Argumentet ar att ingen liser om transkript, sa sammanfattningen ar hela produkten, och det raa transkriptet ar bara en artefakt fran pipelinen. I Mem0:s vokabular ar det "extrahera fakta och kasta resten."
Det arliga produktionssvaret, bade for moten och for minne, ar bada. Lagra det ordagranna transkriptet, for framtida fragor du inte har tankt pa annu kommer att behova det. Extrahera ocksa det strukturerade lagret -- beslut, entiteter, ataganden, amnen -- for ingen vill grepa en ljudfil. Behandla det strukturerade lagret som en atergenererbar cache ovanpa det oforanderliga radata-lagret. Det ar samma monster Karpathy pekar pa med sin uppdelning i raw/ och wiki/, och det ar monstret som motesverktygsdiskussionen har kretsat kring i tva ar utan att riktigt namnge det. Proudfrogs satsning, for vad det ar vart, ar att moten ar ratt omfang for en AI-underhallen kunskapsbas specifikt for att indatavolymen ar naturligt begransad -- motena sker oavsett om man vill det eller inte, och mangden man bryr sig om ar andlig pa ett satt som "intressanta artiklar jag laser pa natet" aldrig ar.
Vad den har veckan betyder for de narmaste tolv manaderna
Framatsyftande, med det sedvanliga forbehallet att prognoser i den har kategorin har en halveringstid pa ungefar fyra veckor.
Minne blir en forstklassig arkitektonisk komponent, inte en funktion. Varje AI-produktlansering framat kommer att behova svara pa fragan "hur minns den har?" -- och "vi anvander ett vektorlager" kommer att sluta racka pa samma satt som "vi anvander en LLM" slutade racka for arton manader sedan.
Lokal-forst vinner filosofistriden, aven om det inte vinner varje marknad. MemPalace, OMEGA, Karpathys wiki, Cognee, Hindsight Hermes -- varje intressant minnesprojekt den har veckan betonade lokal korning, datasuveranitet och anvandarens agandeskap over det underliggande lagret. Den nordiska vinkeln har ar verklig och inte bara retorisk: den regulatoriska miljon i EU har drivit i den riktningen i tva ar, och de projekt som byggde for det ar nu battre positionerade an de som byggde for obegransad molnlagring.
MCP blir det universella granssnittet, och den skrivskyddade eran tar slut. Las-skriv-minnes-MCP:er var den saknade primitiven. MemPalace levererar nitton stycken. De narmaste sex manaderna kommer att handla om huruvida andra verktyg foljer efter.
Benchmark-krigen blir varre innan de blir battre. LongMemEval ar de facto standard, men den mattforvirring som exponerades den har veckan forsvinner inte av sig sjalv. Forvanta er ett renare, svarare, enbart end-to-end-benchmark som landar under Q3 2026, nastan sakert fran en av de akademiska grupperna som tyst har varit trotta pa toppliste-blandningen.
Motestranskript ar nasta uppenbara kalla. Karpathy listade dem. Ingen byggde det. Nagon kommer att gora det, troligen inom nittio dagar, och versionen som vinner blir den som behandlar motet som minnesenhet snarare an chatturen som minnesenhet.
Kompilera-kontra-lagra konvergerar till hybrider. Bada poler har svagheter som den andra polen loser. Produktionssystem om tolv manader kommer att lagra ordagrant, extrahera strukturerade artefakter ovanpa och kompilera en navigerbar wiki ovanpa dem. Tre lager, inte ett. Det arkitektoniska diagrammet finns redan i ett dussin privata Notion-dokument. Det kommer att finnas offentligt snart.
Las det har om du brydde dig om Karpathy
Veckan 2--8 april kommer inte att se ut som en kategoriinflexion i den typ av historier som skrivs om den senare. Den kommer att se ut som ogonblicket da fyra eller fem team insag att de hade arbetat pa samma problem fran olika vinklar och beslot, under ungefar samma sjutiotva timmar, att leverera. Inflexioner ser sallan ut som inflexioner fran insidan. De ser ut som en hektisk vecka.
Proudfrog-hypotesen, formulerad en gang, sent och utan en pitch bifogad: moten ar ratt omfang for en AI-underhallen kunskapsbas for att indatan ar naturligt begransad, kallan ar intrinsiskt konversationell och hogkontextuell, och underhallsborda skalar med indatavolym snarare an med anvandardisciplin. Huruvida den hypotesen overlever 2026 ar en fraga vi inte tanker latsas ha avgjort.
Om du kom in via Karpathy-traden och vill fortsatta, lever resten av var bevakning av veckan i tre delar:
- Andrej Karpathys LLM-wiki-arbetsflode: hur det fungerar (och varfor moten ar den saknade kallan) -- forklararen.
- Den kompletta guiden till Karpathys LLM-wiki-arbetsflode -- den praktiska replikeringsguiden.
- LLM-wikin i skala: tokenkostnader, hallucinationer och andrahjarnans kyrkogard -- skeptikerns briefing.
Och om det motesformade gapet i minneslandskapet ar den del av det har som fangade dig, mote-till-wiki-gapet, kunskapsarbetarens arbetsflode och Proudfrogs funktionssida ar resten av argumentet.
Vanliga fragor
Vad ar det snabbaste sattet att forsta skillnaden mellan Karpathys wiki och MemPalace?
Karpathy kompilerar. MemPalace lagrar. Karpathys monster laser dina radata, fattar redaktionella beslut om struktur och lankar, och skriver en underhallen markdown-wiki som du fragar senare. MemPalace lagrar allt ordagrant och hamtar via metadatafiltrerad vektorsok vid fragetillfallet, pa den filosofiska principen att lata en LLM avgora vad som ska minnas ar den ursprungliga synden. De argumenterar for motsatta halvor av samma problem, och produktionssvaret kommer att anvanda bada.
Ar MemPalace:s 100%-benchmarkpoang verklig?
Delvis. 96,6%-poangen i ramode pa LongMemEval recall@5 ar verklig och har reproducerats oberoende. 100%-siffran uppnaddes med tre riktade patchar skrivna for de tre underkanda fragorna i dev-setet, och projektets eget BENCHMARKS.md erkanner nu det som "teaching to the test." Det djupare problemet ar att recall@5 mater enbart hamtning, medan den officiella LongMemEval-topplistan mater end-to-end QA-noggrannhet -- det ar olika matt, och att blanda ihop dem ar sa perfekta poang fabriceras. Den underliggande motorn ar genuint stark. Marknadsforingen lag fore metodologin.
Varfor bygger alla lokal-forst-minnessystem?
Tre anledningar staplade pa varandra. Integritet och datasuveranitet, sarskilt i den europeiska regulatoriska miljon. Kostnad -- nar man eliminerar molnhamtningslagret gar marginalkostnaden for att minnas mot noll. Och fortroende -- anvandare har lart sig, ofta pa det svara sattet, att varje minneslager som hostas av nagon annan ar ett minneslager som kan avvecklas, prissattas om eller forvarvas och stangas ner. Limitless nedstangning i december 2025 gjorde det konkret pa ett satt som ingen som levde igenom det har glomt.
Fungerar nagot av det har for motestranskript?
Inte annu, i den meningen att inget av projekten som slapptes den har veckan behandlar motestranskript som en forstklassig kalla. Karpathys gist namner dem som en giltig indata men implementerar inte inmatningen. MemPalace:s repo namner inte moten. Mem0:s formulering antar chatturer. Den strukturella passformen ar utmarkt -- moten ar avgransade, hogkontextuella och naturligt relationella -- men den motesnativa versionen av dessa system maste fortfarande byggas. Det ar gapet vi standig aterkom till.
Vad ar MCP och varfor dyker det standig upp?
Model Context Protocol ar den framvaxande standarden for hur AI-system ansluter till externa verktyg och datakallor. Fram till helt nyligen var de flesta minnes-MCP:er skrivskyddade -- man kunde be dem erinra sig nagot men inte lagra nagot. MemPalace levererade nitton las-skriv-minnesverktyg vid lansering, vilket ar fler an resten av kategorin sammanlagt, och det ar ogonblicket da den skrivskyddade eran borjar ta slut. Forvanta er att varje serieost minnesprojekt levererar en las-skriv-MCP inom de narmaste sex manaderna.
Bor jag vanta pa att den har kategorin stabiliseras innan jag bygger pa den?
Det beror pa om du har rad att ha fel. Om du bygger ett produktionssystem som behover vara stabilt de narmaste tva aren, vanta -- arkitekturerna ror sig fortfarande snabbt och benchmark-situationen ar otillrackligt tillforlitlig for att dagens ledare kan vara morgondagens fotnot. Om du utforskar kategorin for ditt eget arbete eller kor ett avgransat internt experiment, bygg nu, satt ett budgettak, behandla den kompilerade artefakten som atergenererbar och planera att kasta din forsta implementation. Ideerna kommer att overleva de specifika verktygen, och disciplinen av att ha byggt en kommer att overleva bada.