Tekoalyn muistiviikko joka muutti tiedonhallinnan

Karpathyn LLM-wiki 2. huhtikuuta. Mem0:n Series A 4. huhtikuuta. MemPalace 23 000 tahtea 72 tunnissa. Letta Code -julkaisu. Hindsight Hermes. Viisi projektia, yksi viikko, yksi oivallus: tietotyolaiset ovat kyllastyneet tekoalyn muistinmenetykseen.

ai-memoryknowledge-graphmempalacekarpathyllm

Viikon kuluttua, kun poly on laskeutunut, huhtikuun 2026 ensimmainen viikko tulee nayttamaan siltaa hetkelta, jolloin tekoalyn muisti lakkasi olemasta insinooriaiheen subreddit-aihe ja siita tuli oma kategoriansa. Viisi projektia julkaistiin 2.--8. huhtikuuta. Yksikaan niista ei ollut koordinoitu. Kaikki argumentoivat saman asian puolesta hieman eri nakokulmista: vallitseva lahestymistapa kielimallien muistin antamiseen on vaara, ja seuraava ratkaisu on jo olemassa.

Tama on toimituksellinen lapikaynti -- ei julkaisukooste, ei benchmark-sota eika tuote-esittely. Meilla on kaksi pidempaa artikkelia Karpathyn wikista nimenomaisesti ja sen rehellisista heikkouksista, ja tama artikkeli on laajempi kehys molempien ymparilla. Seuraavassa on tiivistelma: mita tapahtui, miksi se tapahtui nyt, mika on aidosti uutta, mika on ylihypetettya ja mita se merkitsee seuraaville kahdelletoista kuukaudelle.

Viikko aikajanana

  • 2. huhtikuuta. Andrej Karpathy julkaisee "LLM Knowledge Base" -tyonkulkunsa X:ssa. Ketju ylittaa kuusitoista miljoonaa nayttokertaa viidessa paivassa. Kaikkialle levinnyt lainaus: "a large fraction of my recent token throughput is going less into manipulating code, and more into manipulating knowledge."
  • 4. huhtikuuta. Karpathy julkaisee virallisen lapikayntinsa GitHub-gistina. Samana paivana Mem0 julkaisee "State of AI Agent Memory 2026" -raporttinsa ja ilmoittaa Series A -kierroksesta.
  • 6. huhtikuuta. MemPalace julkaistaan GitHubissa. Letta julkaisee Letta Coden, muisti-ensin-koodausagentin. Hindsight Hermes toimittaa MCP-integraationsa.
  • 6.--8. huhtikuuta. MemPalace nousee nollasta noin 23 000 GitHub-tahteen seitsemasssakymmenesskahdessa tunnissa. Benchmark-kiista syttyy, yhteisooen reagoi, projekti korjaa itsensa julkisesti.

Viisi julkaisua, yksi viikko, yksi yhteinen diagnoosi: tietotyolaiset ovat kyllastyneet tekoalyn muistinmenetykseen. Jokainen keskustelu alkaa alusta. Jokainen kysymys loytaa uudelleen kontekstin, jonka malli jo naki eilen. Mikaan ei keraanny. Karpathy oli ensimmainen merkittava aani, joka sanoi sen aaneen, ja sina hetkena nelja muuta tiimia olivat valmiina julkaisemaan valmiin vastauksen neljan paivan sisalla. Riippumaton konvergenssi on harvoin sattumaa. Se tarkoittaa yleensa, etta ongelma on ollut kypsaa pidempaan kuin twiitit antavat ymmartaa.

Miksi tama viikko tapahtui nyt

Noin kahden vuoden ajan vastaus kysymykseen "miten annamme LLM:lle tietoa?" on ollut sama: pilko dokumenttisi, upota ne vektoritietokantaan, hae top-k-osumat kyselyhetkella, generoi. RAG. Arkkitehtuuri imi miljardeja dollareita investointeja ja siita tuli vakiotarina, jonka jokainen yritys-tekoaly-startup kertoi.

Se lakkasi myos tuntumasta riittavalta noin vuosi sitten. Turhautuminen oli hajanaista mutta johdonmukaista. Kokeneemmat kayttajat kuvailivat sen samoin eri sanoin: malli ei koskaan opi mitaan minulta. Selitin projektini maanantaina, selitin sen uudelleen tiistaina, selitin sen uudelleen perjantaina. Vektorivarasto muistaa merkkijonoja; se ei muista suhteita, eika se ainakaan muista toimituksellisia paatoksia, joita jatkuvasti teen siita, mika on tarkeaa. Hae-ja-unohda on pohjimmiltaan muistinmenetyssilmukka, ja kun on elanyt sen sisalla tarpeeksi kauan, alkaa haluta jotain muuta, vaikka ei pystyisi muotoilemaan mita.

Mita 2.--8. huhtikuuta osoitti on, etta useat tiimit olivat jo muotoilleet sen yksityisesti ja odottivat kulttuurista hetkea. Karpathyn julkaisu oli se hetki. Han ei ollut ensimmainen henkilo, joka rakensi kootun wikin -- markdown-wikit ovat vanhempia kuin useimmat niiden rakentajat -- mutta han oli ensimmainen laajasti luotettu aani, joka sanoi "olen kokeillut tata tosissani ja se toimii paremmin kuin RAG siina mittakaavassa, jossa oikeasti elaan." Pato murtui, koska monet ihmiset olivat pitaneet samaa ideaa saman padon takana.

Kaksi arkkitehtuurista napaa

Hyodyllisin kehys viikolle on jattaa markkinointi huomiotta ja katsoa arkkitehtuurisia filosofioita. Kolme niista on nyt nakyvissa, ja kaksi niista on suorassa ristiriidassa.

Kokoa-sitten-kysele. Tama on Karpathyn wiki. LLM lukee raakadatan vastaanottohetkella ja tekee toimituksellisia paatoksia: mitka kasitteet ovat tarkeita, mitka linkit pitaa vetaa, miten tuloksena syntynyt markdown-artikkeli pitaa rakenteellistaa, missa olemassa olevaa sivua pitaa paivittaa ja missa uusi luoda. Kyselyhetkella LLM navigoi kootussa wikissa, ei raakadata-arkistossa. Tieto on Karpathyn muotoilussa koottu kerran ja pidettyyy ajan tasalla, ei johdettu uudelleen jokaisella kyselylla. Vahvuudet ovat todellisia: minimaalinen infrastruktuuri, jaasenteinen paattely sailytetty lapikayntien valilla, tieto joka kertyy koska jokainen vastaanotto rikastuttaa olemassa olevaa rakennetta sen sijaan, etta se litistettaisiin takaisin chunk-varastoksi. Heikkoudet ovat myos todellisia: hakemistotiedostot kasvavat ulos konteksti-ikkunoista muutaman sadan artikkelin jalkeen, lahdeprecisio on hatara, ja sama malli joka kokoaa on malli joka tarkistaa, kaikkine itsensa tarkistamisen rajoituksineen.

Tallenna-sitten-hae. Tama on MemPalacen napa, ja se on avoimesti argumentti kolmatta lahestymistapaa vastaan, johon tulemme hetken kuluttua. MemPalacen myyntipuhe on, etta kielimallin ei pitaisi koskaan antaa paattaa mika on muistamisen arvoista, koska heti kun niin tekee, on menettanyt tietoa jota ei saa takaisin. Tallenna kaikki sanasanaisesti. Hae metadatasuodatetulla vektorihaulla paikallisen SQLite-ja-ChromaDB-pinon yli. README muotoilee filosofisen kannan selkeasti: "Other memory systems try to fix this by letting AI decide what's worth remembering. It extracts 'user prefers Postgres' and throws away the conversation where you explained why." Vahvuudet: ei tiedon menettysta, nopea paikallinen haku, todellinen datasuvereniteetti, ei pilvirippuvuutta. Heikkoudet: iboende synteesikerrosta ei ole, haku riippuu edelleen samasta vektorisamankaltaisuudesta kuin kaikki muutkin, ja paljon hypetetty "palatsirakenne" on, kun lukee koodia, enimmaakseen metadatasuodatusta ChromaDB:n paalla. Se on hyva insinoorivalinta. Se ei ole uusi muistin muoto.

Poimi-sitten-tallenna. Tama on kolmas napa, ja sita hyokataan molemmilta puolilta samanaikaisesti. LLM poimii faktoja vastaanoton aikana -- "Patrik suosii Postgresia," "Q3-maararaika siirtyi lokakuuhun" -- ja tallentaa tiivistettyja esityksia muistiyksikkona. Tata useimmat olemassa olevat muistijarjestelmat, mukaan lukien Mem0, oikeasti tekevat. Karpathyn wiki on argumentti sen puolesta, etta poimitut faktat pitaisi linkittaa rakenteiseen artefaktiin sen sijaan, etta ne tallennettaisiin litteina fragmentteina. MemPalacen myyntipuhe on, etta itse poimintateko on alkusynti -- heittaa pois selityksen, varauksen, vivahteen, faktan ymparillan kaydyn keskustelun. Molemmat sanovat, eri sanastoilla, etta havioollinen yhteenveto vastaanottohetkella on vihollinen.

Rehellinen tuotantovastaus tulee sisaltamaan kaikki kolme. Palaamme siihen loppuosassa.

Benchmark-sodat

Tama on se osa viikosta, joka pitaa kertoa huolellisesti, koska se on osa jossa eniten vahinkoa yleiselle ymmarrykselle tehtiin.

MemPalace lanseerattiin vaatimuksella 100 % LongMemEvalissa, pitkan kontekstin muistin standardibenchmarkissa LongMemEval-artikkelista. Taydellinen pistemaaara on sellainen luku, joka vie projektin kahdenkymmenkolmen tuhannen tahden paahan kolmessa paivassa, ja suunnilleen niin kayvi. Yhteisooe reagoi sitten voimakkaasti, tavalla josta tuli malli sille miten tallaisen erimielisyyden pitaisi edetaa.

Todellisessa tarinassa on nelja osaa, ja kaikki nelja ovat tarkeita.

Ensinnaakin MemPalace mittaa recall@5:tta -- pelkastaan hakumetriikkaa. Virallinen LongMemEval-kaerkilista mittaa end-to-end QA-tarkkuutta: hae, generoi, arvioidaan onko vastaus oikein. Nama eivat ole sama metriikka, eika se ole edes lahella. Kuten GitHub-kayttaja dial481 muotoili siihen ketjuun, josta tuli selkein yhteenveto missaan: "A system that retrieves perfectly and then answers wrong scores 100% under recall_any@5 and 0% on the leaderboard." Voi saada taydellisen toisessa ja nollan toisessa.

Toiseksi 100 %:n pistemaaara saavutettiin kolmella kohdennetulla patchilla, jotka kirjoitettiin nimenomaan dev-setin kolmelle epaonnistuneelle kysymykselle. Patchien poistamisen jalkeen ja jarjestelman ajamisen 450 piilotettua kysymysta vasten pistemaaara laski 98,4 %:iin. Yha erinomainen. Huomattavasti rehellisempi. Projektin oma BENCHMARKS.md myonsi ansiokkaaasti ongelman selkealla kielella: "This is teaching to the test." Se on lause, jota ei juuri koskaan nae julkaisureposssa, ja se on lause jota yhteisooe ansaitsee enemman.

Kolmanneksi raakamoodin paiapistemaaara on 96,6 % LongMemEval recall@5:ssa, ja se on todellinen. Kayttajan @gizmax riippumaton reproduktio M2 Ultralla vahvisti luvun julkaistulla arviointisetilla. Joten taustalla oleva hakumoottori on aidosti vahva. Ongelma ei koskaan ollut etta MemPalace oli huono. Ongelma oli etta markkinointiluku oli eri metriikka kuin kaerkilistan metriikka, eika eroa tehty selvaaksi ennen kuin yhteisooe teki sen selvaaksi.

Neljaanneksi Mem0:n julkaistut luvut eivat myoskaan ole kulkeneet helposti. Riippumaton arviointi LongMemEvalissa sijoitti Mem0:n noin 49,0 %:iin end-to-end-tehtavassa. Letta yritti toistaa Mem0:n omia vaittamia benchmarkeja eika onnistunut. Viikon kaava on, etta lahes jokaisella muistiprojektilla on julkaistu paaluku joka ei selvia huolellisesta kolmannen osapuolen ajosta, ja syyt liittyvat lahes aina siihen mika metriikka, mika osajoukko ja mika tuomari, pikemmin kuin suoraan epaaerehellisyyteen. Penfield Labsin lapikaynti on selkein ulkoinen analyysi nimenomaan MemPalace-tapauksesta.

Johtopaatos on sama johtopaatos joka pati LLM-arviointien alkuaikoina yleisesti: nain nuoressa kategoriassa kasittele paalukuja markkinointina kunnes joku muu on ajanut ne. Lue metodologia-osio, ala lehdistotiedotetta. Ja anna tunnustusta projekteille jotka julkaisevat omat varauksensa -- MemPalacen BENCHMARKS.md on jalkeenpaain katsottuna yksi viikon rehellisimmista dokumenteista, vaikka se pitikin pakottaa esiin julkisen keskustelun kautta.

Mika on oikeasti uutta

Riisu julkaisuenergia pois ja kysy vaikeampi kysymys: milla tama viikko aidosti kontribuoi alalle?

Karpathyn wiki kontribuoi hyvin artikuloidun argumentin kokoa-sitten-kysele-lahestymistavan puolesta henkilokohtaisessa mittakaavassa. Skeematiedosto-kaava (CLAUDE.md joka kuvaa miten wiki pitaisi muotoutua) on uusi ja hyoodyllinen. Arkkitehtuurinen erottelu raw/:n ja wiki/:n -- muuttumattoman lahdekerroksen ja uudelleengeneroitavan kootun kerroksen -- valilla on julkaisun puolustettavin idea. Suurin osa siita mita ihmiset varastavat Karpathylta seuraavan vuoden aikana ei ole itse tyonkulku. Se on juuri tuo arkkitehtuurinen erottelu.

MemPalace kontribuoi yhdeksallatoista luku-kirjoitus-MCP-tyokalulla, mika on enemmian kuin kaikki muut muisti-MCP:t ovat toimittaneet yhteensa. Useimmat muisti-MCP:t ovat vain luku -tilassa -- niita voi pyytaa muistamaan jotain, mutta niita ei voi pyytaa tallentamaan jotain. Luku-kirjoitus-aikakausi alkaa tasta. MemPalace kontribuoi myos harkitulla nelikerroksisella latausjarjestelmalla joka skalaa kontekstikustannusta noin 170 tokenista kaynnistyksessa syvaahakuun pyynnoosta, mika on todellinen insinoorivalinta mitattavin seurauksin. Ja se kontribuoi paikallinen-ensin-arkkitehtuurilla joka kayttaa SQLitea tietograafiin Neo4j:n vaatimisen sijaan kuten Zep tekee, mika on ero "itsehostattavissa teoriassa" ja "itsehostattavissa lapparilla kaytannossa" valilla. Lopuksi, ja tama on pehmeaa kontribuutio jota aliarvioidaan: projekti vastasi omaan benchmark-kiistaaansa korjaamalla julkisesti, yhdistamalla kriittiset PR:t, paivittamalla README:n ja peruuttamalla vaaraat vaitteet. Tuo kayttaytyminen on itsessaan kontribuutio kategoriaan joka kipeasti tarvitsee sita.

Mem0 kontribuoi ensimmaisella virallisella "State of the field" -raportilla "State of AI Agent Memory 2026":llaan, ja ensimmaisella signaalilla etta riskipaaaomasijoittajat hinnoittelevat muistin kategoriana eika ominaisuutena. Series A -kierros on se osa joka saa lehdistoa, mutta raportti on se osa joka todella muokkaa miten tuotetiimit puhuvat tasta loppuvuoden.

Letta Code kontribuoi muotoilulla "muisti OS-kerroksena." Koodausagentti rakennettu muisti-ensin eika muisti-paaalle-pultattuna. Selviaaako muotoilu kohtaamisesta todellisuuden kanssa on erillinen kysymys, mutta itse muotoilua tullaan siteeraamaan paljon.

Hindsight Hermes kontribuoi 91,4 %:lla LongMemEval end-to-end:issa -- todellinen end-to-end-luku, ei pelkka hakuluku -- MIT-lisenssilla, upotetulla PostgreSQL:lla, MCP-ensin. Se on viikon vahvin todiste siita etta avointen lahdekoodin muistiekosysteemi kypsyy nopeasti ja etta kuilu suljettujen ja avointen toteutusten valilla on kapeampi kuin kuukausi sitten naaytti.

Se on todellinen kontribuutiolehtinen. Se on merkittavaa. Se on myos pienempi kuin Twitter-kattavuus antaa ymmartaa, mika on ok. Useimmat viikot kontribuoivat vahemman.

Mita kaikki jaavat huomaamatta

Lue koodikannat ja julkaisutekstit yhdessa ja yksi poissaolo tulee aanekkaaaksi. Yksikaan naista jarjestelmista ei kasittele kokousten litteroointeja ensiluokkaisena lahteena.

MemPalacen repo ei sisalla sanoja "meeting" tai "transcript" missaan merkittavassa kohdassa. Mem0:n chattikoeskeinen muotoilu olettaa syotteen olevan chattivuorojen virta, mika on vaara muoto kokoukselle. Letta Code on rakennettu kehittajan tyonkulun ymparille. Hindsight Hermes on yleistarkoituksinen mutta mielipiteeton lahdekerroksen suhteen. Ainoa projekti joka todella mainitsee kokouslitteroinnit kelvollisena raakadatalahteena on, ironisesti, Karpathyn gist -- han listaa ne nimenomaisesti syotteena jota hanen kaavansa kasittelisi -- mutta yksikaan toteutus ei ole rakentanut kokouskohtaista vastaanottokanavaa.

Tama on aukko, ja se on outo aukko loytaa muistiviikon lopusta, koska kokoukset ovat paikka jossa arvokkain organisatorinen tieto todella syntyy. Paatokset, konteksti, sitoumukset, miksi mitan takana -- nama asiat tapahtuvat keskustelussa, eivat dokumenteissa. Muistijarjestelma joka ei pysty vastaanottamaan kokouksia puuttuu suurin jassentamattoman tiedon lahde missaa tahansa organisaatiossa. Pidempi versio tasta argumentista elaaa kokouksesta-wikiin-aukko-artikkelissa, ja se on viikon palapelin yksittainen tarkein pala jonka julkaisut jattivat huomiotta.

Sanasanainen-vastaan-poiminta-keskustelu sovellettuna kokouksiin

On hyoodyllinen tapa ankkuroida MemPalacen ja Mem0:n filosofinen erimielisyys domainiin jonka ihmiset todella ymmaartavat: kokouslitterointialalla pitkaan kayty keskustelu siita pitaisikooe raaka litterointi sailyttaa vai vain tekoalyn poimimat muistiinpanot.

Sanasanainen leiri on Otter.ai, Read.ai, jokainen juridinen ja saadostenmukkaisuuskayttotapaus, jokainen tilanne jossa itse keskustelu voi olla todiste. Read.ai:n muotoilua on lainattu paljon viime aikoina ja se vastaa lahes tarkasti MemPalacen myyntipuhetta: "not a vague summary, but the actual discussion... captures the nuances: the edge case someone raised at minute 32." Argumentti on etta hetkella kun antaa mallin tiivistaa, on heittanyt pois minuutin-32-reunatapauksen, ja minuutin-32-reunatapaus on lahes aina se osa jota tarvitsi.

Poimintaleiri on Granola, useimmat tekoalyn kokousassistentit, koko "yhteenveto plus toimenpidepisteet" -koulukunta. Argumentti on etta kukaan ei lue uudelleen litterointeja, joten yhteenveto on koko tuote, ja raaka litterointi on vain pipelineen artefakti. Mem0:n sanastossa se on "poimi faktat ja heita loput pois."

Rehellinen tuotantovastaus, seka kokouksille etta muistille, on molemmat. Tallenna sanasanainen litterointi, koska tulevat kysymykset joita et ole viela ajatellut tarvitsevat sita. Poimi myos rakenteinen kerros -- paatokset, entiteetit, sitoumukset, aiheet -- koska kukaan ei halua grepata audiotiedostoa. Kasittele rakenteista kerrosta uudelleengeneroitavana vaalimuistina muuttumattoman raakadatakerroksen paalla. Se on sama kaava johon Karpathy viittaa raw/- ja wiki/-jaollaan, ja se on kaava jonka ymparilla kokoustyokalukeskustelu on kiertanyt kahden vuoden ajan nimiten sita kunnolla. Proudfrogin panostus, silla mita se on arvoista, on etta kokoukset ovat oikea laajuus tekoalyn yllapitamalle tietopohjalle nimenomaan siksi etta syotteen maara on luonnostaan rajattu -- kokoukset tapahtuvat halusipa sitaa tai ei, ja joukko josta vaalittaa on aaarellinen tavalla jolla "mielenkiintoiset artikkelit joita luen netissa" ei koskaan ole.

Mita tama viikko merkitsee seuraaville kahdelletoista kuukaudelle

Eteenpaain katsoen, tavanomaisella varauksella etta ennusteet tassa kategoriassa puoliintuvat noin neljassa viikossa.

Muistista tulee ensiluokkainen arkkitehtuurinen komponentti, ei ominaisuus. Jokaisen tekoalytuotteen julkaisun tastta eteenpain pitaa vastata kysymykseen "miten tama muistaa?" -- ja "kaytamme vektorivarastoa" lakkaa olemasta riittava vastaus samalla tavoin kuin "kaytamme LLM:aa" lakkasi olemasta riittava kahdeksantoista kuukautta sitten.

Paikallinen-ensin voittaa filosofiataistelun, vaikka se ei voita jokaista markkinaa. MemPalace, OMEGA, Karpathyn wiki, Cognee, Hindsight Hermes -- jokainen kiinnostava muistiprojekti talla viikolla painotti paikallista suoritusta, datasuvereniteettia ja kayttajan omistajuutta taustalla olevaan varastoon. Pohjoismainen nakokulma taassa on todellinen eika pelkastaan retorinen: EU:n saantelyymparisto on tyontanyt tahan suuntaan kahden vuoden ajan, ja projektit jotka rakensivat sita varten ovat nyt paremmin asemoituneita kuin ne jotka rakensivat rajoittamattoman pilvitallennuksen varaan.

MCP:sta tulee universaali rajapinta, ja vain-luku-aikakausi paattyy. Luku-kirjoitus-muisti-MCP:t olivat puuttuva primitiivi. MemPalace toimittaa yhdeksantoista niita. Seuraavat kuusi kuukautta ratkaisevat seuraavatko muut tyokalut perassa.

Benchmark-sodat pahenevat ennen kuin paranevat. LongMemEval on de facto standardi, mutta talla viikolla paljastunut metriikkasekaannus ei katoa itsestaan. Odottakaa puhtaampaa, vaikeampaa, pelkastaan end-to-end-benchmarkia Q3 2026:ssa, lahes varmasti joltain akateemiselta ryhmalta joka on hiljaa ollut kyllastynyt kaerkilistasekoitteluun.

Kokouslitteroinnit ovat seuraava ilmeinen lahde. Karpathy listasi ne. Kukaan ei rakentanut sitaa. Joku tekee, todennakoisesti yhdeksankymmenen paivan sisalla, ja voittava versio on se joka kasittelee kokousta muistiyksikkona chattivoron sijaan.

Kokoa-vastaan-tallenna konvergoituu hybrideihin. Molemmilla navoilla on heikkouksia joita toinen napa ratkaisee. Tuotantojarjestelmat kahdentoista kuukauden paasta tallentavat sanasanaisesti, poimivat rakenteisia artefakteja paalle ja kokoavat navigoitavan wikin niiden paalle. Kolme kerrosta, ei yksi. Arkkitehtuurinen kaavio on jo olemassa tusinassa yksityisessa Notion-dokumentissa. Se tulee olemaan julkinen pian.

Lue tama jos vaalitit Karpathysta

Viikko 2.--8. huhtikuuta ei tule nayttamaan kategoriainflektiolta siina historiassa jota siita kirjoitetaan myohemmin. Se tulee nayttamaan hetkelta jolloin nelja tai viisi tiimia tajusi tyoskennelleensa saman ongelman parissa eri nakokulmista ja paatti, suunnilleen samojen seitsemankymmenenkahden tunnin aikana, julkaista. Inflektiot nayttavat harvoin inflektioilta sisalta katsottuna. Ne nayttavat kiireiselta viikolta.

Proudfrog-hypoteesi, muotoiltuna kerran, myohaan ja ilman myyntipuhetta liitteena: kokoukset ovat oikea laajuus tekoalyn yllapitamalle tietopohjalle koska syote on luonnostaan rajattu, lahde on luontaisesti keskustelevaa ja korkeakontekstista, ja yllapitotaakka skalautuu syotemaaaran eika kayttajakuriin. Selviaaako se hypoteesi vuodesta 2026 on kysymys jota emme aio teeskennella ratkaisseemme.

Jos tulit Karpathy-ketjun kautta ja haluat jatkaa, loput kattauksestamme viikosta elaavat kolmessa osassa:

Ja jos muistimaiseman kokousmuotoinen aukko on se osa tasta joka kiinnitti huomiosi, kokouksesta-wikiin-aukko, tietotyolaisen tyonkulku ja Proudfrogin ominaisuussivu ovat loput argumentista.


Usein kysytyt kysymykset

Mika on nopein tapa ymmartaa ero Karpathyn wikin ja MemPalacen valilla?

Karpathy kokoaa. MemPalace tallentaa. Karpathyn kaava lukee raakadatasi, tekee toimituksellisia paatoksia rakenteesta ja linkeista ja kirjoittaa yllapidetyn markdown-wikin josta kyselet myohemmin. MemPalace tallentaa kaiken sanasanaisesti ja hakee metadatasuodatetulla vektorihaulla kyselyhetkella, filosofisella periaatteella etta LLM:n antaminen paattaa mita muistaa on alkusynti. Ne argumentoivat saman ongelman vastakkaisten puoliskkojen puolesta, ja tuotantovastaus tulee kayttamaan molempia.

Onko MemPalacen 100 %:n benchmark-pistemaaara todellinen?

Osittain. 96,6 %:n raakamoodin pistemaaara LongMemEval recall@5:ssa on todellinen ja riippumattomasti toistettu. 100 %:n luku saavutettiin kolmella kohdennetulla patchilla jotka kirjoitettiin dev-setin kolmelle epaonnistuneelle kysymykselle, ja projektin oma BENCHMARKS.md tunnustaa sen nyt "teaching to the test" -tilanteeksi. Syvempi ongelma on etta recall@5 mittaa vain hakua, kun taas virallinen LongMemEval-kaerkilista mittaa end-to-end QA-tarkkuutta -- nama ovat eri metriikkoja, ja niiden sekoittaminen on tapa jolla taydellisia pisteitaa valmistetaan. Taustalla oleva moottori on aidosti vahva. Markkinointi oli metodologiaa edella.

Miksi kaikki rakentavat paikallinen-ensin-muistijarjestelmia?

Kolme syyta pinottuina. Yksityisyys ja datasuvereniteetti, erityisesti eurooppalaisessa saantelyymparistossa. Kustannus -- kun pilvihakukerros poistuu, muistamisen marginaalikustannus laskkee nollaan. Ja luottamus -- kayttajat ovat oppineet, usein kantapaan kautta, etta mika tahansa jonkun muun isannoima muistivarasto on muistivarasto joka voidaan lakkauttaa, hinnoitella uudelleen tai ostaa ja sulkea. Limitlessin sulkeminen joulukuussa 2025 teki siita konkreettista tavalla jota kukaan sen lapi elanyt ei ole unohtanut.

Toimiiko mikaan tasta kokouslitteroinneille?

Ei viela, siina mielessa etta yksikaan talla viikolla julkaistu projekti ei kasittele kokouslitterointeja ensiluokkaisena lahteena. Karpathyn gist mainitsee ne kelvollisena syotteena mutta ei toteuta vastaanottoa. MemPalacen repo ei mainitse kokouksia. Mem0:n muotoilu olettaa chattivuoroja. Rakenteellinen sopivuus on erinomainen -- kokoukset ovat rajattuja, korkeakontekstisia ja luonnostaan relationaalisia -- mutta naiden jarjestelmien kokousnatiivi versio pitaa viela rakentaa. Se on aukko johon jatkuvasti palaamme.

Mika on MCP ja miksi se tulee jatkuvasti esiin?

Model Context Protocol on nouseva standardi sille miten tekoalyjarjestelmat yhdistyvat ulkoisiin tyokaluihin ja tietolahteisiin. Aivan viime aikoihin asti useimmat muisti-MCP:t olivat vain-luku-tilassa -- niita saattoi pyytaa muistamaan jotain mutta ei tallentamaan jotain. MemPalace toimitti yhdeksantoista luku-kirjoitus-muistityokalua julkaisussaan, mika on enemmian kuin loput kategoriasta yhteensa, ja se on hetki jolloin vain-luku-aikakausi alkaa paattyaa. Odottakaa etta jokainen tosissaan otettava muistiprojekti toimittaa luku-kirjoitus-MCP:n seuraavan kuuden kuukauden aikana.

Pitaisiko minun odottaa etta tama kategoria vakiintuu ennen kuin rakennan sen paalle?

Riippuu siita onko varaa olla vaarassa. Jos rakennat tuotantojarjestelmaa jonka pitaa olla vakaa seuraavat kaksi vuotta, odota -- arkkitehtuurit liikkuvat yha nopeasti ja benchmark-tilanne on riittamattoman luotettava sille etta tanaan johtaja voi olla huomenna alaviite. Jos tutkit kategoriaa omaa tyotasi varten tai ajat rajattua sisaista kokeilua, rakenna nyt, aseta budjettikatto, kasittele koottua artefaktia uudelleengeneroitavana ja suunnittele heittavasi ensimmaisen toteutuksesi pois. Ideat tulevat kestamaaan tiettyyja tyokaluja pidempaan, ja kurinala joka tulee yhdesta rakentamisesta kestaa molempia.