A Simile 100 millió dollárt kapott az emberi döntések szimulálására — örüljünk vagy féljünk?
Mi lenne, ha egy cég pontosan meg tudná jósolni, hogyan reagálnál egy új termékre, árváltozásra vagy politikai üzenetre — még mielőtt láttad volna? Pontosan ezt állítja a Simile, a virális Smallville kísérlet mögötti stanfordi kutatók által alapított startup. 2026 februárjában az Index Ventures vezetésével 100 millió dolláros Series A finanszírozást kaptak a skálázáshoz.
A befektetői lista az AI panteonjából válogat: Fei-Fei Li, Andrej Karpathy, Bain Capital Ventures, A* és Hanabi Capital. Az ügyfelek között már ott van a CVS Health, a Telstra, a Wealthfront, a Gallup és a Suntory. Ez már nem kutatási projekt. Ez egy cég, amely arra fogad, hogy a döntéshozatal jövője a szimuláció.
A Smallville-től a valós világ felé
2023-ban Joon Sung Park, Michael Bernstein és Percy Liang — a Stanford kutatói — közzétettek egy tanulmányt, amely rabul ejtette az internetet. Megépítették a Smallville-t, egy apró virtuális várost, amelyet 25 AI ágens népesített be: reggelit főztek, dolgozni mentek, kapcsolatokat alakítottak ki, sőt Valentin-napi bulit is szerveztek — mindezt explicit programozás nélkül.
Az ágensek nem forgatókönyvet követtek. Generatív ágensek voltak: olyan szoftver entitások, amelyek nagy nyelvi modelleket kombináltak memóriával, reflexióval és tervezéssel, hogy hihető emberi viselkedést produkáljanak. A tanulmány vírusszerűen terjedt, több ezer hivatkozást gyűjtött, és felvetett egy kérdést: mi lenne, ha ezt valódi emberekkel lehetne megcsinálni?
A Simile a válasz. A cég megépítette azt, amit a társadalom első, valós embereken alapuló AI szimulációjának nevez. Adatokat kap egy személyről — interjúátiratokat, tranzakciós naplókat, viselkedési mintákat — és létrehoz egy digitális ikret, amelyet szimulált forgatókönyvekbe helyezhetnek, hogy megjósolják, hogyan reagálna a valódi személy.
Hogyan működik: 85% és emelkedik
A modellt több száz emberrel készített interjúkon, tranzakciós naplókon és tudományos folyóiratokból származó szövegeken tanították. A fejlesztés hét hónapig tartott. 2024-re a Simile 85%-ot meghaladó pontosságot jelentett az emberi válaszok szimulálásában különböző forgatókönyvek mentén.
Nézzük a számokat a gyakorlatban:
- CVS Health a Simile-t használta annak meghatározására, hogy milyen termékeket helyezzen a polcokra és hogyan fognak kelni — állítólag hónapokat spórolva a hagyományos piackutatásból
- Eredménybejelentő konferenciahívások próbája: vezetők szimulálják az elemzői kérdéseket az éles adás előtt, a rendszer 80%-os pontossággal jósolja meg a valóban feltett kérdéseket
- Peres ügyek modellezése: ügyvédi irodák érveket tesztelnek szimulált bírók és esküdtszékek ellen, mielőtt bíróságra mennének
- Szakpolitikai tesztelés: szervezetek előzetesen megtekintik, hogyan reagálnának a populációk a szabályozási változásokra
Az ajánlat meggyőző: ahelyett, hogy teszteletlen döntéseket vetnénk be a valós világban — terméket dobunk piacra, árat változtatunk, szolgáltatást alakítunk át — először szimulálunk. A szimulációban bukjunk el, ne élesben.
A kényelmetlen kérdések
És itt kezd bonyolulttá válni a helyzet. Mert ugyanaz a technológia, amely segít a CVS-nek hatékonyabban feltölteni a polcokat, olyan kérdéseket is felvet, amelyek az autonómia, a beleegyezés és a hatalom lényegét érintik.
1. Beleegyezés és digitális ikrek
Amikor a Simile egy személyről digitális ikret hoz létre az interjúadatai és tranzakciós előzményei alapján, kié az a szimuláció? A modellezett személy nem egyezett bele, hogy digitális változatát több ezer hipotetikus forgatókönyv ellen teszteljék. Az iker olyan "döntéseket" hozhat, amelyeket a valódi személy kifogásolhatónak találna. Milyen jogai vannak egy embernek a saját szimulációja felett?
2. A manipuláció gradiense
Érdemi különbség van aközött, hogy megjósoljuk, mit fog tenni valaki, és aközött, hogy egy konkrét eredményt mérnökölünk ki. Ha 85%-os pontossággal tudod, hogyan fog reagálni egy ember egy üzenetre, kifejezetten úgy alakíthatsz üzeneteket, hogy kihasználják ezt a jóslást. A piackutatás precíziós meggyőzéssé válik. Az A/B tesztelés A/B manipulációvá. A technológia agnosztikus — nem érdekli, hogy ügyfél-elégedettségre vagy függőségre optimalizálsz.
3. Pontossági korlátok és túlzott magabiztosság
A 85%-os pontosság lenyűgözően hangzik, amíg nem gondolunk a tétekre. Egymillió ügyfél populációjában a 15%-os hiba 150 000 embert jelent, akiknek a viselkedését helytelenül jósolták meg. Ha egy gyógyszeripari cég szimulációval jósolja meg a betegek reakcióit egy gyógyszerár-változásra, az a 15%-os hiba nem kerekítési hiba — ez több tízezer ember, aki a modell által tévesen megjósolt egészségügyi döntéseket hoz. A veszély nem az, hogy a modell hibázik. A veszély az, hogy a szervezetek túlságosan megbíznak benne.
4. A szimulációs paradoxon
Íme a legmélyebb kérdés: az emberi viselkedés szimulálása megváltoztatja-e az emberi viselkedést? Ha egy vállalat szimulálja, hogyan reagálnának ügyfelei egy áremelésre, majd a szimuláció alapján módosítja az árat, az ügyfelek most már a saját megjósolt viselkedésük által formált valóságra reagálnak. A szimuláció preskriptívvé válik, nem csupán prediktívvé. Már nem a világot modellezzük — hanem tervezzük azt.
5. Kit szimulálnak?
A Simile modelljéhez adatokra van szükség: interjúkra, tranzakciós naplókra, viselkedési mintákra. Ez azt jelenti, hogy aránytalanul azokat az embereket szimulálják, akiknek a legnagyobb a digitális lábnyomuk — gazdag gazdaságok fogyasztóit, nagy platformok felhasználóit, formális pénzügyi rendszerek résztvevőit. A több milliárd ember, aki ezeken a rendszereken kívül áll, láthatatlan a szimuláció számára. A Simile által "optimalizált" döntések egy szűk, nem reprezentatív populációra lehetnek optimalizálva, szisztematikusan kizárva azokat az embereket, akik a leginkább ki vannak téve a következményeknek.
Mit jelent ez az AI-stratégia szempontjából
A viselkedési szimulációt fontolgató szervezetek számára több alapelv segíthet az adoptáció irányításában:
- A szimuláció lencse, nem kristálygömb. Használjuk lehetőségek feltárására és feltételezések stressztesztelésére, ne az emberi ítélőképesség helyettesítésére
- Építsünk beleegyezési keretrendszereket. Ha valódi emberek digitális ikreit hozzuk létre, építsünk explicit beleegyezési mechanizmusokat, és adjuk meg az egyéneknek a jogot a kilépésre és szimulált énjük törléséhez
- Kontextusban közöljük a pontosságot. A 85%-os pontosság termékpreferenciák előrejelzésében nagyon más, mint a 85%-os pontosság egészségügyi döntések megjóslásában. A bizalmat a területhez kalibráljuk
- Válasszuk el az előrejelzést az optimalizálástól. Egyértelmű szervezeti határvonalnak kell lennie aközött, hogy megértjük, mit fognak tenni az emberek, és aközött, hogy megtervezzük, mit akarunk, hogy tegyenek
A lényeg
A Simile valami valóban újat képvisel — nem még egy chatbot vagy képgenerátor, hanem kísérlet az emberi döntéshozatal teljes komplexitásának számítógépes modellezésére. Az Index Ventures 100 millió dolláros tétje és Fei-Fei Li valamint Andrej Karpathy támogatása azt jelzi, hogy az AI-ipar úgy véli: ez egy felfedezésre érdemes határterület.
De az "érdemes felfedezni" és a "kész a nagyszabású bevetésre" két különböző dolog. A technológia működik. A kérdés az, hogy etikai kereteink, szabályozási struktúráink és szervezeti irányításunk képes-e lépést tartani egy olyan eszközzel, amely azt ígéri, hogy jobban ismer minket, mint mi saját magunkat.
A szimuláció fut. A kérdés az, hogy ki figyeli — és kit figyelnek.
AI szimulációt vagy viselkedési modellezést fontolgatsz a szervezetedben? Beszélj csapatunkkal a felelős AI-stratégiáról és implementációról.