Jensen Huang szerint megérkezett az AGI, miközben az OpenClaw framework virálissá vált

Jensen Huang szerint megérkezett az AGI

A Lex Fridman podcastben elhangzott átfogó beszélgetésben az Nvidia vezérigazgatója, Jensen Huang komoly visszhangot keltett azzal a kijelentésével, hogy a mesterséges általános intelligencia (AGI) már nem a jövő mérföldköve — itt van most. Huang az AGI-t olyan rendszerként definiálta, amely képes önállóan milliárd dolláros vállalatokat építeni és működtetni, és ezt az agentic AI valamint a multimodális modellek rohamos fejlődéséhez kötötte.

A kijelentés jelentősen átrajzolja az iparági időterveket. Bár egyes kutatók vitatják a definíciót, Huang magabiztossága az Nvidia páratlan rálátását tükrözi — a cég szállítja a számítási infrastruktúrát gyakorlatilag minden vezető AI-labornak. Szavai azonnal felfelé mozdították a befektetői hangulatot az AI chip szektorban.

OpenClaw: az open-source agent framework, ami lángba borította az AI-világot

Az OpenClaw, egy osztrák független fejlesztő, Peter Steinberger által készített open-source AI agent keretrendszer ezen a héten robbant be a köztudatba — maga Jensen Huang nevezte „a következő ChatGPT-nek". A framework megmutatja, hogy teljesen autonóm AI-ágensek futtathatók személyi számítógépeken, drága cloud-alapú API-k nélkül.

Az OpenClaw vonzereje az elérhetőségében rejlik: a fejlesztők fogyasztói hardveren építhetnek és deploy-olhatnak kifinomult ágens-rendszereket, drámaian csökkentve a belépési küszöböt. A projekt intenzív vitát váltott ki arról, hogy az AI jövője a nagy cloud szolgáltatóké lesz-e, vagy egy decentralizált, helyi, open-source ökoszisztémáé.

Az Apple zöld utat kapott a Google Gemini desztillálására a Siri számára

Fontos fejlemény az Apple-Google AI-partnerségben: a Google teljes jogot adott az Apple-nek a Gemini modell „desztillálására" — vagyis az Apple mostantól kisebb, testreszabott Gemini-változatokat hozhat létre, amelyek kifejezetten a Siri és más Apple Intelligence funkciók számára vannak optimalizálva. Egyes desztillált modellek akár teljesen az eszközön is futhatnak, internetkapcsolat nélkül.

Ezzel a cégek közelebb kerültek az alapjaiban újraépített Siri kiadásához, bár az időterv csúszott. Míg eredetileg az iOS 26.4-ben tervezték az első Gemini-alapú Siri funkciókat, a 9to5Mac szerint a bevezetés az iOS 26.5-re vagy akár az iOS 27-re tolódott. A Bloomberg korábbi információi alapján az Apple évi körülbelül 1 milliárd dollárt fizet a Google-nak az egyedi Gemini-hozzáférésért, a feldolgozás pedig az Apple Private Cloud Compute rendszerén fut az adatvédelmi garanciák fenntartása érdekében.

Megjelent a Google Gemini 3.1 Flash-Lite

A Google csendben kiadta a Gemini 3.1 Flash-Lite modellt, amely 2,5-szer gyorsabb válaszidőt kínál az első token generálásánál az elődeihez képest. Mindössze 0,25 dolláros áron millió input tokenként az egyik legolcsóbb, frontier-közeli modell a piacon.

A legérdekesebb újítás az „állítható gondolkodási szintek" (adjustable thinking levels) funkció, amellyel a fejlesztők szabályozhatják, mennyi következtetési erőfeszítést fordítson a modell egy-egy lekérdezésre — praktikus eszköz a költség, sebesség és minőség egyensúlyának megteremtéséhez éles környezetben. A Flash-Lite ezzel erős versenyzővé válik nagy forgalmú, alacsony késleltetést igénylő feladatokra, ahol nincs szükség a teljes frontier modell erejére.

Pénzügyi vezetők AI-alapú létszámcsökkentést jeleznek előre

Egy friss Wall Street Journal felmérés szerint a nagyvállalatok pénzügyi igazgatói 2026-ban AI-vezérelt létszámcsökkentéssel számolnak, különösen az adminisztratív és back-office pozíciókban. Bár az előrejelzett összesített csökkentés mérsékelt, a pénzügyi vezetés üzenete egyértelmű: az AI-alapú munkaerő-átalakítás az elméleti vitákból konkrét költségvetési tervezésbe lépett.

Az eredmények olyan nagy horderejű lépések nyomán érkeznek, mint a Block 40%-os létszámcsökkentése (amelyet Jack Dorsey vezérigazgató az AI képességeinek tulajdonított), az Atlassian 1600 fős elbocsátása az AI-fejlesztés felé történő átcsoportosítás jegyében, illetve az a hír, hogy Mark Zuckerberg a Meta-nál is hasonló logikát kommunikál belső körökben. Három különböző vállalati stratégia rajzolódik ki: leépítés és újjáépítés (Block), kiegészítés és átcsoportosítás (Salesforce), valamint masszív befektetés és tehetségkoncentráció (Meta).

Egyéb hírek

Az Anthropic elindította a Claude Code auto módját, amely kevesebb manuális jóváhagyással teszi lehetővé az AI-támogatott kódolást, miközben beépített biztonsági ellenőrzéseket tart fenn. Az ARM bemutatta AGI CPU-ját, elsőként lépve át a chip-tervezés licencelésétől a saját szilícium gyártásához AI adatközpontok számára. Az amerikai pénzügyminisztérium elindította AI Innovation Series programját, egy köz- és magánszféra közötti kezdeményezést a pénzügyi rendszer ellenálló képességének támogatására az AI korában. A Cursor Composer 2 pedig vitát váltott ki, miután kiderült, hogy a termék a Moonshot AI Kimi K2.5 modelljére épül — a Cursor vezetői tisztázták, hogy a számítási kapacitás 75%-a saját reinforcement learning-ből származik.

Megosztás