{"id":1743,"date":"2026-03-29T10:27:44","date_gmt":"2026-03-29T08:27:44","guid":{"rendered":"https:\/\/darioiannascoli.it\/blog\/novita-ai-quarta-settimana-marzo-2026-nvidia-igx-thor-physical-ai-minimax-m25-samsung-gemini-800-milioni\/"},"modified":"2026-03-29T10:27:44","modified_gmt":"2026-03-29T08:27:44","slug":"novita-ai-quarta-settimana-marzo-2026-nvidia-igx-thor-physical-ai-minimax-m25-samsung-gemini-800-milioni","status":"publish","type":"post","link":"https:\/\/darioiannascoli.it\/blog\/novita-ai-quarta-settimana-marzo-2026-nvidia-igx-thor-physical-ai-minimax-m25-samsung-gemini-800-milioni\/","title":{"rendered":"Come Resto Aggiornato sulle Novit\u00e0 AI della Quarta Settimana di Marzo 2026: NVIDIA IGX Thor per Physical AI, MiniMax M2.5 Sfida Claude Opus, Samsung Gemini su 800 Milioni di Device"},"content":{"rendered":"<p>La quarta settimana di marzo 2026 si \u00e8 chiusa con annunci che, nella mia esperienza di sysadmin che segue quotidianamente l&#8217;evoluzione dell&#8217;AI, segnano tre tendenze impossibili da ignorare: l&#8217;AI che esce dai data center per entrare nelle fabbriche e negli ospedali con <strong>NVIDIA IGX Thor<\/strong>, un modello cinese open source che sfida i giganti a un ventesimo del costo con <strong>MiniMax M2.5<\/strong>, e la democratizzazione dell&#8217;intelligenza artificiale mobile con <strong>Samsung Gemini su 800 milioni di dispositivi<\/strong>.<\/p>\n<p>In un precedente articolo ho gi\u00e0 coperto <a href=\"https:\/\/darioiannascoli.it\/blog\/novita-ai-quarta-settimana-marzo-2026-trump-framework-openclaw-google-personal-intelligence-britannica-openai\/\">le novit\u00e0 della stessa settimana su Trump AI Framework, OpenClaw e Google Personal Intelligence<\/a>. Qui mi concentro su tre notizie che toccano direttamente chi lavora con infrastrutture, sviluppo e piattaforme AI.<\/p>\n<h2>NVIDIA IGX Thor: la Physical AI Diventa Realt\u00e0 al GTC 2026<\/h2>\n<p>Il <strong>GTC 2026<\/strong> di NVIDIA, tenutosi a marzo, ha sancito la disponibilit\u00e0 generale della piattaforma <strong>NVIDIA IGX Thor<\/strong>, il processore industriale progettato per portare l&#8217;AI in tempo reale nell&#8217;edge computing di fabbriche, ospedali e sistemi robotici. Non parliamo di demo o roadmap: IGX Thor \u00e8 ora acquistabile e partner come <strong>Advantech<\/strong>, <strong>Connect Tech<\/strong>, <strong>WOLF Advanced Technology<\/strong> e <strong>ASRock Rack<\/strong> stanno gi\u00e0 commercializzando sistemi basati su questa piattaforma.<\/p>\n<h3>Specifiche Tecniche di IGX Thor<\/h3>\n<p>Il modulo <strong>IGX T5000<\/strong> \u00e8 costruito sull&#8217;architettura <strong>NVIDIA Blackwell<\/strong> e integra:<\/p>\n<ul>\n<li><strong>GPU integrata<\/strong> con 2560 CUDA Core e 96 Tensor Core Gen 5, per 2070 FP4 TFLOPS per modulo<\/li>\n<li>Con <strong>dGPU opzionale<\/strong>, si raggiungono fino a <strong>5581 FP4 TFLOPS<\/strong> di compute AI<\/li>\n<li><strong>CPU ARM Neoverse-V3AE<\/strong> a 14 core<\/li>\n<li><strong>128 GB di memoria ECC LPDDR5X<\/strong><\/li>\n<li><strong>Functional Safety Island<\/strong> dedicata \u2014 un processore di sicurezza isolato progettato per certificazioni <em>ISO 26262<\/em> e <em>IEC 61508<\/em> fino ad ASIL D\/SC3<\/li>\n<li>Supporto lifecycle di <strong>10 anni<\/strong> con NVIDIA AI Enterprise<\/li>\n<\/ul>\n<p>Rispetto al predecessore <strong>IGX Orin<\/strong>, le prestazioni AI sulla iGPU sono <strong>8 volte superiori<\/strong>, sulla dGPU <strong>2,5 volte<\/strong>, con connettivit\u00e0 raddoppiata. Numeri che rendono possibile far girare <em>large language model<\/em> e <em>vision language model<\/em> direttamente sull&#8217;edge, senza dipendere dal cloud.<\/p>\n<h3>Physical AI: Robot e Aziende che Gi\u00e0 Usano IGX Thor<\/h3>\n<p>Il concetto di <strong>Physical AI<\/strong> \u2014 intelligenza artificiale che interagisce con il mondo fisico \u2014 \u00e8 al centro della strategia NVIDIA. Al GTC 2026, Jensen Huang ha presentato i modelli frontier <strong>Cosmos 3<\/strong>, <strong>Isaac GR00T N1.7<\/strong> e <strong>Alpamayo 1.5<\/strong>, oltre all&#8217;anteprima di <strong>GR00T N2<\/strong>, il foundation model di prossima generazione per robot che raddoppia il tasso di successo su compiti nuovi rispetto ai migliori <em>vision language action model<\/em> attuali.<\/p>\n<p>L&#8217;ecosistema \u00e8 impressionante: <strong>ABB Robotics<\/strong>, <strong>FANUC<\/strong>, <strong>KUKA<\/strong>, <strong>Universal Robots<\/strong>, <strong>YASKAWA<\/strong>, <strong>Medtronic<\/strong>, <strong>Figure<\/strong> (umanoidi), <strong>Agility<\/strong> e <strong>CMR Surgical<\/strong> stanno costruendo sulla piattaforma NVIDIA. E il nuovo <strong>Physical AI Data Factory Blueprint<\/strong> \u2014 un&#8217;architettura di riferimento open per generare, aumentare e valutare dati di addestramento \u2014 viene gi\u00e0 adottato da <strong>Uber<\/strong>, <strong>Hexagon Robotics<\/strong> e <strong>Skild AI<\/strong>.<\/p>\n<p>Chi come me gestisce infrastrutture e segue la convergenza tra AI e hardware fisico, sa che questa \u00e8 la direzione: ho approfondito il tema nel mio articolo su <a href=\"https:\/\/darioiannascoli.it\/blog\/physical-ai-robotica-data-center-automazione-hosting-2026\/\">Physical AI e robotica nei data center<\/a>. IGX Thor \u00e8 il pezzo mancante che porta la potenza dei modelli AI dall&#8217;edge al mondo reale, con la sicurezza funzionale che ambienti industriali e medicali richiedono.<\/p>\n<h2>MiniMax M2.5: il Modello Cinese Open Source che Sfida Claude Opus a 1\/20 del Costo<\/h2>\n<p>Se IGX Thor riguarda l&#8217;hardware, <strong>MiniMax M2.5<\/strong> \u00e8 la notizia software che ha scosso la community AI a marzo. Rilasciato il 12 febbraio 2026 dalla startup cinese <strong>MiniMax<\/strong> (fondata nel 2021 dall&#8217;ex SenseTime Yan Junjie), questo modello ha continuato a dominare le conversazioni per tutto marzo grazie a benchmark che lo mettono testa a testa con i giganti \u2014 a una frazione del prezzo.<\/p>\n<h3>Benchmark: Quasi Indistinguibile da Claude Opus 4.6<\/h3>\n<p>Ecco i numeri che hanno fatto discutere:<\/p>\n<ul>\n<li><strong>SWE-Bench Verified<\/strong>: 80,2% (Claude Opus 4.6: 80,8% \u2014 solo 0,6 punti di scarto)<\/li>\n<li><strong>Multi-SWE-Bench<\/strong>: 51,3% (Claude Opus 4.6: 50,3% \u2014 M2.5 <em>supera<\/em> Opus nelle task multi-file)<\/li>\n<li><strong>BFCL Multi-Turn<\/strong> (tool calling): 76,8% contro il 63,3% di Opus \u2014 un divario del 13,5%<\/li>\n<li><strong>BrowseComp<\/strong>: 76,3% con gestione del contesto<\/li>\n<\/ul>\n<p>In pratica, M2.5 offre prestazioni comparabili \u2014 e in alcuni casi superiori \u2014 a <strong>Claude Opus 4.6<\/strong> nel coding e nelle task agentiche. Come sviluppatore che usa quotidianamente Opus per generare articoli e codice tramite il <a href=\"https:\/\/darioiannascoli.it\/blog\/confronto-costi-api-ai-marzo-2026-openai-anthropic-google-deepseek-roi-model-selection\/\">mio confronto costi API AI<\/a>, questi numeri mi hanno fatto riflettere seriamente.<\/p>\n<h3>Architettura e Costi: il Vero Game Changer<\/h3>\n<p>M2.5 \u00e8 basato su un&#8217;architettura <strong>Mixture of Experts (MoE)<\/strong> con <strong>230 miliardi di parametri totali<\/strong>, di cui solo <strong>10 miliardi attivati per query<\/strong>. Questo design permette costi drasticamente inferiori:<\/p>\n<ul>\n<li><strong>Input<\/strong>: $0,19 per milione di token<\/li>\n<li><strong>Output<\/strong>: $1,15 per milione di token<\/li>\n<li>Una task SWE-Bench costa circa <strong>$0,15<\/strong> con M2.5 contro <strong>$3,00<\/strong> con Opus 4.6<\/li>\n<li>Contesto di <strong>196.600 token<\/strong><\/li>\n<\/ul>\n<p>Venti volte meno caro. E la velocit\u00e0? M2.5 completa le valutazioni SWE-Bench in media in <strong>22,8 minuti per task<\/strong>, praticamente identico ai 22,9 di Opus 4.6. Ciliegina sulla torta: <strong>i pesi sono completamente open source su HuggingFace<\/strong>, con supporto per vLLM e SGLang per il self-hosting.<\/p>\n<p>Il fatto che un modello open source cinese riesca a competere con i migliori modelli proprietari nel coding e nelle task agentiche, a un ventesimo del costo, \u00e8 un segnale chiaro della pressione competitiva che sta rimodellando il mercato. Ne avevo parlato analizzando <a href=\"https:\/\/darioiannascoli.it\/blog\/modelli-ai-open-source-2026-deepseek-granite-llama-small-language-model-vs-gpt5\/\">i modelli AI open source nel 2026<\/a>: MiniMax M2.5 conferma quel trend.<\/p>\n<h2>Samsung Gemini su 800 Milioni di Dispositivi: Aggiornamenti di Fine Marzo<\/h2>\n<p>Ho gi\u00e0 dedicato <a href=\"https:\/\/darioiannascoli.it\/blog\/samsung-gemini-ai-800-milioni-dispositivi-2026-democratizzazione-ai-mobile\/\">un articolo completo all&#8217;annuncio Samsung al CES 2026<\/a> sull&#8217;obiettivo di portare Gemini AI su 800 milioni di device entro fine anno. A distanza di tre mesi, ecco cosa si \u00e8 concretizzato nella quarta settimana di marzo.<\/p>\n<h3>One UI 8.5 e Gemini nell&#8217;Ecosistema Samsung<\/h3>\n<p>Il rollout di <strong>One UI 8.5<\/strong> sta portando un&#8217;integrazione di Gemini ancora pi\u00f9 profonda nei Galaxy S26:<\/p>\n<ul>\n<li><strong>Gemini Gallery Integration<\/strong>: ricerca foto e video in linguaggio naturale (&#8220;Trova le foto con il mio cane dell&#8217;estate scorsa&#8221;)<\/li>\n<li><strong>Screen Automation (Agentic AI)<\/strong>: Gemini esegue task multi-step all&#8217;interno delle app \u2014 ordinare cibo, prenotare corse \u2014 attivabili con una pressione prolungata del tasto laterale. Disponibile in USA e Corea<\/li>\n<li><strong>Scam Detection<\/strong>: modello Gemini on-device che rileva chiamate truffa in tempo reale con alert audio\/aptici<\/li>\n<li><strong>Extensions System<\/strong>: integrazione diretta con Calendar, Notes, Reminder e Gallery<\/li>\n<\/ul>\n<p>Google ha esteso la <strong>Screen Automation<\/strong> anche ai Pixel 10 il 18 marzo, dopo il debutto sui Galaxy S26. Questo conferma che Samsung \u00e8 diventata la piattaforma di lancio preferenziale per le feature Gemini \u2014 un vantaggio strategico enorme nella competizione con Apple e OpenAI.<\/p>\n<h3>La Strategia &#8220;AX Era&#8221; e il Gemini Drop di Marzo<\/h3>\n<p>La strategia di Samsung, battezzata <strong>&#8220;AX Era&#8221;<\/strong> (AI Experience), non si limita ai flagship. L&#8217;inclusione della serie <strong>Galaxy A<\/strong> (A56, A36) e dei <strong>wearable<\/strong> (Galaxy Watch, Galaxy Ring) \u00e8 fondamentale per raggiungere gli 800 milioni: l&#8217;AI non pu\u00f2 restare un privilegio da \u20ac1.200. Il <strong>Gemini Nano 3<\/strong> gira localmente anche su device di fascia media, garantendo privacy e bassa latenza.<\/p>\n<p>Il <strong>Gemini Drop di marzo 2026<\/strong> ha portato anche il trasferimento della cronologia chat da altri provider AI, conversazioni pi\u00f9 veloci con Gemini 3.1 e un contesto 2 volte pi\u00f9 lungo. Per chi come me ha scritto del <a href=\"https:\/\/darioiannascoli.it\/blog\/march-2026-pixel-feature-drop-gemini-automation-ai-icons-desktop-windowing-comfort-view\/\">Pixel Feature Drop di marzo<\/a>, la convergenza tra Samsung e Google sull&#8217;AI \u00e8 ormai evidente.<\/p>\n<h2>Cosa Significano Queste Tre Notizie per il Futuro dell&#8217;AI<\/h2>\n<p>Se guardo a queste tre notizie insieme, il pattern \u00e8 chiaro:<\/p>\n<ol>\n<li><strong>L&#8217;AI esce dal cloud<\/strong>: IGX Thor porta 5581 TFLOPS di compute sull&#8217;edge, con sicurezza funzionale certificata. I robot e i dispositivi medicali non hanno bisogno di latenza cloud \u2014 hanno bisogno di inferenza locale in tempo reale.<\/li>\n<li><strong>L&#8217;open source sfida i modelli proprietari<\/strong>: MiniMax M2.5 dimostra che prestazioni frontier sono raggiungibili a costi 20 volte inferiori. Per chi sviluppa prodotti AI, il calcolo costo\/qualit\u00e0 sta cambiando radicalmente, come ho analizzato nel mio <a href=\"https:\/\/darioiannascoli.it\/blog\/confronto-costi-api-ai-marzo-2026-openai-anthropic-google-deepseek-roi-model-selection\/\">confronto costi API<\/a>.<\/li>\n<li><strong>L&#8217;AI diventa ubiqua<\/strong>: 800 milioni di device Samsung con Gemini significa che entro fine 2026, oltre un miliardo di persone avr\u00e0 accesso diretto a un modello AI sul proprio dispositivo. L&#8217;impatto sull&#8217;<a href=\"https:\/\/darioiannascoli.it\/blog\/costi-cloud-hosting-aumento-2026-energia-data-center-ai-gpu-strategie-risparmio\/\">infrastruttura cloud e i costi<\/a> sar\u00e0 significativo.<\/li>\n<\/ol>\n<h2>FAQ<\/h2>\n<h3>Cos&#8217;\u00e8 NVIDIA IGX Thor e a cosa serve?<\/h3>\n<p>NVIDIA IGX Thor \u00e8 una piattaforma edge AI di livello industriale basata sull&#8217;architettura Blackwell, capace di erogare fino a 5581 FP4 TFLOPS. \u00c8 progettata per robotica, manifattura, sanit\u00e0 e trasporti, con un processore di sicurezza funzionale isolato certificabile ISO 26262 e IEC 61508. Supporto lifecycle di 10 anni.<\/p>\n<h3>MiniMax M2.5 \u00e8 davvero paragonabile a Claude Opus 4.6?<\/h3>\n<p>Sui benchmark di coding s\u00ec: 80,2% su SWE-Bench Verified contro 80,8% di Opus 4.6. Sulle task multi-file M2.5 supera Opus (51,3% vs 50,3%). La differenza reale \u00e8 nel costo: M2.5 costa circa 1\/20 di Opus e i pesi sono open source su HuggingFace, rendendo possibile il self-hosting.<\/p>\n<h3>Samsung riuscir\u00e0 a raggiungere 800 milioni di device con Gemini AI entro fine 2026?<\/h3>\n<p>Il traguardo \u00e8 ambizioso ma realistico. Samsung ha gi\u00e0 raggiunto 400 milioni nel 2025 e l&#8217;inclusione della serie Galaxy A (fascia media) e dei wearable amplia enormemente la base. La potenziale criticit\u00e0 \u00e8 la carenza globale di chip di memoria, che potrebbe rallentare la produzione e far salire i prezzi.<\/p>\n<h3>Quali sono le implicazioni per chi sviluppa con API AI?<\/h3>\n<p>MiniMax M2.5 a $0,19\/$1,15 per milione di token input\/output cambia il calcolo economico per molti casi d&#8217;uso. Per task di coding e agentic workflow, potrebbe sostituire modelli proprietari pi\u00f9 costosi. Consiglio di testarlo in parallelo al proprio modello principale e valutare la qualit\u00e0 sul proprio specifico caso d&#8217;uso.<\/p>\n<h3>GR00T N2 di NVIDIA quando sar\u00e0 disponibile?<\/h3>\n<p>Al GTC 2026 Jensen Huang ha mostrato un&#8217;anteprima di GR00T N2, il foundation model di prossima generazione per robot. Non \u00e8 stata comunicata una data di disponibilit\u00e0 generale, ma il predecessore GR00T N1.7 \u00e8 gi\u00e0 utilizzabile dai partner dell&#8217;ecosistema NVIDIA Isaac.<\/p>\n<h2>Conclusioni<\/h2>\n<p>La quarta settimana di marzo 2026 conferma che l&#8217;AI sta attraversando una fase di <strong>materializzazione<\/strong>: non pi\u00f9 solo modelli linguistici nel cloud, ma compute fisico sull&#8217;edge con IGX Thor, modelli open source competitivi con MiniMax M2.5, e integrazione capillare su centinaia di milioni di dispositivi consumer con Samsung Gemini. Per chi gestisce infrastrutture e sviluppa prodotti, il messaggio \u00e8 chiaro: prepararsi a un&#8217;AI che \u00e8 ovunque, costa meno e opera nel mondo fisico. Se volete restare aggiornati su come queste tendenze impattano hosting, sicurezza e sviluppo, continuate a seguire il blog \u2014 e commentate con le vostre esperienze.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>NVIDIA IGX Thor porta 5581 TFLOPS sull&#8217;edge per Physical AI, MiniMax M2.5 sfida Claude Opus a 1\/20 del costo, Samsung Gemini avanza su 800M device.<\/p>\n","protected":false},"author":1,"featured_media":1744,"comment_status":"","ping_status":"","sticky":false,"template":"","format":"standard","meta":{"_seopress_robots_primary_cat":"","_seopress_titles_title":"Novit\u00e0 AI Marzo 2026: IGX Thor, MiniMax M2.5, Samsung Gemini","_seopress_titles_desc":"NVIDIA IGX Thor per Physical AI, MiniMax M2.5 sfida Claude Opus a 1\/20 del costo, Samsung Gemini su 800M device: le novit\u00e0 AI di fine marzo 2026.","_seopress_robots_index":"","footnotes":""},"categories":[128],"tags":[407,460,574,573,497,575],"class_list":["post-1743","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-a-i","tag-edge-computing","tag-gtc-2026","tag-minimax-m2-5","tag-nvidia-igx-thor","tag-physical-ai","tag-samsung-gemini-ai"],"_links":{"self":[{"href":"https:\/\/darioiannascoli.it\/blog\/wp-json\/wp\/v2\/posts\/1743","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/darioiannascoli.it\/blog\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/darioiannascoli.it\/blog\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/darioiannascoli.it\/blog\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/darioiannascoli.it\/blog\/wp-json\/wp\/v2\/comments?post=1743"}],"version-history":[{"count":0,"href":"https:\/\/darioiannascoli.it\/blog\/wp-json\/wp\/v2\/posts\/1743\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/darioiannascoli.it\/blog\/wp-json\/wp\/v2\/media\/1744"}],"wp:attachment":[{"href":"https:\/\/darioiannascoli.it\/blog\/wp-json\/wp\/v2\/media?parent=1743"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/darioiannascoli.it\/blog\/wp-json\/wp\/v2\/categories?post=1743"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/darioiannascoli.it\/blog\/wp-json\/wp\/v2\/tags?post=1743"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}