Home Chi Sono
Servizi
WordPress Sviluppo Web Server & Hosting Assistenza Tecnica Windows Android
Blog
Tutti gli Articoli WordPress Hosting Plesk Assistenza Computer Windows Android A.I.
Contatti

Come Resto Aggiornato sulle Novità AI della Quarta Settimana di Marzo 2026: NVIDIA IGX Thor per Physical AI, MiniMax M2.5 Sfida Claude Opus, Samsung Gemini su 800 Milioni di Device

Come Resto Aggiornato sulle Novità AI della Quarta Settimana di Marzo 2026: NVIDIA IGX Thor per Physical AI, MiniMax M2.5 Sfida Claude Opus, Samsung Gemini su 800 Milioni di Device

La quarta settimana di marzo 2026 si è chiusa con annunci che, nella mia esperienza di sysadmin che segue quotidianamente l’evoluzione dell’AI, segnano tre tendenze impossibili da ignorare: l’AI che esce dai data center per entrare nelle fabbriche e negli ospedali con NVIDIA IGX Thor, un modello cinese open source che sfida i giganti a un ventesimo del costo con MiniMax M2.5, e la democratizzazione dell’intelligenza artificiale mobile con Samsung Gemini su 800 milioni di dispositivi.

In un precedente articolo ho già coperto le novità della stessa settimana su Trump AI Framework, OpenClaw e Google Personal Intelligence. Qui mi concentro su tre notizie che toccano direttamente chi lavora con infrastrutture, sviluppo e piattaforme AI.

NVIDIA IGX Thor: la Physical AI Diventa Realtà al GTC 2026

Il GTC 2026 di NVIDIA, tenutosi a marzo, ha sancito la disponibilità generale della piattaforma NVIDIA IGX Thor, il processore industriale progettato per portare l’AI in tempo reale nell’edge computing di fabbriche, ospedali e sistemi robotici. Non parliamo di demo o roadmap: IGX Thor è ora acquistabile e partner come Advantech, Connect Tech, WOLF Advanced Technology e ASRock Rack stanno già commercializzando sistemi basati su questa piattaforma.

Specifiche Tecniche di IGX Thor

Il modulo IGX T5000 è costruito sull’architettura NVIDIA Blackwell e integra:

  • GPU integrata con 2560 CUDA Core e 96 Tensor Core Gen 5, per 2070 FP4 TFLOPS per modulo
  • Con dGPU opzionale, si raggiungono fino a 5581 FP4 TFLOPS di compute AI
  • CPU ARM Neoverse-V3AE a 14 core
  • 128 GB di memoria ECC LPDDR5X
  • Functional Safety Island dedicata — un processore di sicurezza isolato progettato per certificazioni ISO 26262 e IEC 61508 fino ad ASIL D/SC3
  • Supporto lifecycle di 10 anni con NVIDIA AI Enterprise

Rispetto al predecessore IGX Orin, le prestazioni AI sulla iGPU sono 8 volte superiori, sulla dGPU 2,5 volte, con connettività raddoppiata. Numeri che rendono possibile far girare large language model e vision language model direttamente sull’edge, senza dipendere dal cloud.

Physical AI: Robot e Aziende che Già Usano IGX Thor

Il concetto di Physical AI — intelligenza artificiale che interagisce con il mondo fisico — è al centro della strategia NVIDIA. Al GTC 2026, Jensen Huang ha presentato i modelli frontier Cosmos 3, Isaac GR00T N1.7 e Alpamayo 1.5, oltre all’anteprima di GR00T N2, il foundation model di prossima generazione per robot che raddoppia il tasso di successo su compiti nuovi rispetto ai migliori vision language action model attuali.

L’ecosistema è impressionante: ABB Robotics, FANUC, KUKA, Universal Robots, YASKAWA, Medtronic, Figure (umanoidi), Agility e CMR Surgical stanno costruendo sulla piattaforma NVIDIA. E il nuovo Physical AI Data Factory Blueprint — un’architettura di riferimento open per generare, aumentare e valutare dati di addestramento — viene già adottato da Uber, Hexagon Robotics e Skild AI.

Chi come me gestisce infrastrutture e segue la convergenza tra AI e hardware fisico, sa che questa è la direzione: ho approfondito il tema nel mio articolo su Physical AI e robotica nei data center. IGX Thor è il pezzo mancante che porta la potenza dei modelli AI dall’edge al mondo reale, con la sicurezza funzionale che ambienti industriali e medicali richiedono.

MiniMax M2.5: il Modello Cinese Open Source che Sfida Claude Opus a 1/20 del Costo

Se IGX Thor riguarda l’hardware, MiniMax M2.5 è la notizia software che ha scosso la community AI a marzo. Rilasciato il 12 febbraio 2026 dalla startup cinese MiniMax (fondata nel 2021 dall’ex SenseTime Yan Junjie), questo modello ha continuato a dominare le conversazioni per tutto marzo grazie a benchmark che lo mettono testa a testa con i giganti — a una frazione del prezzo.

Benchmark: Quasi Indistinguibile da Claude Opus 4.6

Ecco i numeri che hanno fatto discutere:

  • SWE-Bench Verified: 80,2% (Claude Opus 4.6: 80,8% — solo 0,6 punti di scarto)
  • Multi-SWE-Bench: 51,3% (Claude Opus 4.6: 50,3% — M2.5 supera Opus nelle task multi-file)
  • BFCL Multi-Turn (tool calling): 76,8% contro il 63,3% di Opus — un divario del 13,5%
  • BrowseComp: 76,3% con gestione del contesto

In pratica, M2.5 offre prestazioni comparabili — e in alcuni casi superiori — a Claude Opus 4.6 nel coding e nelle task agentiche. Come sviluppatore che usa quotidianamente Opus per generare articoli e codice tramite il mio confronto costi API AI, questi numeri mi hanno fatto riflettere seriamente.

Architettura e Costi: il Vero Game Changer

M2.5 è basato su un’architettura Mixture of Experts (MoE) con 230 miliardi di parametri totali, di cui solo 10 miliardi attivati per query. Questo design permette costi drasticamente inferiori:

  • Input: $0,19 per milione di token
  • Output: $1,15 per milione di token
  • Una task SWE-Bench costa circa $0,15 con M2.5 contro $3,00 con Opus 4.6
  • Contesto di 196.600 token

Venti volte meno caro. E la velocità? M2.5 completa le valutazioni SWE-Bench in media in 22,8 minuti per task, praticamente identico ai 22,9 di Opus 4.6. Ciliegina sulla torta: i pesi sono completamente open source su HuggingFace, con supporto per vLLM e SGLang per il self-hosting.

Il fatto che un modello open source cinese riesca a competere con i migliori modelli proprietari nel coding e nelle task agentiche, a un ventesimo del costo, è un segnale chiaro della pressione competitiva che sta rimodellando il mercato. Ne avevo parlato analizzando i modelli AI open source nel 2026: MiniMax M2.5 conferma quel trend.

Samsung Gemini su 800 Milioni di Dispositivi: Aggiornamenti di Fine Marzo

Ho già dedicato un articolo completo all’annuncio Samsung al CES 2026 sull’obiettivo di portare Gemini AI su 800 milioni di device entro fine anno. A distanza di tre mesi, ecco cosa si è concretizzato nella quarta settimana di marzo.

One UI 8.5 e Gemini nell’Ecosistema Samsung

Il rollout di One UI 8.5 sta portando un’integrazione di Gemini ancora più profonda nei Galaxy S26:

  • Gemini Gallery Integration: ricerca foto e video in linguaggio naturale (“Trova le foto con il mio cane dell’estate scorsa”)
  • Screen Automation (Agentic AI): Gemini esegue task multi-step all’interno delle app — ordinare cibo, prenotare corse — attivabili con una pressione prolungata del tasto laterale. Disponibile in USA e Corea
  • Scam Detection: modello Gemini on-device che rileva chiamate truffa in tempo reale con alert audio/aptici
  • Extensions System: integrazione diretta con Calendar, Notes, Reminder e Gallery

Google ha esteso la Screen Automation anche ai Pixel 10 il 18 marzo, dopo il debutto sui Galaxy S26. Questo conferma che Samsung è diventata la piattaforma di lancio preferenziale per le feature Gemini — un vantaggio strategico enorme nella competizione con Apple e OpenAI.

La Strategia “AX Era” e il Gemini Drop di Marzo

La strategia di Samsung, battezzata “AX Era” (AI Experience), non si limita ai flagship. L’inclusione della serie Galaxy A (A56, A36) e dei wearable (Galaxy Watch, Galaxy Ring) è fondamentale per raggiungere gli 800 milioni: l’AI non può restare un privilegio da €1.200. Il Gemini Nano 3 gira localmente anche su device di fascia media, garantendo privacy e bassa latenza.

Il Gemini Drop di marzo 2026 ha portato anche il trasferimento della cronologia chat da altri provider AI, conversazioni più veloci con Gemini 3.1 e un contesto 2 volte più lungo. Per chi come me ha scritto del Pixel Feature Drop di marzo, la convergenza tra Samsung e Google sull’AI è ormai evidente.

Cosa Significano Queste Tre Notizie per il Futuro dell’AI

Se guardo a queste tre notizie insieme, il pattern è chiaro:

  1. L’AI esce dal cloud: IGX Thor porta 5581 TFLOPS di compute sull’edge, con sicurezza funzionale certificata. I robot e i dispositivi medicali non hanno bisogno di latenza cloud — hanno bisogno di inferenza locale in tempo reale.
  2. L’open source sfida i modelli proprietari: MiniMax M2.5 dimostra che prestazioni frontier sono raggiungibili a costi 20 volte inferiori. Per chi sviluppa prodotti AI, il calcolo costo/qualità sta cambiando radicalmente, come ho analizzato nel mio confronto costi API.
  3. L’AI diventa ubiqua: 800 milioni di device Samsung con Gemini significa che entro fine 2026, oltre un miliardo di persone avrà accesso diretto a un modello AI sul proprio dispositivo. L’impatto sull’infrastruttura cloud e i costi sarà significativo.

FAQ

Cos’è NVIDIA IGX Thor e a cosa serve?

NVIDIA IGX Thor è una piattaforma edge AI di livello industriale basata sull’architettura Blackwell, capace di erogare fino a 5581 FP4 TFLOPS. È progettata per robotica, manifattura, sanità e trasporti, con un processore di sicurezza funzionale isolato certificabile ISO 26262 e IEC 61508. Supporto lifecycle di 10 anni.

MiniMax M2.5 è davvero paragonabile a Claude Opus 4.6?

Sui benchmark di coding sì: 80,2% su SWE-Bench Verified contro 80,8% di Opus 4.6. Sulle task multi-file M2.5 supera Opus (51,3% vs 50,3%). La differenza reale è nel costo: M2.5 costa circa 1/20 di Opus e i pesi sono open source su HuggingFace, rendendo possibile il self-hosting.

Samsung riuscirà a raggiungere 800 milioni di device con Gemini AI entro fine 2026?

Il traguardo è ambizioso ma realistico. Samsung ha già raggiunto 400 milioni nel 2025 e l’inclusione della serie Galaxy A (fascia media) e dei wearable amplia enormemente la base. La potenziale criticità è la carenza globale di chip di memoria, che potrebbe rallentare la produzione e far salire i prezzi.

Quali sono le implicazioni per chi sviluppa con API AI?

MiniMax M2.5 a $0,19/$1,15 per milione di token input/output cambia il calcolo economico per molti casi d’uso. Per task di coding e agentic workflow, potrebbe sostituire modelli proprietari più costosi. Consiglio di testarlo in parallelo al proprio modello principale e valutare la qualità sul proprio specifico caso d’uso.

GR00T N2 di NVIDIA quando sarà disponibile?

Al GTC 2026 Jensen Huang ha mostrato un’anteprima di GR00T N2, il foundation model di prossima generazione per robot. Non è stata comunicata una data di disponibilità generale, ma il predecessore GR00T N1.7 è già utilizzabile dai partner dell’ecosistema NVIDIA Isaac.

Conclusioni

La quarta settimana di marzo 2026 conferma che l’AI sta attraversando una fase di materializzazione: non più solo modelli linguistici nel cloud, ma compute fisico sull’edge con IGX Thor, modelli open source competitivi con MiniMax M2.5, e integrazione capillare su centinaia di milioni di dispositivi consumer con Samsung Gemini. Per chi gestisce infrastrutture e sviluppa prodotti, il messaggio è chiaro: prepararsi a un’AI che è ovunque, costa meno e opera nel mondo fisico. Se volete restare aggiornati su come queste tendenze impattano hosting, sicurezza e sviluppo, continuate a seguire il blog — e commentate con le vostre esperienze.

Share: