Febbraio 2026 è stato un mese esplosivo per il mondo dell’intelligenza artificiale. In poche settimane sono arrivati annunci che, nella mia esperienza, avrebbero richiesto un anno intero solo qualche tempo fa: nuovi modelli di coding ultrarapidi, round di investimento da capogiro, modelli cinesi che sfidano i giganti americani e un protocollo aperto che sta cambiando il modo in cui gli agenti AI interagiscono con il mondo esterno. Vi racconto tutto ciò che è successo e perché, da sysadmin e appassionato di tecnologia, ritengo che queste novità AI febbraio 2026 siano fondamentali per chiunque lavori nell’IT.
Se seguite questo blog, sapete che uso attivamente l’AI nel mio lavoro quotidiano — dalla creazione di script e workflow con LLM open source allo studio di documenti tecnici con strumenti AI. Per questo motivo, tenere il passo con le ultime notizie non è un optional: è un requisito professionale. Ecco la mia panoramica ragionata delle novità più rilevanti.
OpenAI lancia GPT-5.3-Codex-Spark: il Coding AI in Tempo Reale
La notizia che mi ha colpito di più nelle ultime settimane riguarda OpenAI. Il 12 febbraio, l’azienda ha rilasciato GPT-5.3-Codex-Spark, una versione compatta e ultrarapida del modello GPT-5.3-Codex, progettata per la codifica in tempo reale. Si tratta del primo modello OpenAI a girare su hardware non Nvidia: utilizza il Wafer Scale Engine 3 di Cerebras.
I numeri parlano chiaro: il modello genera oltre 1.000 token al secondo, rendendo l’interazione con l’AI quasi istantanea durante la scrittura di codice. Nella mia esperienza con strumenti di coding AI, la latenza è sempre stata un problema: quei secondi di attesa spezzano il flusso di lavoro. Con Spark, il salto è da “strumento batch” a vero e proprio collaboratore in tempo reale.
Cosa cambia nella pratica?
GPT-5.3-Codex-Spark non è solo più veloce: è il risultato di una partnership da oltre 10 miliardi di dollari tra OpenAI e Cerebras, e segna l’inizio della diversificazione hardware nel mondo AI. Il modello è disponibile in anteprima per gli utenti ChatGPT Pro tramite l’app Codex, la CLI e le estensioni per VS Code.
Il benchmark Terminal-Bench 2.0 conferma il salto qualitativo: Spark ha raggiunto il 77.3% di accuratezza, contro il 64% di GPT-5.2-Codex. Anche la versione completa GPT-5.3-Codex stabilisce nuovi record su SWE-Bench Pro, un benchmark multi-linguaggio per il software engineering reale. L’aspetto che trovo più affascinante è che GPT-5.3-Codex è stato determinante nella propria creazione: le versioni precedenti sono state usate per debuggare il training e gestire il deployment.
Anthropic Claude Opus 4.6: Agent Teams e Contesto da 1 Milione di Token
L’altro protagonista di febbraio è Anthropic, che il 5 febbraio ha rilasciato Claude Opus 4.6. Questo modello introduce diverse innovazioni che ho trovato subito rilevanti nel mio workflow.
La novità più significativa sono gli agent teams: team di agenti AI che possono suddividere un task complesso in sotto-attività e coordinarsi in parallelo. Nella pratica, è come avere un team di colleghi che lavora autonomamente su pezzi diversi di un progetto, scambiandosi informazioni.
Specifiche Tecniche e Benchmark
Claude Opus 4.6 porta il contesto a 1 milione di token in beta, una prima per la classe Opus. Il modello si distingue su diversi benchmark: ottiene il punteggio più alto su Terminal-Bench 2.0 per il coding agentico, supera tutti i modelli su Humanity’s Last Exam per il ragionamento multidisciplinare, e supera GPT-5.2 di circa 144 punti Elo sul benchmark GDPval-AA per task economicamente rilevanti (finanza, legale e altri ambiti professionali).
Il prezzo rimane a $5 per milione di token in input e $25 per milione di token in output. Il Model Context Protocol (MCP), che Anthropic ha donato alla Linux Foundation tramite la nuova Agentic AI Foundation, sta diventando di fatto lo standard per l’interoperabilità agentica — una sorta di “USB-C per l’AI”, come viene spesso definito.
Anthropic Raccoglie 30 Miliardi di Dollari: Valutazione Record
Sempre nella stessa settimana, Anthropic ha annunciato un round Serie G da 30 miliardi di dollari, raggiungendo una valutazione post-money di 380 miliardi. L’operazione è guidata da GIC e Coatue, con la partecipazione di D. E. Shaw, Dragoneer, Founders Fund, Iconiq e MGX. Una raccolta che non ha precedenti nel settore.
Parte della raccolta rientra in un impegno da 15 miliardi sottoscritto nel 2025 con Microsoft e Nvidia. L’azienda sta anche pianificando una capacità da 10 gigawatt per data center — più di quanto pianificato da OpenAI entro il 2028. Da sysadmin, questa corsa alle infrastrutture mi fa riflettere su quanto il futuro dell’AI dipenda sempre di più dall’energia e dal ferro, non solo dagli algoritmi.
La Cina Non Sta a Guardare: Seedance 2.0, RynnBrain e Nuovi Modelli
Se pensavate che la competizione fosse solo tra Anthropic e OpenAI, la Cina ha ricordato a tutti che è in piena corsa. A metà febbraio sono arrivati diversi modelli cinesi che stanno facendo parlare di sé.
ByteDance ha lanciato Seedance 2.0, un modello di generazione video AI che ha impressionato la community. Elon Musk stesso ha commentato uno dei risultati con un significativo “This is happening too fast”. Il modello è capace di generare video realistici a partire da semplici prompt testuali, con qualità che, solo nel 2023, era impensabile.
Alibaba ha presentato RynnBrain, un modello specifico per la “physical AI” e la robotica, che consente ai robot di comprendere il mondo fisico circostante, identificare oggetti e interagire con essi. Non è un demo di laboratorio: nei video mostrati, un robot riesce a contare arance, raccoglierle e persino prendere il latte dal frigo.
Come ha dichiarato Demis Hassabis di Google DeepMind, i modelli cinesi sono solo “mesi” dietro ai rivali occidentali. Chi lavora con l’AI deve tenere d’occhio anche queste realtà: se uso modelli AI in locale con Ollama, la disponibilità crescente di modelli open source cinesi come quelli di Zhipu AI o Qwen amplia enormemente le possibilità.
Grok AI Arriva sulle Tesla in Europa
Una notizia che tocca da vicino anche noi in Europa: dal 16 febbraio 2026, Grok, l’assistente AI di xAI (azienda di Elon Musk), è disponibile gratuitamente sulle Tesla europee tramite l’aggiornamento software 2026.2.6. Grok può dare comandi di navigazione, trovare punti di interesse e consultare il manuale d’uso del veicolo — un esempio concreto di come l’AI si integri sempre più nella vita quotidiana.
Il Mercato AI nel 2026: Investimenti e Tensioni
Dietro i nuovi modelli c’è una corsa agli investimenti senza precedenti. Alphabet e Amazon stanno pianificando di spendere rispettivamente fino a 185 e 200 miliardi di dollari in AI nel 2026. Le stime globali parlano di investimenti nei data center che potrebbero avvicinarsi ai 7.000 miliardi di dollari entro il 2030.
Tuttavia non è tutto rose e fiori. Le menzioni dell’AI come “forza dirompente” nelle earnings call aziendali sono quasi raddoppiate trimestre su trimestre, causando sell-off sui titoli software. Il mercato sta iniziando a prezzare rischi a lungo termine, soprattutto nei settori knowledge-intensive dove i sistemi agentici potrebbero automatizzare workflow complessi.
Apple rappresenta un’eccezione interessante: nel quarto trimestre ha ridotto i capex del 19% su base annua, portandosi a 2,37 miliardi di dollari. Una strategia attendista che punta a distribuire l’AI attraverso il proprio ecosistema esistente, lasciando che siano altri a costruire l’infrastruttura.
Il Summit AI di Nuova Delhi
A livello istituzionale, il 16 febbraio si è aperto a Nuova Delhi il Vertice sull’impatto dell’intelligenza artificiale, con oltre 700 sessioni previste e un’area espositiva di oltre 70.000 metri quadrati. Il tema — “Benessere per tutti, felicità per tutti” — riflette la crescente attenzione globale verso un uso dell’AI responsabile e inclusivo.
Il 2026 è l’Anno della Praticità
Ciò che emerge dalla mia analisi è un cambio di paradigma. Il 2026 non è l’anno dei modelli sempre più grandi, ma dell’AI che diventa pratica. Il focus si sta spostando dalla costruzione di modelli giganteschi all’integrazione reale nei workflow umani: modelli più piccoli ed efficienti dove servono, agenti che funzionano davvero, e protocolli aperti come MCP che collegano l’AI agli strumenti reali.
Come ha sintetizzato un ricercatore di IBM, nel 2026 la competizione non è più sui modelli AI, ma sui sistemi. La scelta del modello diventa quasi una commodity: quello che conta è l’orchestrazione — combinare modelli, tool e workflow. Da professionista IT, questa è una prospettiva che mi entusiasma: significa che chi sa integrare, configurare e automatizzare avrà un ruolo sempre più centrale.
FAQ
Quali sono le principali novità AI di febbraio 2026?
Le novità più rilevanti includono il lancio di GPT-5.3-Codex-Spark da parte di OpenAI (primo modello su chip Cerebras con oltre 1.000 token al secondo), il rilascio di Claude Opus 4.6 di Anthropic con agent teams e contesto da 1 milione di token, il round da 30 miliardi di Anthropic, e l’arrivo di nuovi modelli cinesi come Seedance 2.0 di ByteDance e RynnBrain di Alibaba per la robotica.
Cosa cambia con il Model Context Protocol (MCP) di Anthropic?
MCP è uno standard aperto che consente agli agenti AI di comunicare con strumenti esterni come database, motori di ricerca e API. È stato donato alla Linux Foundation ed è ormai adottato anche da OpenAI e Google. Nella pratica, riduce la frizione nel collegare gli agenti AI ai sistemi reali, rendendo i workflow agentici finalmente utilizzabili nel lavoro quotidiano.
GPT-5.3-Codex-Spark è gratuito?
No, al momento è disponibile in anteprima di ricerca solo per gli utenti ChatGPT Pro (abbonamento da $200/mese). OpenAI ha dichiarato che l’accesso sarà esteso ad altri piani nelle prossime settimane, e il modello sarà disponibile anche via API.
I modelli AI cinesi sono competitivi con quelli americani?
Sì, e il divario si sta riducendo rapidamente. Il capo di Google DeepMind, Demis Hassabis, ha dichiarato che i modelli cinesi sono solo “mesi” dietro i rivali occidentali. Seedance 2.0 di ByteDance, in particolare, ha dimostrato capacità di generazione video che hanno impressionato tutta la community internazionale, incluso Elon Musk.
Come posso provare l’intelligenza artificiale in locale sul mio PC?
Per iniziare a sperimentare con modelli AI in locale senza dipendere da servizi cloud, vi consiglio di leggere la mia guida su come installare e usare un modello AI in locale con Ollama. È un ottimo punto di partenza per chi vuole testare le possibilità dell’AI senza costi ricorrenti.
Conclusione: Perché le Novità AI di Febbraio 2026 Contano
Le novità AI di febbraio 2026 non sono solo titoli da giornale: rappresentano un cambio di fase nell’intero settore. L’AI sta passando dalla fase dell’hype a quella dell’integrazione concreta nei workflow produttivi. Per chi lavora nell’IT — che si tratti di gestire server, sviluppare codice o configurare infrastrutture — comprendere queste evoluzioni è essenziale per restare competitivi.
Nella mia esperienza, il consiglio migliore è iniziare a sperimentare adesso: provate a integrare l’AI nelle attività ripetitive, seguite l’evoluzione dei protocolli come MCP, e non trascurate i modelli open source che stanno diventando sempre più potenti e accessibili.
Cosa ne pensate di queste novità? Avete già provato qualcuno di questi nuovi strumenti? Fatemelo sapere nei commenti — sono curioso di sapere come state integrando l’AI nel vostro lavoro quotidiano!