Se lavori nel settore IT come me, sai bene che nel mondo dell’intelligenza artificiale bastano due settimane per ritrovarsi con un panorama completamente stravolto. Ed è esattamente quello che è successo nella seconda metà di febbraio 2026: tra rilasci di modelli che si rincorrono a distanza di ore, nuove funzionalità per il coding agentico, regolamentazioni europee che si avvicinano alla piena operatività e l’IA criminale che diventa un vero business, c’è davvero tantissimo di cui parlare.
In questo articolo vi racconto le ultime novità AI di febbraio 2026 che ho selezionato personalmente, quelle che ritengo più rilevanti per chi, come noi, lavora quotidianamente con la tecnologia. Se avete letto il mio precedente articolo sulle novità AI di inizio febbraio 2026, considerate questo un aggiornamento essenziale: il ritmo dell’innovazione non accenna a rallentare, anzi.
OpenAI GPT-5.3-Codex-Spark: Il Coding in Tempo Reale
Il 5 febbraio OpenAI ha rilasciato GPT-5.3-Codex, descritto come il modello di coding agentico più avanzato mai realizzato, il 25% più veloce del predecessore GPT-5.2-Codex e leader nei benchmark SWE-Bench Pro e Terminal-Bench 2.0. Ma la vera sorpresa è arrivata il 12 febbraio con GPT-5.3-Codex-Spark, il primo modello progettato specificamente per il coding in tempo reale.
Codex-Spark è un modello più piccolo e ottimizzato per l’inferenza ultra-rapida: parliamo di oltre 1000 token al secondo, una velocità che rende l’interazione con l’AI praticamente istantanea. Il modello rappresenta anche la prima pietra miliare della partnership tra OpenAI e Cerebras, specializzata in hardware a bassissima latenza. Per ora è disponibile in research preview per gli utenti ChatGPT Pro.
Nella mia esperienza quotidiana, questa velocità cambia radicalmente il flusso di lavoro. Quando uso un modello di coding AI per debug o refactoring, la latenza è il vero collo di bottiglia. Con Codex-Spark, il ciclo di iterazione diventa quasi conversazionale. Ho già iniziato a sperimentarlo tramite la CLI e il risultato è impressionante, soprattutto su task di media complessità.
Un dettaglio che trovo affascinante: le versioni iniziali di GPT-5.3-Codex hanno contribuito al proprio sviluppo, facendo debugging del training e gestendo il deployment. Siamo entrati in un’era in cui l’AI partecipa attivamente alla creazione della propria versione successiva.
Claude Opus 4.6: Agent Teams e la Rivoluzione del Lavoro Professionale
Il 5 febbraio Anthropic ha rilasciato Claude Opus 4.6, praticamente in contemporanea con il rilascio di OpenAI, a testimonianza di quanto sia accesa la competizione. Questo modello porta miglioramenti significativi nel reasoning, nel coding e — novità assoluta — nella capacità di coordinare team di agenti AI che lavorano insieme su progetti complessi.
Opus 4.6 introduce una finestra di contesto da 1 milione di token in beta, il thinking adattivo che calibra automaticamente la profondità del ragionamento in base al contesto, e una nuova integrazione con PowerPoint. Nei benchmark, il modello raggiunge risultati di stato dell’arte su Terminal-Bench 2.0, BrowseComp e Humanity’s Last Exam.
Ma il dato che mi ha colpito di più è questo: secondo le stime di METR, Opus 4.6 ha un time horizon del 50% di 14 ore e 30 minuti. Significa che può lavorare autonomamente su task complessi per periodi estremamente lunghi, una capacità che prima era impensabile.
Il 17 febbraio è poi arrivato Claude Sonnet 4.6, che porta le prestazioni di classe Opus anche nel modello di fascia media. Anthropic ha anche lanciato Claude Code Security, uno strumento che ha già trovato oltre 500 vulnerabilità in codebase open-source di produzione. Se vi occupate di sicurezza come me, questo è un game changer — ne ho parlato anche nel mio articolo su come fare audit di sicurezza dei plugin WordPress.
Google Gemini 3.1 Pro: Il Ragionamento di Base Evolve
Il 20 febbraio Google ha annunciato Gemini 3.1 Pro, presentato come un avanzamento nel “ragionamento di base”. Secondo i dati condivisi da Google DeepMind, il modello guida l’Artificial Analysis Intelligence Index con un vantaggio di quattro punti su Claude Opus 4.6, posizionandosi al vertice in sei delle dieci valutazioni considerate.
Il salto numerico da 3.0 a 3.1 rappresenta una novità nella strategia di naming di Google, che sembra orientarsi verso aggiornamenti incrementali più frequenti piuttosto che rilasci major distanziati. La distribuzione è stata estesa a tutti gli utenti dell’app Gemini, una mossa che democratizza l’accesso a modelli di frontiera.
In parallelo, si parla di un possibile ingresso massiccio di Nvidia in OpenAI, con un investimento potenziale fino a 30 miliardi di dollari. Questo consolida ulteriormente il legame tra chi produce i chip e chi sviluppa i modelli, creando un ecosistema sempre più integrato verticalmente.
Il Cybercrime AI Diventa un Business Industrializzato
Una delle notizie che più mi ha preoccupato come sysadmin arriva da Trend Micro: secondo il loro ultimo studio pubblicato il 12 febbraio 2026, la criminalità informatica basata sull’intelligenza artificiale è uscita dalla fase di sperimentazione ed è entrata in una fase stabile e professionale.
I cybercriminali non inseguono più la novità: perfezionano le tecniche, riducono i costi e migliorano l’affidabilità degli attacchi basati su frodi, malware e deepfake. Lo studio identifica tre fasi: il consolidamento degli strumenti underground, la comparsa di malware capaci di generare codice maligno tramite query AI, e la normalizzazione della criminalità basata sull’IA come condizione operativa standard.
Il messaggio è chiaro: le organizzazioni devono prepararsi agli attacchi AI come condizione di base, non come anomalia emergente. Questo rafforza la necessità di strumenti come Fail2Ban su Plesk e di procedure di sicurezza WordPress anti brute force sempre aggiornate.
AI Act Europeo: Countdown Verso Agosto 2026
Sul fronte normativo, il 2 agosto 2026 si avvicina rapidamente: è la data in cui l’AI Act europeo diventerà pienamente operativo con l’applicazione integrale di tutti gli obblighi, comprese le regole sulla trasparenza e i sistemi AI ad alto rischio. Le aziende che non si sono ancora mosse rischiano sanzioni fino al 7% del fatturato.
L’implementazione procede per fasi: i divieti sulle pratiche inaccettabili sono già in vigore dal febbraio 2025, gli obblighi per i modelli GPAI dall’agosto 2025, e ad agosto 2026 scatterà l’applicazione completa. La Commissione Europea ha anche proposto nel Digital Simplification Package alcune semplificazioni mirate per alleggerire il carico burocratico, soprattutto per le PMI.
Intanto l’AI Impact Summit 2026 di Nuova Delhi ha segnato una svolta nella governance globale dell’AI. L’India si è candidata come leader del Sud Globale, proponendo un modello alternativo a quello statunitense e cinese. L’UE ha sottoscritto la dichiarazione dei leader, e l’Italia ha firmato un Memorandum d’Intesa con le istituzioni keniote per ricerca congiunta su AI e data science.
OpenAI Testa le Pubblicità su ChatGPT
Una notizia che ha fatto discutere la community: OpenAI ha iniziato a testare annunci pubblicitari su ChatGPT negli Stati Uniti per gli utenti dei piani Free e Go. I piani Plus, Pro, Business, Enterprise ed Education restano privi di pubblicità.
OpenAI ha specificato che le risposte di ChatGPT sono generate indipendentemente dalla pubblicità e che gli annunci sono sempre chiaramente etichettati come sponsorizzati e visivamente separati dalla risposta organica. Il test è iniziato su un sottoinsieme di utenti e sarà espanso nelle prossime settimane.
Da professionista IT, devo ammettere che questa mossa era prevedibile. Con costi di compute enormi — OpenAI punta a 600 miliardi di dollari di spesa entro il 2030 — la monetizzazione della base utenti gratuita era inevitabile. La buona notizia è che chi paga mantiene un’esperienza pulita.
MCP: Lo Standard che Connette gli Agenti AI al Mondo Reale
Un trend che seguo con grande interesse è l’adozione del Model Context Protocol (MCP) di Anthropic, definito “l’USB-C dell’AI”. Questo protocollo permette agli agenti AI di comunicare con strumenti esterni come database, motori di ricerca e API, ed è rapidamente diventato lo standard de facto.
OpenAI e Microsoft hanno pubblicamente abbracciato MCP, Anthropic lo ha donato alla Linux Foundation tramite la nuova Agentic AI Foundation, e Google ha iniziato a implementare i propri server MCP gestiti per connettere gli agenti AI ai suoi prodotti. Questo riduce l’attrito nel collegare gli agenti a sistemi reali, rendendo il 2026 l’anno in cui i workflow agentici passeranno davvero dalle demo alla pratica quotidiana.
Se, come me, gestite server e infrastrutture, vale la pena iniziare a familiarizzare con MCP. È il ponte che collega i modelli AI agli strumenti che già usate, dai sistemi di monitoraggio server con Grafana ai workflow di automazione con cronjob. Chi ha già esplorato gli LLM locali per automatizzare task ripetitivi troverà in MCP il tassello mancante.
Il 2026 è l’Anno della Maturità Operativa dell’AI
Tirando le fila, quello che emerge da queste ultime settimane è un quadro coerente: il 2026 è davvero l’anno in cui l’AI passa dalla fase dell’hype a quella del pragmatismo. Il focus si sta spostando dalla costruzione di modelli sempre più grandi al lavoro più difficile di rendere l’AI realmente utilizzabile.
I modelli diventano più veloci (Codex-Spark), più autonomi (agent teams di Claude), più specializzati (GPT-5.3-Codex per la cybersecurity). La regolamentazione si fa concreta con l’AI Act. E la criminalità informatica si industrializza, richiedendo difese altrettanto sofisticate.
Uno studio su oltre 12.000 imprese UE indica un aumento medio del 4% della produttività del lavoro associato all’adozione dell’AI, senza effetti negativi sull’occupazione nel breve periodo. L’AI non sta sostituendo i lavoratori: sta ridefinendo il contenuto del lavoro e le competenze richieste.
Per chi, come me, lavora ogni giorno tra server, codice e sicurezza, il messaggio è chiaro: non possiamo permetterci di restare fermi. Integrare l’AI nei propri workflow non è più opzionale, è una necessità competitiva. Se volete approfondire gli strumenti pratici, vi consiglio di partire dal mio articolo su come installare un modello AI in locale con Ollama e dal confronto tra i migliori chatbot AI gratuiti del 2026.
FAQ
Qual è la differenza tra GPT-5.3-Codex e GPT-5.3-Codex-Spark?
GPT-5.3-Codex è il modello di frontiera completo di OpenAI per il coding agentico, progettato per task complessi e di lunga durata. GPT-5.3-Codex-Spark è una versione più piccola e ottimizzata per l’inferenza in tempo reale, capace di generare oltre 1000 token al secondo grazie alla partnership con Cerebras. Spark è ideale per iterazioni rapide, mentre il modello completo eccelle su progetti di grande scala.
Cosa sono gli agent teams di Claude Opus 4.6?
Gli agent teams sono una funzionalità che permette di assemblare team di agenti AI che lavorano contemporaneamente su aspetti diversi di un progetto complesso. Gli agenti operano in parallelo, comunicano tra loro e coordinano i propri sforzi, replicando il modo in cui i team umani si dividono i compiti. Questa funzionalità è disponibile in Claude Code e rappresenta un passo significativo verso l’automazione di interi workflow aziendali.
Quando diventa pienamente operativo l’AI Act europeo?
L’AI Act sarà pienamente applicabile il 2 agosto 2026. A quella data entreranno in vigore le regole sulla trasparenza, i sistemi AI ad alto rischio e i poteri di enforcement della Commissione. Alcuni obblighi sono già attivi: i divieti sulle pratiche inaccettabili dal febbraio 2025, e le regole sui modelli GPAI dall’agosto 2025. Le regole per i sistemi AI ad alto rischio integrati in prodotti regolamentati avranno invece una proroga fino ad agosto 2027.
Come influisce l’AI sulla cybersecurity nel 2026?
L’AI ha un doppio impatto: rafforza le difese attraverso il rilevamento automatizzato delle minacce e la scoperta di vulnerabilità (Claude Code Security ha trovato oltre 500 bug in codebase open-source), ma allo stesso tempo potenzia gli attaccanti. Secondo Trend Micro, la criminalità informatica basata su AI è diventata un business industrializzato, con malware capaci di generare codice maligno tramite query AI. La chiave è adottare una postura difensiva che consideri gli attacchi AI come la norma, non l’eccezione.
Cos’è il Model Context Protocol (MCP) e perché è importante?
MCP è un protocollo open-source creato da Anthropic che funge da interfaccia universale tra gli agenti AI e gli strumenti esterni come database, API e motori di ricerca. Pensatelo come una porta USB-C per l’AI: uno standard unico per connettere qualsiasi modello a qualsiasi servizio. OpenAI, Microsoft e Google lo hanno adottato, e la Linux Foundation ne gestisce lo sviluppo. Per chi gestisce infrastrutture IT, MCP è il protocollo che renderà possibile integrare davvero l’AI nei workflow operativi quotidiani.
Il mondo dell’intelligenza artificiale non aspetta nessuno, e queste ultime settimane di febbraio 2026 lo dimostrano come mai prima. Dalla corsa ai modelli di frontiera all’industrializzazione del cybercrime AI, passando per la regolamentazione europea e gli standard aperti come MCP, ogni aspetto del nostro lavoro è destinato a cambiare. Il mio consiglio? Iniziate a sperimentare ora, partendo dagli strumenti che già avete a disposizione. E se avete domande o volete condividere la vostra esperienza, lasciate un commento qui sotto!