Questa settimana il mondo dell’intelligenza artificiale ha vissuto una delle fasi più intense del 2026. Fra decisioni politiche storiche, strumenti open source che esplodono in popolarità, nuove funzionalità AI per tutti e battaglie legali che ridefiniscono il copyright, il panorama è cambiato in modo significativo in soli sette giorni. Nella mia esperienza da System Administrator che lavora quotidianamente con strumenti AI, vi racconto cosa è successo e perché queste novità contano davvero.
Se avete seguito le mie analisi delle novità della terza settimana di marzo e quelle della seconda settimana, sapete che marzo 2026 è stato un mese eccezionale per l’AI. Questa quarta settimana non è da meno: anzi, alcune notizie potrebbero avere ripercussioni per anni a venire.
Trump Presenta il National AI Legislative Framework: Cosa Cambia per l’Industria
Il 20 marzo 2026 la Casa Bianca ha pubblicato il National Policy Framework for Artificial Intelligence, un documento che rappresenta il primo tentativo strutturato dell’amministrazione Trump di creare un quadro legislativo federale unificato per l’intelligenza artificiale. Non si tratta di una semplice dichiarazione d’intenti: è una roadmap concreta che il Congresso dovrebbe trasformare in legge.
Il punto più controverso è la preemption federale delle leggi statali: se il framework venisse approvato, gli stati non potrebbero più regolamentare autonomamente lo sviluppo dell’AI. Questo significa che leggi come il California AI Safety Bill verrebbero superate da una normativa nazionale unica. L’approccio è dichiaratamente light-touch: incentivare l’innovazione limitando i vincoli regolatori.
Il framework si articola su sei obiettivi principali:
- Protezione dei minori: strumenti per i genitori per gestire privacy e utilizzo dei dispositivi da parte dei figli
- Preemption federale: un regime unico che sostituisca il mosaico di leggi statali sull’AI
- Responsabilità degli sviluppatori: i creatori di modelli AI non sarebbero responsabili per l’uso improprio da parte di terzi
- Sicurezza nazionale: mantenere la leadership americana nella corsa globale all’AI
- Innovazione industriale: ridurre le barriere burocratiche per le aziende AI
- Benefici diffusi: garantire che tutti gli americani traggano vantaggio dalla rivoluzione AI
Nella mia opinione da professionista IT, la preemption federale è un’arma a doppio taglio. Da un lato semplifica la compliance per chi sviluppa e implementa soluzioni AI — e come ho scritto parlando di Agentic AI Governance, la frammentazione normativa è un problema reale. Dall’altro, eliminare la possibilità per gli stati di imporre regole più stringenti solleva preoccupazioni legittime sulla protezione dei consumatori.
OpenClaw: Il Momento ChatGPT dell’Open Source AI
Se non avete sentito parlare di OpenClaw, è il momento di recuperare. Questo agente AI open source, creato dal developer austriaco Peter Steinberger (inizialmente come “Clawdbot” nel novembre 2025), ha superato i 250.000 stelle su GitHub — un traguardo che al kernel Linux ha richiesto anni.
OpenClaw è un agente autonomo che gira in locale e connette i modelli linguistici (LLM) al software reale del vostro sistema. Con oltre 100 skill integrate, può interagire con app, browser e strumenti di sistema. La cosa interessante è che funziona con qualsiasi LLM: potete usarlo con modelli locali via Ollama, DeepSeek o Llama, oppure con le API di OpenAI, Anthropic o Google.
Il colpo di scena della settimana: Sam Altman ha annunciato su X che Steinberger è entrato in OpenAI, e che il progetto OpenClaw continuerà come open source sotto una fondazione supportata da OpenAI. Una mossa strategica che ricorda l’acquisizione di talenti che ha caratterizzato l’AI boom del 2023-2024.
Nel frattempo, OpenClaw ha generato reazioni contrastanti a livello globale:
- Tencent ha lanciato una suite completa di prodotti AI basati su OpenClaw, integrati con WeChat
- Le autorità cinesi hanno vietato l’uso di app OpenClaw sui computer governativi per ragioni di sicurezza
- La comunità sta già dibattendo se questo segnali la commoditizzazione dei modelli AI, come suggerisce CNBC
Per chi, come me, lavora con AI coding tool quotidianamente, OpenClaw rappresenta un’evoluzione significativa: un agente che non si limita a generare codice, ma esegue azioni reali sul sistema.
Google Personal Intelligence: Gemini Legge le Vostre Email (Gratis)
Il 17 marzo Google ha iniziato il rollout di Personal Intelligence per tutti gli utenti statunitensi con account personale — non più solo per gli abbonati Gemini Advanced. Questa funzionalità permette a Gemini di accedere ai dati delle vostre app Google (Gmail, Photos, Docs, YouTube) per fornire risposte contestualizzate e personalizzate.
Nella pratica, potete chiedere a Gemini cose come “Quando arriva il mio pacco?” e l’AI cercherà automaticamente nelle vostre email di conferma ordine. Oppure “Mostrami le foto del viaggio a Roma” e Gemini scandaglierà Google Photos.
I punti chiave da sapere:
- Opt-in: la funzione è disattivata di default, dovete attivarla voi
- Privacy: Google dichiara che i contenuti personali non vengono usati per addestrare il modello
- Disponibilità: accessibile tramite AI Mode in Search, app Gemini e Gemini in Chrome
- Limitazione: al momento solo USA, nessuna data per il rollout internazionale
È una mossa che intensifica la competizione con Apple, che sta integrando Gemini nella nuova Siri LLM per iOS 26. Google sta sfruttando il vantaggio di avere già miliardi di utenti con dati nei propri servizi.
Encyclopedia Britannica e Merriam-Webster Fanno Causa a OpenAI: Il Copyright nell’Era dell’AI
Il 16 marzo è stata depositata una causa che potrebbe ridefinire il rapporto tra AI e proprietà intellettuale. Encyclopedia Britannica e la sua controllata Merriam-Webster hanno citato OpenAI presso il tribunale federale del Southern District di New York, accusandola di aver utilizzato quasi 100.000 articoli protetti da copyright per addestrare i propri LLM senza autorizzazione.
Le accuse sono articolate su tre livelli:
- Scraping dei dati di training: i contenuti di Britannica sarebbero stati raccolti e usati per addestrare GPT senza permesso né compenso
- Riproduzione negli output: ChatGPT genererebbe risposte che contengono riproduzioni parziali o complete dei contenuti originali, anche attraverso il workflow RAG (Retrieval Augmented Generation)
- Violazione del marchio: quando ChatGPT genera hallucination e le attribuisce falsamente a Britannica, questo violerebbe il Lanham Act (la legge federale sui marchi)
L’argomento più interessante dal punto di vista economico è che ChatGPT “affama i publisher” generando risposte che sostituiscono direttamente il contenuto originale, eliminando la necessità per gli utenti di visitare il sito di Britannica. È lo stesso problema che stanno affrontando molti siti web con le AI Overviews di Google.
Gli analisti prevedono che la causa verrà probabilmente trasferita in un multi-district litigation (MDL), il che significa che una risoluzione potrebbe richiedere anni. Ma il precedente che stabilirà sarà fondamentale per tutto il settore.
OpenAI vs Anthropic: La Guerra Enterprise Si Intensifica
Mentre le battaglie legali e politiche infuriano, la competizione commerciale tra OpenAI e Anthropic ha raggiunto livelli senza precedenti questa settimana. Due notizie in particolare meritano attenzione:
OpenAI raddoppia il personale entro fine 2026. L’annuncio del 22 marzo conferma che OpenAI intende raddoppiare la propria forza lavoro per competere con Anthropic nel mercato enterprise. È un investimento massiccio in capitale umano che riflette quanto sia agguerrita la competizione.
La guerra dei rendimenti garantiti. Il 23 marzo Reuters ha rivelato che OpenAI sta offrendo alle società di private equity un rendimento minimo garantito del 17,5% — significativamente superiore agli strumenti preferenziali standard — più accesso anticipato ai modelli più recenti. L’obiettivo è attrarre investitori come TPG e Advent per joint venture enterprise, in diretta competizione con Anthropic che sta corteggiando gli stessi fondi.
Nel frattempo, la disputa Pentagono-Anthropic continua a generare onde d’urto. Come ho raccontato nelle novità della seconda settimana, Anthropic è stata inserita in una blacklist del Dipartimento della Difesa. Questa settimana, oltre 30 dipendenti di OpenAI e Google DeepMind — incluso il chief scientist di Google Jeff Dean — hanno presentato un amicus brief a supporto di Anthropic, avvertendo che la blacklist minaccia l’intera industria AI americana. Un segnale raro di solidarietà tra competitor diretti.
MiniMax M2.5 e la Commoditizzazione dei Modelli AI
Un’altra tendenza significativa di questa settimana riguarda MiniMax M2.5, il modello cinese che sta facendo parlare di sé per un rapporto qualità-prezzo impressionante. Con un costo di appena $0,20 per milione di token in input e $1,17 in output, M2.5 raggiunge l’80,2% su SWE-Bench Verified e il 51,3% su Multi-SWE-Bench — numeri da modello frontier a una frazione del costo.
Se vi interessano i confronti di costo tra modelli AI, ho analizzato in dettaglio le differenze economiche nel mio articolo sul confronto costi API AI di marzo 2026. MiniMax M2.5 rende il quadro ancora più competitivo.
Insieme a Gemini 3.1 Flash-Lite di Google (lanciato a inizio marzo a $0,25/M token input), e all’esplosione di OpenClaw come framework agente open source, il messaggio è chiaro: l’accesso all’AI di livello avanzato si sta democratizzando rapidamente. La sfida per le aziende non è più accedere alla tecnologia, ma implementarla in modo efficace e sicuro.
FAQ
Cos’è il National AI Legislative Framework di Trump e quando entrerà in vigore?
È un documento pubblicato il 20 marzo 2026 dalla Casa Bianca che propone un quadro legislativo federale unificato per l’AI, con preemption delle leggi statali e un approccio light-touch alla regolamentazione. Non è ancora legge: il Congresso deve trasformarlo in un disegno di legge, un processo che potrebbe richiedere mesi e che incontra resistenze bipartisan.
OpenClaw è sicuro da usare? Quali modelli AI supporta?
OpenClaw è open source (licenza MIT) e gira interamente in locale sul vostro sistema. Supporta qualsiasi LLM, dai modelli locali via Ollama (come DeepSeek o Llama) alle API cloud di OpenAI, Anthropic e Google. La sicurezza dipende da come lo configurate e quali permessi concedete all’agente — consiglio di iniziare con permessi limitati e di non usarlo in ambiente di produzione senza un’analisi approfondita.
Google Personal Intelligence è disponibile in Italia?
No, al momento il rollout è limitato agli utenti statunitensi con account Google personale. Google non ha ancora annunciato una data per l’espansione internazionale. In Europa, il GDPR potrebbe complicare e ritardare il lancio, dato che la funzione accede ai dati personali di Gmail, Photos e altri servizi Google.
La causa Britannica-OpenAI potrebbe fermare lo sviluppo dei modelli AI?
È improbabile che blocchi lo sviluppo, ma potrebbe creare un precedente legale significativo sul fair use dei contenuti protetti per l’addestramento AI. Il caso sarà probabilmente consolidato in un multi-district litigation con altre cause simili. Se i tribunali stabilissero che lo scraping per il training viola il copyright, le aziende AI dovrebbero negoziare licenze o filtrare i dati di addestramento, aumentando i costi.
Quanto costa usare i nuovi modelli AI economici come MiniMax M2.5 e Gemini Flash-Lite?
MiniMax M2.5 costa $0,20 per milione di token in input e $1,17 in output. Gemini 3.1 Flash-Lite parte da $0,25/M token in input e $1,50 in output. Per confronto, GPT-5.4 e Claude Opus costano significativamente di più. Questi modelli sono ideali per task ad alto volume come classificazione, traduzione e automazione, dove il costo per richiesta conta più della qualità massima assoluta.
Conclusione
Questa quarta settimana di marzo 2026 ha mostrato un settore AI che sta maturando su tutti i fronti: politico (il framework Trump), tecnologico (OpenClaw, Personal Intelligence, modelli low-cost), legale (Britannica vs OpenAI) e commerciale (la guerra enterprise OpenAI-Anthropic). Per chi lavora nel settore IT come me, il messaggio è chiaro: l’AI non è più un tema del futuro, è l’infrastruttura del presente.
Continuerò a monitorare questi sviluppi e a condividere analisi pratiche. Se volete restare aggiornati, seguite il blog e lasciate un commento con la notizia che vi ha colpito di più questa settimana.