{"id":1506,"date":"2026-03-12T14:07:10","date_gmt":"2026-03-12T13:07:10","guid":{"rendered":"https:\/\/darioiannascoli.it\/blog\/modelli-ai-open-source-2026-deepseek-granite-llama-small-language-model-vs-gpt5\/"},"modified":"2026-03-12T14:07:10","modified_gmt":"2026-03-12T13:07:10","slug":"modelli-ai-open-source-2026-deepseek-granite-llama-small-language-model-vs-gpt5","status":"publish","type":"post","link":"https:\/\/darioiannascoli.it\/blog\/modelli-ai-open-source-2026-deepseek-granite-llama-small-language-model-vs-gpt5\/","title":{"rendered":"Come Scelgo Modelli AI Open Source nel 2026: DeepSeek V4, Granite 4.0, Llama 3.2 \u2014 Quando Conviene Usare Small Language Model Invece di GPT-5.3"},"content":{"rendered":"<p>Nelle ultime settimane ho ricevuto una domanda ricorrente da colleghi e clienti: <strong>&#8220;Ha senso pagare GPT-5.3 quando esistono modelli open source che costano una frazione?&#8221;<\/strong>. La risposta breve \u00e8: <em>dipende<\/em>. Ma la risposta lunga \u00e8 molto pi\u00f9 interessante, perch\u00e9 nel 2026 il panorama dei modelli AI open source \u00e8 cambiato radicalmente, e gli <strong>Small Language Model<\/strong> (SLM) stanno diventando la scelta pi\u00f9 intelligente per l&#8217;80% dei casi d&#8217;uso in produzione.<\/p>\n<p>In questo articolo vi racconto la mia esperienza diretta con <strong>DeepSeek V4<\/strong>, <strong>IBM Granite 4.0<\/strong> e <strong>Meta Llama 3.2<\/strong>, confrontandoli con le API proprietarie di OpenAI. Vi mostro quando conviene davvero scegliere un modello piccolo e open source rispetto a un gigante come GPT-5.3, con numeri reali sui costi, le performance e i limiti che ho riscontrato sul campo.<\/p>\n<p>Se avete gi\u00e0 letto la mia <a href=\"https:\/\/darioiannascoli.it\/blog\/modelli-ai-open-source-small-language-model-deepseek-granite-ollama-2026\/\">guida pratica a DeepSeek, Granite e Ollama<\/a>, considerate questo articolo come un aggiornamento strategico con i dati di marzo 2026 e le novit\u00e0 pi\u00f9 recenti.<\/p>\n<h2>Il Panorama dei Modelli AI Open Source nel Marzo 2026<\/h2>\n<p>Il 2026 \u00e8 l&#8217;anno in cui i modelli open source hanno definitivamente colmato il divario con quelli proprietari. DeepSeek ha rilasciato il suo <strong>V4 nella prima settimana di marzo 2026<\/strong>: un modello da un trilione di parametri con architettura Mixture-of-Experts, circa 32 miliardi di parametri attivi per ogni token, capacit\u00e0 multimodali native (testo, immagine, video, audio) e una finestra di contesto superiore al milione di token. Il tutto rilasciato con licenza open source.<\/p>\n<p>Nel frattempo, <strong>IBM ha lanciato Granite 4.0<\/strong>, una famiglia di modelli enterprise-ready che punta tutto sull&#8217;efficienza: i modelli Granite 4.0 usano oltre il 70% di memoria in meno rispetto a modelli comparabili e sono i primi modelli open a ottenere la <strong>certificazione ISO 42001<\/strong> per lo sviluppo responsabile dell&#8217;AI. IBM ha persino lanciato un programma bug bounty con HackerOne fino a 100.000 dollari per trovare vulnerabilit\u00e0.<\/p>\n<p>Meta continua a dominare l&#8217;ecosistema edge con <strong>Llama 3.2<\/strong>, i cui modelli da 1B e 3B parametri girano su smartphone e dispositivi edge. A gennaio 2026, il modello 3B raggiunge oltre 200 token al secondo su chip Snapdragon 8 Gen 4 con quantizzazione a 4 bit.<\/p>\n<h2>DeepSeek V4: Il Colosso Open Source che Sfida GPT-5.3<\/h2>\n<p>DeepSeek \u00e8 diventata una delle aziende AI pi\u00f9 influenti del 2026, sfidando il dominio di OpenAI e Anthropic con il suo approccio open source. Il modello V3 era gi\u00e0 impressionante: 685 miliardi di parametri totali con 37 miliardi attivi per token, addestrato su 14.8 trilioni di token con un costo di soli 5,5 milioni di dollari \u2014 contro i 100+ milioni stimati per GPT-4.<\/p>\n<p>Il nuovo <strong>DeepSeek V4<\/strong> alza ancora l&#8217;asticella. Ecco cosa ho notato testandolo:<\/p>\n<ul>\n<li><strong>Contesto da 1M+ token<\/strong>: utilissimo per analisi di codice, documenti legali e report aziendali<\/li>\n<li><strong>Multimodalit\u00e0 nativa<\/strong>: a differenza di molti modelli che aggiungono la visione come layer separato, V4 \u00e8 stato addestrato su testo, immagini, video e audio simultaneamente<\/li>\n<li><strong>Ottimizzato per chip cinesi<\/strong>: funziona su Huawei Ascend e Cambricon, dimostrando indipendenza dall&#8217;hardware NVIDIA<\/li>\n<li><strong>API economiche<\/strong>: circa 0,28$\/M token input e 0,42$\/M output per V3.2 \u2014 confrontate con i 2$\/M input di GPT-5.3 Codex<\/li>\n<\/ul>\n<p>Nella mia esperienza, DeepSeek eccelle in analisi dati, ragionamento logico e programmazione. La qualit\u00e0 delle risposte compete con ChatGPT e Claude, ma ad un costo dalle 10 alle 30 volte inferiore. Tuttavia, i filtri di sicurezza sono pi\u00f9 deboli rispetto a ChatGPT e Claude, e la sede cinese dell&#8217;azienda solleva questioni di privacy per alcune organizzazioni. La soluzione? Scaricare il modello open source e deployarlo sui propri server.<\/p>\n<h2>IBM Granite 4.0: Lo Small Language Model Enterprise-Ready<\/h2>\n<p>Se DeepSeek \u00e8 il &#8220;ribelle&#8221; dell&#8217;open source, <strong>IBM Granite 4.0<\/strong> \u00e8 la scelta &#8220;corporate&#8221; per eccellenza. Nella mia esperienza con infrastrutture aziendali, Granite si \u00e8 rivelato il modello pi\u00f9 adatto quando servono <em>compliance<\/em>, <em>trasparenza<\/em> e <em>governance<\/em>.<\/p>\n<p>L&#8217;architettura ibrida di Granite 4.0 combina una piccola quantit\u00e0 di layer transformer standard con una maggioranza di <strong>layer Mamba-2<\/strong>, che processano il linguaggio in modo significativamente pi\u00f9 efficiente rispetto ai modelli convenzionali. Il risultato?<\/p>\n<ul>\n<li><strong>70%+ di memoria in meno<\/strong> rispetto a modelli di dimensioni simili<\/li>\n<li><strong>Throughput costante<\/strong> anche con batch di grandi dimensioni<\/li>\n<li><strong>Licenza Apache 2.0<\/strong> \u2014 utilizzo commerciale completamente libero<\/li>\n<li><strong>Compatibilit\u00e0 nativa<\/strong> con llama.cpp, vLLM, MLX e Ollama<\/li>\n<\/ul>\n<p>I modelli <strong>Granite 4.0 Nano<\/strong> sono particolarmente interessanti: vanno da 350 milioni a 1,5 miliardi di parametri e girano su un laptop moderno con 8-16 GB di RAM. Il modello da 350M su CPU, quello da 1.5B su una GPU con 6-8 GB di VRAM. IBM li ha progettati specificamente per <em>agentic workflows<\/em> e come componenti cost-efficient in sistemi complessi insieme a modelli di ragionamento pi\u00f9 grandi.<\/p>\n<p>La trasparenza \u00e8 il vero punto di forza: ogni dataset usato per l&#8217;addestramento \u00e8 documentato e ha superato un processo di governance, risk e compliance (GRC). IBM offre anche un&#8217;<strong>indennit\u00e0 illimitata per IP claims<\/strong> sul contenuto generato da Granite quando usato su watsonx.ai \u2014 un vantaggio che nessun altro modello open source pu\u00f2 vantare. Se state implementando l&#8217;<a href=\"https:\/\/darioiannascoli.it\/blog\/agentic-ai-produzione-2026-super-agents-workflow-rpa-apa-aziende\/\">Agentic AI in produzione<\/a>, Granite 4.0 merita una valutazione seria.<\/p>\n<h2>Meta Llama 3.2: Lo Standard per l&#8217;Edge e il Mobile<\/h2>\n<p>Llama 3.2 resta il modello di riferimento per chi ha bisogno di <strong>AI on-device<\/strong>. L&#8217;ho testato sia nella variante da 1B che da 3B su diversi dispositivi, e i risultati mi hanno sorpreso.<\/p>\n<p>I modelli piccoli di Llama 3.2 sono stati ottenuti tramite <em>structured width pruning<\/em> e <em>knowledge distillation<\/em> dai modelli pi\u00f9 grandi Llama 3.1 8B e 70B. Il risultato \u00e8 che il modello 3B spesso supera modelli da 7B del 2024 in termini di qualit\u00e0. Supporta 128K token di contesto e gira completamente offline, senza bisogno di connessione cloud.<\/p>\n<p>Nel contesto dell&#8217;<strong>EU AI Act<\/strong>, che diventa pienamente applicabile a met\u00e0 2026, i modelli locali come Llama 3.2 rappresentano un &#8220;porto sicuro&#8221; per gli sviluppatori: operando on-device, spesso evitano gli obblighi di compliance pi\u00f9 pesanti imposti ai modelli cloud ad alto rischio. Inoltre, l&#8217;inferenza on-device consuma fino al 95% in meno di energia rispetto all&#8217;invio di richieste a un data center remoto.<\/p>\n<p>Ho gi\u00e0 approfondito come integrare questi modelli nelle infrastrutture hosting nella mia <a href=\"https:\/\/darioiannascoli.it\/blog\/infrastrutture-ai-ready-hosting-2026-edge-computing-hybrid-cloud-mini-cloud-modelli-locali\/\">guida alle infrastrutture AI-Ready per hosting nel 2026<\/a>.<\/p>\n<h2>GPT-5.3 Codex: Quando il Modello Proprietario Vale il Costo<\/h2>\n<p>Detto tutto questo sui modelli open source, GPT-5.3 resta un modello eccezionale per determinati scenari. Rilasciato il 5 febbraio 2026, <strong>GPT-5.3 Codex<\/strong> \u00e8 descritto da OpenAI come il modello agentico di coding pi\u00f9 capace mai realizzato. Combina le capacit\u00e0 di coding di GPT-5.2 Codex con il ragionamento avanzato di GPT-5.2, ed \u00e8 il 25% pi\u00f9 veloce.<\/p>\n<p>Cosa lo rende unico:<\/p>\n<ul>\n<li><strong>Task a lungo orizzonte<\/strong>: mantiene contesto e adatta il piano su pi\u00f9 step complessi<\/li>\n<li><strong>Interattivit\u00e0 in tempo reale<\/strong>: potete dialogare con il modello mentre lavora, come fareste con un collega<\/li>\n<li><strong>Self-improving<\/strong>: \u00e8 il primo modello OpenAI che \u00e8 stato strumentale nel creare se stesso, aiutando il team a debuggare il proprio training<\/li>\n<li><strong>200K token di contesto<\/strong> con finestra di output fino a 33K token<\/li>\n<\/ul>\n<p>Il pricing API? Circa <strong>2$\/M token input e 10$\/M output<\/strong>. Confrontatelo con i 0,14$\/M input e 2,19$\/M output di DeepSeek R1, e capite subito perch\u00e9 la scelta economica pende da una parte. Ma per task complessi di coding multi-step, ricerca e automazione avanzata, GPT-5.3 rimane difficile da battere. Per una panoramica pi\u00f9 ampia sulle novit\u00e0 OpenAI, vi rimando al mio articolo sulle <a href=\"https:\/\/darioiannascoli.it\/blog\/novita-ai-marzo-2026-anthropic-pentagono-openai-gpt5-ai-act\/\">novit\u00e0 AI di marzo 2026<\/a>.<\/p>\n<h2>Quando Conviene Scegliere uno Small Language Model: La Mia Matrice Decisionale<\/h2>\n<p>Dopo mesi di test, ho sviluppato una matrice semplice per decidere quando usare un SLM open source e quando GPT-5.3:<\/p>\n<h3>Scegli un SLM Open Source quando:<\/h3>\n<ol>\n<li><strong>Il task \u00e8 specializzato e ripetitivo<\/strong> \u2014 classificazione, estrazione dati, Q&amp;A su documenti specifici<\/li>\n<li><strong>La privacy \u00e8 prioritaria<\/strong> \u2014 dati sanitari, finanziari, o soggetti a GDPR\/NIS2<\/li>\n<li><strong>Il budget \u00e8 limitato<\/strong> \u2014 il fine-tuning su 1-4 GPU costa fino al 75% in meno<\/li>\n<li><strong>Serve bassa latenza<\/strong> \u2014 on-device con Time to First Token immediato<\/li>\n<li><strong>Volete evitare il vendor lock-in<\/strong> \u2014 possibilit\u00e0 di cambiare modello senza riscrivere il codice<\/li>\n<\/ol>\n<h3>Scegli GPT-5.3 quando:<\/h3>\n<ol>\n<li><strong>Il task richiede ragionamento complesso multi-dominio<\/strong> \u2014 analisi incrociata di dati diversi<\/li>\n<li><strong>Serve generazione creativa di alto livello<\/strong> \u2014 storytelling, marketing, contenuti originali<\/li>\n<li><strong>Il workflow \u00e8 agentico e long-horizon<\/strong> \u2014 ricerca + tool use + esecuzione su pi\u00f9 step<\/li>\n<li><strong>Non avete infrastruttura GPU<\/strong> \u2014 una semplice API call nasconde tutta la complessit\u00e0<\/li>\n<li><strong>Serve compliance enterprise out-of-the-box<\/strong> \u2014 SOC 2, SSO, data control integrati<\/li>\n<\/ol>\n<p>La tendenza che osservo nel 2026? Startup e PMI preferiscono gli SLM per l&#8217;accessibilit\u00e0 economica, mentre le enterprise adottano un <strong>approccio ibrido<\/strong> (LLM + SLM) per bilanciare scala e costi. Chi ho visto in difficolt\u00e0? I team che hanno costruito tutto intorno alle API di GPT-4 e ora devono ricostruire da zero. I team pi\u00f9 smart hanno creato <em>abstraction layer<\/em> che permettono di swappare modelli senza riscrivere codice.<\/p>\n<p>Per chi gi\u00e0 lavora con <a href=\"https:\/\/darioiannascoli.it\/blog\/plesk-ai-orchestration-agentic-workflows-mcp-protocol-automation-2026\/\">workflow agentici su Plesk<\/a>, gli SLM possono essere integrati come componenti efficienti in pipeline complesse, usando il <a href=\"https:\/\/darioiannascoli.it\/blog\/model-context-protocol-mcp-configurazione-server-guida\/\">Model Context Protocol (MCP)<\/a> come standard di comunicazione.<\/p>\n<h2>Confronto Costi: Open Source vs GPT-5.3 nella Pratica<\/h2>\n<p>Ho preparato un confronto pratico basato su un caso d&#8217;uso reale \u2014 un sistema di supporto clienti che elabora circa 10.000 richieste al giorno:<\/p>\n<ul>\n<li><strong>GPT-5.3 Codex via API<\/strong>: ~2$\/M input + 10$\/M output \u2192 circa 300-500$\/mese<\/li>\n<li><strong>DeepSeek R1 via API<\/strong>: ~0,14$\/M input + 2,19$\/M output \u2192 circa 20-40$\/mese<\/li>\n<li><strong>Llama 3.2 3B self-hosted<\/strong>: costo GPU dedicata ~50-80$\/mese, ma nessun costo per token<\/li>\n<li><strong>Granite 4.0 Nano on-device<\/strong>: costo hardware iniziale, poi zero costi operativi<\/li>\n<\/ul>\n<p>La differenza \u00e8 enorme. E per la maggior parte dei task di customer support \u2014 dove le domande sono ripetitive e il dominio \u00e8 ben definito \u2014 un modello da 3B parametri fine-tunato supera un modello da 100B+ generico. Come si dice: non serve una Ferrari quando una Honda Civic fa il lavoro perfettamente.<\/p>\n<h2>Come Deployare un Modello Open Source: Setup Rapido con Ollama<\/h2>\n<p>Per chi vuole iniziare subito, ecco il setup che uso per testare i modelli in locale:<\/p>\n<pre><code># Installare Ollama\ncurl -fsSL https:\/\/ollama.com\/install.sh | sh\n\n# Scaricare e avviare Llama 3.2 3B\nollama run llama3.2:3b\n\n# Scaricare DeepSeek R1 distillato (versione 7B)\nollama run deepseek-r1:7b\n\n# Scaricare Granite 4.0 1B\nollama run granite4.0:1b\n<\/code><\/pre>\n<p>Il modello Granite 4.0 da 1B ha raggiunto un punteggio medio di benchmark del 68,3% su conoscenza generale, matematica, codice e safety domains \u2014 impressionante per un modello che gira su un laptop. Per servire in produzione, consiglio <strong>vLLM<\/strong> o <strong>llama.cpp<\/strong> per massimizzare il throughput.<\/p>\n<p>Se state gi\u00e0 usando Plesk per il vostro hosting, potete consultare la mia <a href=\"https:\/\/darioiannascoli.it\/blog\/configurare-server-plesk-obsidian-hosting-wordpress-prestazioni-sicurezza-2026\/\">guida alla configurazione di Plesk Obsidian per hosting ad alte prestazioni<\/a> per dimensionare correttamente il server che ospiter\u00e0 il modello.<\/p>\n<h2>Governance e Sicurezza: Cosa Considerare con i Modelli Open Source<\/h2>\n<p>Usare modelli open source non significa rinunciare alla governance. Anzi, offre pi\u00f9 controllo. Ma richiede pi\u00f9 responsabilit\u00e0. Ecco i punti critici che ho identificato:<\/p>\n<ul>\n<li><strong>DeepSeek<\/strong>: sede in Cina, potenziali rischi geopolitici. Il deploy locale risolve la questione privacy, ma va valutato caso per caso<\/li>\n<li><strong>Granite<\/strong>: la certificazione ISO 42001 e la trasparenza sui dati di training lo rendono il pi\u00f9 sicuro per contesti regolamentati<\/li>\n<li><strong>Llama 3.2<\/strong>: licenza permissiva ma con acceptable use policy di Meta \u2014 non adatto per usi militari<\/li>\n<li><strong>Hallucination<\/strong>: i modelli piccoli allucinano di pi\u00f9, ma con RAG si risolve l&#8217;80% del problema e con guardrails un altro 15%<\/li>\n<\/ul>\n<p>Per approfondire la <a href=\"https:\/\/darioiannascoli.it\/blog\/governance-ai-agents-azienda-sicurezza-compliance-human-in-the-loop-2026\/\">governance degli AI Agents in azienda<\/a>, ho scritto una guida dedicata con protocolli di sicurezza e compliance.<\/p>\n<h2>FAQ<\/h2>\n<h3>Uno Small Language Model pu\u00f2 davvero sostituire GPT-5.3 in produzione?<\/h3>\n<p>Per task specializzati e ripetitivi, s\u00ec. Un modello da 3B parametri fine-tunato sul vostro dominio specifico pu\u00f2 superare GPT-5.3 su quelle specifiche attivit\u00e0, costando il 95% in meno. Per task generici e multi-dominio con ragionamento complesso, GPT-5.3 resta superiore. L&#8217;approccio vincente nel 2026 \u00e8 quello ibrido: SLM per i task ad alto volume e LLM per quelli ad alta complessit\u00e0.<\/p>\n<h3>Quanto costa realmente deployare un modello open source in self-hosting?<\/h3>\n<p>Dipende dalla dimensione del modello. Un Granite 4.0 Nano da 1B gira su un laptop con 8 GB di RAM, quindi il costo \u00e8 praticamente zero se avete gi\u00e0 l&#8217;hardware. Un DeepSeek V3 da 685B richiede un cluster GPU serio. Per la maggior parte delle PMI, la sweet spot \u00e8 un modello da 3-7B parametri su una GPU dedicata da 50-100\u20ac\/mese, che elimina completamente i costi per token.<\/p>\n<h3>Quale modello open source \u00e8 pi\u00f9 adatto per un&#8217;azienda soggetta a GDPR e NIS2?<\/h3>\n<p>IBM Granite 4.0 \u00e8 la scelta pi\u00f9 sicura: certificazione ISO 42001, trasparenza totale sui dati di training, licenza Apache 2.0 e indennit\u00e0 IP. Llama 3.2 in deploy locale \u00e8 un&#8217;ottima alternativa per la privacy. DeepSeek \u00e8 valido tecnicamente, ma la sede cinese pu\u00f2 creare complicazioni per la compliance \u2014 il deploy on-premises risolve il problema della privacy ma non tutti gli aspetti di governance.<\/p>\n<h3>Posso usare pi\u00f9 modelli AI insieme nello stesso workflow?<\/h3>\n<p>Assolutamente s\u00ec, ed \u00e8 la best practice del 2026. Potete usare un SLM come Granite 4.0 Nano per il routing e la classificazione delle richieste (veloce ed economico), un modello medio come Llama 3.2 3B per il grosso del lavoro, e GPT-5.3 solo per i task che richiedono ragionamento avanzato. Il Model Context Protocol (MCP) facilita questa orchestrazione.<\/p>\n<h3>DeepSeek V4 \u00e8 davvero comparabile a GPT-5.3 come qualit\u00e0?<\/h3>\n<p>I benchmark interni suggeriscono che DeepSeek V4 supera Claude e GPT su task di coding con lungo contesto, ma la verifica indipendente \u00e8 ancora in corso. Per ragionamento logico e matematica, DeepSeek R1 \u00e8 gi\u00e0 competitivo con OpenAI o1. La vera differenza sta nell&#8217;ecosistema: GPT-5.3 ha integrazioni enterprise mature (Slack, Salesforce, Zapier), mentre DeepSeek richiede integrazioni manuali.<\/p>\n<h2>Conclusione: La Scelta Intelligente nel 2026 Non \u00e8 il Modello Pi\u00f9 Grande<\/h2>\n<p>Dopo mesi di test con <strong>modelli AI open source<\/strong> come DeepSeek V4, Granite 4.0 e Llama 3.2, la mia conclusione \u00e8 chiara: nel 2026, la scelta vincente non \u00e8 il modello pi\u00f9 grande o pi\u00f9 costoso, ma quello giusto per il vostro caso d&#8217;uso. Gli <strong>Small Language Model<\/strong> hanno raggiunto un livello di maturit\u00e0 che li rende la scelta preferita per la maggioranza delle applicazioni in produzione.<\/p>\n<p>GPT-5.3 resta eccellente per scenari specifici \u2014 coding agentico, ragionamento multi-dominio, workflow complessi \u2014 ma per l&#8217;80% dei task quotidiani, un modello open source ben configurato vi far\u00e0 risparmiare fino al 95% mantenendo qualit\u00e0 comparabile. Il mio consiglio? Partite con un SLM, misurate i risultati, e scalate verso modelli pi\u00f9 grandi solo quando serve davvero.<\/p>\n<p>Il futuro dell&#8217;AI non \u00e8 esclusivamente nei modelli pi\u00f9 grossi. \u00c8 nel <strong>deployment pi\u00f9 intelligente<\/strong>, nell&#8217;efficienza e nell&#8217;uso dello strumento giusto per il lavoro giusto. Se avete domande o volete condividere la vostra esperienza con questi modelli, lasciate un commento qui sotto \u2014 sono curioso di sapere come li state usando nei vostri progetti.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>DeepSeek V4, Granite 4.0 e Llama 3.2 vs GPT-5.3: quando gli Small Language Model open source battono i giganti proprietari. Confronto costi, performance e casi d&#8217;uso nel 2026.<\/p>\n","protected":false},"author":1,"featured_media":1507,"comment_status":"","ping_status":"","sticky":false,"template":"","format":"standard","meta":{"_seopress_robots_primary_cat":"","_seopress_titles_title":"Modelli AI Open Source 2026: SLM vs GPT-5.3 | Guida","_seopress_titles_desc":"DeepSeek V4, Granite 4.0 e Llama 3.2: scopri quando gli Small Language Model open source battono GPT-5.3 nel 2026. Confronto costi e casi d'uso pratici.","_seopress_robots_index":"","footnotes":""},"categories":[128],"tags":[421,424,422,423,176,307],"class_list":["post-1506","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-a-i","tag-deepseek-v4","tag-gpt-5-3","tag-ibm-granite-4-0","tag-llama-3-2","tag-modelli-ai-open-source","tag-small-language-model"],"_links":{"self":[{"href":"https:\/\/darioiannascoli.it\/blog\/wp-json\/wp\/v2\/posts\/1506","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/darioiannascoli.it\/blog\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/darioiannascoli.it\/blog\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/darioiannascoli.it\/blog\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/darioiannascoli.it\/blog\/wp-json\/wp\/v2\/comments?post=1506"}],"version-history":[{"count":0,"href":"https:\/\/darioiannascoli.it\/blog\/wp-json\/wp\/v2\/posts\/1506\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/darioiannascoli.it\/blog\/wp-json\/wp\/v2\/media\/1507"}],"wp:attachment":[{"href":"https:\/\/darioiannascoli.it\/blog\/wp-json\/wp\/v2\/media?parent=1506"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/darioiannascoli.it\/blog\/wp-json\/wp\/v2\/categories?post=1506"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/darioiannascoli.it\/blog\/wp-json\/wp\/v2\/tags?post=1506"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}