{"id":1753,"date":"2026-03-30T19:08:56","date_gmt":"2026-03-30T17:08:56","guid":{"rendered":"https:\/\/darioiannascoli.it\/blog\/qwen-35-small-model-series-9b-gpqa-diamond-ollama-setup-benchmark-llama-phi4-2026\/"},"modified":"2026-03-30T19:08:56","modified_gmt":"2026-03-30T17:08:56","slug":"qwen-35-small-model-series-9b-gpqa-diamond-ollama-setup-benchmark-llama-phi4-2026","status":"publish","type":"post","link":"https:\/\/darioiannascoli.it\/blog\/qwen-35-small-model-series-9b-gpqa-diamond-ollama-setup-benchmark-llama-phi4-2026\/","title":{"rendered":"Qwen 3.5 Small Model Series di Alibaba: Come Eseguo Modelli AI da 9B Parametri sul Mio Laptop nel 2026 con Score GPQA Diamond 81.7 \u2014 Setup, Benchmark e Confronto con Llama 3.3 e Phi-4"},"content":{"rendered":"<p>Il 2 marzo 2026 Alibaba ha pubblicato la <strong>Qwen 3.5 Small Model Series<\/strong>: quattro modelli da 0.8B, 2B, 4B e 9B parametri che, nella mia esperienza di sysadmin che testa AI locali da anni, hanno completamente ridefinito il concetto di <em>on-device intelligence<\/em>. Il modello di punta, <strong>Qwen3.5-9B<\/strong>, ha raggiunto un punteggio GPQA Diamond di <strong>81.7<\/strong>, superando gpt-oss-120B di OpenAI (80.1) \u2014 un modello con oltre 13 volte i suoi parametri. Quando ho letto i benchmark la prima volta, ho pensato fosse un errore. Non lo era.<\/p>\n<p>Per chi gestisce server e infrastrutture come me, la possibilit\u00e0 di eseguire un modello AI di questa potenza su un laptop consumer con 16 GB di RAM \u00e8 una svolta concreta. Niente API esterne, niente costi per token, niente dipendenza da cloud \u2014 solo inferenza locale, veloce e privata. In questo articolo vi mostro come ho configurato Qwen3.5-9B sul mio laptop, i benchmark reali che ho verificato e un confronto diretto con <strong>Llama 3.3<\/strong> e <strong>Phi-4<\/strong>, gli altri due contendenti pi\u00f9 interessanti nella fascia sub-10B.<\/p>\n<p>Se avete seguito le <a href=\"https:\/\/darioiannascoli.it\/blog\/novita-ai-fine-marzo-2026-claude-mythos-sora-chiude-mcp-97-milioni-arc-agi-3\/\">ultime novit\u00e0 AI di fine marzo 2026<\/a>, sapete quanto velocemente si muove il settore. Qwen 3.5 Small \u00e8 la dimostrazione che non serve pi\u00f9 un cluster GPU per avere reasoning di livello graduate.<\/p>\n<h2>Cosa Include la Qwen 3.5 Small Model Series<\/h2>\n<p>La serie Small di Qwen 3.5 comprende quattro modelli, ognuno pensato per un caso d&#8217;uso specifico:<\/p>\n<ul>\n<li><strong>Qwen3.5-0.8B<\/strong> e <strong>Qwen3.5-2B<\/strong>: progettati per <em>edge devices<\/em>, applicazioni ad alta frequenza e bassa latenza. Ideali per dispositivi mobili e IoT.<\/li>\n<li><strong>Qwen3.5-4B<\/strong>: base multimodale per agenti leggeri, capace di processare testo e immagini nello stesso spazio latente. Un ponte tra modelli puramente testuali e VLM complessi.<\/li>\n<li><strong>Qwen3.5-9B<\/strong>: il flagship della serie, focalizzato su <em>reasoning<\/em> e logica avanzata, con capacit\u00e0 multimodali native e un contesto nativo di <strong>262.144 token<\/strong> estendibile fino a oltre 1 milione.<\/li>\n<\/ul>\n<p>L&#8217;architettura \u00e8 ci\u00f2 che rende questi modelli davvero speciali. Alibaba ha adottato un <strong>Efficient Hybrid Architecture<\/strong> che combina <em>Gated Delta Networks<\/em> (una forma di attenzione lineare) con <em>Mixture-of-Experts<\/em> (MoE) sparso. Il pattern del 9B segue uno schema 8\u00d7(3\u00d7DeltaNet\u2192FFN\u21921\u00d7Attention\u2192FFN), che supera il classico &#8220;memory wall&#8221; dei modelli piccoli garantendo throughput elevato e latenza significativamente ridotta durante l&#8217;inferenza.<\/p>\n<h2>Benchmark Qwen3.5-9B: I Numeri che Contano<\/h2>\n<p>Vi riporto i benchmark che ho verificato, quelli che nella mia esperienza contano davvero per capire le capacit\u00e0 reali del modello:<\/p>\n<h3>Reasoning e Comprensione Linguistica<\/h3>\n<ul>\n<li><strong>GPQA Diamond: 81.7<\/strong> \u2014 supera gpt-oss-120B (80.1). \u00c8 il primo modello sub-10B a battere un modello 100B+ su questo benchmark di reasoning graduate-level.<\/li>\n<li><strong>MMMLU (Multilingual): 81.2<\/strong> \u2014 alla pari con Qwen3-Next-80B-A3B-Thinking (81.3), un modello enormemente pi\u00f9 grande.<\/li>\n<\/ul>\n<h3>Capacit\u00e0 Multimodali<\/h3>\n<ul>\n<li><strong>MMMU-Pro (Visual Reasoning): 70.1<\/strong> \u2014 batte Gemini 2.5 Flash-Lite (59.7) e il pi\u00f9 grande Qwen3-VL-30B-A3B (63.0).<\/li>\n<li><strong>Video-MME (con sottotitoli): 84.5<\/strong> \u2014 domina la competizione, con Gemini 2.5 Flash-Lite fermo a 74.6.<\/li>\n<\/ul>\n<h3>Matematica<\/h3>\n<ul>\n<li><strong>HMMT Feb 2025: 83.2<\/strong> \u2014 prestazioni da competizione matematica universitaria su un modello che gira su un laptop.<\/li>\n<\/ul>\n<p>Questi numeri non sono teorici: significano che Qwen3.5-9B pu\u00f2 analizzare documenti complessi, ragionare su problemi multi-step e persino comprendere video \u2014 tutto in locale.<\/p>\n<h2>Confronto Diretto: Qwen3.5-9B vs Llama 3.3 8B vs Phi-4 14B<\/h2>\n<p>Ho confrontato i tre modelli che considero i migliori nella fascia &#8220;eseguibile su laptop&#8221; nel 2026. Ecco cosa emerge:<\/p>\n<h3>Qwen3.5-9B \u2014 Il Tuttofare Multimodale<\/h3>\n<ul>\n<li>GPQA Diamond: <strong>81.7<\/strong><\/li>\n<li>HumanEval (coding): ~76.0 (sulla serie Qwen 3)<\/li>\n<li>AIME (math avanzata): ~48.7<\/li>\n<li>Multilingue: 250K vocabolario, 201 lingue di training<\/li>\n<li>Multimodale nativo (testo + immagini + video)<\/li>\n<li>VRAM: ~5 GB quantizzato 4-bit, ~12 GB in BF16<\/li>\n<\/ul>\n<h3>Llama 3.3 8B \u2014 L&#8217;Equilibrato di Meta<\/h3>\n<ul>\n<li>MMLU: <strong>73.0<\/strong><\/li>\n<li>HumanEval: 72.6<\/li>\n<li>Buon bilanciamento tra reasoning e coding<\/li>\n<li>Solo testo (nessuna capacit\u00e0 multimodale nativa)<\/li>\n<li>VRAM: ~5 GB quantizzato 4-bit<\/li>\n<\/ul>\n<h3>Phi-4 14B \u2014 Il Matematico di Microsoft<\/h3>\n<ul>\n<li>MMLU: <strong>84.8<\/strong> (supera Llama-3.3-70B!)<\/li>\n<li>MATH: 80.4 (batte GPT-4o a 74.6)<\/li>\n<li>GPQA: batte GPT-4o su science graduate-level<\/li>\n<li>Solo testo, 14B parametri (richiede pi\u00f9 risorse)<\/li>\n<li>VRAM: ~8 GB quantizzato 4-bit<\/li>\n<\/ul>\n<h3>Il Mio Verdetto<\/h3>\n<p>Se cercate un modello <strong>completo<\/strong> \u2014 reasoning, multimodale, multilingue, contesto enorme \u2014 Qwen3.5-9B non ha rivali nella sua fascia. <strong>Llama 3.3<\/strong> resta solido per coding e task testuali general-purpose con meno risorse. <strong>Phi-4<\/strong> eccelle in matematica e science, ma richiede pi\u00f9 VRAM e manca completamente di capacit\u00e0 multimodali. Se come me lavorate con documenti, immagini e avete bisogno di reasoning avanzato in italiano e altre lingue, Qwen3.5-9B \u00e8 la scelta chiara. Come avevo analizzato nel mio articolo sui <a href=\"https:\/\/darioiannascoli.it\/blog\/modelli-ai-open-source-2026-deepseek-granite-llama-small-language-model-vs-gpt5\/\">modelli AI open source nel 2026<\/a>, la fascia degli Small Language Model sta diventando incredibilmente competitiva.<\/p>\n<h2>Come Installo ed Eseguo Qwen3.5-9B con Ollama sul Mio Laptop<\/h2>\n<p>Il metodo pi\u00f9 semplice per eseguire Qwen3.5-9B in locale \u00e8 <strong>Ollama<\/strong>, che gestisce automaticamente download, quantizzazione e rilevamento GPU. Ecco la procedura che ho seguito:<\/p>\n<h3>Requisiti Hardware Minimi<\/h3>\n<ul>\n<li><strong>RAM<\/strong>: 16 GB consigliati (8 GB funziona ma sar\u00e0 lento)<\/li>\n<li><strong>GPU<\/strong>: NVIDIA con 8+ GB VRAM, oppure Apple Silicon (M1\/M2\/M3\/M4)<\/li>\n<li><strong>Disco<\/strong>: 10-15 GB liberi per il modello e overhead<\/li>\n<li><strong>Ollama<\/strong>: versione 0.17 o successiva<\/li>\n<\/ul>\n<h3>Step 1: Installare Ollama<\/h3>\n<p>Su <strong>Linux<\/strong> (il mio caso, gestendo server Debian quotidianamente):<\/p>\n<pre><code>curl -fsSL https:\/\/ollama.com\/install.sh | sh<\/code><\/pre>\n<p>Su <strong>macOS<\/strong> e <strong>Windows<\/strong>, scaricate l&#8217;installer da ollama.com\/download. Verificate la versione:<\/p>\n<pre><code>ollama --version\n# Deve essere &gt;= 0.17<\/code><\/pre>\n<h3>Step 2: Scaricare ed Eseguire il Modello<\/h3>\n<p>Un singolo comando per scaricare e avviare Qwen3.5-9B:<\/p>\n<pre><code>ollama run qwen3.5:9b<\/code><\/pre>\n<p>Il download \u00e8 di circa 5 GB (versione quantizzata Q4_K_M). Ollama rileva automaticamente la GPU e ottimizza l&#8217;inferenza. Sul mio setup con RTX 4070 Ti (16 GB VRAM), il modello genera a <strong>80-120 token\/secondo<\/strong> \u2014 pi\u00f9 che sufficiente per uso interattivo.<\/p>\n<h3>Step 3: Utilizzare l&#8217;API Locale<\/h3>\n<p>Ollama espone automaticamente un server API su <code>http:\/\/localhost:11434<\/code>. Potete integrarlo nei vostri script:<\/p>\n<pre><code>curl http:\/\/localhost:11434\/api\/generate -d '{\n  \"model\": \"qwen3.5:9b\",\n  \"prompt\": \"Spiega il concetto di Mixture-of-Experts in 3 frasi\",\n  \"stream\": false\n}'<\/code><\/pre>\n<p>Oppure usare le librerie Python\/JS di Ollama per integrazioni pi\u00f9 strutturate. La bellezza di questo approccio \u00e8 che <strong>nessun dato lascia il vostro laptop<\/strong> \u2014 perfetto per chi, come me, gestisce dati sensibili di clienti e non vuole dipendenze esterne.<\/p>\n<h3>Step 4: Opzioni di Quantizzazione Avanzate<\/h3>\n<p>Se avete una GPU potente e volete la massima qualit\u00e0, potete caricare versioni meno quantizzate:<\/p>\n<ul>\n<li><strong>Q4_K_M<\/strong> (~5 GB): il default, ottimo bilanciamento qualit\u00e0\/velocit\u00e0<\/li>\n<li><strong>Q8_0<\/strong> (~9 GB): qualit\u00e0 superiore, richiede 12+ GB VRAM<\/li>\n<li><strong>BF16<\/strong> (~18 GB): precisione quasi completa, richiede 24 GB VRAM (RTX 3090\/4090)<\/li>\n<\/ul>\n<p>Per la maggior parte degli usi pratici, Q4_K_M \u00e8 pi\u00f9 che sufficiente. La differenza di qualit\u00e0 rispetto a BF16 \u00e8 marginale nel 90% dei task.<\/p>\n<h2>Architettura Hybrid: Perch\u00e9 Qwen3.5-9B \u00c8 Cos\u00ec Efficiente<\/h2>\n<p>Il segreto delle prestazioni di Qwen3.5-9B sta nella sua architettura ibrida. A differenza dei Transformer tradizionali che usano solo <em>self-attention<\/em> (costosa in termini di memoria), Alibaba ha combinato:<\/p>\n<ul>\n<li><strong>Gated Delta Networks<\/strong>: una forma di attenzione lineare che scala in modo molto pi\u00f9 efficiente con la lunghezza del contesto.<\/li>\n<li><strong>Sparse MoE<\/strong>: non tutti i parametri sono attivi contemporaneamente. Solo gli &#8220;esperti&#8221; rilevanti per il task vengono attivati, riducendo il compute effettivo.<\/li>\n<li><strong>Capacit\u00e0 multimodali native<\/strong>: dal 4B in su, testo e token visivi vengono processati nello stesso spazio latente fin dalle prime fasi del training, eliminando la necessit\u00e0 di adapter esterni.<\/li>\n<\/ul>\n<p>Questo approccio affronta direttamente il &#8220;memory wall&#8221; che tradizionalmente limita i modelli piccoli, permettendo al 9B di offrire throughput e latenza paragonabili a modelli dense molto pi\u00f9 grandi. \u00c8 una lezione importante per chi, come me, progetta <a href=\"https:\/\/darioiannascoli.it\/blog\/infrastrutture-ai-ready-hosting-2026-edge-computing-hybrid-cloud-mini-cloud-modelli-locali\/\">infrastrutture AI-ready per hosting<\/a>: il futuro non \u00e8 solo scale-up, ma anche scale-down intelligente.<\/p>\n<h2>Casi d&#8217;Uso Pratici nella Mia Esperienza<\/h2>\n<p>Dopo alcune settimane di utilizzo quotidiano, ecco dove Qwen3.5-9B si \u00e8 dimostrato pi\u00f9 utile nel mio workflow:<\/p>\n<ul>\n<li><strong>Analisi log server<\/strong>: gli passo log di errore complessi e ottengo diagnosi accurate senza inviare dati sensibili a servizi cloud.<\/li>\n<li><strong>Generazione e review di codice<\/strong>: con HumanEval ~76.0, gestisce bene script Bash, configurazioni nginx e snippet PHP.<\/li>\n<li><strong>Documenti multilingue<\/strong>: con 201 lingue e 250K vocabolario, gestisce perfettamente l&#8217;italiano \u2014 cosa che non tutti i modelli small fanno bene.<\/li>\n<li><strong>Analisi immagini<\/strong>: le capacit\u00e0 multimodali native mi permettono di passargli screenshot di dashboard o errori visivi e ottenere analisi contestualizzate.<\/li>\n<\/ul>\n<p>Se vi interessa come sto integrando modelli AI nel mio workflow di gestione server, ho approfondito il tema nell&#8217;articolo su <a href=\"https:\/\/darioiannascoli.it\/blog\/plesk-mcp-server-extension-gestione-domini-database-linguaggio-naturale-claude-chatgpt-2026\/\">come gestisco domini e database con comandi in linguaggio naturale<\/a>.<\/p>\n<h2>Il Contesto di Mercato: Perch\u00e9 Conta nel 2026<\/h2>\n<p>Il rilascio di Qwen 3.5 Small si inserisce in un trend chiaro: <strong>la democratizzazione dell&#8217;AI locale<\/strong>. Non \u00e8 pi\u00f9 necessario pagare per API cloud o dipendere da provider terzi per task di reasoning avanzato. Nel mio articolo sul <a href=\"https:\/\/darioiannascoli.it\/blog\/confronto-costi-api-ai-marzo-2026-openai-anthropic-google-deepseek-roi-model-selection\/\">confronto costi API AI a marzo 2026<\/a>, ho analizzato quanto costano i modelli cloud \u2014 e la risposta \u00e8: sempre di pi\u00f9, soprattutto per chi processa grandi volumi. Con l&#8217;aumento dei <a href=\"https:\/\/darioiannascoli.it\/blog\/costi-cloud-hosting-aumento-2026-energia-data-center-ai-gpu-strategie-risparmio\/\">costi del cloud hosting legati all&#8217;energia per i data center AI<\/a>, avere un modello potente che gira su hardware consumer \u00e8 un vantaggio competitivo reale.<\/p>\n<p>Alibaba ha completato il rilascio di nove modelli Qwen 3.5 in soli 16 giorni \u2014 un ritmo impressionante che dimostra quanto sia intensa la competizione nel segmento open-weight. La serie completa include anche modelli da 27B, 35B e 122B parametri per chi ha hardware pi\u00f9 potente.<\/p>\n<h2>FAQ<\/h2>\n<h3>Quanta RAM serve per eseguire Qwen3.5-9B sul mio laptop?<\/h3>\n<p>Con quantizzazione 4-bit (Q4_K_M), servono circa <strong>5 GB di VRAM<\/strong> GPU oppure 16 GB di RAM di sistema se eseguite in modalit\u00e0 CPU-only. Con 8 GB di RAM totali il modello funziona ma sar\u00e0 molto lento. Su Apple Silicon con memoria unificata, 16 GB sono l&#8217;ideale. Per la massima qualit\u00e0 in BF16, servono almeno 24 GB di VRAM.<\/p>\n<h3>Qwen3.5-9B \u00e8 davvero migliore di Llama 3.3 per uso locale?<\/h3>\n<p>Dipende dal caso d&#8217;uso. Qwen3.5-9B supera Llama 3.3 8B su <strong>reasoning<\/strong> (GPQA Diamond 81.7 vs non disponibile per Llama 3.3 8B), <strong>capacit\u00e0 multimodali<\/strong> (Llama 3.3 \u00e8 solo testo), <strong>multilingue<\/strong> (201 lingue vs un set pi\u00f9 limitato) e contesto (262K vs 128K token). Llama 3.3 resta competitivo per coding con HumanEval 72.6 e ha un ecosistema di fine-tuning molto maturo. Se vi serve solo testo in inglese per coding, Llama 3.3 \u00e8 un&#8217;ottima scelta. Per tutto il resto, Qwen3.5-9B vince.<\/p>\n<h3>Posso usare Qwen3.5-9B per generare contenuti in italiano?<\/h3>\n<p>S\u00ec, e con ottimi risultati. Grazie al vocabolario da 250.000 token e al training su 201 lingue, Qwen3.5-9B gestisce l&#8217;italiano in modo molto naturale \u2014 comprensione, generazione e traduzione. Nella mia esperienza \u00e8 nettamente superiore a Llama 3.3 e Phi-4 per contenuti in lingue diverse dall&#8217;inglese.<\/p>\n<h3>Qwen 3.5 Small \u00e8 open source? Posso usarlo commercialmente?<\/h3>\n<p>S\u00ec, i modelli Qwen 3.5 Small sono rilasciati come <strong>open-weight<\/strong> sotto la licenza Apache 2.0. Potete scaricarli da Hugging Face o Ollama e usarli liberamente anche in contesti commerciali, senza restrizioni di utilizzo o costi di licenza. \u00c8 uno dei vantaggi principali rispetto ai modelli proprietari.<\/p>\n<h3>Come si confronta il GPQA Diamond di 81.7 con i modelli pi\u00f9 grandi?<\/h3>\n<p>Il punteggio GPQA Diamond di 81.7 \u00e8 eccezionale per un modello da 9B parametri. Supera gpt-oss-120B di OpenAI (80.1, un modello 13x pi\u00f9 grande) ed \u00e8 competitivo con modelli da 80B+ parametri. Il benchmark GPQA Diamond testa il reasoning a livello graduate su domande di fisica, chimica e biologia \u2014 il fatto che un modello eseguibile su un laptop raggiunga questi risultati segna un punto di svolta nell&#8217;efficienza dei modelli AI.<\/p>\n<h2>Conclusioni<\/h2>\n<p>La <strong>Qwen 3.5 Small Model Series<\/strong> di Alibaba rappresenta, nella mia esperienza, il pi\u00f9 grande salto qualitativo dei modelli AI locali nel 2026. Un <strong>GPQA Diamond di 81.7<\/strong> su un modello da 9B parametri che gira su un laptop con 5 GB di VRAM non era immaginabile un anno fa. L&#8217;architettura ibrida con Gated Delta Networks e MoE sparso ha dimostrato che l&#8217;innovazione architettonica pu\u00f2 compensare la mancanza di parametri bruti.<\/p>\n<p>Se state valutando quale modello AI locale adottare nel 2026, il mio consiglio \u00e8 chiaro: partite con <strong>Qwen3.5-9B via Ollama<\/strong>. Un comando, cinque minuti di download e avete un modello multimodale, multilingue, con reasoning graduate-level \u2014 tutto in locale, tutto privato, tutto gratuito. La competizione con Llama 3.3 e Phi-4 resta sana e spinge tutti verso l&#8217;alto, ma oggi Qwen3.5-9B offre il miglior rapporto prestazioni\/risorse nella fascia sub-10B.<\/p>\n<p>Avete gi\u00e0 provato Qwen 3.5 Small? Su quale hardware lo state eseguendo? Fatemelo sapere nei commenti \u2014 sono curioso di confrontare le vostre esperienze con le mie.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Qwen 3.5 Small di Alibaba: come eseguo il modello 9B con GPQA Diamond 81.7 sul mio laptop via Ollama, benchmark e confronto con Llama 3.3 e Phi-4.<\/p>\n","protected":false},"author":1,"featured_media":1754,"comment_status":"","ping_status":"","sticky":false,"template":"","format":"standard","meta":{"_seopress_robots_primary_cat":"","_seopress_titles_title":"Qwen 3.5 9B su Laptop: Setup Ollama, Benchmark GPQA 81.7 e Confronto","_seopress_titles_desc":"Come installo Qwen3.5-9B con Ollama sul laptop: GPQA Diamond 81.7, confronto con Llama 3.3 e Phi-4, requisiti hardware e casi d'uso pratici nel 2026.","_seopress_robots_index":"","footnotes":""},"categories":[128],"tags":[590,592,591,173,589,489],"class_list":["post-1753","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-a-i","tag-alibaba-ai","tag-benchmark-ai","tag-modelli-ai-locali","tag-ollama","tag-qwen-3-5","tag-small-language-models"],"_links":{"self":[{"href":"https:\/\/darioiannascoli.it\/blog\/wp-json\/wp\/v2\/posts\/1753","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/darioiannascoli.it\/blog\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/darioiannascoli.it\/blog\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/darioiannascoli.it\/blog\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/darioiannascoli.it\/blog\/wp-json\/wp\/v2\/comments?post=1753"}],"version-history":[{"count":0,"href":"https:\/\/darioiannascoli.it\/blog\/wp-json\/wp\/v2\/posts\/1753\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/darioiannascoli.it\/blog\/wp-json\/wp\/v2\/media\/1754"}],"wp:attachment":[{"href":"https:\/\/darioiannascoli.it\/blog\/wp-json\/wp\/v2\/media?parent=1753"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/darioiannascoli.it\/blog\/wp-json\/wp\/v2\/categories?post=1753"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/darioiannascoli.it\/blog\/wp-json\/wp\/v2\/tags?post=1753"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}