{"id":1883,"date":"2026-05-02T18:10:45","date_gmt":"2026-05-02T16:10:45","guid":{"rendered":"https:\/\/darioiannascoli.it\/blog\/costi-cloud-ai-2026-gpu-scarsita-energia-tariffazione-token-self-hosting-roi\/"},"modified":"2026-05-02T18:10:45","modified_gmt":"2026-05-02T16:10:45","slug":"costi-cloud-ai-2026-gpu-scarsita-energia-tariffazione-token-self-hosting-roi","status":"publish","type":"post","link":"https:\/\/darioiannascoli.it\/blog\/costi-cloud-ai-2026-gpu-scarsita-energia-tariffazione-token-self-hosting-roi\/","title":{"rendered":"Costi Cloud AI nel 2026: GPU Scarsit\u00e0, Energia Data Center e Tariffazione Token \u2014 Come AWS\/GCP\/Azure Ridefiniscono l&#8217;Economics di Inference LLM"},"content":{"rendered":"<p>Siamo a maggio 2026, e il panorama dei costi AI \u00e8 irriconoscibile rispetto a due anni fa. Quello che una volta costava $60 per milione di token \u00e8 ora disponibile a $0.14. Ma c&#8217;\u00e8 un paradosso: mentre i prezzi token crollano, le bollette cloud salgono. Ho visto team con budget AI raddoppiati nonostante i prezzi unitari in calo. La ragione? <strong>L&#8217;energia, la scarsit\u00e0 di GPU e come i provider tariffano l&#8217;inference<\/strong> non seguono pi\u00f9 la logica del 2024.<\/p>\n<p>Nella mia esperienza come system administrator che pianifica l&#8217;infrastruttura AI per clienti enterprise, il problema non \u00e8 pi\u00f9 &#8220;quale modello \u00e8 pi\u00f9 economico&#8221;, ma <strong>dove quel modello gira, quanta potenza consuma, e quale architettura di deployment (cloud, self-hosted, hybrid) minimizza il TCO totale<\/strong>. Questo articolo disseziona quella realt\u00e0 con dati di maggio 2026.<\/p>\n<h2>La Crisi di Energia nei Data Center AI: Il Vero Bottleneck del 2026<\/h2>\n<p>Nel febbraio 2026, i data center US consumavano il 4% dell&#8217;elettricit\u00e0 nazionale. Oggi siamo a una traiettoria verso il 6-8% entro fine anno. <strong>L&#8217;energia \u00e8 diventata il vincolo infrastrutturale pi\u00f9 critico<\/strong>, non le GPU.<\/p>\n<p>Questo cambia tutto. Una singola GPU H100 consuma 700W sotto carico. Un&#8217;intera rack con 8-10 nodi consuma 80-140 kW. Un cluster di addestramento da 10.000 GPU consuma 10-15 megawatt. <strong>Il vincolo non \u00e8 pi\u00f9 &#8220;ho soldi per la GPU?&#8221; ma &#8220;la utility locale mi fornisce i megawatt?&#8221;<\/strong><\/p>\n<p>Ho parlato con tre hoster enterprise che stavano costruendo data center nel 2025. Due hanno dovuto rinviare i progetti di 18-24 mesi perch\u00e9 gli upgrade alla rete elettrica richiedono pi\u00f9 tempo della costruzione fisica della struttura. Le transformer elettriche e i cavi ad alta tensione sono il vincolo principale, non i server.<\/p>\n<p>Il risultato: <strong>la potenza stessa \u00e8 diventata un fattore di prezzo<\/strong>. Nord Virginia (il pi\u00f9 grande mercato di data center al mondo) ha tempi di connessione di 3-5 anni per nuovi allacci. Un campus da $2 miliardi rimane inattivo aspettando un trasformatore da $40 milioni. Questo asimmetria \u2014 il 10% dei costi infrastrutturali determina l&#8217;80% della timeline \u2014 ha riconfigurato il mercato.<\/p>\n<h2>GPU Scarsit\u00e0: H100 vs H200 vs Blackwell, e Perch\u00e9 i Prezzi Non Scendono<\/h2>\n<p>Nel 2024, il vincolo era: &#8220;NVIDIA non produce H100 abbastanza veloce&#8221;. Nel 2026, il vincolo \u00e8: <strong>&#8220;TSMC non ha capacit\u00e0 CoWoS (Chip on Wafer on Substrate) sufficiente&#8221;<\/strong>.<\/p>\n<p>SK Hynix fornisce il 70% della memoria HBM per i data center NVIDIA. <strong>La domanda di HBM \u00e8 cresciuta 5 volte dal 2023 al 2026<\/strong>. La capacit\u00e0 produttiva? Cresce linearmente. Il gap \u00e8 esponenziale. Samsung e Micron stanno investendo $50+ miliardi in nuovi fab, ma una fabbrica semiconduttori richiede 18-24 mesi per essere costruita e altri 6-12 mesi per qualificare la produzione. <strong>Investimenti fatti oggi non producono volumi fino al 2028<\/strong>.<\/p>\n<p>Il risultato pratico: H100 spot pricing \u00e8 stabilizzato a $1.70-2.35\/ora su contratti annuali, non in calo. Un anno fa il consenso era &#8220;H100 croller\u00e0 quando Blackwell arriva&#8221;. Invece, Blackwell (che usa ancora HBM3e) ha aggravato la bottiglia. <strong>H100 rental \u00e8 salito del 40% dal febbraio al marzo 2026 nonostante Blackwell fosse disponibile<\/strong>. Le aziende che avevano H100 non vendono \u2014 ogni GPU inutilizzata costa revenue persi.<\/p>\n<p>I prezzi cloud on-demand hanno visto tagli aggressivi (AWS ha tagliato H100 del 44% a giugno 2025), ma <strong>la disponibilit\u00e0 on-demand \u00e8 &#8220;genuinamente inaffidabile&#8221; senza prenotazioni multi-anno<\/strong>. Ho visto team essere respinti da AWS perch\u00e9 le istanze H100 on-demand non avevano capacit\u00e0 in nessuna regione.<\/p>\n<h2>Tariffazione Token: Qual \u00e8 il Vero Prezzo dell&#8217;Inference nel 2026?<\/h2>\n<p>Ecco dove molti team sbagliano. <strong>Il prezzo pubblicato per milione di token non \u00e8 il prezzo che pagherai<\/strong>.<\/p>\n<p>Facciamo un esempio reale: <strong>GPT-5.4 costa $2.50\/M token input, $10.00\/M token output<\/strong>. Sembra semplice. Ma:<\/p>\n<ul>\n<li><strong>Output token pricing \u00e8 4x input<\/strong>, quindi se la tua app genera tanta risposta quanta prompt riceve, il costo medio \u00e8 $6\/M token, non $2.50.<\/li>\n<li><strong>Reasoning models (o1, o3, DeepSeek-R1)<\/strong> generano 5,000-20,000 &#8220;thinking&#8221; token interni per ogni risposta, tutti fatturati come output. Una query che genera 200 token visibili potrebbe consumare 15,000 token e costare 3-10x pi\u00f9 del prezzo headline.<\/li>\n<li><strong>Cache hits sono cruciali<\/strong>. OpenAI Batch API offre 50% di sconto. Prompt caching riduce input token di 75-90% per query con contesto ripetuto. Un&#8217;azienda che ho visto ha scoperto che applicare caching ha ridotto il costo totale LLM del 60%.<\/li>\n<\/ul>\n<p>A maggio 2026, la tariffazione ha raggiunto un&#8217;sofisticazione che raramente vedevo un anno fa:<\/p>\n<ul>\n<li><strong>Rack rate<\/strong>: Prezzo base senza sconti (per ad-hoc). Non \u00e8 mai il numero giusto per forecast di produzione.<\/li>\n<li><strong>Batch tier<\/strong>: 50% di sconto con SLA 24h. OpenAI, Anthropic, AWS Bedrock offrono questo.<\/li>\n<li><strong>Provisioned throughput (PTU)<\/strong>: Capacit\u00e0 dedicata a tariffa oraria fissa. Azure lo chiama PTU; AWS\/GCP hanno equivalenti. Caro a bassa utilizzazione, conveniente a high-volume stabile.<\/li>\n<li><strong>Fine-tuned model premium<\/strong>: Molti provider caricano 3-6x per modelli fine-tuned.<\/li>\n<li><strong>Context window pricing<\/strong>: Alcuni provider scontano contexti ripetuti o lunghe finestre.<\/li>\n<\/ul>\n<p>Ho aiutato un&#8217;azienda SaaS a migrare il billing LLM su un vendor-neutral cost model. La scoperta: il loro forecast di rack-rate era 5x superiore al costo reale una volta applicate cache, batch e committment. <strong>La precisione terminologica nella tariffazione determina l&#8217;accuratezza del forecast<\/strong>.<\/p>\n<h2>AWS vs GCP vs Azure: La Mappa dei Prezzi Maggio 2026<\/h2>\n<p>Nessun provider &#8220;vince&#8221; globalmente. Ogni eccelle in nicchia:<\/p>\n<h3>AWS (Bedrock + EC2 GPU)<\/h3>\n<p><strong>H100 SXM5 on-demand<\/strong>: ~$4.68\/ora (dopo i tagli giugno 2025, era $8.40). <strong>H100 spot<\/strong>: $0.70-1.40\/ora (volatilit\u00e0 regionale). Bedrock API (GPT-4o via AWS): Markup del 15% sopra OpenAI direct.<\/p>\n<p>Vantaggio AWS: <strong>VM tagging granulare, cost allocation per customer\/feature, integrazione Compute Optimizer per destra-sizing<\/strong>. Ho usato Compute Optimizer per scoprire che un client era sovra-provisioning A100 del 50%. Migrazione a H100 pi\u00f9 leggeri ha salvato $180K\/mese.<\/p>\n<p>Svantaggio: <strong>Egress data (0.09\/GB oltre 100GB\/mese) silenziosamente gonfia i costi di inference<\/strong>. Una pipeline di embedding che processava 500M token\/giorno aveva 5-10% del costo totale in egress fee.<\/p>\n<h3>GCP (Vertex AI + TPU\/GPU)<\/h3>\n<p><strong>H200 on-demand<\/strong>: ~$5.50-6.00\/ora. <strong>TPU v5e (cloud-only)<\/strong>: Pi\u00f9 economico per carichi TensorFlow, ma vendor lock-in.<\/p>\n<p>Vantaggio GCP: <strong>Gemini API \u00e8 aggressivamente sconto ($0.30\/M token per Flash, $1.25\/M per 2.5 Pro)<\/strong>. Il prezzo totale per carico misto (batch + real-time) spesso vince vs AWS\/Azure.<\/p>\n<p>Svantaggio: <strong>Disponibilit\u00e0 GPU regionale \u00e8 variabile<\/strong>. Ho avuto contatti che non riuscivano a trovare H100 disponibili in us-central1 in aprile 2026.<\/p>\n<h3>Azure (OpenAI Service + ML\/Compute)<\/h3>\n<p><strong>Azure OpenAI<\/strong>: Prezzo specchio OpenAI direct, ma con SLA 99.9%, HIPAA\/SOC2 compliance inclusi. <strong>Provisioned Throughput<\/strong> \u00e8 il modello dominante: $600-2,000\/mese per &#8220;capacity units&#8221; dedicate. Rende il costo prevedibile.<\/p>\n<p><strong>H100 on-demand<\/strong>: $98.46\/ora per NC H100 v5. Pi\u00f9 caro di AWS\/GCP on-demand, ma include Hyper-V, Windows Server licensing (rilevante per team legacy).<\/p>\n<p>Vantaggio Azure: <strong>Compliance tight per regulated industries (healthcare, finance). Consolidamento billing enterprise<\/strong>. Ho consigliato Azure per una societ\u00e0 biotech perch\u00e9 HIPAA\/compliance erano pi\u00f9 costi di infrastruttura pura.<\/p>\n<h2>Self-Hosting ROI: Quando Conviene Veramente?<\/h2>\n<p>Nella mia esperienza, <strong>il break-even per self-hosting non \u00e8 a 1B token\/mese come molti credono. \u00c8 pi\u00f9 complesso<\/strong>:<\/p>\n<h3>Model Selection Impact<\/h3>\n<p>Se usi modelli chiusi (GPT-5.4, Claude Opus), il self-hosting non \u00e8 un&#8217;opzione \u2014 non hai i pesi. Sei forzato a API.<\/p>\n<p>Se usi modelli open-weight (Llama 4 70B, DeepSeek V4-Flash, Mistral Large 3), i calcoli cambiano radicalmente:<\/p>\n<ul>\n<li><strong>Costo H100 spot<\/strong>: $0.80\/ora (neo-cloud provider, buona disponibilit\u00e0).<\/li>\n<li><strong>Throughput Llama 4 70B<\/strong>: 100-150 token\/sec su H100 (varia per setup vLLM vs SGLang vs TensorRT-LLM).<\/li>\n<li><strong>Costo per milione di token computati<\/strong>: ($0.80 * 3,600sec\/ora) \/ (125 token\/sec * 1M) = ~$0.023\/M token di compute puro.<\/li>\n<li><strong>Ma<\/strong>: Engineering time (DevOps, MLOps, monitoring) = 20-30% FTE senior = $3,000-6,000\/mese. Observability = $200-500\/mese. Storage = $500-2,000\/mese.<\/li>\n<\/ul>\n<p>Totale TCO: <strong>~$2,000-3,000 compute + $3,500 labor + $500 ops = ~$6,000\/mese<\/strong> per cluster H100 singolo. Questo serve 500-1,000M token\/mese con buona utilizzazione.<\/p>\n<p>Se usi API (DeepSeek V3.2 a $0.14\/M + $0.28\/M): 500M = $210\/giorno = $6,300\/mese. Simile. Ma API ha zero maintenance, versioning automatico, fallback multi-model.<\/p>\n<p><strong>Break-even reale per self-hosting: 3-5B token\/mese, non 1B<\/strong>. Inoltre:<\/p>\n<ul>\n<li><strong>Code workloads (more value-per-token)<\/strong>: Break-even a 600M token\/mese.<\/li>\n<li><strong>Chat workloads (lower value-per-token)<\/strong>: Break-even a 1.2B token\/mese.<\/li>\n<li><strong>Regulated industries<\/strong>: Self-hosting pu\u00f2 essere mandatorio (data sovereignty), quindi ROI non \u00e8 il driver.<\/li>\n<\/ul>\n<p>Ho aiutato un&#8217;azienda FinTech a decidere: loro processano 2B token\/mese stably. Self-hosting H100 cluser (4x GPU) costa ~$40K\/mese. API (GPT-5.4 + batch) costerebbe ~$45K. <strong>Self-hosting vince di $5K\/mese, ma la complessit\u00e0 operativa \u00e8 seria<\/strong>. Hanno scelto API + Bedrock provisioned throughput per prevedibilit\u00e0, anche se leggermente pi\u00f9 caro.<\/p>\n<h2>Mistral vs DeepSeek: Economics Comparative<\/h2>\n<p>Due modelli open-weight dominano il 2026:<\/p>\n<p><strong>DeepSeek V4 (MoE 1.6T params, 49B active)<\/strong>: <strong>API pricing $0.14\/M input, $0.28\/M output<\/strong>. Questo \u00e8 devastante per competitor. Ho calcolato: per una soluzione che generi 2M output token\/giorno, DeepSeek costa $16.80\/giorno vs OpenAI $60+\/giorno. <strong>Con 250 giorni di attivit\u00e0\/anno, risparmi $10,920 annui per utente medio<\/strong>.<\/p>\n<p>DeepSeek V4-Flash (284B total, 13B active): Ancora pi\u00f9 economico a $0.06\/M input. Per inferenza lightweight, \u00e8 imbattibile.<\/p>\n<p><strong>Mistral Large 3 (675B)<\/strong>: $0.40\/M input, $2.00\/M output. Pi\u00f9 caro di DeepSeek, ma ottimizzato per ingegneria (SWE-bench 72%, HumanEval 94%). Se qualit\u00e0 output \u00e8 cr\u00edtica (codegen), Mistral spesso vale il premium.<\/p>\n<p>Strategia pratica: Segmenta. <strong>Chat routine su DeepSeek. Code generation su Mistral o DeepSeek R1 (con thinking budget controllato per non far esplodere token)<\/strong>.<\/p>\n<h2>Strategie di Cost Optimization che Implemento Nel 2026<\/h2>\n<h3>1. Prompt Caching (First Priority)<\/h3>\n<p>OpenAI, Anthropic, Google offrono ora caching semantico. <strong>Se hai contesto ripetuto (RAG con stessi documenti, agent loops, long-context Q&amp;A), il caching riduce input token di 75-90%<\/strong>.<\/p>\n<p>Un cliente che processava documenti ricorrenti ha ottenuto: primo accesso = 1M token = $3. Accessi successivi (hit cache) = 0.1M token = $0.30. <strong>10x saving dopo primo hit<\/strong>.<\/p>\n<h3>2. Model Routing (Complexity-Based)<\/h3>\n<p>Non ogni query merda GPT-5.4 ($2.50\/M). Classificazione semplice va benissimo su DeepSeek Flash ($0.06\/M). Routing intelligente pu\u00f2 ridurre costi 50-70%.<\/p>\n<p>Ho implementato un layer di routing con classifier semplice (Mistral 7B): 80% query \u2192 DeepSeek Flash, 15% \u2192 DeepSeek V4, 5% \u2192 OpenAI GPT-5.4. <strong>Costo medio: $0.25\/M token, vs $1.50 se fosse tutto on flagship model<\/strong>.<\/p>\n<h3>3. Quantization per Self-Hosted<\/h3>\n<p>Se self-hosting: FP8 (riduce memoria 50% vs FP16) \u00e8 nativo su H100\/H200. INT4 (GPTQ\/AWQ) riduce di altri 50%. <strong>Un modello 70B FP16 (140GB memoria) diventa 35GB in INT4, fit singolo H100 con spazio<\/strong>. Qualit\u00e0 degradation \u00e8 task-dependent ma entro bounds per production inference.<\/p>\n<h3>4. Batch API per Non-Real-Time<\/h3>\n<p>OpenAI Batch API \u00e8 sconto 50%. Anthropic ha equivalente. Se tolleri 24h latency (analytics, reportistica, bulk processing), batch \u00e8 no-brainer. <strong>Un&#8217;azienda che processava 100M token\/giorno di batch jobs ha economizzato $9K\/mese switchando a batch tier<\/strong>.<\/p>\n<h3>5. Reserved Instances + Multi-Provider Hedging<\/h3>\n<p>Se prevedibile workload: 1-year reserved instances su H100 riducono di 30-40% vs on-demand. 3-year reducono 50-60%.<\/p>\n<p>Ma <strong>non mettere tutto su un provider<\/strong>. Ho visto team bloccarsi quando GCP ha avuto outage regionale. Io uso: 70% workload su provider primario (cost-optimized), 30% hedge su secondary provider (fallback insurance).<\/p>\n<h2>FAQ<\/h2>\n<h3>Dovrei migrare a DeepSeek per il costo?<\/h3>\n<p>Dipende dal workload. DeepSeek \u00e8 eccellente per reasoning, code, chat multi-turn. Se usi GPT-5.4 per feature mission-critical dove qualit\u00e0 \u00e8 revenue-driver, il test A\/B prima di migrazione \u00e8 critico. Ho visto team risparmiare 50% switching to DeepSeek con zero quality loss su chat. Ho visto altri con calo di 15% conversion rate perch\u00e9 DeepSeek dava risposte leggermente meno polished. Test su sample di utenti reali, non su benchmark.<\/p>\n<h3>Self-hosting vs API: Cosa dovrei scegliere?<\/h3>\n<p>API se: volume &lt;3B token\/mese, compliance non proibisce cloud, vuoi zero infrastructure burden. Self-hosting se: volume &gt;5B token\/mese, data sovereignty critica, vuoi fine-tuning\/distillation custom. Hybrid (API fallback + self-hosted core) \u00e8 pragmatico per molti.<\/p>\n<h3>H100 vs H200 vs Blackwell per rental?<\/h3>\n<p>Maggio 2026: H100 spot \u00e8 ancora il migliore cost\/token grazie alla competizione neo-cloud. H200 (141GB HBM3e) \u00e8 overkill per inference, valido per training. Blackwell (B200\/GB200) \u00e8 nuovo e costoso; aspetta Q3 2026 per stabilizzare prezzo. Se scegli oggi: H100 spot se budget-driven, H200 se memory-bound per inference, Blackwell se vuoi architettura futura-proof.<\/p>\n<h3>Come faccio a prevedere il costo LLM?<\/h3>\n<p>Traccia: (1) costo per token (input\/output separati, non rack rate), (2) cache hit rate (dovrebbe essere 40-70% per app produttiva), (3) modello per use case (semplice vs complesso), (4) egress data (spesso ignorato), (5) hidden overhead (request retry, timeout). Una singola metrica che consiglio: costo per task completato (non per token). Se task = rispondere a domanda utente, misura costo totale (tutti i retry, tutta la reasoning, egress) diviso numero task success. Questo \u00e8 il numero che executive care.<\/p>\n<h3>Quali modelli open-weight raccomandi per production?<\/h3>\n<p>Maggio 2026: Llama 4 Scout (17B active, 109B total, context 10M token), DeepSeek V4-Flash (13B active per costo, V4-Pro per reasoning), Mistral Large 3 (codegen), Qwen 3.5 (multilingual). Testa benchmark vs reale workload. Benchmark gaming \u00e8 reale \u2014 modelli ottimizzati per MMLU\/SWE-bench sottoperformano su attivit\u00e0 industriali.<\/p>\n<h2>Conclusione: Il Nuovo Paradigma dei Costi AI nel 2026<\/h2>\n<p><strong>Due anni fa, il costo LLM era driven da GPU price. Oggi \u00e8 driven da energia, HBM supply chain, e tariffazione sofisticata.<\/strong><\/p>\n<p>Nel maggio 2026, il vincitore economico non \u00e8 il provider pi\u00f9 economico, ma <strong>chi sa segmentare il workload, applicare caching, scegliere il modello right-fit per task, e bilanciare API vs self-hosted per volume<\/strong>. Ho visto team risparmiare 60% non cambiando provider, ma cambiando architettura inference (caching + routing + batch).<\/p>\n<p><strong>Il mio consiglio per chi pianifica AI infrastructure oggi:<\/strong><\/p>\n<ol>\n<li>Misura il vostro attuale cost per task completato (non token). Iniziate da l\u00ec.<\/li>\n<li>Applicate prompt caching se non lo fate. \u00c8 la leva pi\u00f9 semplice.<\/li>\n<li>Implementate router di modello \u2014 5 giorni di engineering, 30-50% costo saving.<\/li>\n<li>Per workload stabile &gt;5B token\/mese, evaluate self-hosting + open-weight vs API. TCO non \u00e8 ovvio senza calcolo specifico.<\/li>\n<li>Hedge su multi-provider. Un outage provider = revenue loss non quantificata.<\/li>\n<\/ol>\n<p>La crisi energetica far\u00e0 probabilmente salire i prezzi raw computation a fine 2026 una volta esaurite le opzioni di efficienza. <strong>Optimizzate ora<\/strong>. Nei miei deployments, il 30% dei costi \u00e8 pure waste (retry, misconfiguration, caching perso). Ogni punto percentuale di ottimizzazione oggi vi protegge da price increases domani.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>GPU scarsit\u00e0, crisi energetica data center e tariffazione token complessa stanno ridefinendo il costo dell&#8217;inference LLM nel 2026. Guida completa con dati maggio 2026, comparazione AWS\/GCP\/Azure e strategie concrete di ottimizzazione.<\/p>\n","protected":false},"author":1,"featured_media":1884,"comment_status":"","ping_status":"","sticky":false,"template":"","format":"standard","meta":{"_seopress_robots_primary_cat":"","_seopress_titles_title":"Costi Cloud AI 2026: GPU Scarsit\u00e0 e Tariffazione Token \u2014 Guida Completa","_seopress_titles_desc":"Analisi approfondita dei costi AI nel 2026: GPU scarsit\u00e0, energia data center, tariffazione token. Comparazione AWS\/GCP\/Azure, self-hosting ROI, Mistral vs DeepSeek. Strategie di ottimizzazione concrete.","_seopress_robots_index":"","footnotes":""},"categories":[3],"tags":[671,670,674,309,569,673,672,675],"class_list":["post-1883","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-hosting","tag-ai-infrastructure","tag-cloud-cost-optimization","tag-data-center-energy","tag-deepseek","tag-finops","tag-gpu-pricing","tag-llm-inference","tag-self-hosted-ai"],"_links":{"self":[{"href":"https:\/\/darioiannascoli.it\/blog\/wp-json\/wp\/v2\/posts\/1883","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/darioiannascoli.it\/blog\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/darioiannascoli.it\/blog\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/darioiannascoli.it\/blog\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/darioiannascoli.it\/blog\/wp-json\/wp\/v2\/comments?post=1883"}],"version-history":[{"count":0,"href":"https:\/\/darioiannascoli.it\/blog\/wp-json\/wp\/v2\/posts\/1883\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/darioiannascoli.it\/blog\/wp-json\/wp\/v2\/media\/1884"}],"wp:attachment":[{"href":"https:\/\/darioiannascoli.it\/blog\/wp-json\/wp\/v2\/media?parent=1883"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/darioiannascoli.it\/blog\/wp-json\/wp\/v2\/categories?post=1883"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/darioiannascoli.it\/blog\/wp-json\/wp\/v2\/tags?post=1883"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}