{"id":1526,"date":"2026-03-14T11:06:56","date_gmt":"2026-03-14T10:06:56","guid":{"rendered":"https:\/\/darioiannascoli.it\/blog\/infrastrutture-cloud-multi-region-ai-workloads-latenza-data-residency-governance-2026\/"},"modified":"2026-03-14T11:06:56","modified_gmt":"2026-03-14T10:06:56","slug":"infrastrutture-cloud-multi-region-ai-workloads-latenza-data-residency-governance-2026","status":"publish","type":"post","link":"https:\/\/darioiannascoli.it\/blog\/infrastrutture-cloud-multi-region-ai-workloads-latenza-data-residency-governance-2026\/","title":{"rendered":"Come Progetto Infrastrutture Cloud Multi-Region per AI Workloads nel 2026: Latenza Bassa, Data Residency e Governance Distribuita \u2014 La Mia Guida alle Architetture Moderne"},"content":{"rendered":"<p>Se c&#8217;\u00e8 un tema che nel 2026 sta ridisegnando completamente il modo in cui progettiamo le infrastrutture cloud, \u00e8 la convergenza tra <strong>AI workloads<\/strong>, <strong>data residency<\/strong> e <strong>governance distribuita<\/strong>. Nella mia esperienza quotidiana di system administrator, ho visto aziende passare in pochi mesi da un singolo server dedicato a architetture multi-region con GPU clusters distribuite su tre continenti. Il motivo? I modelli AI richiedono inferenza a bassa latenza vicino agli utenti, ma le normative impongono che i dati restino dentro confini nazionali ben definiti.<\/p>\n<p>Il mercato cloud globale nel 2026 vale circa <strong>331 miliardi di dollari<\/strong>, con una crescita annua del 12% trainata proprio dagli AI workloads e dall&#8217;adozione di architetture hybrid cloud. Ho deciso di scrivere questa guida perch\u00e9 vedo sempre pi\u00f9 colleghi \u2014 sysadmin, DevOps engineer, CTO di PMI \u2014 trovarsi impreparati di fronte a decisioni architetturali che fino a due anni fa non esistevano nemmeno. Vediamo insieme come affrontarle.<\/p>\n<p>Se vi occupate di <em>edge computing<\/em> e modelli locali, ho gi\u00e0 trattato le basi nell&#8217;articolo su <a href=\"https:\/\/darioiannascoli.it\/blog\/infrastrutture-ai-ready-hosting-2026-edge-computing-hybrid-cloud-mini-cloud-modelli-locali\/\">infrastrutture AI-Ready per hosting nel 2026<\/a>, che vi consiglio di leggere come complemento a questa guida.<\/p>\n<h2>Perch\u00e9 le Infrastrutture Cloud Multi-Region Sono Essenziali per gli AI Workloads<\/h2>\n<p>L&#8217;inferenza AI non \u00e8 come servire una pagina web statica. Richiede <strong>latenza prevedibile<\/strong>, accesso a GPU dedicate e una pipeline dati che non introduca colli di bottiglia. La distanza fisica tra l&#8217;utente e il data center dove gira il modello \u00e8 il fattore determinante: pi\u00f9 la distanza aumenta, pi\u00f9 il tempo di risposta si degrada a causa degli hop di rete e dell&#8217;amplificazione del segnale lungo la fibra ottica.<\/p>\n<p>Nella pratica, questo significa che se ho utenti in Europa e il mio modello LLM gira su un cluster GPU in Virginia, sto aggiungendo decine di millisecondi che per applicazioni real-time \u2014 chatbot conversazionali, trading algoritmico, AI agents autonomi \u2014 sono inaccettabili. Le architetture multi-region risolvono il problema posizionando le <em>inference zone<\/em> nelle aree metropolitane dove si concentrano gli utenti e le interconnessioni cloud.<\/p>\n<p>Ho configurato personalmente ambienti dove il deploy multi-region ha ridotto la latenza di inferenza del 30-40% semplicemente avvicinando il compute agli utenti finali. In particolare, i provider come Akamai stanno costruendo piattaforme di <strong>Inference Cloud<\/strong> distribuite all&#8217;edge, che instradano le richieste verso la region GPU pi\u00f9 vicina automaticamente.<\/p>\n<h2>Data Residency nel 2026: Non \u00c8 Pi\u00f9 Solo Compliance<\/h2>\n<p>Parliamoci chiaro: la <strong>data residency<\/strong> nel 2026 non \u00e8 pi\u00f9 un semplice checkbox da spuntare per la conformit\u00e0 normativa. \u00c8 diventata una questione di <em>gestione strategica del rischio<\/em>. Con l&#8217;AI generativa, ogni interazione con un modello produce nuovi dati \u2014 prompt, completamenti, embedding, log, memoria contestuale \u2014 e ognuno di questi elementi pu\u00f2 contenere informazioni sensibili che ricadono sotto normative diverse a seconda della giurisdizione.<\/p>\n<p>Secondo Gartner, le richieste relative alla <strong>cloud sovereignty<\/strong> e alla <em>geopatriation<\/em> sono cresciute del 305% nella prima met\u00e0 del 2025. Lo stesso Gartner ha introdotto la geopatriation tra i <em>Top Strategic Technology Trends for 2026<\/em>, segnalando un cambio di paradigma: le aziende stanno riportando i dati nelle giurisdizioni di origine, invertendo il trend del &#8220;tutto nel cloud globale&#8221;.<\/p>\n<p>In Europa, il <strong>GDPR<\/strong> impone regole stringenti sui trasferimenti transfrontalieri, mentre l&#8217;<strong>EU AI Act<\/strong> \u2014 che entrer\u00e0 pienamente in vigore ad agosto 2026 \u2014 introduce requisiti di trasparenza e risk assessment specifici per i sistemi AI ad alto rischio. In Cina il PIPL richiede la conservazione locale dei dati personali, in India si stanno definendo framework di governance AI region-specific. Il risultato? Se ogni giurisdizione richiede storage locale, rischiamo la frammentazione dell&#8217;infrastruttura AI in zone isolate, con duplicazione, problemi di versioning e costi di compliance crescenti.<\/p>\n<p>Per chi gestisce server in Europa con Plesk, ho trattato gli aspetti di compliance nella guida alla <a href=\"https:\/\/darioiannascoli.it\/blog\/plesk-conforme-direttiva-nis2-logging-action-log-autenticazione-checklist\/\">conformit\u00e0 NIS2 su Plesk<\/a>.<\/p>\n<h2>AWS European Sovereign Cloud: Il Caso Concreto<\/h2>\n<p>Il 15 gennaio 2026, AWS ha lanciato in <em>general availability<\/em> l&#8217;<strong>AWS European Sovereign Cloud (ESC)<\/strong>, un&#8217;infrastruttura cloud fisicamente e logicamente separata da tutte le altre region AWS globali. Si tratta della prima region in un nuovo <em>partition<\/em> AWS \u2014 come GovCloud o China \u2014 interamente localizzata nell&#8217;UE, nel Brandeburgo (Germania), con un investimento di 7,8 miliardi di euro previsti fino al 2040.<\/p>\n<p>Vi racconto cosa mi ha colpito di pi\u00f9 dal punto di vista tecnico:<\/p>\n<ul>\n<li><strong>Isolamento totale<\/strong>: l&#8217;ESC ha piani di controllo, billing e IAM completamente indipendenti. Un ingegnere AWS basato negli USA non pu\u00f2 nemmeno vedere cosa succede nell&#8217;ESC<\/li>\n<li><strong>Gestione europea<\/strong>: operata esclusivamente da residenti UE, con l&#8217;obiettivo di passare a soli cittadini UE. Governance tramite una GmbH tedesca con advisory board di cittadini europei<\/li>\n<li><strong>90+ servizi al lancio<\/strong>: inclusi compute, AI, database, networking, security e storage \u2014 molto pi\u00f9 di un normale lancio di region<\/li>\n<li><strong>Crittografia sovrana<\/strong>: integrazione con AWS KMS e CloudHSM locali, possibilit\u00e0 di usare chiavi proprie<\/li>\n<\/ul>\n<p>All&#8217;inizio ero scettico sulla reale separazione, ma i test indipendenti hanno confermato l&#8217;isolamento tecnico. Resta la questione del <em>CLOUD Act<\/em>: AWS, come azienda americana, rimane soggetta alla giurisdizione USA. Ma le protezioni tecniche \u2014 specialmente la crittografia con chiavi gestite dal cliente \u2014 rendono i dati di fatto inaccessibili senza le chiavi corrette, anche in caso di richieste legali.<\/p>\n<p>Contemporaneamente, Microsoft ha confermato che la sua region <strong>Azure Saudi Arabia East<\/strong> sar\u00e0 operativa dal Q4 2026, con tre availability zone indipendenti progettate per garantire bassa latenza, data residency e alta disponibilit\u00e0 per workloads AI mission-critical nel Medio Oriente.<\/p>\n<h2>Architettura Multi-Region per AI: Come la Progetto nella Pratica<\/h2>\n<p>Vediamo la struttura che ho utilizzato in un progetto recente per un&#8217;azienda con utenti distribuiti tra Europa, Medio Oriente e Asia. L&#8217;obiettivo era servire inferenza da modelli LLM con latenza sotto i 100ms e conformit\u00e0 normativa in tutte e tre le regioni.<\/p>\n<h3>1. Scelta delle Region e Availability Zone<\/h3>\n<p>Il primo passo \u00e8 mappare dove sono gli utenti e quali normative si applicano. Ho creato una matrice con tre colonne: <em>region geografica<\/em>, <em>normativa data residency applicabile<\/em>, <em>provider cloud con region disponibile<\/em>. Per l&#8217;Europa ho scelto l&#8217;AWS European Sovereign Cloud nel Brandeburgo; per il Medio Oriente, Azure con la region Saudi Arabia East; per l&#8217;Asia, una combinazione GCP Singapore + AWS Mumbai.<\/p>\n<h3>2. Deploy Distribuito dei Modelli AI<\/h3>\n<p>Il modello non deve necessariamente essere lo stesso ovunque. Ho utilizzato <strong>Small Language Model<\/strong> specializzati nelle region con requisiti di latenza pi\u00f9 stringenti \u2014 come ho descritto nella guida ai <a href=\"https:\/\/darioiannascoli.it\/blog\/modelli-ai-open-source-small-language-model-deepseek-granite-ollama-2026\/\">modelli AI open source pi\u00f9 piccoli con DeepSeek, Granite e Ollama<\/a> \u2014 riservando i modelli pi\u00f9 grandi per le region con pi\u00f9 capacit\u00e0 GPU.<\/p>\n<h3>3. Routing Intelligente e Global Namespace<\/h3>\n<p>Per la gestione dei dati distribuiti, ho implementato un layer di <em>global namespace<\/em> che astrae la posizione fisica dei dati e consente accesso consistente indipendentemente dalla region. Questo approccio, combinato con un <strong>reverse proxy<\/strong> che instrada le richieste alla region GPU pi\u00f9 vicina, \u00e8 fondamentale per mantenere la latenza prevedibile. Se vi serve una base su Nginx come reverse proxy, trovate la mia guida su <a href=\"https:\/\/darioiannascoli.it\/blog\/reverse-proxy-nginx-piu-siti-server\/\">come configurare un reverse proxy Nginx<\/a>.<\/p>\n<h3>4. Governance e Policy Enforcement Cross-Region<\/h3>\n<p>Ecco il punto dove all&#8217;inizio ho fatto pi\u00f9 fatica. La governance multi-region non si risolve con un firewall e un po&#8217; di logging. Servono:<\/p>\n<ul>\n<li><strong>Policy-as-Code<\/strong>: regole di data residency codificate nei template IaC (Terraform, CloudFormation) che impediscono il deploy di risorse fuori dalla region autorizzata<\/li>\n<li><strong>Classificazione dei workloads<\/strong>: tier 1 (dati regolamentati, solo region sovrana), tier 2 (dati sensibili, region con compliance), tier 3 (dati non sensibili, qualsiasi region)<\/li>\n<li><strong>Audit trail distribuito<\/strong>: logging centralizzato che rispetti per\u00f2 la data residency \u2014 i log dei workloads europei restano in Europa<\/li>\n<li><strong>Crittografia end-to-end con chiavi locali<\/strong>: ogni region ha il proprio KMS con chiavi gestite dal cliente<\/li>\n<\/ul>\n<p>Per approfondire la governance degli AI agents in contesto aziendale, vi rimando alla mia guida su <a href=\"https:\/\/darioiannascoli.it\/blog\/governance-ai-agents-azienda-sicurezza-compliance-human-in-the-loop-2026\/\">governance AI Agents, compliance e human-in-the-loop<\/a>.<\/p>\n<h2>Latenza Bassa per AI Inference: Le Tecnologie Chiave del 2026<\/h2>\n<p>Nel 2026, la sfida della bassa latenza per l&#8217;inferenza AI non si vince solo con GPU pi\u00f9 veloci. \u00c8 una questione di ottimizzazione dell&#8217;intero stack:<\/p>\n<ul>\n<li><strong>GPU H200 con memoria HBM3e<\/strong>: 4.8 TB\/s di bandwidth, fondamentali per le operazioni memory-bound dell&#8217;inferenza token-by-token<\/li>\n<li><strong>Bare metal vs virtualizzazione<\/strong>: le architetture bare metal eliminano il jitter dell&#8217;hypervisor, ottenendo un vantaggio del 30-40% in velocit\u00e0 e soprattutto latenza P99 deterministico rispetto alle VM virtualizzate<\/li>\n<li><strong>TensorRT-LLM con CUDA Graphs<\/strong>: elimina l&#8217;overhead di lancio dei kernel a ogni step, catturando l&#8217;intera sequenza come grafo singolo<\/li>\n<li><strong>Speculative Decoding<\/strong>: un draft model piccolo (es. Llama 3 8B) ipotizza i prossimi token che vengono verificati in parallelo dal modello principale, potenzialmente raddoppiando il token rate<\/li>\n<li><strong>Edge inference<\/strong>: piattaforme come Akamai Inference Cloud portano il compute GPU all&#8217;edge, vicino agli utenti<\/li>\n<\/ul>\n<p>Un aspetto che spesso viene sottovalutato \u00e8 il <strong>Context Memory Storage (CMX)<\/strong>: con AI agents che mantengono sessioni lunghe e multi-turn, la KV-cache pu\u00f2 eccedere la memoria GPU disponibile. Soluzioni hardware come NVMe SSD ottimizzate per pattern di accesso ad alta IOPS stanno emergendo come layer critico per mantenere bassa la latenza anche con contesti enormi.<\/p>\n<h2>Sovereign Cloud e Digital Sovereignty: Lo Scenario Europeo<\/h2>\n<p>La <strong>digital sovereignty<\/strong> nel 2026 si articola su tre pilastri interconnessi: <em>data sovereignty<\/em> (controllo su dove risiedono i dati), <em>infrastructure sovereignty<\/em> (controllo fisico sulle risorse di calcolo) e <em>technology sovereignty<\/em> (capacit\u00e0 di sviluppo indipendente). Non si tratta solo di compliance \u2014 \u00e8 diventato un <strong>vantaggio competitivo<\/strong>.<\/p>\n<p>Ma attenzione: come ho imparato sulla mia pelle, la sola geografia non crea sovranit\u00e0. Un data center sovrano pu\u00f2 comunque eseguire un ambiente destrutturato, con configurazioni che derivano e licensing fuori controllo. Servono layer di governance operativa sopra le piattaforme \u2014 non basta spostare i dati in un rack europeo.<\/p>\n<p>L&#8217;EU AI Act impone ai sistemi AI ad alto rischio di dimostrare controllo sui dati di training, sul deploy del modello e sulla governance del sistema. Questo ha implicazioni dirette per chi gestisce infrastrutture: bisogna essere in grado di identificare e classificare i workloads, documentare come sono isolati e monitorati, e spiegare i controlli che governano i flussi di dati.<\/p>\n<p>Chi si occupa di sicurezza server trover\u00e0 utile anche la mia guida su come <a href=\"https:\/\/darioiannascoli.it\/blog\/prevenire-ransomware-malware-ai-agents-defensive-security-threat-monitoring-detection-2026\/\">prevenire ransomware e malware con AI Agents<\/a>, che copre il monitoraggio autonomo delle minacce su infrastrutture distribuite.<\/p>\n<h2>Strumenti e Provider per il Deploy Multi-Region di AI Workloads<\/h2>\n<p>Nella mia esperienza, questi sono i provider e gli strumenti che ho trovato pi\u00f9 efficaci nel 2026 per architetture cloud multi-region con AI workloads:<\/p>\n<ul>\n<li><strong>AWS European Sovereign Cloud<\/strong>: la scelta pi\u00f9 completa per workloads regolamentati in Europa, con 90+ servizi e isolamento totale<\/li>\n<li><strong>Azure con Azure Arc<\/strong>: permette di estendere i servizi Azure AI su infrastrutture on-prem o altri cloud, ideale per approcci hybrid<\/li>\n<li><strong>Google Distributed Cloud (GDC)<\/strong>: soluzione chiavi in mano per AI workloads on-prem ed edge<\/li>\n<li><strong>Northflank<\/strong>: piattaforma full-stack per deploy AI multi-cloud con supporto GPU nativo su 600+ region BYOC<\/li>\n<li><strong>Terraform + Policy-as-Code<\/strong>: per garantire che i deploy rispettino i vincoli di data residency automaticamente<\/li>\n<\/ul>\n<p>Per il backup dei dati distribuiti, ho dettagliato la configurazione nella guida ai <a href=\"https:\/\/darioiannascoli.it\/blog\/backup-automatici-plesk-s3-compatible-incrementali-retention-restore-wordpress\/\">backup automatici su Plesk con destinazione S3-compatible<\/a>, che \u00e8 direttamente applicabile anche a scenari multi-region.<\/p>\n<h2>Checklist Pratica: Progettare un&#8217;Architettura Cloud Multi-Region per AI<\/h2>\n<ol>\n<li>Mappare la distribuzione geografica degli utenti e i requisiti di latenza per ogni use case AI<\/li>\n<li>Identificare le normative di data residency applicabili per ogni regione (GDPR, PIPL, leggi locali)<\/li>\n<li>Scegliere i provider cloud con region e availability zone conformi<\/li>\n<li>Classificare i workloads in tier di sensibilit\u00e0 (regolamentato, sensibile, generale)<\/li>\n<li>Implementare Policy-as-Code per vincolare i deploy alle region autorizzate<\/li>\n<li>Configurare crittografia end-to-end con KMS locali e chiavi gestite dal cliente<\/li>\n<li>Deploy distribuito dei modelli AI con SLM dove serve bassa latenza e modelli grandi dove c&#8217;\u00e8 capacit\u00e0 GPU<\/li>\n<li>Implementare routing intelligente che instrada le richieste alla region GPU pi\u00f9 vicina<\/li>\n<li>Configurare audit trail distribuito che rispetti la data residency<\/li>\n<li>Testare la latenza end-to-end e validare la conformit\u00e0 prima del go-live<\/li>\n<\/ol>\n<h2>FAQ<\/h2>\n<h3>Qual \u00e8 la differenza tra data residency e data sovereignty?<\/h3>\n<p>La <strong>data residency<\/strong> riguarda <em>dove<\/em> i dati risiedono fisicamente \u2014 in quale data center e in quale paese. La <strong>data sovereignty<\/strong> \u00e8 un concetto pi\u00f9 ampio che include anche chi ha accesso ai dati, sotto quale giurisdizione legale ricadono, e chi controlla le chiavi di crittografia. Nel contesto AI, la sovereignty si estende anche a prompt, log di inferenza, embedding e memoria contestuale generati dalle interazioni con i modelli.<\/p>\n<h3>AWS European Sovereign Cloud protegge davvero dal CLOUD Act americano?<\/h3>\n<p>L&#8217;AWS European Sovereign Cloud offre isolamento tecnico e operativo significativo: infrastruttura separata, personale esclusivamente UE, governance tramite entit\u00e0 giuridiche tedesche. Tuttavia, essendo AWS un&#8217;azienda americana, resta teoricamente soggetta al CLOUD Act. La protezione pi\u00f9 efficace \u00e8 l&#8217;uso della crittografia con chiavi gestite esclusivamente dal cliente (Customer Managed Keys): senza le chiavi di decrittazione, i dati restano inaccessibili anche in caso di richieste legali.<\/p>\n<h3>Come riduco la latenza di inferenza AI in un&#8217;architettura multi-region?<\/h3>\n<p>Le strategie principali sono: posizionare i modelli AI vicino agli utenti finali nelle <em>inference zone<\/em>; utilizzare architetture bare metal invece di VM virtualizzate per eliminare il jitter dell&#8217;hypervisor; adottare ottimizzazioni software come TensorRT-LLM e speculative decoding; implementare routing intelligente che instrada automaticamente le richieste alla region GPU con latenza pi\u00f9 bassa; e considerare Small Language Model per le region dove servono risposte ultra-rapide.<\/p>\n<h3>Quanto costa un&#8217;infrastruttura cloud multi-region per AI rispetto a una singola region?<\/h3>\n<p>I costi aumentano significativamente: bisogna pagare GPU in pi\u00f9 region, i trasferimenti dati cross-region hanno costi di egress, e le sovereign cloud applicano un <em>sovereignty premium<\/em>. Tuttavia, il risparmio arriva dalla riduzione della latenza (che impatta direttamente sulla UX e sul business), dall&#8217;evitare sanzioni per non conformit\u00e0 normativa, e dall&#8217;ottimizzazione dei workloads con modelli pi\u00f9 piccoli nelle region periferiche. Il mio consiglio: partire con due region e scalare gradualmente.<\/p>\n<h3>L&#8217;EU AI Act impone requisiti specifici per le infrastrutture cloud?<\/h3>\n<p>L&#8217;EU AI Act, che entrer\u00e0 pienamente in vigore ad agosto 2026, non impone requisiti diretti sulle infrastrutture cloud, ma richiede ai sistemi AI ad alto rischio di dimostrare trasparenza, risk assessment e governance del modello. Per le infrastrutture questo si traduce nell&#8217;obbligo di identificare e classificare i workloads AI, documentare l&#8217;isolamento e il monitoraggio, e mantenere controlli verificabili sui flussi di dati \u2014 il che rende essenziale un&#8217;architettura cloud con governance distribuita.<\/p>\n<h2>Conclusione<\/h2>\n<p>Le <strong>infrastrutture cloud multi-region per AI workloads<\/strong> nel 2026 non sono pi\u00f9 un lusso da enterprise \u2014 sono una necessit\u00e0 per chiunque serva utenti in pi\u00f9 giurisdizioni con applicazioni AI che richiedono bassa latenza e conformit\u00e0 normativa. Tra l&#8217;AWS European Sovereign Cloud, le nuove region Azure in Medio Oriente, e l&#8217;esplosione della domanda di <em>data residency<\/em> e <em>governance distribuita<\/em>, il panorama \u00e8 cambiato radicalmente.<\/p>\n<p>Il mio consiglio pratico? Non aspettate di essere obbligati dalla compliance. Iniziate oggi a classificare i vostri workloads, identificare le region necessarie, e implementare Policy-as-Code per la data residency. La migrazione a un&#8217;architettura multi-region \u00e8 un processo graduale, ma le fondamenta vanno poste adesso.<\/p>\n<p>Se avete domande o volete condividere la vostra esperienza con architetture multi-region per AI, lasciate un commento qui sotto \u2014 sono sempre curioso di sapere come altri colleghi stanno affrontando queste sfide.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Guida completa alle infrastrutture cloud multi-region per AI workloads 2026: latenza bassa, data residency, sovereign cloud e governance distribuita.<\/p>\n","protected":false},"author":1,"featured_media":1527,"comment_status":"","ping_status":"","sticky":false,"template":"","format":"standard","meta":{"_seopress_robots_primary_cat":"","_seopress_titles_title":"Cloud Multi-Region AI Workloads 2026: Latenza e Governance","_seopress_titles_desc":"Come progettare infrastrutture cloud multi-region per AI nel 2026: bassa latenza, data residency, AWS Sovereign Cloud e governance distribuita. Guida pratica.","_seopress_robots_index":"","footnotes":""},"categories":[3],"tags":[436,435,437,439,440,438],"class_list":["post-1526","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-hosting","tag-ai-workloads","tag-cloud-multi-region","tag-data-residency","tag-governance-distribuita","tag-inferenza-ai","tag-sovereign-cloud"],"_links":{"self":[{"href":"https:\/\/darioiannascoli.it\/blog\/wp-json\/wp\/v2\/posts\/1526","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/darioiannascoli.it\/blog\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/darioiannascoli.it\/blog\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/darioiannascoli.it\/blog\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/darioiannascoli.it\/blog\/wp-json\/wp\/v2\/comments?post=1526"}],"version-history":[{"count":0,"href":"https:\/\/darioiannascoli.it\/blog\/wp-json\/wp\/v2\/posts\/1526\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/darioiannascoli.it\/blog\/wp-json\/wp\/v2\/media\/1527"}],"wp:attachment":[{"href":"https:\/\/darioiannascoli.it\/blog\/wp-json\/wp\/v2\/media?parent=1526"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/darioiannascoli.it\/blog\/wp-json\/wp\/v2\/categories?post=1526"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/darioiannascoli.it\/blog\/wp-json\/wp\/v2\/tags?post=1526"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}