{"id":1551,"date":"2026-03-18T19:08:12","date_gmt":"2026-03-18T18:08:12","guid":{"rendered":"https:\/\/darioiannascoli.it\/blog\/agentic-ai-governance-2026-framework-compliance-ethical-constraints-human-in-the-loop-produzione\/"},"modified":"2026-03-18T19:08:12","modified_gmt":"2026-03-18T18:08:12","slug":"agentic-ai-governance-2026-framework-compliance-ethical-constraints-human-in-the-loop-produzione","status":"publish","type":"post","link":"https:\/\/darioiannascoli.it\/blog\/agentic-ai-governance-2026-framework-compliance-ethical-constraints-human-in-the-loop-produzione\/","title":{"rendered":"Come Implemento l&#8217;Agentic AI Governance nel 2026: Framework di Compliance, Ethical Constraints e Human-in-the-Loop per Sistemi Autonomi in Produzione"},"content":{"rendered":"<p>Negli ultimi mesi ho assistito a un cambiamento radicale nel modo in cui le aziende affrontano il deployment di agenti AI autonomi in produzione. Non si tratta pi\u00f9 solo di far funzionare un workflow multi-agente \u2014 la sfida vera, quella che mi tiene sveglio la notte, \u00e8 <strong>governare questi sistemi<\/strong> in modo che siano conformi alle normative, eticamente vincolati e sempre sotto controllo umano quando serve. In questo articolo vi mostro i framework di compliance che sto adottando, le strategie di ethical constraints e i pattern di Human-in-the-Loop (HITL) che funzionano davvero in ambienti enterprise.<\/p>\n<p>Se avete letto il mio articolo su <a href=\"https:\/\/darioiannascoli.it\/blog\/governance-ai-agents-azienda-sicurezza-compliance-human-in-the-loop-2026\/\">come implementare la governance degli AI Agents in azienda<\/a>, sapete gi\u00e0 che il tema \u00e8 cruciale. Ora \u00e8 il momento di andare in profondit\u00e0: parliamo di framework specifici, deadline normative concrete e architetture di controllo testate in produzione. L&#8217;Agentic AI Governance nel 2026 non \u00e8 pi\u00f9 un concetto teorico \u2014 \u00e8 un requisito operativo.<\/p>\n<h2>Perch\u00e9 i Framework Tradizionali Non Bastano Pi\u00f9 per l&#8217;Agentic AI<\/h2>\n<p>I framework di governance AI progettati per modelli statici \u2014 quelli che ricevono un input e restituiscono un output \u2014 sono del tutto inadeguati per sistemi agentici che <strong>pianificano, agiscono, interagiscono con tool esterni e prendono decisioni in tempo reale<\/strong>. Ho imparato questa lezione sulla mia pelle quando un agente di automazione server, perfettamente conforme sulla carta, ha iniziato a concatenare azioni non previste perch\u00e9 il suo spazio decisionale non era stato adeguatamente vincolato.<\/p>\n<p>Il problema fondamentale \u00e8 il <em>comportamento emergente<\/em>: gli agenti AI apprendono dalle interazioni e il loro comportamento evolve in modi spesso imprevedibili. Le valutazioni di rischio statiche, fatte una tantum prima del deployment, diventano obsolete nel giro di giorni. Serve un approccio di <strong>governance continua<\/strong>, con controlli sia in fase di design che in fase di runtime.<\/p>\n<h2>Il Framework IMDA di Singapore: Il Gold Standard per l&#8217;Agentic AI Governance<\/h2>\n<p>A gennaio 2026, Singapore ha lanciato il <strong>Model AI Governance Framework for Agentic AI<\/strong>, sviluppato dall&#8217;IMDA (Infocomm Media Development Authority). \u00c8 il primo framework governativo al mondo specifico per sistemi agentici, e nella mia esperienza \u00e8 il documento di riferimento pi\u00f9 completo disponibile oggi. Si articola su quattro dimensioni operative che ho adottato come base per ogni nuovo deployment.<\/p>\n<h3>Le Quattro Dimensioni del Framework IMDA<\/h3>\n<ul>\n<li><strong>Risk Assessment and Bounding<\/strong> \u2014 Valutazione del rischio specifica per caso d&#8217;uso, considerando livello di autonomia, accesso a dati sensibili e ampiezza delle azioni disponibili. I rischi vengono contenuti by design attraverso il controllo degli accessi ai tool, permessi granulari e scope operativo limitato.<\/li>\n<li><strong>Human Accountability<\/strong> \u2014 Strutture organizzative con responsabilit\u00e0 chiare lungo tutto il ciclo di vita dell&#8217;AI. Meccanismi di oversight umano che possano effettivamente sovrascrivere, intercettare o revisionare le azioni dell&#8217;agente.<\/li>\n<li><strong>Technical Controls<\/strong> \u2014 Controlli tecnici implementati lungo l&#8217;intero lifecycle dell&#8217;agente: testing di baseline, accesso limitato a servizi whitelisted, monitoraggio continuo delle azioni.<\/li>\n<li><strong>End-User Responsibility<\/strong> \u2014 Trasparenza verso l&#8217;utente finale e formazione adeguata sull&#8217;interazione con sistemi autonomi.<\/li>\n<\/ul>\n<p>Nella pratica, ho tradotto queste dimensioni in una checklist operativa che applico a ogni agente prima che tocchi la produzione. Ad esempio, per un agente di <a href=\"https:\/\/darioiannascoli.it\/blog\/multi-agent-ai-systems-plesk-orchestrazione-agenti-devops-automazione-governance-2026\/\">orchestrazione multi-agent su Plesk<\/a>, ho definito un perimetro di azioni consentite (whitelist di comandi), un livello di autonomia massimo (pu\u00f2 riavviare servizi ma non modificare configurazioni di rete) e un canale di escalation umana per ogni azione fuori scope.<\/p>\n<h2>EU AI Act 2026: Le Deadline che Ogni Enterprise Deve Conoscere<\/h2>\n<p>Il <strong>2 agosto 2026<\/strong> \u00e8 la data che segno in rosso sul calendario: \u00e8 la deadline per la piena applicabilit\u00e0 dell&#8217;EU AI Act, incluso l&#8217;obbligo per ogni Stato membro di istituire almeno un <em>AI regulatory sandbox<\/em> nazionale. Per chi gestisce sistemi agentici in Europa, questo significa che il tempo per adeguarsi si sta esaurendo.<\/p>\n<h3>Come l&#8217;AI Act Classifica gli Agenti Autonomi<\/h3>\n<p>L&#8217;AI Act governa gli agenti AI attraverso quattro pilastri: <strong>valutazione del rischio, strumenti di trasparenza, controlli tecnici di deployment e progettazione dell&#8217;oversight umano<\/strong>. La classificazione avviene su quattro livelli di rischio:<\/p>\n<ol>\n<li><strong>Rischio Inaccettabile<\/strong> \u2014 Sistemi di social scoring, AI manipolativa, certi usi di identificazione biometrica. Questi sono vietati, punto.<\/li>\n<li><strong>Rischio Alto<\/strong> \u2014 Richiede oversight umano obbligatorio, documentazione tecnica completa, sistemi di gestione qualit\u00e0 e valutazioni di conformit\u00e0. La maggior parte degli agenti enterprise che operano su dati sensibili o prendono decisioni che impattano persone rientra qui.<\/li>\n<li><strong>Rischio Limitato<\/strong> \u2014 Obblighi di trasparenza: l&#8217;utente deve sapere che sta interagendo con un sistema AI.<\/li>\n<li><strong>Rischio Minimo<\/strong> \u2014 Nessun obbligo specifico, ma best practice raccomandate.<\/li>\n<\/ol>\n<p>Un aspetto critico che ho scoperto analizzando il regolamento: <strong>gli agenti progettati per scopi multipli vengono presunti ad alto rischio<\/strong>, a meno che il provider non prenda precauzioni sufficienti per dimostrare il contrario. Questo significa che un agente generico di automazione, senza scope ben definito, finisce automaticamente nella categoria pi\u00f9 regolamentata.<\/p>\n<h3>Il Gap di Accountability nell&#8217;Agentic AI<\/h3>\n<p>Il vero incubo per la compliance \u00e8 quello che chiamo il <em>gap di accountability<\/em>: questi sistemi operano attraverso innumerevoli micro-decisioni, rendendo estremamente difficile tracciare il perch\u00e9 di un&#8217;azione specifica. Questo complica enormemente la conformit\u00e0 con gli standard di trasparenza e auditabilit\u00e0 dell&#8217;AI Act. Nella mia esperienza, la soluzione \u00e8 implementare <strong>logging granulare di ogni decisione<\/strong> dell&#8217;agente, non solo delle azioni finali.<\/p>\n<h2>NIST AI RMF e il Profilo per AI Generativa: Adattarlo ai Sistemi Agentici<\/h2>\n<p>Il framework <strong>NIST AI 600-1<\/strong>, pubblicato nel 2024, si focalizza sulla AI generativa e identifica 12 rischi specifici con azioni di mitigazione suggerite. Anche se non copre esplicitamente l&#8217;agentic AI, i principi sono direttamente applicabili e li uso come base complementare al framework IMDA.<\/p>\n<p>Ho adattato il NIST AI RMF per i miei sistemi agentici aggiungendo tre categorie di rischio specifiche:<\/p>\n<ul>\n<li><strong>Rischio di catena d&#8217;azioni non prevista<\/strong> \u2014 Un agente che chiama un tool, il cui output innesca un&#8217;altra chiamata, e cos\u00ec via. Mitigazione: limiti di profondit\u00e0 nelle catene di azioni e circuit breaker automatici.<\/li>\n<li><strong>Rischio di drift comportamentale<\/strong> \u2014 L&#8217;agente evolve il suo comportamento nel tempo in modi non anticipati. Mitigazione: confronto periodico tra comportamento attuale e baseline di riferimento.<\/li>\n<li><strong>Rischio di conflitto multi-agente<\/strong> \u2014 Quando pi\u00f9 agenti interagiscono, possono emergere comportamenti conflittuali. Mitigazione: protocolli di coordinamento e arbitraggio come quelli che ho descritto nell&#8217;articolo sull&#8217;<a href=\"https:\/\/darioiannascoli.it\/blog\/agentic-ai-produzione-2026-super-agents-workflow-rpa-apa-aziende\/\">Agentic AI in produzione<\/a>.<\/li>\n<\/ul>\n<h2>Ethical Constraints: Come Vincolo Eticamente i Miei Agenti AI<\/h2>\n<p>I vincoli etici non sono un nice-to-have \u2014 sono un requisito architetturale. Nella mia esperienza, gli <strong>ethical constraints<\/strong> devono essere implementati a livello di sistema, non affidati alla buona volont\u00e0 del prompt engineering. Ecco i pattern che utilizzo.<\/p>\n<h3>Guardrail Architetturali vs. Prompt-Based<\/h3>\n<p>All&#8217;inizio commettevo l&#8217;errore di affidarmi a istruzioni nel prompt del tipo <em>&#8220;non fare X&#8221;<\/em>. Non funziona in produzione. I vincoli etici devono essere <strong>hard-coded nell&#8217;architettura<\/strong>:<\/p>\n<ul>\n<li><strong>Action whitelist<\/strong> \u2014 L&#8217;agente pu\u00f2 eseguire solo azioni esplicitamente consentite. Tutto il resto \u00e8 bloccato a livello di sistema, non di prompt.<\/li>\n<li><strong>Data boundary enforcement<\/strong> \u2014 Controlli tecnici che impediscono all&#8217;agente di accedere a dati al di fuori del suo perimetro autorizzato, indipendentemente da ci\u00f2 che il modello &#8220;vuole&#8221; fare.<\/li>\n<li><strong>Output validation layer<\/strong> \u2014 Ogni output dell&#8217;agente passa attraverso un livello di validazione che verifica conformit\u00e0 con policy predefinite prima di essere eseguito.<\/li>\n<li><strong>Bias detection continuo<\/strong> \u2014 Monitoraggio automatico dei pattern decisionali per identificare bias sistematici prima che producano danni.<\/li>\n<\/ul>\n<h3>Il Principio di Minimo Privilegio per gli Agenti AI<\/h3>\n<p>Applico lo stesso principio che uso da anni nella sicurezza dei server: <strong>ogni agente riceve i permessi minimi necessari per svolgere il suo compito<\/strong>. Un agente che genera contenuti non ha bisogno di accesso al filesystem. Un agente che monitora i log non ha bisogno di poter riavviare servizi. Sembra ovvio, ma nella fretta del deployment \u00e8 il primo principio che viene sacrificato.<\/p>\n<h2>Human-in-the-Loop nel 2026: Oltre il Modello Tradizionale<\/h2>\n<p>Il modello tradizionale di HITL \u2014 un umano che revisiona ogni singola decisione dell&#8217;AI \u2014 \u00e8 <strong>collassato sotto il peso della scala<\/strong>. Con agenti che prendono centinaia di decisioni al minuto, l&#8217;idea che un operatore possa supervisionare tutto \u00e8 semplicemente irrealistica. Il paradigma si sta evolvendo verso modelli pi\u00f9 sofisticati.<\/p>\n<h3>I Tre Pattern di Oversight Operativo<\/h3>\n<p>Nella pratica, ho adottato tre pattern di oversight diversi in base alla criticit\u00e0 delle decisioni:<\/p>\n<ol>\n<li><strong>Human-in-the-Loop (HITL)<\/strong> \u2014 Per decisioni irreversibili o ad alto impatto. L&#8217;agente propone, l&#8217;umano approva o rifiuta prima dell&#8217;esecuzione. Esempio: modifiche a configurazioni di produzione, cancellazione di dati, invio di comunicazioni esterne.<\/li>\n<li><strong>Human-on-the-Loop (HOTL)<\/strong> \u2014 Per decisioni ad alto volume ma reversibili. L&#8217;agente agisce autonomamente, ma un operatore monitora in tempo reale tramite dashboard e pu\u00f2 intervenire se necessario. Esempio: scaling automatico, gestione code di lavoro, classificazione ticket.<\/li>\n<li><strong>Human-over-the-Loop (HOVL)<\/strong> \u2014 Per operazioni di routine a basso rischio. L&#8217;agente opera in piena autonomia, con audit periodici e report aggregati. L&#8217;umano supervisiona le policy, non le singole azioni. Esempio: pulizia log, ottimizzazione cache, monitoraggio uptime.<\/li>\n<\/ol>\n<p>La chiave \u00e8 <strong>abbinare il pattern giusto al tipo di decisione<\/strong>, documentando la scelta nel registro di governance. Questo approccio soddisfa sia i requisiti dell&#8217;EU AI Act che le raccomandazioni del framework IMDA.<\/p>\n<h3>Dashboard di Monitoraggio in Tempo Reale<\/h3>\n<p>Ogni agente in produzione deve avere una dashboard che mostri in tempo reale: azioni eseguite, decisioni prese, anomalie rilevate, confidence score e stato dei circuit breaker. Ho implementato alert automatici che escalano a un operatore umano quando il comportamento dell&#8217;agente devia dalla baseline oltre una soglia configurabile. Come ho descritto parlando di <a href=\"https:\/\/darioiannascoli.it\/blog\/infrastrutture-cloud-multi-region-ai-workloads-latenza-data-residency-governance-2026\/\">infrastrutture cloud per AI workloads<\/a>, il monitoraggio distribuito \u00e8 essenziale quando gli agenti operano su pi\u00f9 region.<\/p>\n<h2>Implementare la Governance in Produzione: La Mia Architettura di Riferimento<\/h2>\n<p>Dopo mesi di iterazioni, sono arrivato a un&#8217;architettura di governance che funziona in produzione. Ve la descrivo nei suoi componenti essenziali.<\/p>\n<h3>Layer 1: Policy Engine Centralizzato<\/h3>\n<p>Un engine centralizzato che definisce le policy di governance per tutti gli agenti. Le policy sono versionabili, auditabili e modificabili senza re-deploy degli agenti. Include:<\/p>\n<ul>\n<li>Definizioni di scope operativo per ogni agente<\/li>\n<li>Whitelist di azioni consentite per contesto<\/li>\n<li>Regole di escalation e threshold<\/li>\n<li>Vincoli etici e di compliance codificati come regole eseguibili<\/li>\n<\/ul>\n<h3>Layer 2: Runtime Monitor<\/h3>\n<p>Un componente che intercetta ogni azione dell&#8217;agente in tempo reale e la valida contro le policy. Se un&#8217;azione viola una policy, viene bloccata e l&#8217;evento viene registrato. Il runtime monitor \u00e8 il cuore della governance operativa \u2014 \u00e8 qui che i vincoli teorici diventano enforcement concreto.<\/p>\n<h3>Layer 3: Audit Trail Immutabile<\/h3>\n<p>Ogni decisione, azione e intervento umano viene registrato in un log immutabile (append-only). Questo soddisfa i requisiti di trasparenza dell&#8217;AI Act e fornisce la base per audit di conformit\u00e0. Nella mia implementazione, uso log strutturati con timestamp, agent ID, azione, contesto decisionale, confidence score e outcome.<\/p>\n<h3>Layer 4: Feedback Loop<\/h3>\n<p>Gli interventi umani (override, correzioni, escalation risolte) vengono raccolti e analizzati per migliorare continuamente le policy di governance. Se un agente viene corretto ripetutamente per lo stesso tipo di decisione, la policy viene aggiornata automaticamente. \u00c8 un ciclo virtuoso che rende la governance sempre pi\u00f9 precisa nel tempo.<\/p>\n<h2>e&amp; e IBM: Un Caso Enterprise di Agentic AI Governance<\/h2>\n<p>Un esempio concreto di governance agentica enterprise \u00e8 la collaborazione annunciata a gennaio 2026 tra <strong>e&amp; e IBM<\/strong>. Hanno sviluppato una soluzione di agentic AI basata su IBM watsonx Orchestrate \u2014 con oltre 500 tool e agenti personalizzabili \u2014 specificamente progettata per aiutare dipendenti e auditor ad accedere e interpretare informazioni legali, normative e di compliance. \u00c8 un esempio perfetto di come l&#8217;agentic AI possa essere usata <em>per<\/em> la governance, non solo governata.<\/p>\n<h2>Checklist Operativa per l&#8217;Agentic AI Governance Enterprise<\/h2>\n<p>Ecco la checklist che utilizzo prima di portare qualsiasi agente AI in produzione:<\/p>\n<ol>\n<li><strong>Risk Assessment<\/strong> \u2014 Classificazione del rischio secondo EU AI Act e framework IMDA. Documentazione completa del livello di autonomia.<\/li>\n<li><strong>Scope Definition<\/strong> \u2014 Whitelist di azioni consentite, dati accessibili, servizi interrogabili. Tutto ci\u00f2 che non \u00e8 esplicitamente permesso \u00e8 vietato.<\/li>\n<li><strong>Oversight Pattern<\/strong> \u2014 Selezione e documentazione del pattern HITL\/HOTL\/HOVL appropriato per ogni categoria di decisione.<\/li>\n<li><strong>Ethical Constraints<\/strong> \u2014 Vincoli architetturali (non solo prompt-based) per bias, fairness, privacy e safety.<\/li>\n<li><strong>Technical Controls<\/strong> \u2014 Circuit breaker, rate limiting, depth limiting per catene d&#8217;azione, kill switch immediato.<\/li>\n<li><strong>Audit Infrastructure<\/strong> \u2014 Log immutabile, dashboard real-time, alert automatici per anomalie.<\/li>\n<li><strong>Incident Response<\/strong> \u2014 Procedura documentata per gestire comportamenti anomali dell&#8217;agente, incluso rollback e isolamento.<\/li>\n<li><strong>Compliance Documentation<\/strong> \u2014 Documentazione tecnica completa per conformity assessment, pronta per audit.<\/li>\n<\/ol>\n<h2>FAQ<\/h2>\n<h3>Qual \u00e8 la differenza tra governare un modello AI tradizionale e un sistema agentico?<\/h3>\n<p>Un modello tradizionale riceve un input e restituisce un output \u2014 la governance si applica a quel singolo passaggio. Un sistema agentico pianifica, decide, agisce su tool esterni e concatena azioni autonomamente. La governance deve coprire l&#8217;intero ciclo decisionale in tempo reale, non solo input\/output, includendo controlli runtime, circuit breaker e monitoraggio continuo del comportamento emergente.<\/p>\n<h3>L&#8217;EU AI Act si applica gi\u00e0 ai miei agenti AI in produzione?<\/h3>\n<p>Le disposizioni sui sistemi ad alto rischio dell&#8217;EU AI Act entrano in piena applicabilit\u00e0 il <strong>2 agosto 2026<\/strong>. Se i tuoi agenti operano in ambiti classificati ad alto rischio (decisioni che impattano persone, accesso a dati sensibili, scopi multipli), devi iniziare ora a implementare oversight umano, documentazione tecnica e sistemi di gestione qualit\u00e0 per essere pronto alla deadline.<\/p>\n<h3>Il Human-in-the-Loop \u00e8 obbligatorio per tutti gli agenti AI?<\/h3>\n<p>No, non per tutti. L&#8217;obbligo di oversight umano diretto riguarda i sistemi ad alto rischio secondo l&#8217;AI Act. Per sistemi a rischio limitato o minimo, pattern come Human-on-the-Loop (monitoraggio real-time) o Human-over-the-Loop (audit periodici) sono sufficienti e pi\u00f9 sostenibili operativamente. La chiave \u00e8 abbinare il livello di oversight alla criticit\u00e0 delle decisioni dell&#8217;agente.<\/p>\n<h3>Il framework IMDA di Singapore \u00e8 vincolante per le aziende europee?<\/h3>\n<p>No, la compliance al framework IMDA \u00e8 volontaria anche per le aziende singaporiane. Tuttavia, \u00e8 attualmente il documento di governance pi\u00f9 completo e operativo per l&#8217;agentic AI disponibile da una fonte governativa. Lo consiglio come riferimento di best practice da integrare con i requisiti obbligatori dell&#8217;EU AI Act e le linee guida del NIST AI RMF.<\/p>\n<h3>Come gestisco il logging delle decisioni degli agenti senza impattare le performance?<\/h3>\n<p>Utilizzo logging asincrono con buffer e scrittura batch su storage append-only. Le decisioni vengono serializzate in formato strutturato leggero e inviate a un collector dedicato che non impatta il thread principale dell&#8217;agente. Per il monitoraggio real-time, uso metriche aggregate (contatori, istogrammi) piuttosto che ispezionare ogni singolo log entry in tempo reale.<\/p>\n<h2>Conclusione<\/h2>\n<p>L&#8217;Agentic AI Governance nel 2026 \u00e8 diventata una disciplina ingegneristica a tutti gli effetti, non pi\u00f9 un esercizio di policy writing. Con l&#8217;EU AI Act in piena applicabilit\u00e0 da agosto 2026, il framework IMDA di Singapore come riferimento operativo e l&#8217;evoluzione dei pattern HITL verso modelli stratificati, le aziende hanno finalmente gli strumenti per governare sistemi autonomi in produzione in modo responsabile e conforme.<\/p>\n<p>Nella mia esperienza, la governance non deve essere un ostacolo all&#8217;innovazione \u2014 deve essere un <strong>abilitatore<\/strong>. Un agente ben governato \u00e8 un agente di cui ti fidi, e la fiducia \u00e8 il prerequisito per scalare l&#8217;automazione agentica in azienda. Se state implementando sistemi <a href=\"https:\/\/darioiannascoli.it\/blog\/agentic-ai-sistemi-multi-agente-automazione-workflow-strumenti-2026\/\">Agentic AI e multi-agente<\/a>, investite nella governance prima ancora di scrivere la prima riga di codice dell&#8217;agente. Il vostro futuro self (e il vostro team legal) vi ringrazieranno.<\/p>\n<p>Avete gi\u00e0 implementato framework di governance per i vostri agenti AI? Quale pattern di oversight state usando in produzione? Fatemelo sapere nei commenti \u2014 sono curioso di confrontare esperienze.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Framework di compliance, ethical constraints e pattern Human-in-the-Loop per governare sistemi Agentic AI autonomi in produzione nel 2026.<\/p>\n","protected":false},"author":1,"featured_media":1552,"comment_status":"","ping_status":"","sticky":false,"template":"","format":"standard","meta":{"_seopress_robots_primary_cat":"","_seopress_titles_title":"Agentic AI Governance 2026: Compliance e HITL | Guida","_seopress_titles_desc":"Come implementare Agentic AI Governance nel 2026: framework IMDA, EU AI Act, ethical constraints e Human-in-the-Loop per sistemi autonomi enterprise.","_seopress_robots_index":"","footnotes":""},"categories":[128],"tags":[301,382,463,385,464,384],"class_list":["post-1551","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-a-i","tag-agentic-ai","tag-ai-governance","tag-compliance-ai","tag-eu-ai-act","tag-framework-imda","tag-human-in-the-loop"],"_links":{"self":[{"href":"https:\/\/darioiannascoli.it\/blog\/wp-json\/wp\/v2\/posts\/1551","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/darioiannascoli.it\/blog\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/darioiannascoli.it\/blog\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/darioiannascoli.it\/blog\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/darioiannascoli.it\/blog\/wp-json\/wp\/v2\/comments?post=1551"}],"version-history":[{"count":0,"href":"https:\/\/darioiannascoli.it\/blog\/wp-json\/wp\/v2\/posts\/1551\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/darioiannascoli.it\/blog\/wp-json\/wp\/v2\/media\/1552"}],"wp:attachment":[{"href":"https:\/\/darioiannascoli.it\/blog\/wp-json\/wp\/v2\/media?parent=1551"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/darioiannascoli.it\/blog\/wp-json\/wp\/v2\/categories?post=1551"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/darioiannascoli.it\/blog\/wp-json\/wp\/v2\/tags?post=1551"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}