{"id":79187,"date":"2025-08-31T07:19:08","date_gmt":"2025-08-31T07:19:08","guid":{"rendered":"https:\/\/www.europesays.com\/it\/79187\/"},"modified":"2025-08-31T07:19:08","modified_gmt":"2025-08-31T07:19:08","slug":"ai-in-corsia-il-paziente-deve-sapere-quando-viene-usata-e-come-cosa-chiedere-al-medico","status":"publish","type":"post","link":"https:\/\/www.europesays.com\/it\/79187\/","title":{"rendered":"AI in corsia: il paziente deve sapere quando viene usata? E come? Cosa chiedere al medico"},"content":{"rendered":"<p>    di<br \/>\n    Ruggiero Corcella<\/p>\n<p class=\"summary-art is-line-h-12\">Algoritmi che leggono radiografie, compilano cartelle e suggeriscono terapie: l\u2019AI entra negli ospedali. Ma serve trasparenza. Dalla bioetica alla privacy, fino alla responsabilit\u00e0 in caso di errore: informare il malato non \u00e8 un optional ma una nuova frontiera del consenso informato. Gli esperti: \u00abLa fiducia si costruisce solo dicendo chiaramente come funziona\u00bb.<\/p>\n<p class=\"chapter-paragraph\">\u00c8 ormai entrata, pi\u00f9 o meno silenziosamente, nelle corsie, negli ambulatori e perfino negli studi dei medici di famiglia. <a href=\"https:\/\/www.corriere.it\/salute\/ehealth\/25_maggio_17\/chatgpt-e-altre-ai-sempre-piu-utilizzate-per-consulti-sanitari-anche-in-italia-43f48a49-a340-4f7d-acac-3518f37c0xlk.shtml\" rel=\"nofollow noopener\" target=\"_blank\">L\u2019intelligenza artificiale (Ai)\u00a0<\/a> aiuta a leggere radiografie, suggerisce diagnosi, compie studi scientifici, compila cartelle cliniche mentre il medico parla col paziente. In alcuni casi, individua anomalie che persino l\u2019occhio pi\u00f9 esperto potrebbe non cogliere.<\/p>\n<p class=\"chapter-paragraph\">Ma c\u2019\u00e8 una domanda che inquieta sempre di pi\u00f9: il paziente deve saperlo? Se il referto che riceviamo \u00e8 stato elaborato con l\u2019aiuto di un algoritmo, non dovremmo essere messi al corrente? E se s\u00ec, in che modo? Come ricorda\u00a0 <b>\u00a0Jamie M. Mello<\/b>, bioeticista della Stanford Law School\u00a0(California),\u00a0in <a href=\"https:\/\/jamanetwork.com\/journals\/jama\/fullarticle\/2836687\" rel=\"nofollow noreferrer noopener\" target=\"_blank\">uno studio pubblicato su JAMA<\/a>, \u00abquando un\u2019organizzazione sanitaria decide di usare uno strumento di Ai, deve stabilire se ha l\u2019obbligo etico di informare i pazienti o ottenere il loro consenso\u00bb.    &#13;<br \/>\n&#13;<br \/>\n&#13;<br \/>\n&#13;<br \/>\n&#13;<br \/>\n&#13;<br \/>\n&#13;<br \/>\n&#13;<br \/>\n&#13;<br \/>\n&#13;<br \/>\n&#13;<br \/>\n&#13;<br \/>\n&#13;<br \/>\n&#13;<br \/>\n&#13;<br \/>\n&#13;<br \/>\n&#13;<br \/>\n&#13;<br \/>\n&#13;<br \/>\n&#13;<br \/>\n&#13;<br \/>\n&#13;<br \/>\n&#13;<br \/>\n&#13;<br \/>\n&#13;<br \/>\n&#13;<br \/>\n&#13;<br \/>\n&#13;<br \/>\n&#13;<br \/>\n&#13;<br \/>\n&#13;<br \/>\n&#13;<br \/>\n&#13;<br \/>\n&#13;<br \/>\n&#13;<br \/>\n&#13;<br \/>\n&#13;<br \/>\n&#13;<br \/>\n&#13;<br \/>\n&#13;<br \/>\n&#13;<br \/>\n&#13;<br \/>\n&#13;<br \/>\n&#13;<br \/>\n&#13;<br \/>\n&#13;<br \/>\n&#13;<br \/>\n&#13;<br \/>\n&#13;<br \/>\n&#13;<br \/>\n&#13;<br \/>\n&#13;<br \/>\n&#13;\n<\/p>\n<p>    La fiducia \u00e8 il cuore della cura<\/p>\n<p class=\"chapter-paragraph\">Fidarsi del proprio medico \u00e8 parte integrante della guarigione. Se manca fiducia, anche la terapia pi\u00f9 innovativa rischia di fallire. Ecco perch\u00e9 il tema della trasparenza sull\u2019uso dell\u2019Ai \u00e8 cos\u00ec delicato.\u00a0\u00abLa domanda pi\u00f9 frequente sull&#8217;intelligenza artificiale che ricevo in questo momento alle conferenze e via email da parte dei medici \u00e8: cosa dovrei dire ai pazienti?\u00bb, spiega Jamie Mello che a Stanford dirige <a href=\"https:\/\/heal-ai.stanford.edu\/\" rel=\"nofollow noreferrer noopener\" target=\"_blank\">\u00abHeal AI\u00bb<\/a>, un laboratorio\u00a0 che effettua valutazioni etiche degli strumenti proposti per l&#8217;uso negli ospedali dell&#8217;universit\u00e0. \u00abE dobbiamo prendere questa decisione ogni volta che lanciamo nuovi strumenti, <b>ci siamo resi conto di non avere un quadro di riferimento<\/b> per tale decisione e per garantire la coerenza tra i casi d&#8217;uso\u00bb, aggiunge.<\/p>\n<p class=\"chapter-paragraph\">Un momento esetremamente delicato,\u00a0 perch\u00e9 l&#8217;Ai non gode esattamente di grande stima da parte dei pazienti. In base a sondaggi recenti degli Stati Uniti,\u00a0 <b>il 60% degli adulti intervistati afferma di non sentirsi a proprio agio<\/b> con il fatto che il proprio medico si affidi all&#8217;Ai, circa\u00a0<b>l&#8217;80% ha scarse aspettative<\/b>\u00a0sul fatto che l&#8217;Ai possa migliorare elementi\u00a0 importanti della propria assistenza, <b>solo un terzo si fida dell&#8217;uso responsabile dell&#8217;Ai nei sistemi sanitari,<\/b> <a href=\"https:\/\/jamanetwork.com\/journals\/jama\/fullarticle\/2836687#jpp250012r3\" rel=\"nofollow noopener\" target=\"_blank\">e per\u00a0 il 63% \u00e8 assolutamente vero che avrebbe voluto essere informato sull&#8217;uso dell&#8217;Ai. E non si tratta di\u00a0\u00abluddisti\u00bb, contrari ad ogni tipo di innovazione tecnologica.\u00a0<\/p>\n<p>    Vogliamo il medico e non la macchina<\/p>\n<p class=\"chapter-paragraph\">In <a href=\"https:\/\/edhub.ama-assn.org\/jn-learning\/audio-player\/18996419#edhub-transcript\" rel=\"nofollow noreferrer noopener\" target=\"_blank\">un\u2019intervista pubblicata dall\u2019American Medical Association<\/a>, Mello mette in guardia: \u00abMolti pazienti al momento non si fidano dell\u2019uso dell\u2019intelligenza artificiale\u00bb. Non \u00e8 un dettaglio: \u00e8 un campanello d\u2019allarme.<\/p>\n<p class=\"chapter-paragraph\">La diffidenza nasce dalla paura di essere curati \u00abda una macchina\u00bb. Per questo \u2013 prosegue Mello \u2013 \u00ababbiamo bisogno di quadri di riferimento per la comunicazione che costruiscano davvero fiducia invece di eroderla\u00bb. Tradotto: servono regole chiare per dire al paziente che l\u2019Ai c\u2019\u00e8, ma non decide al posto del medico. \u00ab I pazienti vogliono sapere che \u00e8 ancora il loro medico a essere responsabile della decisione, non l\u2019algoritmo\u00bb.<\/p>\n<p>    Non basta dire:\u00a0\u00abC&#8217;\u00e8 l&#8217;Ai\u00bb<\/p>\n<p class=\"chapter-paragraph\">Il punto fondamentale \u00e8 che <b>occorre agire con la massima trasparenza<\/b>. Il che non significa piazzare un asterisco sulla cartella clinica e archiviare la pratica. Bisogna spiegare cosa fa l\u2019Ai, perch\u00e9 la si usa e quali limiti ha. Prendiamo<b> i sistemi di documentazione automatica, che nei sistemi sanitari pi\u00f9 avanzati sono gi\u00e0 una realt\u00e0: <\/b>microfoni in sala che registrano la visita per trasformarla in un referto digitale.\u00a0<\/p>\n<p class=\"chapter-paragraph\">A qualcuno potrebbe sembrare un Grande Fratello in corsia. Ma se il medico spiega che cos\u00ec pu\u00f2 guardare il paziente negli occhi invece di scrivere freneticamente al computer, la percezione potrebbe cambiare radicalmente. Alcuni esperti suggeriscono un modello \u00abin tempo reale\u00bb: <b>avvisare i pazienti gi\u00e0 al momento della prenotazione, e poi di nuovo subito prima della visita<\/b>. Cos\u00ec l\u2019informazione resta fresca e contestualizzata, senza effetto sorpresa.<\/p>\n<p>    <strong>Il ruolo dei medici: spiegare, non solo usare<\/strong><\/p>\n<p class=\"chapter-paragraph\">C\u2019\u00e8 un altro punto chiave:<b> i medici devono imparare a spiegare l\u2019AI. Non basta saperla usare<\/b>. Se un paziente chiede \u00abma chi ha deciso questa terapia, lei o il computer?\u00bb, non pu\u00f2 ricevere una risposta evasiva.<\/p>\n<p class=\"chapter-paragraph\"><b>\u00abSe i medici riescono a spiegare, con un linguaggio semplice, cosa sta facendo l\u2019Ai, i pazienti hanno molte pi\u00f9 probabilit\u00e0 di accettarla\u00bb<\/b>, dice Mello. Sembra banale, ma non lo \u00e8: servono formazione e allenamento. Le facolt\u00e0 di medicina iniziano a introdurre corsi sull\u2019etica e sulla comunicazione dell\u2019Ai. Perch\u00e9 la vera rivoluzione non sar\u00e0 solo tecnologica, ma culturale. \u00ab<b>Quando intervistiamo i medici sulle loro opinioni sull&#8217;etica dell&#8217;Ai, spesso non la considerano sostanzialmente diversa da qualsiasi altro tipo di supporto decisionale che utilizzano<\/b>. E sanno che i pazienti, proprio come i passeggeri di un aereo, non hanno bisogno di conoscere ogni dettaglio di come arriveremo a Cincinnati, purch\u00e9 arrivino nel posto giusto al momento giusto. <b>Perch\u00e9 dovremmo avere una visione eccezionale dell&#8217;Ai?<\/b> Credo che la risposta sia che, come avvocato, comprendo che le nostre opinioni sul consenso informato o sulla notifica sono in gran parte guidate da ci\u00f2 che riteniamo essere un&#8217;informazione rilevante per i pazienti, ovvero ci\u00f2 che interessa ai pazienti stessi\u00bb.<\/p>\n<p>    <strong>Chi risponde se sbaglia l\u2019algoritmo?<\/strong><\/p>\n<p class=\"chapter-paragraph\">C\u2019\u00e8 poi <b>la questione, molto concreta, della responsabilit\u00e0<\/b>. Se un algoritmo diagnostico sbaglia e il medico lo segue, chi paga? Il professionista? L\u2019ospedale? O l\u2019azienda che ha sviluppato il software? Domande che oggi non hanno risposte univoche e che rendono ancora pi\u00f9 urgente chiarire il ruolo dell\u2019Ai nel processo clinico.<\/p>\n<p class=\"chapter-paragraph\"><b>E c\u2019\u00e8 il tema della privacy<\/b>: per funzionare, l\u2019Ai ha bisogno di montagne di dati. I pazienti devono sapere come vengono raccolti, conservati e usati. Senza regole chiare e trasparenti, il rischio \u00e8 di minare quella fiducia che tanto faticosamente si cerca di costruire.<\/p>\n<p>    Un possibile modello di azione<\/p>\n<p class=\"chapter-paragraph\">Nello studio pubblicato, Mello indica un possibile \u00abframework\u00bb da applicare: \u00abProponiamo che la politica \u2013 informare i pazienti dell&#8217;utilizzo dello strumento, richiedere il loro consenso all&#8217;utilizzo o nessuna delle due \u2013 sia guidata da due considerazioni.<b> In primo luogo, quanto \u00e8 grave il rischio che l&#8217;utilizzo dello strumento possa causare danni fisici ai pazienti? <a href=\"https:\/\/jamanetwork.com\/journals\/jama\/fullarticle\/2836687#jpp250012r14\" rel=\"nofollow noopener\" target=\"_blank\"> In secondo luogo, in quale misura i pazienti hanno una significativa opportunit\u00e0 di esercitare il proprio potere decisionale in risposta a una segnalazione?<\/b> Quando sia il rischio che l&#8217;opportunit\u00e0 di agire sono elevati, l&#8217;obbligo di informativa \u00e8 al suo apice. Come minimo, una notifica solida \u00e8 eticamente richiesta; laddove ottenere il consenso sia fattibile, ci\u00f2 potrebbe essere preferibile. Al contrario, quando il rischio di danno \u00e8 basso e non vi \u00e8 alcuna reale prospettiva che i pazienti possano agire in risposta alle informazioni, potrebbe essere ragionevole e persino preferibile non fornire la notifica\u00bb.<\/p>\n<p class=\"chapter-paragraph\">Il  modello proposto <b>non prevede in molti casi una notifica diretta ai pazienti<\/b> su uno specifico caso d&#8217;uso dell&#8217;Ai. \u00abPenso che, per quanto anemica possa sembrare,<b> la comunicazione pubblica di base, sia su un sito web che in altri forum, possa essere utile <\/b>per far sapere ai pazienti che questo sta accadendo\u00bb.<\/p>\n<p>    I pazienti devono essere coinvolti<\/p>\n<p class=\"chapter-paragraph\">Fondamentale, inoltre, \u00e8 <b>il coinvolgimento dei pazienti in un&#8217;azione di informazione e formazione reciproca <\/b>con la struttura ospedaliera. Allo Heal Ai Lab \u00e8 stato creato un gruppo con 10 pazienti di estrazione diversa. \u00abForniamo formazione sul funzionamento dell&#8217;intelligenza artificiale, sia all&#8217;inizio che su base continuativa, in parte attraverso <b>corsi di formazione<\/b>, ma anche attraverso la pratica di<b> discussioni mensili di gruppo<\/b> con noi, per apprendere nuovi strumenti di intelligenza artificiale e ricevere i nostri report. Imparano cosa avevamo da dire sull&#8217;etica di ogni strumento. Hanno l&#8217;opportunit\u00e0 di fornire feedback in modo continuativo. Quindi si tratta di un livello di investimento relativamente modesto, ma penso che sia necessario un certo investimento per aggiornare le persone. Ma onestamente, l&#8217;investimento \u00e8, credo, inferiore a quanto molti direbbero. <b>Siamo rimasti stupiti dalla qualit\u00e0 delle informazioni che riceviamo <\/b>anche da un piccolo numero di pazienti con relativamente poca esperienza\u00bb, conclude Mello.<\/p>\n<p>    La situazione normativa in Europa<\/p>\n<p class=\"chapter-paragraph\">Se negli USA il dibattito ruota intorno a etica e consenso, in Europa si \u00e8 scelto di regolamentare con decisione. L\u2019AI Act, approvato a Bruxelles, classifica i sistemi di intelligenza artificiale in base al rischio. La sanit\u00e0, per l\u2019impatto che pu\u00f2 avere sulla vita delle persone, rientra tra i settori \u00abad alto rischio\u00bb. Ci\u00f2 significa obblighi stringenti: valutazioni preventive, trasparenza sugli algoritmi, garanzie sulla protezione dei dati.\u00a0<\/p>\n<p class=\"chapter-paragraph\">A questo si somma il GDPR, che gi\u00e0 impone informazione chiara e consenso esplicito sul trattamento dei dati sanitari. In altre parole, un ospedale che adotta un software per la diagnosi o la gestione dei dati dovr\u00e0 garantire al paziente di sapere come e quando quella tecnologia interviene. \u00c8 una rivoluzione che si somma al GDPR, che gi\u00e0 oggi tutela i dati sanitari come tra i pi\u00f9 sensibili in assoluto.<\/p>\n<p>    E in Italia<\/p>\n<p class=\"chapter-paragraph\">In Italia, questo quadro europeo si intreccia con una normativa nazionale\u00a0sull\u2019intelligenza artificiale\u00a0che attende<a href=\"https:\/\/www.senato.it\/leggi-e-documenti\/disegni-di-legge\/scheda-ddl?tab=datiGenerali&amp;did=59313\" rel=\"nofollow noreferrer noopener\" target=\"_blank\"> un ultimo passaggio in Senato <\/a>dopo l&#8217;approvazione alla Camera il 25 giugno. <b>Il\u00a0 DDL 1146\u00a0<\/b>fissa principi generali sull\u2019uso di algoritmi nei settori pi\u00f9 delicati, sanit\u00e0 compresa. La norma stabilisce alcuni capisaldi che avranno conseguenze dirette sulle corsie: nessuna decisione sanitaria pu\u00f2 essere lasciata interamente a un algoritmo; deve esserci sempre un contributo umano sostanziale. \u00c8 il concetto di human-in-the-loop: il medico resta responsabile, l\u2019AI lo assiste.<\/p>\n<p class=\"chapter-paragraph\">Il testo prevede inoltre diritto all\u2019informazione: il paziente deve essere messo in condizione di capire quando e come un algoritmo interviene nella sua diagnosi o nel suo percorso di cura. \u00c8 un punto decisivo, perch\u00e9 traduce in obbligo giuridico quello che molti bioeticisti considerano un dovere etico. Accanto a questo, la legge ribadisce il divieto di discriminazioni: nessun algoritmo potr\u00e0 introdurre disparit\u00e0 nell\u2019accesso alle cure o nella valutazione dei pazienti.<\/p>\n<p class=\"chapter-paragraph\">Sul fronte della governance, il sistema sar\u00e0 a pi\u00f9 livelli. L\u2019Agenzia per l\u2019Italia Digitale (AgID) avr\u00e0 il compito di promuovere e certificare, mentre l\u2019Agenzia per la Cybersicurezza Nazionale (ACN) vigiler\u00e0 sugli aspetti di sicurezza e potr\u00e0 effettuare ispezioni. Un comitato di coordinamento presso la Presidenza del Consiglio seguir\u00e0 l\u2019attuazione e aggiorner\u00e0 ogni due anni la strategia nazionale sull\u2019AI. Sono previsti anche \u00absandbox regolatori\u00bb, ambienti protetti in cui sperimentare l\u2019uso di algoritmi in contesti clinici reali, ma sotto stretta sorveglianza.<\/p>\n<p class=\"is-last-update\" datetime=\"2025-08-31T06:40:05+02:00\">31 agosto 2025<\/p>\n<p class=\"is-copyright\">\n            \u00a9 RIPRODUZIONE RISERVATA\n        <\/p>\n","protected":false},"excerpt":{"rendered":"di Ruggiero Corcella Algoritmi che leggono radiografie, compilano cartelle e suggeriscono terapie: l\u2019AI entra negli ospedali. Ma serve&hellip;\n","protected":false},"author":3,"featured_media":79188,"comment_status":"","ping_status":"","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[175],"tags":[763,8711,20675,8075,666,2482,2333,37,47188,1045,7879,483,20682,11693,17288,28387,20440,3020,12722,58895,1367,2664,728,48165,6920,58896,1368,44825,26599,822,3635,4916,2729,2341,33350,5056,3084,2342,3085,3593,4205,1974,13822,5970,58897,1975,58898,239,58894,58899,20715,7889,1173,667,668,27058,58900,16265,1537,90,89,10641,58901,4044,1222,452,58892,2506,58902,20644,4483,58903,6696,688,3457,812,2890,23276,58904,6224,58905,10225,58906,4966,4565,8014,2326,58907,2440,12618,6148,494,14642,58908,4736,58909,6897,58910,45326,983,984,1434,19037,58911,10226,2441,4172,2718,138,240,18675,9595,6341,58893,9899,6566,7817,7947,2129,26535],"class_list":{"0":"post-79187","1":"post","2":"type-post","3":"status-publish","4":"format-standard","5":"has-post-thumbnail","7":"category-salute","8":"tag-agenzia","9":"tag-agire","10":"tag-algoritmi","11":"tag-algoritmo","12":"tag-artificiale","13":"tag-azione","14":"tag-base","15":"tag-bisogno","16":"tag-cartelle","17":"tag-casi","18":"tag-chiare","19":"tag-cio","20":"tag-computer","21":"tag-comunicazione","22":"tag-consenso","23":"tag-consenso-informato","24":"tag-considerano","25":"tag-corsi","26":"tag-corsia","27":"tag-corsie","28":"tag-credo","29":"tag-cura","30":"tag-dati","31":"tag-dati-sanitari","32":"tag-decide","33":"tag-decisionale","34":"tag-decisione","35":"tag-delicato","36":"tag-dettaglio","37":"tag-devono","38":"tag-diagnosi","39":"tag-digitale","40":"tag-diversa","41":"tag-domanda","42":"tag-dovremmo","43":"tag-esperti","44":"tag-etica","45":"tag-etico","46":"tag-europa","47":"tag-fiducia","48":"tag-fondamentale","49":"tag-formazione","50":"tag-fornire","51":"tag-garantire","52":"tag-gdpr","53":"tag-giusto","54":"tag-heal","55":"tag-health","56":"tag-informare","57":"tag-informare-pazienti","58":"tag-informato","59":"tag-informazione","60":"tag-informazioni","61":"tag-intelligenza","62":"tag-intelligenza-artificiale","63":"tag-interviene","64":"tag-introdurre","65":"tag-investimento","66":"tag-it","67":"tag-italia","68":"tag-italy","69":"tag-jamie","70":"tag-jamie-mello","71":"tag-macchina","72":"tag-medici","73":"tag-medico","74":"tag-mello","75":"tag-modello","76":"tag-normativa","77":"tag-notifica","78":"tag-nuovi","79":"tag-nuovi-strumenti","80":"tag-obbligo","81":"tag-opinioni","82":"tag-opportunita","83":"tag-ospedale","84":"tag-ospedali","85":"tag-ottenere","86":"tag-ottenere-consenso","87":"tag-paziente","88":"tag-paziente-sapere","89":"tag-pazienti","90":"tag-pazienti-devono","91":"tag-penso","92":"tag-possibile","93":"tag-potra","94":"tag-pratica","95":"tag-preferibile","96":"tag-prevede","97":"tag-privacy","98":"tag-pubblicato","99":"tag-punto","100":"tag-quadro","101":"tag-radiografie","102":"tag-reale","103":"tag-referto","104":"tag-regole","105":"tag-regole-chiare","106":"tag-relativamente","107":"tag-responsabile","108":"tag-responsabilita","109":"tag-resta","110":"tag-ricevere","111":"tag-riceviamo","112":"tag-riferimento","113":"tag-rischio","114":"tag-risposta","115":"tag-rivoluzione","116":"tag-ruolo","117":"tag-salute","118":"tag-sanitari","119":"tag-sapere","120":"tag-sistemi","121":"tag-spiegare","122":"tag-strumenti","123":"tag-strumento","124":"tag-trasparenza","125":"tag-usare","126":"tag-uso","127":"tag-utilizzo"},"share_on_mastodon":{"url":"","error":""},"_links":{"self":[{"href":"https:\/\/www.europesays.com\/it\/wp-json\/wp\/v2\/posts\/79187","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.europesays.com\/it\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.europesays.com\/it\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.europesays.com\/it\/wp-json\/wp\/v2\/users\/3"}],"replies":[{"embeddable":true,"href":"https:\/\/www.europesays.com\/it\/wp-json\/wp\/v2\/comments?post=79187"}],"version-history":[{"count":0,"href":"https:\/\/www.europesays.com\/it\/wp-json\/wp\/v2\/posts\/79187\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.europesays.com\/it\/wp-json\/wp\/v2\/media\/79188"}],"wp:attachment":[{"href":"https:\/\/www.europesays.com\/it\/wp-json\/wp\/v2\/media?parent=79187"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.europesays.com\/it\/wp-json\/wp\/v2\/categories?post=79187"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.europesays.com\/it\/wp-json\/wp\/v2\/tags?post=79187"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}