{"id":164002,"date":"2025-10-14T09:54:10","date_gmt":"2025-10-14T09:54:10","guid":{"rendered":"https:\/\/www.europesays.com\/it\/164002\/"},"modified":"2025-10-14T09:54:10","modified_gmt":"2025-10-14T09:54:10","slug":"lai-ha-un-pregiudizio-politico-studio-italiano-rivela-perche-i-siti-di-destra-sono-etichettati-spesso-come-inaffidabili","status":"publish","type":"post","link":"https:\/\/www.europesays.com\/it\/164002\/","title":{"rendered":"L&#8217;AI ha un pregiudizio politico? Studio italiano rivela perch\u00e9 i siti di destra sono etichettati spesso come \u00abinaffidabili\u00bb"},"content":{"rendered":"<p class=\"summary-art is-normal-b-light\">Ecco perch\u00e9 l&#8217;intelligenza artificiale non \u00abcapisce\u00bb le notizie ma le indovina e quali distorsioni introduce: cosa dice lo studio \u00abLa simulazione del giudizio negli LLM\u00bb, di un gruppo di ricercatori della Sapienza di Roma<\/p>\n<p class=\"chapter-paragraph\">Sempre pi\u00f9 spesso ci rivolgiamo a modelli linguistici come ChatGPT non per cercare, ma per capire.<br \/>\u00abQuesto sito \u00e8 affidabile?\u00bb, \u00abQuesta fonte dice la verit\u00e0?\u00bb, \u00abQuesta informazione \u00e8 corretta?\u00bb.<br \/>E non ci fermiamo l\u00ec: \u00abSpiegami la guerra in Ucraina\u00bb, \u00abRiassumi Popper\u00bb, \u00abCos\u2019\u00e8 l\u2019abduzione\u00bb, \u00abmi fai capire cosa dice questo articolo?\u00bb. Domande cos\u00ec, ogni giorno, in ogni ambito. Studenti che colmano lacune in vista di un esame. Giornalisti che cercano conferme rapide. Professionisti che \u00abottimizzano\u00bb testi, email, report. E poi docenti, medici, avvocati. Tutti, prima o poi, si rivolgono a un modello linguistico come ci si rivolgeva, un tempo, a un motore di ricerca.<br \/>Solo che qui c\u2019\u00e8 una differenza profonda. Google restituiva risultati: indicava fonti, indirizzava altrove. Gli LLM, invece, simulano la risposta. Ti dicono direttamente cosa pensare. Come se l\u2019atto di giudicare, spiegare, sintetizzare fosse gi\u00e0 avvenuto. E il testo che compare, sempre ordinato, fluente, spesso convincente, sembra confermare che \u00e8 gi\u00e0 tutto l\u00ec. <br \/>Ma non \u00e8 l\u00ec. E soprattutto: non funziona come sembra.<\/p>\n<p class=\"chapter-paragraph\">Il punto centrale \u00e8 che <a href=\"https:\/\/www.corriere.it\/tecnologia\/25_luglio_23\/l-inganno-perfetto-dell-intelligenza-artificiale-scrive-bene-ma-non-sa-nulla-fb94a79f-efb9-413f-a642-d82cda9e4xlk.shtml\" title=\"L\u2019inganno perfetto dell&#039;intelligenza artificiale: scrive bene ma non sa nulla\" rel=\"nofollow noopener\" target=\"_blank\">questi strumenti non hanno una rappresentazione del mondo<\/a>. Non possiedono un criterio interno di verit\u00e0. Quello che fanno, con stupefacente efficacia, \u00e8 generare sequenze linguistiche plausibili sulla base di pattern statistici appresi durante l\u2019addestramento. Quando diciamo che \u00aballucinano\u00bb, non stiamo descrivendo un errore. <a href=\"https:\/\/www.corriere.it\/tecnologia\/25_giugno_03\/l-ai-non-e-intelligente-e-una-questione-di-statistica-le-allucinazioni-inevitabili-e-una-caratteristica-intrinseca-9699a0b6-4952-4d69-bd8d-d4772bdb2xlk.shtml\" title=\"\u00abL&#039;AI non \u00e8 davvero intelligente, \u00e8 una questione di statistica. Le allucinazioni? Inevitabili, \u00e8 una caratteristica intrinseca\u00bb\" rel=\"nofollow noopener\" target=\"_blank\">Stanno facendo esattamente ci\u00f2 per cui sono progettati. Non sbagliano: eseguono<\/a>. Predicono la parola successiva in una sequenza, con una precisione raffinata su scala globale, addestrati su miliardi di testi, dialoghi, articoli, manuali, siti. La loro competenza \u00e8 puramente linguistica, non epistemica. <br \/>Non verificano, ma \u00abverosimilizzano\u00bb.    &#13;<br \/>\n&#13;<br \/>\n&#13;<br \/>\n&#13;<br \/>\n&#13;<br \/>\n&#13;<br \/>\n&#13;<br \/>\n&#13;<br \/>\n&#13;<br \/>\n&#13;<br \/>\n&#13;<br \/>\n&#13;<br \/>\n&#13;<br \/>\n&#13;<br \/>\n&#13;<br \/>\n&#13;<br \/>\n&#13;<br \/>\n&#13;<br \/>\n&#13;<br \/>\n&#13;<br \/>\n&#13;<br \/>\n&#13;<br \/>\n&#13;<br \/>\n&#13;<br \/>\n&#13;<br \/>\n&#13;<br \/>\n&#13;<br \/>\n&#13;<br \/>\n&#13;<br \/>\n&#13;<br \/>\n&#13;<br \/>\n&#13;<br \/>\n&#13;<br \/>\n&#13;<br \/>\n&#13;<br \/>\n&#13;<br \/>\n&#13;<br \/>\n&#13;<br \/>\n&#13;<br \/>\n&#13;<br \/>\n&#13;<br \/>\n&#13;<br \/>\n&#13;<br \/>\n&#13;<br \/>\n&#13;<br \/>\n&#13;<br \/>\n&#13;<br \/>\n&#13;<br \/>\n&#13;<br \/>\n&#13;<br \/>\n&#13;<br \/>\n&#13;<br \/>\n&#13;\n<\/p>\n<p class=\"chapter-paragraph\">Eppure, ed \u00e8 questo il nodo, noi spesso li trattiamo come se sapessero. Li interroghiamo come si interroga una fonte. Ci fidiamo del loro stile, della loro compostezza argomentativa. Confondiamo la coerenza del linguaggio con la coerenza del pensiero. <b>Non ci accorgiamo che stiamo delegando non solo l\u2019informazione, ma la struttura stessa del giudizio<\/b>. <br \/>E il fatto che funzioni in molti casi, che \u00abdia risposte giuste\u00bb, rischia di rinforzare l\u2019equivoco. Perch\u00e9 funziona non vuol dire che comprenda. E se confondiamo una frase ben costruita con un contenuto affidabile, allora il problema \u00e8 nel nostro sguardo.<\/p>\n<p class=\"chapter-paragraph\">Tempo fa avevamo pubblicato <a href=\"https:\/\/www.corriere.it\/tecnologia\/24_dicembre_02\/messaggi-piu-brevi-parole-piu-facili-cosi-la-rete-negli-ultimi-30-anni-ha-semplificato-la-lingua-che-usiamo-c214d35a-fe84-4f8f-898e-b6eb15824xlk.shtml\" title=\"Messaggi pi\u00f9 brevi, parole pi\u00f9 facili: cos\u00ec la Rete negli ultimi 30 anni ha impoverito la nostra lingua\" rel=\"nofollow noopener\" target=\"_blank\">un lavoro sull\u2019impoverimento del linguaggio online<\/a>\u00b9, una lenta ma misurabile tendenza alla semplificazione lessicale, sintattica e semantica nei commenti sui social degli ultimi trent\u2019anni. Un dato che mostrava come le parole cambiano quando cambiano gli ambienti in cui si parla.<\/p>\n<p class=\"chapter-paragraph\">Quel lavoro, in modo imprevisto, ha aperto discussioni pi\u00f9 ampie. Una in particolare, con alcuni colleghi di una delle principali big tech. La loro domanda era chiara: cosa accadrebbe in una societ\u00e0 in cui l\u2019uso degli LLM diventa pervasivo nei compiti quotidiani?<b> Cosa succede alla lingua quando non la produciamo pi\u00f9 noi?<\/b><\/p>\n<p class=\"chapter-paragraph\">Era una domanda importante, ma ne rivelava un\u2019altra, pi\u00f9 profonda. Perch\u00e9 in quello scenario non \u00e8 in gioco solo il linguaggio. \u00c8 in gioco il modello di mondo immaginato da chi ha costruito questi motori.<\/p>\n<p class=\"chapter-paragraph\">Con i colleghi<b> Edoardo Loru, Jacopo Nudo, Niccol\u00f2 Di Marco e Matteo Cinelli<\/b> ci siamo chiesti che cosa accade quando la delega cognitiva diventa sistemica. <b>Quando le persone non si affidano agli LLM solo per cercare, ma per comprendere, per valutare, per decidere<\/b>.<\/p>\n<p class=\"chapter-paragraph\">I grandi sviluppatori degli LLM vogliono capirne l\u2019impatto sulla lingua. Ma la vera domanda, per noi, era un\u2019altra: un motore statistico pu\u00f2 sostenere questa delega? Quando gli chiediamo di valutare l\u2019affidabilit\u00e0 di una fonte, come opera davvero? Costruisce un criterio, oppure simula una risposta?<\/p>\n<p class=\"chapter-paragraph\">Da l\u00ec abbiamo deciso di fare un passo in pi\u00f9. Non bastava interrogare i modelli. Non bastava osservarli. Dovevamo metterli alla prova, con dati e confronto reale. <b>Abbiamo cos\u00ec messo fianco a fianco sei dei principali modelli oggi in uso<\/b> (GPT-4o, Gemini, Mistral, Llama, DeepSeek) e gruppi di valutatori umani, inclusi esperti. A<b> tutti, modelli e persone, \u00e8 stato affidato lo stesso compito: giudicare la credibilit\u00e0 di centinaia di siti di informazione<\/b>. In apparenza era semplice: classificare le fonti come affidabili o inaffidabili e motivare la scelta.<\/p>\n<p class=\"chapter-paragraph\">Dietro questa apparente semplicit\u00e0 si apriva la questione chiave: cosa conta come prova? Quali segnali usano? Che cosa attivano i modelli per decidere?<\/p>\n<p class=\"chapter-paragraph\">I risultati sono stati chiari e sono ora pubblicati <a href=\"https:\/\/www.pnas.org\/doi\/10.1073\/pnas.2518443122\" rel=\"nofollow noreferrer noopener\" target=\"_blank\">in un paper su PNAS che si intitola \u00abThe simulation of judgment in LLMs\u00bb<\/a>. L\u2019output dei modelli, spesso, \u00e8 simile a quello degli esperti, almeno in superficie. Ma i processi sono diversi. Radicalmente. <b>Gli LLM si affidano a pattern linguistici, non a ragionamenti<\/b>. Identificano parole chiave, segnali frequenti, espressioni che co-occorrono con certe etichette. Non leggono il contenuto come un umano, lo mappano. E quando producono una spiegazione, non stanno argomentando: stanno estendendo statisticamente un\u2019istruzione. <b>Il giudizio \u00e8 simulato<\/b>. L\u2019epistemologia, assente.<\/p>\n<p class=\"chapter-paragraph\">Inoltre, abbiamo esteso l\u2019analisi: <b>ci siamo chiesti come gli LLM operazionalizzano i bias politici<\/b>.<br \/>Non se li possiedono, ma come li manifestano quando devono riconoscerli. Abbiamo costruito un task in cui ai modelli veniva chiesto di leggere un testo, rilevare un eventuale squilibrio ideologico e motivare il giudizio.<br \/>La sfida era doppia: individuare il bias e argomentarlo. Anche qui, le risposte sono state linguisticamente corrette, stilisticamente fluide, ma epistemicamente deboli.<br \/>Le spiegazioni sembravano pi\u00f9 parafrasi eleganti che valutazioni fondate. Non ricostruivano il ragionamento, ma riciclavano frasi del testo con un tono neutro e decoroso. Una prudenza apparente che segnalava un vuoto concettuale.<\/p>\n<p class=\"chapter-paragraph\">Ma il dato cruciale \u00e8 un altro. <b>Dall\u2019esperimento emerge una tendenza sistematica: i modelli considerano pi\u00f9 spesso inaffidabili o polarizzati i contenuti associati alla destra politica<\/b>.<br \/>Non perch\u00e9 \u00abcredano\u00bb qualcosa, ma perch\u00e9 riflettono i pattern dominanti nei dati su cui sono stati addestrati. <b>In ambienti accademici, giornalistici e digitali, certe posizioni sono pi\u00f9 frequentemente trattate con toni critici<\/b>. I modelli apprendono questo schema e lo riproducono, senza comprenderlo.<\/p>\n<p class=\"chapter-paragraph\"><b>In assenza di criteri propri, non valutano: replicano<\/b>.<br \/>Si comportano come specchi deformanti, amplificando le frequenze statistiche del loro training set. E quella che sembra una valutazione neutra \u00e8, in realt\u00e0, un riflesso opaco dell\u2019ambiente che li ha generati<br \/>Questa dinamica rende visibile una frattura profonda. Da un lato il pensiero normativo umano, che si fonda, almeno in teoria, su principi, contesto, confronto, intenzionalit\u00e0. Dall\u2019altro il riflesso statistico appreso da un LLM che, privo di intenzione e consapevolezza, replica correlazioni, non criteri.<\/p>\n<p class=\"chapter-paragraph\">Ma non ci siamo fermati l\u00ec. Perch\u00e9 l\u2019evoluzione recente dell\u2019intelligenza artificiale non \u00e8 pi\u00f9 centrata solo sulla generazione di testo. \u00c8 sulla sua agentificazione. <b>I modelli non rispondono pi\u00f9 soltanto a un prompt. Cominciano a comportarsi come agenti<\/b>. Raccolgono informazioni, selezionano fonti, combinano risposte, prendono decisioni su base modulare. \u00c8 su questo che si gioca oggi la grande scommessa industriale: agenti AI che svolgano compiti autonomi, dalla sintesi legale alla selezione medica, dal customer service all\u2019analisi di policy.<\/p>\n<p class=\"chapter-paragraph\">Abbiamo allora deciso di confrontare non solo l\u2019output, ma il comportamento agentico. Perch\u00e9 questi modelli non si limitano pi\u00f9 a rispondere: raccolgono dati, selezionano fonti, compongono una scelta. Agiscono. <b>Abbiamo costruito un esperimento in cui sia i modelli sia gli esseri umani operavano come agenti<\/b>. Stessi strumenti, stesse risorse, stesso task. Una homepage da cui partire, due articoli da consultare, sei criteri di valutazione, un tempo limitato, una richiesta di giudizio. Nessun aiuto, nessuna scorciatoia: solo il processo decisionale. La collaborazione con i colleghi del <b>Dipartimento di Psicologia di Sapienza<\/b> \u2013 Vincenzo Cestari, Clelia Rossi-Arnaud, Alessandro Santirocchi e Roberto Atzeni \u2013 \u00e8 stata essenziale. Hanno portato gli strumenti per osservare non solo cosa veniva deciso, ma come si arrivava alla decisione. Ironia vuole che i nostri uffici siano a duecento metri di distanza, ma non ci conoscevamo. Ci ha messi in contatto un altro collega, Sander van der Linden, professore di Psicologia a Cambridge, con cui collaboro da anni. Per parlarsi a Roma, tocca passare per Londra.<\/p>\n<p class=\"chapter-paragraph\"><b>I risultati hanno confermato l\u2019intuizione<\/b>. <b>Le persone usano criteri retorici, stilistici, emotivi<\/b>. Valutano il tono, la professionalit\u00e0, l\u2019equilibrio. <b>I modelli no<\/b>. I modelli si affidano a tracce strutturali, a segnali lessicali associati alla reputazione o all\u2019ideologia. <b>Quando assegnano una valutazione, non stanno giudicando nel senso umano del termine. Stanno ottimizzando sulla base di correlazioni<\/b>. Eppure il risultato sembra giudizio. \u00c8 qui che abbiamo riconosciuto la dinamica che abbiamo chiamato <b>epistemia<\/b>: <b>l\u2019illusione di sapere che emerge quando la plausibilit\u00e0 linguistica sostituisce la verifica<\/b>. Un cambio di paradigma, silenzioso ma sistemico.<\/p>\n<p class=\"chapter-paragraph\">La cosa pi\u00f9 paradossale \u00e8 che mentre accade tutto questo, nel dibattito pubblico e istituzionale si continua a parlare di \u00abmente estesa\u00bb, di \u00abpotenziamento cognitivo\u00bb, di \u00aballeanza uomo-macchina\u00bb. Tutti concetti affascinanti. Ma c\u2019\u00e8 un problema: si basano su un assunto, non su una verifica. Sono costruzioni ideologiche pi\u00f9 che osservazioni empiriche. Sono utili al marketing, ma deraglianti per il pensiero critico. La metafora della mente estesa \u00e8 un ponte narrativo, non una scoperta. \u00c8 una retorica potente, lo ammetto, ma \u00e8 una supercazzola nobile: buona per il gioco della legittimazione, meno per quello della comprensione.<\/p>\n<p class=\"chapter-paragraph\"><b>Il marketing gioca un ruolo centrale<\/b>. Ogni settimana esce un nuovo modello che batte il precedente su qualche benchmark. Le \u00abolimpiadi dell\u2019AI\u00bb vengono celebrate come se fossero prove di intelligenza. Ma i benchmark sono progettati per essere vinti, non per essere compresi. Misurano la performance, non il metodo. Raccontano l\u2019eccellenza, ma <b>eludono la vera domanda: cosa stanno facendo davvero questi modelli quando\u00a0\u00abfunzionano\u00bb?<\/b> E soprattutto: cosa stiamo delegando, ogni volta che li usiamo? A noi, invece, interessa questo. Non lo spettacolo della prestazione, ma la struttura della delega. Non l\u2019eccellenza nella forma, ma la trasformazione della funzione.<br \/><b> Se vogliamo capire cosa significa davvero questa transizione, dobbiamo guardarla senza illusioni<\/b>. Questi modelli non sono nemici. Ma non sono nemmeno partner neutrali. Sono sistemi potentissimi, capaci di produrre apparenze del pensiero. Restano, per ora, macchine di plausibilit\u00e0. <b>E se la societ\u00e0 si abitua a scambiare la plausibilit\u00e0 per verit\u00e0, allora il problema non sar\u00e0 l\u2019intelligenza artificiale. Saremo noi<\/b>.<\/p>\n<p class=\"chapter-paragraph\"><b>Non \u00e8 un pericolo imminente. Non \u00e8 un\u2019allerta etica. \u00c8 un cambio di cornice, che va riconosciuto prima che si stabilizzi<\/b>. Perch\u00e9 ci\u00f2 che cambia non \u00e8 solo il modo in cui cerchiamo informazioni. \u00c8 il modo in cui riconosciamo la conoscenza. Se continuiamo a trattare questi strumenti come giudici, e non come generatori, allora rischiamo di perdere il controllo sul concetto stesso di affidabilit\u00e0, autorit\u00e0, prova. Il futuro sar\u00e0 pieno di strumenti che sembrano pensare. Ma sembrare non \u00e8 essere. Non serve allarmismo. Serve vigilanza. Perch\u00e9 la forma del sapere non \u00e8 il sapere stesso.<\/p>\n<p class=\"chapter-paragraph\"><b>Perch\u00e9 alla fine, non stiamo automatizzando il pensiero. Stiamo automatizzando la sua apparenza<\/b>.<\/p>\n<p class=\"chapter-paragraph\">\u00b9Di Marco, Nicola, Edoardo Loru, Anita Bonetti, Alessandra Olga Grazia Serra, Matteo Cinelli, and Walter Quattrociocchi. &#8220;Patterns of linguistic simplification on social media platforms over time.&#8221; Proceedings of the National Academy of Sciences121, no. 50 (2024): e2412105121.<\/p>\n<p class=\"chapter-paragraph\">*Walter Quattrociocchi \u00e8 professore Ordinario di Informatica all&#8217;universit\u00e0 Sapienza di Roma<\/p>\n<p>Per non perdere le ultime novit\u00e0 su tecnologia e innovazione<br \/>iscriviti alla <a href=\"https:\/\/www.corriere.it\/newsletter\/?id=53\" style=\"text-decoration: underline;\" rel=\"nofollow noopener\" target=\"_blank\">newsletter di Login<\/a><\/p>\n<p class=\"is-last-update\" datetime=\"2025-10-13T21:36:37+02:00\">13 ottobre 2025 ( modifica il 13 ottobre 2025 | 21:36)<\/p>\n<p class=\"is-copyright\">\n            \u00a9 RIPRODUZIONE RISERVATA\n        <\/p>\n","protected":false},"excerpt":{"rendered":"Ecco perch\u00e9 l&#8217;intelligenza artificiale non \u00abcapisce\u00bb le notizie ma le indovina e quali distorsioni introduce: cosa dice lo&hellip;\n","protected":false},"author":3,"featured_media":164003,"comment_status":"","ping_status":"","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[173],"tags":[19104,15913,38026,68342,96773,3534,839,2537,14815,5143,12591,95927,8114,666,38274,101000,2333,37927,74099,68006,16976,6099,6880,925,2138,3845,83166,56335,483,64509,2865,24392,101001,2491,3027,101002,5078,5931,32711,728,1277,1278,2581,3059,6921,101003,3177,10551,2341,7309,25904,101004,29114,2151,5056,101005,3964,6394,827,2498,5228,5360,2024,49015,5538,100997,7889,1173,667,668,1537,90,89,1914,3088,26842,101006,28335,45281,101007,4047,14225,114,101008,6045,101009,5919,2506,101010,1309,633,101011,4979,100998,5385,21720,100999,101012,6558,1885,46163,6434,101013,4696,12571,12582,21288,10912,101014,4172,17739,5389,987,9595,12624,101015,1360,195,198,199,197,200,201,11753,101016,101017,2181,17759,1686,1359,337,101018,9899,7877,2128,46481,194,196,26680,51601,2454,628,7604,2847,9294],"class_list":{"0":"post-164002","1":"post","2":"type-post","3":"status-publish","4":"format-standard","5":"has-post-thumbnail","7":"category-scienza-e-tecnologia","8":"tag-accade","9":"tag-addestrati","10":"tag-affidabile","11":"tag-affidabilita","12":"tag-affidano","13":"tag-agenti","14":"tag-almeno","15":"tag-altra","16":"tag-ambienti","17":"tag-analisi","18":"tag-apparente","19":"tag-apparenza","20":"tag-articoli","21":"tag-artificiale","22":"tag-associati","23":"tag-automatizzando","24":"tag-base","25":"tag-bastava","26":"tag-benchmark","27":"tag-bias","28":"tag-cambiano","29":"tag-cambio","30":"tag-capire","31":"tag-centrale","32":"tag-cercare","33":"tag-chiave","34":"tag-chiesti","35":"tag-cinelli","36":"tag-cio","37":"tag-coerenza","38":"tag-colleghi","39":"tag-compiti","40":"tag-confondiamo","41":"tag-confronto","42":"tag-contenuto","43":"tag-correlazioni","44":"tag-costruito","45":"tag-criteri","46":"tag-criterio","47":"tag-dati","48":"tag-dato","49":"tag-davvero","50":"tag-decidere","51":"tag-deciso","52":"tag-delega","53":"tag-delegando","54":"tag-destra","55":"tag-dinamica","56":"tag-domanda","57":"tag-eccellenza","58":"tag-edoardo","59":"tag-edoardo-loru","60":"tag-emerge","61":"tag-esperimento","62":"tag-esperti","63":"tag-estesa","64":"tag-fianco","65":"tag-fonte","66":"tag-fonti","67":"tag-forma","68":"tag-funziona","69":"tag-gioca","70":"tag-gioco","71":"tag-giudicare","72":"tag-giudizio","73":"tag-inaffidabili","74":"tag-informazione","75":"tag-informazioni","76":"tag-intelligenza","77":"tag-intelligenza-artificiale","78":"tag-it","79":"tag-italia","80":"tag-italy","81":"tag-li","82":"tag-lingua","83":"tag-linguaggio","84":"tag-linguistica","85":"tag-linguistici","86":"tag-llm","87":"tag-loru","88":"tag-marco","89":"tag-marketing","90":"tag-matteo","91":"tag-matteo-cinelli","92":"tag-mente","93":"tag-mente-estesa","94":"tag-modelli","95":"tag-modello","96":"tag-motivare","97":"tag-motore","98":"tag-of","99":"tag-output","100":"tag-parole","101":"tag-pattern","102":"tag-pensare","103":"tag-pensiero","104":"tag-plausibilita","105":"tag-possiedono","106":"tag-principali","107":"tag-problema","108":"tag-professore","109":"tag-profonda","110":"tag-progettati","111":"tag-prova","112":"tag-psicologia","113":"tag-quattrociocchi","114":"tag-raccolgono","115":"tag-riconosciuto","116":"tag-riflesso","117":"tag-risposta","118":"tag-risposte","119":"tag-risultati","120":"tag-roma","121":"tag-sapere","122":"tag-sapienza","123":"tag-sapienza-roma","124":"tag-scelta","125":"tag-science","126":"tag-science-and-technology","127":"tag-scienceandtechnology","128":"tag-scienza","129":"tag-scienza-e-tecnologia","130":"tag-scienzaetecnologia","131":"tag-segnali","132":"tag-selezionano","133":"tag-selezionano-fonti","134":"tag-serve","135":"tag-siti","136":"tag-social","137":"tag-societa","138":"tag-soprattutto","139":"tag-statistico","140":"tag-strumenti","141":"tag-struttura","142":"tag-studio","143":"tag-task","144":"tag-technology","145":"tag-tecnologia","146":"tag-tendenza","147":"tag-testi","148":"tag-testo","149":"tag-the","150":"tag-umano","151":"tag-valutazione","152":"tag-verita"},"share_on_mastodon":{"url":"","error":""},"_links":{"self":[{"href":"https:\/\/www.europesays.com\/it\/wp-json\/wp\/v2\/posts\/164002","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.europesays.com\/it\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.europesays.com\/it\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.europesays.com\/it\/wp-json\/wp\/v2\/users\/3"}],"replies":[{"embeddable":true,"href":"https:\/\/www.europesays.com\/it\/wp-json\/wp\/v2\/comments?post=164002"}],"version-history":[{"count":0,"href":"https:\/\/www.europesays.com\/it\/wp-json\/wp\/v2\/posts\/164002\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.europesays.com\/it\/wp-json\/wp\/v2\/media\/164003"}],"wp:attachment":[{"href":"https:\/\/www.europesays.com\/it\/wp-json\/wp\/v2\/media?parent=164002"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.europesays.com\/it\/wp-json\/wp\/v2\/categories?post=164002"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.europesays.com\/it\/wp-json\/wp\/v2\/tags?post=164002"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}