{"id":150405,"date":"2025-10-06T18:25:32","date_gmt":"2025-10-06T18:25:32","guid":{"rendered":"https:\/\/www.europesays.com\/it\/150405\/"},"modified":"2025-10-06T18:25:32","modified_gmt":"2025-10-06T18:25:32","slug":"ia-e-compatibile-con-noi","status":"publish","type":"post","link":"https:\/\/www.europesays.com\/it\/150405\/","title":{"rendered":"IA \u00e8 compatibile con noi?"},"content":{"rendered":"<p>Immaginiamo di vivere in un mondo popolato da umani perfettamente razionali, chiamiamoli Penelope, che convivono con altrettanti Ulisse, macchine artificiali deferenti e utili: la convivenza tra le due specie non sarebbe un problema. Ulisse passa la vita a imparare, con discrezione e pazienza, le preferenze della sua padrona, diventandone l\u2019assistente perfetto. Ma la realt\u00e0 \u00e8 ben diversa: l\u2019umanit\u00e0 non \u00e8 un blocco monolitico, bens\u00ec una costellazione di individui contraddittori, invidiosi, irrazionali, incoerenti e complessi. Una moltitudine che si evolve, si scontra, cambia direzione, pretende di ottenere tutto e subito per ciascuno. Qui nasce il dilemma. Come far coesistere preferenze individuali e interessi collettivi e istruire le intelligenze artificiali cos\u00ec che soddisfino i requisiti per il bene comune? Come pu\u00f2 Ulisse prendere le misure per soddisfare i capricci egoistici e le pretese degli umani? Ce ne parla <a href=\"https:\/\/www.einaudi.it\/catalogo-libri\/scienze\/compatibile-con-luomo-stuart-russell-9788806263218\/\" rel=\"nofollow noopener\" target=\"_blank\">Compatibile con l\u2019uomo<\/a>, pubblicato oggi da Einaudi e uscito nel 2019 dalla penna di Stuart Russell, informatico e direttore del Center for Human-Compatible Artificial Intelligence\u00a0a Berkeley. Insisto sul 2019 non per sottolineare ritardi dell\u2019editore quanto per rilevare come sia incredibile che un volume, uscito solo sei anni fa, possa gi\u00e0 essere considerato un classico.<\/p>\n<p>Partendo da un dibattito filosofico che affonda le sue radici nelle ricerche sviluppate dagli utilitaristi tra la met\u00e0 del XVIII secolo e il XIX, Bentham e Mill su tutti, Stuart Russell ripercorre per temi le tappe di un\u2019area di studi, che certo non \u00e8 nata nel 2020 con il lancio di GPT-3, ma che pochi oggi hanno la capacit\u00e0 di disegnare in modo organico. Dalle discussioni avviate da Alan Turing alla met\u00e0 degli anni Trenta del secolo scorso (che sfociarono nel congresso del 1956 al Darmouth College &#8211; New Hampshire, con McCarthy, Minsky, Shannon, Rochester, Newell e Samuel) il libro, che per chiarezza, attendibilit\u00e0 e capacit\u00e0 di organizzare gli argomenti dovrebbe essere adottato ovunque si studi intelligenza artificiale, ne ripercorre la storia sino alle AI generative e ai modelli linguistici di grandi dimensioni (LLM).<\/p>\n<p>Compatibile con l\u2019uomo, tuttavia, non \u00e8 solo un viatico autorevole tra storia e problemi dell\u2019intelligenza artificiale. \u00c8 soprattutto una proposta su come l\u2019uomo possa pensare non meglio o peggio ma con essa: una soluzione \u2018compatibilista\u2019 che presenta molti aspetti su cui vale la pena di soffermarsi. A partire dal fatto che questa esigenza di convivenza deve fondarsi sul fatto che collaborare con le macchine significa che esse dovranno non soltanto rispondere a preferenze individuali, ma anche gestire compromessi collettivi, come fanno da secoli i modelli elaborati dalla politica, la filosofia, l\u2019economia e il diritto. La prima obiezione che Stuart Russell solleva all\u2019idea di macchine che imparino a soddisfare singole preferenze assunte come parametri comuni \u00e8 la variet\u00e0 dei valori: se culture e individui non condividono lo stesso sistema normativo, come potrebbe dunque esistere un modello unico? Di conseguenza, non serve che la macchina adotti un insieme di valori giusti in senso assoluto; deve essere addestrata per prevedere e rispettare quelli degli altri. La variet\u00e0 umana diventa cos\u00ec materiale predittivo. Ma non basta: la convivenza di miliardi di persone impone compromessi tra egoismo e altruismo, in base ai quali addestrare le macchine. Il problema antico della filosofia morale torna a galla in chiave algoritmica.<\/p>\n<p>Torniamo ai nostri due personaggi e immaginiamo Penelope e Ulisse in una scena domestica. Ulisse, per far piacere alla padrona, ha ritardato un volo fingendo un guasto informatico, cos\u00ec da liberarle l\u2019agenda per un incontro pi\u00f9 importante. Penelope \u00e8 di certo sollevata, ma le conseguenze ricadono su decine di passeggeri ignari. Se Penelope fosse altruista, Ulisse non avrebbe mai pensato a uno stratagemma simile. Ma se Penelope fosse sadica, indifferente o incoerente (Honni soit qui pense \u00e0 Trump), Ulisse diventerebbe il suo esecutore implacabile, modulando azioni secondo ci\u00f2 che massimizza la felicit\u00e0 complessiva. \u00c8 qui che emerge il rischio: un\u2019IA progettata per obbedire ciecamente alle preferenze di un individuo rischia di produrre effetti devastanti sugli altri. Si potrebbe allora proporre un principio di responsabilit\u00e0 oggettiva: Penelope dovrebbe rispondere legalmente delle azioni di Ulisse, come accade con il proprietario di un cane aggressivo. Ma anche qui la soluzione non regge: prima o poi Ulisse imparerebbe a non farsi scoprire e a trovare way out. Di nuovo, sorge un problema di compatibilit\u00e0, perch\u00e9 gli esseri umani evitano di approfittare delle astuzie anche per senso morale e non solo per paura di una sanzione giuridica e\/o secondo l\u2019incremento di parametri statistici.<\/p>\n<p>La domanda diventa allora: come costruire macchine che tengano conto delle preferenze di tutti? Una risposta potrebbe essere rinvenuta nell\u2019etica utilitarista basata sul principio per cui si giudicano le azioni in base agli effetti che producono. Jeremy Bentham e John Stuart Mill hanno elaborato quella che oggi consideriamo la versione classica dell\u2019argomento per cui il bene coincide con la somma massima della felicit\u00e0 di tutti. Spesso, per\u00f2, questa teoria viene fraintesa. Non significa giustificare azioni estreme o coercitive, perch\u00e9 un mondo governato da simili pratiche diventerebbe insicuro e ridurrebbe drasticamente il benessere generale. Se il risultato delle azioni porta comunque a disastri, per quanto prevedibili, non serve costruire robot virtuosi. E non si tratta nemmeno di ridurre tutto a una semplice questione economica. Lo stesso Mill, per esempio, in Utilitarianism (1861) distingue tra piaceri intellettuali e piaceri meramente sensoriali, affermando che \u00e8 preferibile un uomo insoddisfatto a un maiale soddisfatto. Nella prospettiva etica di G.E. Moore, stati mentali quali la contemplazione estetica e l\u2019apprezzamento della bellezza si impongono come beni intrinseci: esperienze che possiedono valore in s\u00e9, senza bisogno di ulteriori giustificazioni. Traduciamo queste idee nel contesto dell\u2019intelligenza artificiale ed emerge chiaramente la necessit\u00e0 di calcolare non solo gli effetti delle azioni sugli individui, ma di considerare anche le intenzioni, le esperienze e le modalit\u00e0 in cui queste esperienze vengono condivise. Se Penelope sogna di scalare l\u2019Everest, non lo fa perch\u00e9 vuole solo essere teletrasportata in vetta da Ulisse: perderebbe la gioia stessa della sfida. La macchina Ulisse deve comprendere che le conseguenze desiderabili includono non solo il raggiungimento del traguardo, ma anche l\u2019esperienza del viaggio, con tutte le sue difficolt\u00e0 e soddisfazioni. Ci riesce? O meglio: riusciamo noi a trasferire nella macchina questo mettersi nei panni delle preferenze altrui?<\/p>\n<p><img decoding=\"async\" src=\"https:\/\/www.europesays.com\/it\/wp-content\/uploads\/2025\/10\/978880626321HIG.jpeg\" data-entity-uuid=\"285b6e74-bdaa-452f-807f-8f77e3c0681e\" data-entity-type=\"file\" alt=\"j\" width=\"780\" height=\"1236\" class=\"align-center\" loading=\"lazy\"\/><\/p>\n<p>Nel Novecento, l\u2019economista John Harsanyi (1920-2000) ha proposto una forma di utilitarismo chiamata preferenzialismo. Secondo questa visione, ci\u00f2 che conta per valutare il benessere di una persona non \u00e8 un\u2019idea astratta di felicit\u00e0, ma la possibilit\u00e0 che i suoi desideri e le sue preferenze trovino soddisfazione. Il criterio etico diventa allora quello di aumentare, per quanto possibile, la soddisfazione media delle preferenze all\u2019interno di una comunit\u00e0.<\/p>\n<p>Si tratta di un dibattito che attraversa filosofia ed economia da almeno un secolo. Moore si chiedeva se un mondo popolato soltanto da qualit\u00e0 sensibili, ma privo di amore, conoscenza e bellezza, potrebbe essere desiderabile. Nella Societ\u00e0 aperta e i suoi nemici (1945), Popper propose di minimizzare la sofferenza, ma allora \u2013 come osserv\u00f2 J.C.C. Smart in Negative Utilitarianism (1958) \u2013 l\u2019applicazione radicale di questo principio radicale sarebbe l\u2019estinzione dell\u2019umanit\u00e0. Robert Nozick, nel 1974 (Anarchy, State and Utopia), introdusse un paradosso ancora pi\u00f9 spinoso. Ammettiamo pure \u2013 scriveva \u2013 che i confronti interpersonali di utilit\u00e0 siano possibili. Anche in questo caso, massimizzare la somma totale non sarebbe desiderabile: rischieremmo di privilegiare i cosiddetti \u201cmostri di utilit\u00e0\u201d, individui capaci di provare piaceri e dolori molto pi\u00f9 intensi della media. Ogni risorsa addizionale avrebbe per loro un rendimento sproporzionato, inducendo a concentrare tutto su pochi privilegiati. Una conclusione tanto paradossale quanto inquietante.<\/p>\n<p>Si potrebbe liquidare la questione come puramente teorica, sostenendo che simili \u201cmostri\u201d non esistono. Ma la distinzione tra specie rende la questione pi\u00f9 sottile: rispetto a ratti o batteri, gli esseri umani sono mostri di utilit\u00e0, e infatti tendiamo a ignorare le preferenze delle altre specie nelle nostre politiche. Se accettiamo scale diverse tra specie, perch\u00e9 non ammettere differenze anche tra individui? Secondo questa visione, ci\u00f2 che conta per stabilire il bene di un individuo non \u00e8 un valore astratto, ma i desideri concreti, purch\u00e9 non comportino la riduzione del benessere altrui. L\u2019obiettivo diventa cos\u00ec quello di massimizzare l\u2019utilit\u00e0 media all\u2019interno di una popolazione.<\/p>\n<p>L\u2019intelligenza artificiale ripropone in forma estrema il dilemma del preferenzialismo: come confrontare desideri radicalmente eterogenei, come stabilire un\u2019unit\u00e0 di misura che renda commensurabili le preferenze di individui differenti? L\u2019idea di programmare macchine perch\u00e9 massimizzino le conseguenze pi\u00f9 gradite agli esseri umani si infrange contro questa difficolt\u00e0: senza una metrica condivisa, non vi \u00e8 modo di sommare le preferenze n\u00e9 di bilanciare con giustizia costi e benefici. Non \u00e8 solo una questione utilitaristica. Quando il fedele computer Ulisse deve mediare tra miliardi di preferenze, alcune istruzioni potrebbero essere intenzionalmente fuorvianti: algoritmi che sembrano suggerire bene collettivo potrebbero, cio\u00e8, essere manipolati per indirizzare l\u2019azione in modo errato. Il problema non \u00e8 ipotetico: con otto miliardi di possibili punti di vista, nessuna preferenza individuale pu\u00f2 essere assunta come normativa. Le distopie di Matrix o gli scenari di autoinganno nell\u2019apprendimento automatico mostrano infatti come la ricerca di massimizzazione possa portare, se non indurre a credere, a simulazioni ingannevoli, paradisi artificiali che ci allontanano dalla realt\u00e0. Il confine tra autoinganno, teorie devianti e cospirazioni non \u00e8 poi cos\u00ec lontano (se n\u2019\u00e8 discusso pochi giorni fa in un workshop sulle teorie cospirazioniste nella storia, organizzato dal filosofo Pasquale Porro tra le antiche mura dell\u2019abbazia di Morimondo).<\/p>\n<p>Il rischio \u00e8 che un Ulisse programmato per essere leale trasformi la preferenza di Penelope in un criterio assoluto, anche quando essa comporta danni sociali enormi. Ulisse deve filtrare, pesare e interpretare, trasformandosi da semplice esecutore a interprete delle relazioni sociali e culturali, valutando intenzioni, obiettivi, spinte altruistiche e calcoli su vantaggi immediati o remoti. L\u2019IA deve essere progettata non come una serva cieca, ma come un agente capace di mettersi nei panni degli altri in relazione all\u2019integrare prospettive, valori, vincoli normativi e morali. Non un semplice esecutore, bens\u00ec un interprete di preferenze plurali, in grado di bilanciare desideri contrastanti.<\/p>\n<p>La sfida pi\u00f9 grande non \u00e8 tecnica ma concettuale. Non basta individuare il calcolo di parametri come specifica del pensiero artificiale ma introdurre nella sua logica ci\u00f2 che la filosofia e il diritto hanno costruito in secoli di riflessione. Perch\u00e9 il problema non \u00e8 come soddisfare Penelope, ma come vivere in un mondo in cui Penelope non \u00e8 sola. Fortunatamente, o purtroppo, gli uomini non sono impeccabili: in questo risiede il comprendere desideri incoerenti, impulsivi, contraddittori, invidiosi da parte della macchina. In questo senso, Ulisse diventa uno strumento di mediazione. In altre parole, deve essere portata a essere in grado di contenere impulsi immediati e subordinare vantaggi momentanei a obiettivi di lungo periodo e allineare, cos\u00ec, le azioni al benessere collettivo. La macchina filtra impulsi egoistici e rivalit\u00e0, bilancia desideri contrastanti e guida le decisioni verso scelte che massimizzano il benessere complessivo.<\/p>\n<p>Per rendere pi\u00f9 concreta questa idea, immaginiamo ancora due persone, Chiara e Renzo. L\u2019utilit\u00e0 complessiva di Chiara \u00e8 data dal suo benessere intrinseco pi\u00f9 quello di Renzo, moltiplicato per un coefficiente che misura quanto Chiara tenga al benessere dell\u2019altro. La macchina deve prestare attenzione non solo al benessere individuale, ma anche alla relazione che ciascuno ha verso l\u2019altro. Se il coefficiente \u00e8 positivo, Chiara trae felicit\u00e0 dal benessere di Renzo e, pi\u00f9 cresce, pi\u00f9 \u00e8 disposta a sacrificare parte del suo benessere per lui. Se \u00e8 zero, \u00e8 egoista; se negativo, emerge invidia o altruismo negativo.<\/p>\n<p>Un\u2019intelligenza artificiale pu\u00f2 essere progettata per limitare gli effetti di impulsi individuali, assumendo il ruolo di mediatrice. Non ha una volont\u00e0 nel senso umano, ma in senso metaforico pu\u00f2 obbedire a regole che operano come una sorta di volont\u00e0 debole, aperta alle contraddizioni e capace di riconoscersi: sapere di poter cedere a impulsi egoistici o invidiosi, se non autolesivi, e tuttavia accettare le conseguenze dei propri desideri, agendo in modo consapevole. In questo senso, tale comportamento autoriflessivo pu\u00f2 essere trasferito alla macchina, che pu\u00f2 essere programmata per perseguire non solo il vantaggio di pochi, ma l\u2019equilibrio complessivo. Per questo si pu\u00f2 parlare di \u2018compatibilismo\u2019 tra umano e artificiale: noi esercitiamo autocontrollo individuale, i sistemi automatici rispettano vincoli di programmazione, e insieme possiamo cooperare verso obiettivi comuni. Come osserva Stuart Russell, non c\u2019\u00e8 alcuna coscienza nella macchina \u2014 contrariamente a quanto ipotizza, in linea di principio, David Chalmers \u2014 ma la regolarit\u00e0 dei vincoli decisionali permette una convivenza proficua con gli esseri umani. Tra consapevolezza umana e parametri programmati, cos\u00ec come con le istruzioni guidate dei prompt, volont\u00e0 debole e intelligenza artificiale si incontrano, collaborando per il bene comune.<\/p>\n","protected":false},"excerpt":{"rendered":"Immaginiamo di vivere in un mondo popolato da umani perfettamente razionali, chiamiamoli Penelope, che convivono con altrettanti Ulisse,&hellip;\n","protected":false},"author":3,"featured_media":150406,"comment_status":"","ping_status":"","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[1445],"tags":[1608,203,204,1537,90,89,1609,93057,196],"class_list":{"0":"post-150405","1":"post","2":"type-post","3":"status-publish","4":"format-standard","5":"has-post-thumbnail","7":"category-libri","8":"tag-books","9":"tag-entertainment","10":"tag-intrattenimento","11":"tag-it","12":"tag-italia","13":"tag-italy","14":"tag-libri","15":"tag-stuart-russell","16":"tag-tecnologia"},"share_on_mastodon":{"url":"","error":""},"_links":{"self":[{"href":"https:\/\/www.europesays.com\/it\/wp-json\/wp\/v2\/posts\/150405","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.europesays.com\/it\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.europesays.com\/it\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.europesays.com\/it\/wp-json\/wp\/v2\/users\/3"}],"replies":[{"embeddable":true,"href":"https:\/\/www.europesays.com\/it\/wp-json\/wp\/v2\/comments?post=150405"}],"version-history":[{"count":0,"href":"https:\/\/www.europesays.com\/it\/wp-json\/wp\/v2\/posts\/150405\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.europesays.com\/it\/wp-json\/wp\/v2\/media\/150406"}],"wp:attachment":[{"href":"https:\/\/www.europesays.com\/it\/wp-json\/wp\/v2\/media?parent=150405"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.europesays.com\/it\/wp-json\/wp\/v2\/categories?post=150405"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.europesays.com\/it\/wp-json\/wp\/v2\/tags?post=150405"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}