{"id":183114,"date":"2025-10-25T08:44:22","date_gmt":"2025-10-25T08:44:22","guid":{"rendered":"https:\/\/www.europesays.com\/it\/183114\/"},"modified":"2025-10-25T08:44:22","modified_gmt":"2025-10-25T08:44:22","slug":"sora-2-perche-la-nuova-frontiera-del-deepfake-e-un-punto-di-non-ritorno","status":"publish","type":"post","link":"https:\/\/www.europesays.com\/it\/183114\/","title":{"rendered":"Sora 2, perch\u00e9 la nuova frontiera del deepfake \u00e8 un punto di non ritorno"},"content":{"rendered":"<p>OpenAI ha appena presentato <strong>Sora 2<\/strong>, la nuova versione del <a href=\"https:\/\/www.wired.it\/article\/sora-2-openai-app-social-tiktok-come-funziona-video-intelligenza-artificiale\/\" target=\"_blank\" rel=\"nofollow noopener\">modello per la generazione di video<\/a>, accompagnata da un social network integrato e da una funzione, \u201c<strong>Cameo<\/strong>\u201d, che consente di inserire il proprio volto e la propria voce all\u2019interno di filmati creati dall\u2019intelligenza artificiale.<br \/>Un annuncio che ha immediatamente acceso il dibattito pubblico. Ma c\u2019\u00e8 dietro qualcosa di pi\u00f9 profondo: <strong>un punto di svolta nel modo in cui la societ\u00e0 percepisce e legittima la manipolazione del reale.<\/strong><\/p>\n<p>Tutti possono generare deepfake<\/p>\n<p>C\u2019\u00e8 un senso di inquietudine che accompagna questa novit\u00e0: la possibilit\u00e0 per <strong>chiunque di generare un deepfake<\/strong> di s\u00e9 stesso o di altri, con un <strong>livello di realismo mai raggiunto prima<\/strong>. Fino a oggi, il termine deepfake evocava <a href=\"https:\/\/www.wired.it\/article\/sora-2-openai-video-celebrita-morte-michael-jackson-tupac-stephen-hawking\/\" target=\"_blank\" rel=\"nofollow noopener\">scandali<\/a>, truffe, casi di violenza digitale o disinformazione. Oggi invece viene proposto come una feature creativa, un passatempo, una forma di auto-espressione. \u00c8 qui che si apre un rischio culturale: <strong>la normalizzazione dell\u2019inganno visivo<\/strong>.<\/p>\n<p>Quando una tecnologia potenzialmente pericolosa diventa di uso comune, perde il suo carattere di eccezionalit\u00e0 e di allarme. La societ\u00e0 si abitua, la soglia di <a href=\"https:\/\/www.wired.it\/article\/elezioni-moldavia-rete-troll-russia-influenza-voto-maia-sandu\/\" target=\"_blank\" rel=\"nofollow noopener\">attenzione si abbassa<\/a>, la percezione del rischio svanisce. In un contesto dove tutto pu\u00f2 essere falsificato, <strong>diventa impossibile distinguere <a href=\"https:\/\/www.wired.it\/article\/truffe-intelligenza-artificiale-deepfake-paranoia\/\" target=\"_blank\" rel=\"nofollow noopener\">il vero dal falso<\/a><\/strong>, e con esso si dissolve la fiducia nei contenuti, nelle immagini, nelle prove.<br \/>\u00c8 la logica del \u201cse tutto \u00e8 deepfake, allora niente lo \u00e8 davvero\u201d: un relativismo visivo che pu\u00f2 minare le basi stesse del dibattito pubblico e dell\u2019informazione.<\/p>\n<p>Il nuovo social lanciato insieme a Sora<\/p>\n<p>Ma c\u2019\u00e8 anche un secondo fronte che preoccupa: <strong>il nuovo social network lanciato insieme a Sora 2<\/strong>. Una piattaforma dove circolano esclusivamente <strong>contenuti generati dall\u2019intelligenza artificiale<\/strong>, che replica in tutto e per tutto i meccanismi dei social tradizionali, ma sostituendo l\u2019autenticit\u00e0 dell\u2019esperienza umana con la <strong>simulazione totale<\/strong>.<br \/>Un paradosso se si pensa che, negli ultimi anni, la societ\u00e0 sta iniziando a riflettere sugli <strong>effetti negativi dei social sulla <a href=\"https:\/\/www.wired.it\/article\/parlare-di-psichiatria-sui-social-si-puo-o-e-una-tendenza-rischiosa\/\" target=\"_blank\" rel=\"nofollow noopener\">salute mentale<\/a><\/strong>, sulla solitudine e sulla percezione di s\u00e9. Ora, proprio nel momento in cui emergono queste consapevolezze, arriva una piattaforma dove <strong>non esiste pi\u00f9 alcun ancoraggio alla realt\u00e0<\/strong>.<\/p>\n<p>La contraddizione diventa ancora pi\u00f9 evidente se si leggono le dichiarazioni ufficiali con cui OpenAI ha accompagnato il lancio: parole come \u201csicurezza\u201d, \u201cprotezione dei minori\u201d e \u201csalute mentale\u201d risuonano in netto contrasto con la natura stessa del prodotto. La sensazione \u00e8 quella di un <strong>esperimento sociale senza regole<\/strong>, dove le <a href=\"https:\/\/www.wired.it\/article\/ddl-concorrenza-2025-equilibrio-mercato-big-tech-telecomunicazioni-5g\/\" target=\"_blank\" rel=\"nofollow noopener\">big tech<\/a> testano i limiti della nostra tolleranza, spostando ogni volta un po\u2019 pi\u00f9 avanti l\u2019asticella di ci\u00f2 che \u00e8 accettabile.<\/p>\n<p>Questo approccio si inserisce in un quadro pi\u00f9 ampio: quello di una <strong>societ\u00e0 iperstimolata e satura di contenuti<\/strong>, dove il potere non si esercita pi\u00f9 attraverso la censura ma attraverso l\u2019eccesso.<br \/>La moltiplicazione dei video, la riproduzione infinita delle immagini, la <a href=\"https:\/\/www.wired.it\/article\/furto-louvre-teoria-complotto-francia-russia\/\" target=\"_blank\" rel=\"nofollow noopener\">confusione deliberata tra vero e falso<\/a> creano un rumore di fondo che rende impossibile qualsiasi forma di discernimento. \u00c8 una forma di controllo sottile, che non vieta ma disorienta, che non limita ma svuota di significato.<br \/>Non voglio spingere ad un\u2019inconsapevole tecnofobia, ma a <strong>una chiamata alla responsabilit\u00e0<\/strong>: dobbiamo ricordare che ogni progresso tecnologico richiede una consapevolezza proporzionale alla sua potenza. L\u2019AI pu\u00f2 essere uno straordinario alleato creativo, ma solo se rimane dentro un perimetro di trasparenza e di etica condivisa. Il rischio, altrimenti, \u00e8 quello di <strong>un\u2019informazione inquinata e di una cultura visiva dove la realt\u00e0 non \u00e8 pi\u00f9 verificabile<\/strong>.<\/p>\n","protected":false},"excerpt":{"rendered":"OpenAI ha appena presentato Sora 2, la nuova versione del modello per la generazione di video, accompagnata da&hellip;\n","protected":false},"author":3,"featured_media":183115,"comment_status":"","ping_status":"","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[174],"tags":[4158,12597,203,6108,668,204,1537,90,89,1295],"class_list":{"0":"post-183114","1":"post","2":"type-post","3":"status-publish","4":"format-standard","5":"has-post-thumbnail","7":"category-intrattenimento","8":"tag-app","9":"tag-deepfake","10":"tag-entertainment","11":"tag-idee","12":"tag-intelligenza-artificiale","13":"tag-intrattenimento","14":"tag-it","15":"tag-italia","16":"tag-italy","17":"tag-openai"},"share_on_mastodon":{"url":"https:\/\/pubeurope.com\/@it\/115433928473961531","error":""},"_links":{"self":[{"href":"https:\/\/www.europesays.com\/it\/wp-json\/wp\/v2\/posts\/183114","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.europesays.com\/it\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.europesays.com\/it\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.europesays.com\/it\/wp-json\/wp\/v2\/users\/3"}],"replies":[{"embeddable":true,"href":"https:\/\/www.europesays.com\/it\/wp-json\/wp\/v2\/comments?post=183114"}],"version-history":[{"count":0,"href":"https:\/\/www.europesays.com\/it\/wp-json\/wp\/v2\/posts\/183114\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.europesays.com\/it\/wp-json\/wp\/v2\/media\/183115"}],"wp:attachment":[{"href":"https:\/\/www.europesays.com\/it\/wp-json\/wp\/v2\/media?parent=183114"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.europesays.com\/it\/wp-json\/wp\/v2\/categories?post=183114"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.europesays.com\/it\/wp-json\/wp\/v2\/tags?post=183114"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}