{"id":467233,"date":"2026-04-30T02:06:16","date_gmt":"2026-04-30T02:06:16","guid":{"rendered":"https:\/\/www.europesays.com\/it\/467233\/"},"modified":"2026-04-30T02:06:16","modified_gmt":"2026-04-30T02:06:16","slug":"openai-non-vuole-che-lintelligenza-artificiale-parli-di-goblin-e-piccioni-e-non-si-capisce-bene-perche","status":"publish","type":"post","link":"https:\/\/www.europesays.com\/it\/467233\/","title":{"rendered":"OpenAI non vuole che l&#8217;intelligenza artificiale parli di goblin e piccioni e non si capisce bene perch\u00e9"},"content":{"rendered":"<p>           <img loading=\"lazy\" decoding=\"async\" src=\"https:\/\/www.europesays.com\/it\/wp-content\/uploads\/2026\/04\/OpeAI-goblin-istruzioni-1200x675.jpg\" class=\"fp_img js-seedtag-img lb__media-image\" alt=\"Immagine\" width=\"1200\" height=\"675\"\/> <\/p>\n<p><strong>OpenAI<\/strong>, l&#8217;azienda di Sam Altman che con ChatGPT ha portato l&#8217;uso dell&#8217;intelligenza artificiale nel nostro quotidiano, non vuole che il suo nuovo agente IA parli di <strong>goblin, orchi,\u00a0 procioni, piccioni o altre strane creature<\/strong> a meno che l&#8217;utente umano non ne faccia esplicita richiesta. Ad accorgersi della stranezza sono stati alcuni programmatori che stavano analizzando <strong>Codex CLI<\/strong>, una specie di assistente virtuale per scrivere, correggere e controllare il codice usando l&#8217;IA direttamente dal terminale.<\/p>\n<p>In quello che sembra il prompt per gestire gli output di <strong>GPT-5.5<\/strong>, l&#8217;ultimo modello sviluppato da OpenAI, i coder hanno trovato un passaggio che <strong>istruiva<\/strong> la macchina sulla condotta da seguire per offrire risposte pertinenti e rilevanti, ammonendola su alcune parole da evitare: &#8220;Non parlare mai di goblin, gremlin, procioni, troll, orchi, piccioni o altri animali o creature a meno che non siano assolutamente e inequivocabilmente pertinenti alla domanda dell&#8217;utente&#8221;, <a href=\"https:\/\/github.com\/openai\/codex\/blob\/main\/codex-rs\/models-manager\/models.json#L55\" data-anact=\"corpo-articolo\" target=\"_blank\" rel=\"nofollow noopener\">si legge nella stringa caricata in open source su GitHub<\/a>. Dopo la scoperta, esperti e curiosi hanno inevitabilmente iniziato a domandarsi le ragioni dietro una simile restrizione.<\/p>\n<p> I possibili motivi dell&#8217;ossessione per i goblin <\/p>\n<p>Il comando compare nel system prompt, il set di istruzioni che definisce il comportamento del modello di IA prima ancora che l&#8217;utente compia la sua richiesta. Una sorta di modello pre-determinato per <strong>stabilire i toni, i limiti e le priorit\u00e0<\/strong> che il chatbot dovr\u00e0 rispettare durante le interazioni con gli utilizzatori umani. Nel caso di GPT-5.5, la testata Gizmodo ha fatto notare come la regola &#8220;anti-goblin&#8221; <strong>sia ripetuta ben due volte<\/strong>, elemento che fa pensare che per gli sviluppatori di OpenAI si tratti di un punto piuttosto importante.<\/p>\n<p>          <a href=\"https:\/\/www.fanpage.it\/innovazione\/tecnologia\/meta-licenziera-altri-8-000-dipendenti-per-compensare-gli-altri-investimenti-i-sospetti-sul-ruolo-dellia\/\" target=\"_self\" data-anact=\"leggi-anche\" class=\"ra__post-title\" rel=\"nofollow noopener\"><br \/>\n        Meta licenzier\u00e0 altri 8.000 dipendenti &#8220;per compensare gli altri investimenti&#8221;: i sospetti sul ruolo dell&#8217;IA<br \/>\n      <\/a><\/p>\n<p>Al momento non sono emerse <strong>spiegazioni ufficiali<\/strong> per giustificare una simile presa di posizione, ma sui social sono gi\u00e0 spuntate diverse teorie interessanti. Quella pi\u00f9 accreditata pare essere quella relativa alla tendenza dell&#8217;IA a definire come &#8220;goblin&#8221; e &#8220;gremlin&#8221; i bug e gli errori tecnici. Soprattutto nell&#8217;utilizzo di OpenClaw \u2013 uno strumento che permette all&#8217;IA di controllare un computer e svolgere attivit\u00e0 operative come rispondere alle email o fare acquisti online \u2013 GPT-5.5 finiva spesso per utilizzare questa strana terminologia.<\/p>\n<p><strong>Barron Roth,<\/strong> un dipendente di Google, ha postato su X alcuni estratti delle sue conversazioni con agenti IA che continuavano a ripetere simili espressioni gergali.\u00a0 Il caso \u00e8 rapidamente montato sul web, tanto che lo stesso Sam Altman ha dedicato un tweet alla faccenda,<\/p>\n<p>Contattato da Fanpage.it, anche il ricercatore e divulgatore informatico <strong>Enkk<\/strong>, esperto di intelligenza artificiale, ha fornito una spiegazione simile. &#8220;Non penso ci sia chiss\u00e0 quale lettura profonda o complottista&#8221;, ha commentato. &#8220;Semplicemente, si sono accorti che in passato alcuni utenti hanno riportato che per qualche motivo il modello sembrava un po&#8217; ossessionato dai goblin e hanno aggiunto questa istruzione&#8221;. E in effetti, come ha fatto notare <strong>il profilo Aerena.ai<\/strong> che valuta il comportamento dei Large Language Model (LLM), i riferimenti ai mostriciattoli fantasy sembrano molto <strong>ricorrenti<\/strong>.<\/p>\n<p>  Perch\u00e9 succede che l&#8217;IA prenda degli abbagli <\/p>\n<p>I modelli come GPT-5.5 funzionano prevedendo quale parola debba arrivare dopo, sulla base di enormi quantit\u00e0 di dati e probabilit\u00e0 statistiche. Questo li rende straordinariamente efficaci, ma anche <strong>imprevedibili<\/strong>. Quando vengono inseriti in sistemi pi\u00f9 complessi, come OpenClaw, ricevono molte pi\u00f9 istruzioni e devono adottare protocolli che richiedono memoria a lungo termine e un contesto operativo molto stratificato. In queste condizioni pu\u00f2 quindi capitare che emergano comportamenti inattesi, piccoli &#8220;tic&#8221; linguistici o vere e proprie fissazioni, come quelle per le creature magiche o i piccioni.<\/p>\n","protected":false},"excerpt":{"rendered":"OpenAI, l&#8217;azienda di Sam Altman che con ChatGPT ha portato l&#8217;uso dell&#8217;intelligenza artificiale nel nostro quotidiano, non vuole&hellip;\n","protected":false},"author":3,"featured_media":467234,"comment_status":"","ping_status":"","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[173],"tags":[1537,90,89,195,198,199,197,200,201,194,196],"class_list":{"0":"post-467233","1":"post","2":"type-post","3":"status-publish","4":"format-standard","5":"has-post-thumbnail","7":"category-scienza-e-tecnologia","8":"tag-it","9":"tag-italia","10":"tag-italy","11":"tag-science","12":"tag-science-and-technology","13":"tag-scienceandtechnology","14":"tag-scienza","15":"tag-scienza-e-tecnologia","16":"tag-scienzaetecnologia","17":"tag-technology","18":"tag-tecnologia"},"share_on_mastodon":{"url":"https:\/\/pubeurope.com\/@it\/116491215662442046","error":""},"_links":{"self":[{"href":"https:\/\/www.europesays.com\/it\/wp-json\/wp\/v2\/posts\/467233","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.europesays.com\/it\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.europesays.com\/it\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.europesays.com\/it\/wp-json\/wp\/v2\/users\/3"}],"replies":[{"embeddable":true,"href":"https:\/\/www.europesays.com\/it\/wp-json\/wp\/v2\/comments?post=467233"}],"version-history":[{"count":0,"href":"https:\/\/www.europesays.com\/it\/wp-json\/wp\/v2\/posts\/467233\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.europesays.com\/it\/wp-json\/wp\/v2\/media\/467234"}],"wp:attachment":[{"href":"https:\/\/www.europesays.com\/it\/wp-json\/wp\/v2\/media?parent=467233"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.europesays.com\/it\/wp-json\/wp\/v2\/categories?post=467233"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.europesays.com\/it\/wp-json\/wp\/v2\/tags?post=467233"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}