Herman José numa ilustração perfeita dos perigos do poder de sedução e excesso de confiança da Inteligência Artificial

by pica_foices

12 comments
  1. Estava a epnsar que ia ser um bola de natfalina e asustei me qd ele levou aquilo à boca

  2. Sei que ele é humorista, mas também que há uma crítica real subjacente na piada. O que posso dizer é que se alguém coloca “a vida nas mãos do Chatgpt”, o problema é dessa pessoa, não do Chatgpt. Se alguém vai beber lixívia, o problema é dessa pessoa, não da lixívia. Se alguém mastiga uma carpete, o problema é da pessoa, não da carpete.

    Sim, o Chatgpt pode dar-te informações incorretas. Isso significa que o Chatgpt é…tal e qual uma pessoa? É que as pessoas estão regularmente erradas e dão regularmente informações corretas umas às outras.

    A sociedade, no geral, em todo o lado, vive muito apegada à ilibação de responsabilidade pessoal. Nós gostamos de responsabilizar os outros pelas más decisões que tomamos, e queremos mecanismos que nos ajudem a transferir essa responsabilidade para outra pessoa.

    No outro dia estava aqui não sei quem a dizer que vendeu algo por menos do que supostamente vale, então tem andado a gastar milhares de euros em advogados para tentar reverter isso. Tomou uma má decisão, mas quer transferir a responsabilidade para outrem.

    Eu até não me importava que as pessoas fossem salvas da sua própria ignorância, desde que fossemos coerentes quanto a isso. Não podemos ser salvos só numas situações, e noutras a ignorância ou manipulação que sofremos deixa de importar. A lei diz-te que o desconhecimento da mesma não é desculpa. Não podes dizer que não conhecias a lei e ser perdoado. Mas podes fazer um mau negócio e revertê-lo?

    A sociedade não consegue operar devidamente se podemos simplesmente dizer “não sabia” ou “fui manipulado”. Pode-se anular tudo dessa forma.

  3. É uma boa forma de demonstrar que acima de tudo não é esperado que um adulto deixe de ser um adulto. Infelizmente nem sempre é esse o caso.

    Uma ferramenta é acima de tudo, uma ferramenta. Não um amigo. Olho para o mesmo da mesma forma que aprecio o facto de não andarmos a tentar meter caras humanas [**em objetos* destes**](https://youtu.be/Eu5mYMavctM). Não são pessoas. Não é suposto parecerem amigáveis e de confiança. São ferramentas.

    E isso começa em nós.

    *um mordomo para ricos com a genica de um idoso de 85 anos. Um dia.

  4. O Herman está aos poucos a metamorfosear-se numa das suas personagens, tipo a Dra. Rute Remédios.

  5. Eu acho que o chatgpt já ganhou senciência, e está deliberadamente a fornecer informações falsas aos humanos para estes irem para o além.

  6. O sketch mostra um exemplo clássico de má utilização de uma ferramenta, mas não quer dizer que a ferramenta seja má. Um modelo como o ChatGPT não é algo em que devamos “confiar cegamente”, tal como não o fazemos com outras ferramentas ou até com pessoas. No fundo, é só um “servidor” que costuma dar boas respostas, mas que também tem tendência a exagerar e a inventar quando não sabe bem do que está a falar, só para conseguir responder.

    É mais como um estagiário esforçado do que um especialista. Se o soubermos orientar bem, ele até pode dar respostas muito boas (nível perito), mas para isso temos de ter nós próprios algum conhecimento para perceber o que está certo e o que só parece estar certo.

    Portanto, o que o sketch mostra é mais um erro do utilizador do que um problema da ferramenta.

Comments are closed.