Estava a epnsar que ia ser um bola de natfalina e asustei me qd ele levou aquilo à boca
Sei que ele é humorista, mas também que há uma crítica real subjacente na piada. O que posso dizer é que se alguém coloca “a vida nas mãos do Chatgpt”, o problema é dessa pessoa, não do Chatgpt. Se alguém vai beber lixívia, o problema é dessa pessoa, não da lixívia. Se alguém mastiga uma carpete, o problema é da pessoa, não da carpete.
Sim, o Chatgpt pode dar-te informações incorretas. Isso significa que o Chatgpt é…tal e qual uma pessoa? É que as pessoas estão regularmente erradas e dão regularmente informações corretas umas às outras.
A sociedade, no geral, em todo o lado, vive muito apegada à ilibação de responsabilidade pessoal. Nós gostamos de responsabilizar os outros pelas más decisões que tomamos, e queremos mecanismos que nos ajudem a transferir essa responsabilidade para outra pessoa.
No outro dia estava aqui não sei quem a dizer que vendeu algo por menos do que supostamente vale, então tem andado a gastar milhares de euros em advogados para tentar reverter isso. Tomou uma má decisão, mas quer transferir a responsabilidade para outrem.
Eu até não me importava que as pessoas fossem salvas da sua própria ignorância, desde que fossemos coerentes quanto a isso. Não podemos ser salvos só numas situações, e noutras a ignorância ou manipulação que sofremos deixa de importar. A lei diz-te que o desconhecimento da mesma não é desculpa. Não podes dizer que não conhecias a lei e ser perdoado. Mas podes fazer um mau negócio e revertê-lo?
A sociedade não consegue operar devidamente se podemos simplesmente dizer “não sabia” ou “fui manipulado”. Pode-se anular tudo dessa forma.
Usem LeChat ou Lumio, deixem os americanos da mão
Resumindo. Contem com a vossa inteligência
Boa shirt, tio Hermano!
É uma boa forma de demonstrar que acima de tudo não é esperado que um adulto deixe de ser um adulto. Infelizmente nem sempre é esse o caso.
Uma ferramenta é acima de tudo, uma ferramenta. Não um amigo. Olho para o mesmo da mesma forma que aprecio o facto de não andarmos a tentar meter caras humanas [**em objetos* destes**](https://youtu.be/Eu5mYMavctM). Não são pessoas. Não é suposto parecerem amigáveis e de confiança. São ferramentas.
E isso começa em nós.
*um mordomo para ricos com a genica de um idoso de 85 anos. Um dia.
O Herman está aos poucos a metamorfosear-se numa das suas personagens, tipo a Dra. Rute Remédios.
Ainda consegue ter piada.
Eu acho que o chatgpt já ganhou senciência, e está deliberadamente a fornecer informações falsas aos humanos para estes irem para o além.
Quero essa t-shirt.
O sketch mostra um exemplo clássico de má utilização de uma ferramenta, mas não quer dizer que a ferramenta seja má. Um modelo como o ChatGPT não é algo em que devamos “confiar cegamente”, tal como não o fazemos com outras ferramentas ou até com pessoas. No fundo, é só um “servidor” que costuma dar boas respostas, mas que também tem tendência a exagerar e a inventar quando não sabe bem do que está a falar, só para conseguir responder.
É mais como um estagiário esforçado do que um especialista. Se o soubermos orientar bem, ele até pode dar respostas muito boas (nível perito), mas para isso temos de ter nós próprios algum conhecimento para perceber o que está certo e o que só parece estar certo.
Portanto, o que o sketch mostra é mais um erro do utilizador do que um problema da ferramenta.
12 comments
O chatgpt vai salvar o mundo de si próprio.
Estava a epnsar que ia ser um bola de natfalina e asustei me qd ele levou aquilo à boca
Sei que ele é humorista, mas também que há uma crítica real subjacente na piada. O que posso dizer é que se alguém coloca “a vida nas mãos do Chatgpt”, o problema é dessa pessoa, não do Chatgpt. Se alguém vai beber lixívia, o problema é dessa pessoa, não da lixívia. Se alguém mastiga uma carpete, o problema é da pessoa, não da carpete.
Sim, o Chatgpt pode dar-te informações incorretas. Isso significa que o Chatgpt é…tal e qual uma pessoa? É que as pessoas estão regularmente erradas e dão regularmente informações corretas umas às outras.
A sociedade, no geral, em todo o lado, vive muito apegada à ilibação de responsabilidade pessoal. Nós gostamos de responsabilizar os outros pelas más decisões que tomamos, e queremos mecanismos que nos ajudem a transferir essa responsabilidade para outra pessoa.
No outro dia estava aqui não sei quem a dizer que vendeu algo por menos do que supostamente vale, então tem andado a gastar milhares de euros em advogados para tentar reverter isso. Tomou uma má decisão, mas quer transferir a responsabilidade para outrem.
Eu até não me importava que as pessoas fossem salvas da sua própria ignorância, desde que fossemos coerentes quanto a isso. Não podemos ser salvos só numas situações, e noutras a ignorância ou manipulação que sofremos deixa de importar. A lei diz-te que o desconhecimento da mesma não é desculpa. Não podes dizer que não conhecias a lei e ser perdoado. Mas podes fazer um mau negócio e revertê-lo?
A sociedade não consegue operar devidamente se podemos simplesmente dizer “não sabia” ou “fui manipulado”. Pode-se anular tudo dessa forma.
Usem LeChat ou Lumio, deixem os americanos da mão
Resumindo. Contem com a vossa inteligência
Boa shirt, tio Hermano!
É uma boa forma de demonstrar que acima de tudo não é esperado que um adulto deixe de ser um adulto. Infelizmente nem sempre é esse o caso.
Uma ferramenta é acima de tudo, uma ferramenta. Não um amigo. Olho para o mesmo da mesma forma que aprecio o facto de não andarmos a tentar meter caras humanas [**em objetos* destes**](https://youtu.be/Eu5mYMavctM). Não são pessoas. Não é suposto parecerem amigáveis e de confiança. São ferramentas.
E isso começa em nós.
*um mordomo para ricos com a genica de um idoso de 85 anos. Um dia.
O Herman está aos poucos a metamorfosear-se numa das suas personagens, tipo a Dra. Rute Remédios.
Ainda consegue ter piada.
Eu acho que o chatgpt já ganhou senciência, e está deliberadamente a fornecer informações falsas aos humanos para estes irem para o além.
Quero essa t-shirt.
O sketch mostra um exemplo clássico de má utilização de uma ferramenta, mas não quer dizer que a ferramenta seja má. Um modelo como o ChatGPT não é algo em que devamos “confiar cegamente”, tal como não o fazemos com outras ferramentas ou até com pessoas. No fundo, é só um “servidor” que costuma dar boas respostas, mas que também tem tendência a exagerar e a inventar quando não sabe bem do que está a falar, só para conseguir responder.
É mais como um estagiário esforçado do que um especialista. Se o soubermos orientar bem, ele até pode dar respostas muito boas (nível perito), mas para isso temos de ter nós próprios algum conhecimento para perceber o que está certo e o que só parece estar certo.
Portanto, o que o sketch mostra é mais um erro do utilizador do que um problema da ferramenta.
Comments are closed.