{"id":332430,"date":"2026-01-10T01:52:08","date_gmt":"2026-01-10T01:52:08","guid":{"rendered":"https:\/\/www.europesays.com\/es\/332430\/"},"modified":"2026-01-10T01:52:08","modified_gmt":"2026-01-10T01:52:08","slug":"chatgpt-puede-ser-tu-medico-cuando-el-acceso-a-datos-medicos-se-disfraza-de-servicio-al-paciente-enrique-dans","status":"publish","type":"post","link":"https:\/\/www.europesays.com\/es\/332430\/","title":{"rendered":"\u00bfChatGPT puede ser tu m\u00e9dico? Cuando el acceso a datos m\u00e9dicos se disfraza de servicio al paciente \u00bb Enrique Dans"},"content":{"rendered":"<p><a href=\"https:\/\/www.europesays.com\/es\/wp-content\/uploads\/2026\/01\/OpenAI-and-healthcare-Dall\u00b7E.jpg\"><img loading=\"lazy\" decoding=\"async\" width=\"1024\" height=\"1024\" src=\"https:\/\/www.europesays.com\/es\/wp-content\/uploads\/2026\/01\/OpenAI-and-healthcare-Dall\u00b7E.jpg\" alt=\"IMAGE: A patient looks at a smartphone while a holographic AI doctor, surrounded by digital medical data, appears to offer guidance, symbolizing the tension between technology and healthcare \" class=\"wp-image-56977\" style=\"width:450px;height:auto\"  \/><\/a><\/p>\n<p>OpenAI acaba de dar un paso al frente que muchos anticipaban pero que pocos esperaban tan pronto: el <a href=\"https:\/\/www.theverge.com\/ai-artificial-intelligence\/857640\/openai-launches-chatgpt-health-connect-medical-records\" target=\"_blank\" rel=\"noreferrer noopener nofollow\">lanzamiento de ChatGPT Health<\/a>, una nueva experiencia dentro de ChatGPT dise\u00f1ada para permitir que los usuarios conecten sus historiales m\u00e9dicos y aplicaciones de salud como Apple Health o MyFitnessPal para obtener respuestas m\u00e1s personalizadas a sus preguntas sobre salud y bienestar.<\/p>\n<p>La compa\u00f1\u00eda <a href=\"https:\/\/help.openai.com\/en\/articles\/6825453-chatgpt-release-notes?utm_source=chatgpt.com#health-in-chatgpt\" target=\"_blank\" rel=\"noreferrer noopener nofollow\">destaca<\/a> que se trata de una respuesta a una demanda masiva: seg\u00fan sus propios datos, <a href=\"https:\/\/www.techradar.com\/ai-platforms-assistants\/openai\/openai-says-40-million-people-use-chatgpt-for-healthcare-every-day\" target=\"_blank\" rel=\"noreferrer noopener nofollow\">m\u00e1s de doscientos millones de usuarios preguntan sobre salud al chatbot cada semana<\/a>, y que la herramienta busca ayudar los pacientes a entender resultados de laboratorio, a prepararse para citas m\u00e9dicas o a comparar opciones de seguros.<\/p>\n<p>Desde una perspectiva superficial, este movimiento puede parecer razonable: un asistente de salud digital que utiliza datos personales para contextualizar y mejorar sus respuestas, respuestas que, de todas formas, los usuarios estaban demandando y obteniendo ya. Pero si uno mira con detenimiento, resulta inevitable plantearse una pregunta inc\u00f3moda: \u00bfes esta apuesta realmente para empoderar a los pacientes o, ante todo, para acceder a m\u00e1s datos m\u00e9dicos, uno de los activos m\u00e1s valiosos que a\u00fan queda en manos de los usuarios, para alimentar y fortalecer los modelos de inteligencia artificial de una compa\u00f1\u00eda?<\/p>\n<p>OpenAI afirma que las conversaciones dentro de ChatGPT Health no se usan para entrenar sus modelos de base y que los datos m\u00e9dicos \u00abse a\u00edslan\u00bb y protegen con un cifrado especializado. Pero esta promesa, repetida machaconamente como una advertencia legal que afirma que, \u00abno est\u00e1 destinado para diagn\u00f3stico ni tratamiento\u00bb, no altera el hecho de que el producto invita activamente a los usuarios a subir y enlazar sus datos de salud m\u00e1s sensibles. En realidad, esa insistencia en que el sistema \u00abno reemplaza a un m\u00e9dico\u00bb funciona m\u00e1s como un escudo legal que como una barrera real que modifique el comportamiento de los usuarios.<\/p>\n<p>El atractivo de poseer datos m\u00e9dicos estructurados y longitudinales es enorme para cualquier empresa de tecnolog\u00eda que busque mejorar sus modelos de inteligencia artificial. La medicina, con su riqueza de pruebas diagn\u00f3sticas, historiales cl\u00ednicos y narrativas de enfermedad, ofrece un terreno de entrenamiento incomparablemente m\u00e1s valioso que los datos de texto gen\u00e9ricos que han dominado el entrenamiento de LLMs hasta ahora. Aunque <a href=\"https:\/\/www.businessinsider.com\/big-tech-killed-personal-health-record-openai-chatgpt-2025-11\" target=\"_blank\" rel=\"noreferrer noopener nofollow\">OpenAI no utilice esos datos para entrenamiento directo seg\u00fan sus t\u00e9rminos actuales<\/a>, la simple recolecci\u00f3n y procesamiento de informaci\u00f3n estructurada de salud crea un precedente de acumulaci\u00f3n de datos que muchas compa\u00f1\u00edas pagar\u00edan millones por obtener a trav\u00e9s de alianzas con hospitales o aseguradoras.<\/p>\n<p>Adem\u00e1s, incluso con las advertencias, existe un riesgo real de sobreconfianza por parte de los usuarios. Numerosos estudios han demostrado que <a href=\"https:\/\/arxiv.org\/pdf\/2507.18905\" target=\"_blank\" rel=\"noreferrer noopener nofollow\">los modelos de lenguaje generan respuestas que suenan m\u00e9dicamente plausibles aunque no lo sean<\/a>, y esto no es una ocurrencia aislada: investigaciones acad\u00e9micas independientes han encontrado tasas no despreciables de respuestas inseguras o incorrectas en chatbots generativos cuando se les formulan preguntas m\u00e9dicas sensibles. Cuando una persona interpreta esto como un \u00absegundo diagn\u00f3stico\u00bb o como una confirmaci\u00f3n alternativa a la opini\u00f3n de un m\u00e9dico, estamos activando una aut\u00e9ntica bomba de relojer\u00eda.<\/p>\n<p>No es una preocupaci\u00f3n abstracta: existen evidencias de casos en los que las respuestas automatizadas sobre salud han inducido a decisiones peligrosas o a la mala interpretaci\u00f3n de s\u00edntomas, desde retrasos en buscar atenci\u00f3n hasta malos h\u00e1bitos terap\u00e9uticos. Aunque <a href=\"https:\/\/observer.com\/2025\/05\/openai-chatgpt-health-care-use\/\" target=\"_blank\" rel=\"noreferrer noopener nofollow\">OpenAI lanz\u00f3 previamente herramientas<\/a> como <a href=\"https:\/\/openai.com\/index\/healthbench\/\" target=\"_blank\" rel=\"noreferrer noopener nofollow\">HealthBench<\/a>, concebidas supuestamente para medir la seguridad y precisi\u00f3n de las respuestas de sus modelos en escenarios m\u00e9dicos, estos esfuerzos siguen siendo evaluaciones, no garant\u00edas de seguridad cl\u00ednica.<\/p>\n<p>Adem\u00e1s de los problemas de precisi\u00f3n, emergen tensiones sociales claras. \u00bfCu\u00e1ntos m\u00e9dicos ver\u00e1n a pacientes llegar a consulta discutiendo diagn\u00f3sticos sugeridos por un chatbot? \u00bfCu\u00e1ntos profesionales de la salud tendr\u00e1n que dedicarse a deshacer malentendidos sembrados por una herramienta que muchos creen omnisciente, que combina datos reales con razonamientos generativos que pueden sonar convincentes, pero que no est\u00e1n cl\u00ednicamente validados? \u00bfEst\u00e1 para eso el escaso y tasado tiempo de los facultativos? La tecnolog\u00eda no s\u00f3lo transforma datos: transforma expectativas, narrativas personales e interacciones de confianza entre pacientes y proveedores de salud.<\/p>\n<p>La propia din\u00e1mica de advertir que \u00abesto no es diagn\u00f3stico ni tratamiento\u00bb no es inocua: muchos usuarios no est\u00e1n preparados para ponderar esa limitaci\u00f3n cuando reciben una interpretaci\u00f3n de sus an\u00e1lisis de sangre o un resumen aparentemente comprensible de s\u00edntomas complejos. El simple hecho de que la herramienta acceda a tu historial completo y lo sintetice puede crear en el usuario la ilusi\u00f3n de autoridad m\u00e9dica, independientemente de lo que diga la peque\u00f1a advertencia legal en letra peque\u00f1a en un rinc\u00f3n de la pantalla.<\/p>\n<p>Por \u00faltimo, est\u00e1 la cuesti\u00f3n de la regulaci\u00f3n y la responsabilidad. ChatGPT Health se presenta como un producto de consumo, no como un dispositivo m\u00e9dico regulado, lo que significa que no est\u00e1 sujeto a los mismos est\u00e1ndares de evidencia, supervisi\u00f3n ni rendici\u00f3n de cuentas que las herramientas cl\u00ednicas. Esto abre un vac\u00edo normativo peligroso cuando los datos, por sensibles que sean, se integran en un sistema que tambi\u00e9n es un servicio masivo de inteligencia artificial con fines comerciales.<\/p>\n<p>ChatGPT Health puede representar un momento definitorio en la relaci\u00f3n entre inteligencia artificial y salud: no solo por lo que ofrece, sino por c\u00f3mo y a qui\u00e9n lo ofrece. La promesa de empoderamiento del paciente puede ser real en algunos aspectos, pero no puede concebirse al margen de los incentivos de la empresa que lo desarrolla.<\/p>\n<p>En un momento en que los datos son la materia prima de la econom\u00eda digital, el acceso a historiales m\u00e9dicos completos no es s\u00f3lo una funcionalidad, sino una jugada estrat\u00e9gica de enorme valor. Y mientras los usuarios celebran la comodidad de respuestas personalizadas y la aparente democratizaci\u00f3n del conocimiento m\u00e9dico, los l\u00edmites de responsabilidad, seguridad y \u00e9tica siguen siendo nebulosos y peligrosamente abiertos. Antes de aceptar que una inteligencia artificial te \u00abayude a navegar tu salud\u00bb, convendr\u00eda preguntarse si estamos preparados, como sociedad, para gestionar las consecuencias de poner un doctor digital con acceso a tus datos, pero sin regulaci\u00f3n cl\u00ednica, en el bolsillo de millones de personas.<\/p>\n<p>This article is also available in English on Medium, \u00ab<a href=\"https:\/\/medium.com\/enrique-dans\/chatgpt-health-personalization-power-and-the-price-of-our-medical-data-0ee525c53db5?sk=5fb19396e9f0eacd60c0903e0dd7a3c5\" data-type=\"link\" data-id=\"https:\/\/medium.com\/enrique-dans\/chatgpt-health-personalization-power-and-the-price-of-our-medical-data-0ee525c53db5?sk=5fb19396e9f0eacd60c0903e0dd7a3c5\" target=\"_blank\" rel=\"noreferrer noopener nofollow\">ChatGPT Health: personalization, power and the price of our medical data<\/a>\u00ab<\/p>\n","protected":false},"excerpt":{"rendered":"OpenAI acaba de dar un paso al frente que muchos anticipaban pero que pocos esperaban tan pronto: el&hellip;\n","protected":false},"author":2,"featured_media":332431,"comment_status":"","ping_status":"","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[80],"tags":[82,95,94,25,24,23],"class_list":{"0":"post-332430","1":"post","2":"type-post","3":"status-publish","4":"format-standard","5":"has-post-thumbnail","7":"category-economia","8":"tag-business","9":"tag-economia","10":"tag-economy","11":"tag-es","12":"tag-espana","13":"tag-spain"},"share_on_mastodon":{"url":"https:\/\/pubeurope.com\/@es\/115868306213058471","error":""},"_links":{"self":[{"href":"https:\/\/www.europesays.com\/es\/wp-json\/wp\/v2\/posts\/332430","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.europesays.com\/es\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.europesays.com\/es\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.europesays.com\/es\/wp-json\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/www.europesays.com\/es\/wp-json\/wp\/v2\/comments?post=332430"}],"version-history":[{"count":0,"href":"https:\/\/www.europesays.com\/es\/wp-json\/wp\/v2\/posts\/332430\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.europesays.com\/es\/wp-json\/wp\/v2\/media\/332431"}],"wp:attachment":[{"href":"https:\/\/www.europesays.com\/es\/wp-json\/wp\/v2\/media?parent=332430"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.europesays.com\/es\/wp-json\/wp\/v2\/categories?post=332430"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.europesays.com\/es\/wp-json\/wp\/v2\/tags?post=332430"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}