La promesa es poderosa: utilizar inteligencia artificial para anticipar enfermedades antes de que aparezcan los síntomas, mejorar la prevención y personalizar la atención sanitaria. Modelos entrenados con historiales médicos, hábitos de vida y datos de consumo ya han demostrado capacidad predictiva. Sin embargo, junto a ese potencial emerge una preocupación cada vez más evidente: ¿qué ocurre cuando esos datos, los más sensibles que existen, dejan de estar realmente protegidos?

Pulse aquí

La cuestión no es teórica. Las filtraciones de información se han convertido en una constante, y la percepción social del valor de los datos personales sigue siendo baja. “La gente no es consciente de la importancia de sus datos, y de la importancia de cómo las empresas que deberían vigilar por nuestros datos muchas veces no cumplen esa función”, advierte Sancho Lerena, CEO de la tecnológica española Pandora FMS y experto en seguridad y gestión IT, en una entrevista concedida a ConSalud.es.

Lerena sitúa el debate en un contexto de vulnerabilidad real. Si organismos con enormes capacidades de seguridad concentran grandes volúmenes de información personal, el riesgo no es menor. “Si la propia Agencia Tributaria, que tiene todos nuestros datos, le entran a robar, imagínate qué pasaría si fuera la Secretaría de Seguridad Social en España, que tiene muchos datos centralizados”, señala. En ese escenario, el uso de datos para entrenar modelos predictivos puede ser beneficioso, pero también abrir la puerta a consecuencias graves si esa información se filtra o se utiliza con otros fines.

“Si esa información se hace pública o se roba, es un problema enorme” 

El riesgo, subraya, no está tanto en la predicción en sí como en el uso posterior de la información. “Si esa información se hace pública, o se roba, o se extrapola para que las compañías aseguradoras decidan si los tienen que cobrar más o menos, sería un problema enorme”. Los datos de salud, recuerda, están en el nivel más alto de protección normativa, precisamente por su capacidad de condicionar la vida de las personas.

En teoría, los sistemas públicos aplican mecanismos de anonimización para evitar la identificación directa de los pacientes. “Se habla de paciente X con un código por el que, en teoría, es complicado saber qué persona es”, explica Lerena. Pero introduce una advertencia clara: “Siempre que esta información está en digital, se puede sacar. Eso es un hecho”. La separación entre identidad y datos clínicos existe, pero no es absoluta, y la información sigue residiendo en los mismos sistemas. 

Además, la propia lógica de la inteligencia artificial pone en cuestión la solidez de esa anonimización. “Por un lado, la IA puede tener tu historial médico que se supone que es el señor X”, pero con la que cada vez más usuarios comparten este tipo de información, “pero por otro lado tiene tu historial de dónde vives, tus hábitos de consumo, etc. Al final, puede inferir esa información”, advierte el experto. El problema se agrava cuando distintas filtraciones se acumulan con el tiempo: “Internet tiene una memoria enorme. Esa información no desaparece. Se queda ahí”. Para Lerena, el verdadero peligro no es una base de datos aislada, sino la suma de muchas. “En la filtración de la Agencia Tributaria sacaron información, en la filtración de Endesa sacaron datos… Si juntas toda esa información y la cohesionas, tienes una base de datos muy completa”. Si a ese puzle se le añaden los datos médicos, el resultado es un perfil prácticamente total de la persona.

FALTA DE CONCIENCIACIÓN SOCIAL 

La preocupación se extiende también al uso cotidiano de herramientas de inteligencia artificial por parte de la población. “Creo que ninguno somos conscientes del peligro que tiene compartir informes médicos o analíticas con aplicaciones conversacionales”, afirma en relación el experto. A su juicio, la tecnología avanza mucho más rápido que la cultura digital y la educación en riesgos. “No hay un manual de uso de ChatGPT”, enfatiza y dibuja una situación que podría no estar lejana en el tiempo: “Nos daremos cuenta cuando queramos pedir un visado para un país (por ejemplo, Canadá), y nos lo denieguen porque tengamos problemas médicos y antecedentes que no haber pagado facturas. Esto va a ocurrir, y en ese momento nos daremos cuenta”. 

“No somos conscientes del peligro que tiene compartir informes médicos o analíticas con aplicaciones conversacionales” 

Pero según el especialista, el mayor foco de riesgo no está en el individuo, sino en las organizaciones. “Me preocupa más lo que hagan las organizaciones, tanto privadas como públicas, porque tienen un conjunto de información mucho mayor”, apunta. Administraciones y grandes compañías concentran expedientes médicos, educativos y financieros, y su integración con sistemas de IA multiplica el impacto potencial de cualquier uso indebido. En los sistemas sanitarios existen normativas específicas y un nivel de protección superior al de otros datos, pero Lerena insiste en que no debemos caer en una falsa sensación de seguridad. “La información está protegida, pero sigue siendo vulnerable, pero en su opinión, no hay una solución técnica definitiva que elimine por completo el riesgo.

Ante este escenario, reclama dos líneas de actuación claras. Por un lado, una vigilancia mucho más estricta sobre las organizaciones. “Tiene que haber una figura, una especie de policía de seguridad informática, que vigile realmente de forma efectiva que se está actuando correctamente” para defender la seguridad de los datos médicos. Y por otro, una concienciación social profunda. “Hace falta explicar a la gente que no puede contarle todo a cualquier persona que te llama y te pregunta por teléfono… o en aplicaciones como ChatGPT”.

En el ámbito regulatorio, Lerena no cuestiona la abundancia de normas, sino su aplicación real. “Regulación hay millones”, afirma, citando directivas muy completas como NIS2 (UE 2022/2555). El problema es que “estas regulaciones no las cumple nadie: ni la administración pública, ni las pequeñas empresas” y resume: “La regulación está muy por encima de las capacidades reales”. Mientras la brecha entre regulación y cumplimiento persista, concluye, la promesa de la IA predictiva seguirá avanzando sobre un terreno delicado.

*Los contenidos de ConSalud están elaborados por periodistas
especializados en salud y avalados por un comité de expertos de primer nivel. No
obstante, recomendamos al lector que cualquier duda relacionada con la salud sea
consultada con un profesional del ámbito sanitario.