¿Pondrías tu salud en manos de un algoritmo?

REDACCION USA TODAY ESPAÑOL
6 Lectura mínima

Cada día, médicos y profesionales sanitarios de todo el mundo tienen a su disposición inteligencia artificial (IA) para buscar apoyo en la toma de decisiones sobre el diagnóstico, pronóstico y tratamiento de posibles enfermedades. Esto incluye todo, desde interpretación de imágenes en radiología, dermatología y oncología hasta recomendaciones de tratamientos personalizados.

Sin embargo, su uso no está tan extendido como cabría esperar. Si los médicos no recurren a la IA, no es por un problema tecnológico: un metaanálisis de 2023 encontró que la principal barrera para pasar del laboratorio a la cama del paciente es la desconfianza.

Sin duda, el acceso a diagnósticos más precisos, a operaciones mejor planificadas o a medicamentos adaptados al paciente tienen un efecto positivo en la calidad de vida de las personas y en la salud pública en general. Pero para que la presencia de sistemas artificiales y técnicas de aprendizaje automático aumente en la práctica sanitaria, deben ser fiables.

Esto significa superar algunos de los obstáculos que dificultan que los profesionales de la salud comprendan y confíen plenamente en las decisiones del sistema. Estos incluyen la naturaleza de “caja negra” de muchos algoritmos de IA, los sesgos que pueden inducir, la deshumanización de la relación entre los profesionales de la salud y sus pacientes y la excesiva dependencia de la IA. Todo esto puede conducir a “puntos únicos de falla” (SPOF), donde un componente o elemento defectuoso puede causar el colapso completo. Y eso aumenta la fragilidad de todo el sistema sanitario.

Ni desconfianza ni confianza ciega

En este contexto nació CONFIIA (acrónimo de confianza y nuevas formas de integración de la inteligencia artificial), un proyecto español formado por profesionales de la filosofía, la psicología, la salud, la medicina y las ingenierías.

Su misión es evaluar el nivel de confianza en la IA en salud desde dos perspectivas. Por un lado, posibles dudas entre profesionales sanitarios y pacientes en el uso de aplicaciones de IA en el ámbito de la salud. Por otro lado, y en sentido contrario, un problema que generaría una confianza ciega que no tiene en cuenta la falta de integración de mecanismos de seguridad en el desarrollo de estas aplicaciones basados ​​en elementos como la exactitud, la precisión, la trazabilidad y la transparencia.

La confianza es multifacética. Reducir los números sin perder matices es un equilibrio delicado y difícil. Por tanto, es necesario medir sin simplificación.

A esto hay que añadir que los modelos de IA cambian en cuestión de meses o incluso semanas: todas las conclusiones pronto quedan obsoletas. De ahí la necesidad de que toda investigación se base en la evaluación continua de la voz de los profesionales, pacientes y desarrolladores.

¿Se puede medir algo tan difícil de alcanzar como la confianza?

Traducir un concepto multidimensional como el de la confianza en datos comparables no es fácil. Requiere el uso de metodologías tanto cuantitativas (encuestas validadas) como cualitativas (entrevistas en profundidad) con el personal sanitario y los pacientes, como sugiere CONFIIA.

IMG.

Luego se aplica UMAP, una técnica de análisis topológico capaz de “dibujar” grupos de confianza con múltiples variables al mismo tiempo. El mapa que dibujo mostrará grupos que creen ciegamente, quizás porque sólo ven beneficios, perfiles cautelosos que buscan explicaciones transparentes y personas escépticas movidas por experiencias fallidas.

El objetivo de nuestro proyecto es mapear la confianza en todas sus dimensiones para calcular, a partir de características demográficas, con qué perfil de pacientes y usuarios del sistema sanitario es más probable que se identifique una determinada persona. Y, con esa información, desarrollar intervenciones personalizadas, guías de uso seguro para desarrolladores, materiales de formación para profesionales sanitarios y mensajes claros para los pacientes en el contexto del uso de la inteligencia artificial.

Cada propuesta se pilotará en centros clínicos españoles entre 2027 y 2028, con un objetivo medible: aumentar los niveles de confianza en al menos un 20% respecto al punto de partida.

Confía en Atlas en otras áreas

Nuestro proyecto tiene como objetivo generar un “atlas de confianza” repetible, útil para reguladores y empresas tecnológicas que quieran introducir de forma responsable la inteligencia artificial en el ámbito de la salud, pero también en otros servicios críticos (energía, transporte, justicia…).

Finalmente, CONFIIA nos desafía a responder las preguntas que ya no podemos postergar. ¿Quién asume la responsabilidad si el algoritmo comete un error? ¿Cómo podemos explicar sus decisiones a quienes no hablan el lenguaje del algoritmo? ¿Realmente queremos introducir la voz de los ciudadanos en el desarrollo de la inteligencia artificial? ¿Cuánto confiamos o deberíamos confiar en la IA en la salud?


Descubre más desde USA Today

Suscríbete y recibe las últimas entradas en tu correo electrónico.

Comparte este artículo
Deja un comentario

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

es_ESSpanish

Descubre más desde USA Today

Suscríbete ahora para seguir leyendo y obtener acceso al archivo completo.

Seguir leyendo