NOTICIAS · 23 DE ENERO DE 2020

Cinco principios rectores para el uso responsable de la IA en la atención médica y la vida saludable

A medida que la inteligencia artificial (IA) está comenzando a dejar su huella en la atención médica, las preguntas sobre el uso ético y responsable de la IA han pasado a la vanguardia del debate. ¿Hasta qué punto podemos confiar en los algoritmos de IA cuando se trata de asuntos de vida o muerte o de salud y bienestar personal? ¿Cómo salvaguardamos que estos algoritmos se utilicen para los fines previstos? ¿Y cómo nos aseguramos de que la IA no discrimine inadvertidamente contra culturas, minorías u otros grupos específicos, perpetuando así las desigualdades en el acceso y la calidad de la atención?

Estas preguntas son demasiado importantes para ser respondidas en retrospectiva. Nos obligan a pensar de manera proactiva, como industria y como actores individuales, cómo podemos mejorar la IA en el cuidado de la salud y la vida saludable en beneficio de los consumidores, pacientes y profesionales de la salud, evitando consecuencias no deseadas.

¿Cómo podemos hacer avanzar mejor la IA en el cuidado de la salud y la vida saludable en beneficio de las personas, mientras evitamos consecuencias no deseadas?

Como la IA en aplicaciones de salud y salud personal a menudo implica el uso de datos personales confidenciales, una prioridad clave es obviamente usar esos datos de manera responsable. Los datos deben mantenerse seguros en todo momento y procesarse de acuerdo con todas las normas de privacidad relevantes. En Philips, hemos capturado esto en nuestros Principios de datos .

Sin embargo, debido a que la IA cambiará fundamentalmente la forma en que las personas interactúan con la tecnología y toman decisiones, requiere estándares y salvaguardas adicionales. Las políticas de datos por sí solas no son suficientes. Esto nos llevó a desarrollar un conjunto de cinco principios rectores para el diseño y el uso responsable de la IA en aplicaciones de salud y salud personal, todos basados en la noción clave de que las soluciones habilitadas para la IA deben complementar y beneficiar a los clientes, pacientes y la sociedad en general. .

¿Qué implica cada uno de estos principios y por qué son tan importantes?

  1. Bienestar
Las soluciones habilitadas para IA deberían beneficiar la salud y el bienestar de las personas y contribuir al desarrollo sostenible de la sociedad.

Al igual que con cualquier innovación tecnológica, en primer lugar, debemos preguntarnos qué propósito humano debe cumplir la IA. El objetivo no debería ser avanzar la IA por el bien de la IA, sino mejorar el bienestar y la calidad de vida de las personas.

Con la creciente demanda mundial de atención médica y la creciente escasez de profesionales de la salud, existe una clara necesidad de que la IA ayude a aliviar los sistemas de salud sobrecargados. Ya se ha escrito mucho sobre cómo la IA puede actuar como un asistente inteligente para los proveedores de atención médica en el diagnóstico y el tratamiento, todo con el potencial de mejorar los resultados de salud a un costo menor, al tiempo que mejora la experiencia del personal y del paciente (conocido como el Objetivo Cuádruple).

Pero para beneficiar verdaderamente la salud y el bienestar de las personas en las generaciones venideras, debemos pensar más allá del modelo actual de ‘atención médica’ reactiva. Con AI, podemos avanzar hacia una atención médica verdadera y proactiva. En cada paso de la vida de las personas, desde la cuna hasta la vejez, las aplicaciones y los servicios de salud basados en inteligencia artificial podrían informar y apoyar una vida saludable con asesoramiento y asesoramiento personalizados, previniendo y tratando enfermedades.

Con AI, podemos pasar de la atención médica reactiva a la enfermedad a la atención médica proactiva.

Este no debería ser el privilegio de unos pocos felices. En línea con los Objetivos de Desarrollo Sostenible de la ONU, creo que debemos adoptar un enfoque inclusivo que promueva el acceso a la atención y una vida saludable para todos. Hoy en día, en muchos países en desarrollo, existen grandes desigualdades entre los servicios de salud urbanos y rurales. La IA, combinada con otras tecnologías habilitadoras como Internet de las cosas y tecnologías de telecomunicaciones de alto ancho de banda como 5G , podría ayudar a reducir estas desigualdades al hacer que el conocimiento médico especializado esté disponible en las zonas rurales.

  1. Supervisión
Las soluciones habilitadas para IA deberían aumentar y capacitar a las personas, con la supervisión adecuada.

Ahora que hemos establecido el bienestar humano como el propósito principal para el desarrollo de la IA, ¿cómo nos aseguramos de que la IA cumpla ese objetivo?

Como he argumentado antes, la IA aumenta las habilidades y la experiencia humana, pero no las hace menos relevantes. Especialmente en el complejo mundo de la atención médica, donde las vidas están en juego, las herramientas de IA, como el aprendizaje automático, requieren conocimiento y experiencia en el dominio humano para poner sus resultados en contexto.

Un ejemplo clásico de la literatura médica puede ayudar a ilustrar esto: mostrar qué podría salir mal si confiáramos ciegamente en algoritmos.

A mediados de los 90, un equipo de investigación multiinstitucional creó un modelo de aprendizaje automático para predecir la probabilidad de muerte para pacientes con neumonía. El objetivo era asegurar que los pacientes de alto riesgo fueran admitidos en el hospital, mientras que los pacientes de bajo riesgo podrían ser tratados como pacientes ambulatorios. Con base en los datos de entrenamiento, el modelo infirió que los pacientes con neumonía que tienen antecedentes de asma tienen un riesgo menor de morir de neumonía que la población general, un hallazgo que se opone al conocimiento médico común .

Sin una comprensión más profunda de los datos, esto podría haber llevado a la conclusión errónea de que los pacientes con neumonía con antecedentes de asma no necesitaban atención hospitalaria con tanta urgencia. Pero esto no podría haber estado más lejos de la verdad.

Lo que realmente explicó el patrón en los datos es que los pacientes con antecedentes de asma generalmente ingresaron directamente a la Unidad de Cuidados Intensivos cuando se presentaron neumonía en el hospital. Esto redujo su riesgo de morir de neumonía, en comparación con la población general. Si no hubieran recibido una atención tan proactiva, de hecho habrían tenido un riesgo mucho mayor de morir.

No había nada de malo en el modelo de aprendizaje automático per se, pero la correlación que había identificado en base al conjunto de datos de entrenamiento era peligrosamente engañosa.

Este ejemplo muestra cuán crucial es que el poder de procesamiento de datos de la IA vaya de la mano con el conocimiento del dominio de expertos humanos y la ciencia clínica establecida. Uno no puede ir sin el otro.

El poder de procesamiento de datos de la IA debe ir de la mano con el conocimiento del dominio de expertos humanos y la ciencia clínica establecida.

En la investigación médica, por lo tanto, es esencial reunir a ingenieros de IA, científicos de datos y expertos clínicos. Esto ayuda a garantizar una validación e interpretación adecuadas de las ideas generadas por la IA.

Una vez que una aplicación de IA ha llegado a la práctica clínica, puede ser una poderosa herramienta de apoyo a la toma de decisiones, pero aún requiere supervisión humana. Sus hallazgos y recomendaciones deben ser juzgados o verificados por el médico, basándose en una comprensión holística del contexto del paciente.

  1. Robustez
Las soluciones habilitadas para IA no deberían hacer daño y deberían tener una protección adecuada contra el mal uso deliberado o inadvertido.

Para promover la aplicación responsable de la IA, también necesitamos establecer salvaguardas para evitar el uso indebido o deliberado. Tener un conjunto robusto de mecanismos de control ayudará a infundir confianza mientras se mitigan los riesgos potenciales.

Esto es particularmente importante porque el mal uso puede ser sutil y podría ocurrir inadvertidamente, con la mejor de las intenciones.

Por ejemplo, supongamos que se desarrolla un algoritmo para ayudar a detectar el cáncer de pulmón mediante tomografías computarizadas de baja dosis. Una vez que el algoritmo ha demostrado ser efectivo para esta aplicación, con una alta sensibilidad para detectar posibles signos de cáncer de pulmón, puede parecer obvio extender su uso también a un entorno de diagnóstico. Pero para un uso efectivo y confiable en ese entorno, es posible que el algoritmo deba ajustarse de manera diferente, para aumentar la especificidad para descartar personas que en realidad no tienen cáncer de pulmón. Un algoritmo totalmente diferente podría incluso funcionar mejor. Diferentes configuraciones, diferentes demandas.

Una forma de prevenir el mal uso (inadvertido) es monitorear el desempeño de las soluciones habilitadas para IA en la práctica clínica, y comparar los resultados reales con los obtenidos en el entrenamiento y la validación. Cualquier discrepancia significativa requeriría una mayor inspección.

La capacitación y la educación también pueden recorrer un largo camino para salvaguardar el uso adecuado de la IA. Es vital que cada usuario comprenda bien las fortalezas y limitaciones de una solución específica habilitada para IA.

  1. Justicia

Las soluciones habilitadas para IA deben desarrollarse y validarse utilizando datos que sean representativos del grupo objetivo para el uso previsto, evitando al mismo tiempo el sesgo y la discriminación.

Otra prioridad es asegurarse de que la IA sea justa y sin prejuicios. Debemos tener en cuenta que la IA solo es tan objetiva como los datos que la alimentamos. El sesgo podría arrastrarse fácilmente si se desarrollara y entrenara un algoritmo basado en un subconjunto específico de la población, y luego se aplicara a una población más amplia.

Tome la disección espontánea de la arteria coronaria (SCAD): una condición rara y a menudo fatal que causa una rotura en un vaso sanguíneo del corazón. El ochenta por ciento de los casos de SCAD involucran mujeres, sin embargo, las mujeres generalmente están subrepresentadas en los ensayos clínicos que investigan SCAD

. Si tuviéramos que desarrollar una herramienta de apoyo a la toma de decisiones clínicas impulsada por IA basada en datos de esos ensayos clínicos, aprendería de datos predominantemente masculinos. Como resultado, la herramienta puede no capturar completamente las complejidades de la enfermedad en las mujeres, perpetuando el sesgo que ya estaba presente en los ensayos.

Riesgos similares surgen cuando se desarrolla un algoritmo de IA en una región del mundo y luego se aplica en otra región sin revalidarlo primero en los datos locales. Por ejemplo, las condiciones cardiovasculares suelen afectar a las personas de la India 10 años antes que las personas de ascendencia europea [4]. Por lo tanto, si un algoritmo se ha entrenado solo en personas europeas, puede no detectar signos tempranos de enfermedad cardiovascular en personas indias.

¿Cómo prevenir tales prejuicios?

Primero, el desarrollo y la validación de la IA deben basarse en datos que representen con precisión la diversidad de personas en el grupo objetivo. Cuando la IA se aplica a un grupo objetivo diferente, primero debe revalidarse, y posiblemente volverse a entrenar.

El desarrollo y la validación de la IA deben basarse en datos que representen con precisión la diversidad de personas en el grupo objetivo.

Desde mi experiencia en Philips, tener una organización diversa, con equipos de investigación en China, EE. UU., India y Europa, también ayuda a crear conciencia sobre la importancia de la equidad en la IA. La diversidad en los entornos fomenta una mentalidad inclusiva.

  1. Transparencia

Las soluciones habilitadas para IA requieren revelar qué funciones y características están habilitadas para AI, el proceso de validación y la responsabilidad de la toma de decisiones final.

Como quinto y último principio, la confianza pública y la adopción más amplia de IA en la atención médica dependerán en última instancia de la transparencia. Cada vez que se aplica AI en una solución, debemos ser abiertos al respecto y revelar cómo se validó, qué conjuntos de datos se usaron y cuáles fueron los resultados relevantes. También debe quedar claro cuál es el papel del profesional de la salud en la toma de una decisión final.

Pero quizás lo más importante es que se puede lograr una transparencia óptima mediante el desarrollo de soluciones habilitadas para IA en asociación. Al forjar una estrecha colaboración entre los diferentes actores del sistema de salud (proveedores, pagadores, pacientes, investigadores, reguladores), podemos descubrir y abordar conjuntamente las diversas necesidades, demandas y preocupaciones que deben tenerse en cuenta al desarrollar soluciones habilitadas para IA. No como una ocurrencia tardía, sino desde el principio, en un diálogo abierto e informado.

Dando forma al futuro de la IA en la atención médica juntos

En conjunto, creo que estos cinco principios pueden ayudar a allanar el camino hacia el uso responsable de la IA en aplicaciones de salud y salud personal. Sin embargo, también me doy cuenta de que ninguno de nosotros tiene todas las respuestas. Surgirán nuevas preguntas a medida que continuemos en este emocionante camino de descubrimiento e innovación con IA, y espero discutirlas juntas

 

Autor 

Henk Van Houten

Vicepresidente Ejecutivo, Director de Tecnología de Philips

Referencia 

Centro de Noticias Philips

 

 

 

Quizá también te interese

Are cardiologists ready to combat COVID-19? Doctors at Milan (Italy) L. Sacco Hospital to use new imaging technologies in the fight against coronavirus

Ver Artículo

Philips recibe la aprobación de la FDA para el uso de su portafolio de ultrasonidos para manejar complicaciones pulmonares y cardíacas relacionadas con COVID-19

Ver Artículo

Andover y Erbe firmaron alianza para distribuir equipos quirúrgicos de alto estándar

Ver Artículo

El cuidado respiratorio dentro y fuera de casa

Ver Artículo