Los nuevos estándares para los ensayos clínicos de IA ayudarán a detectar el aceite de serpiente y la exageración

Las noticias: Un consorcio internacional de expertos médicos ha introducido los primeros estándares oficiales para ensayos clínicos que involucran inteligencia artificial. La medida se produce en un momento en que la publicidad sobre la IA médica está en su punto máximo, con afirmaciones infladas y no verificadas sobre la eficacia de ciertas herramientas que amenazan con socavar la confianza de las personas en la IA en general.

Qué significa: Anunciado en Medicina natural, el British Medical Journal y el Lancet, los nuevos estándares amplían dos conjuntos de pautas sobre cómo se realizan y se informan los ensayos clínicos que ya se utilizan en todo el mundo para el desarrollo de fármacos, pruebas de diagnóstico y otras intervenciones médicas. Los investigadores de IA ahora tendrán que describir las habilidades necesarias para usar una herramienta de IA, el entorno en el que se evalúa la IA, detalles sobre cómo los humanos interactúan con la IA, el análisis de casos de error y más.

Por qué es importante: Los ensayos controlados aleatorios son la forma más confiable de demostrar la efectividad y seguridad de un tratamiento o técnica clínica. Son la base tanto de la práctica médica como de la política sanitaria. Pero su confiabilidad depende de si los investigadores se apegan a pautas estrictas sobre cómo se llevan a cabo y se informan sus ensayos. En los últimos años, se han desarrollado y descrito muchas herramientas nuevas de IA en revistas médicas, pero su efectividad ha sido difícil de comparar y evaluar porque la calidad de los diseños de los ensayos varía. En marzo, un estudio en el BMJ advirtió que la investigación deficiente y las afirmaciones exageradas sobre lo buena que era la IA para analizar imágenes médicas representaban un riesgo para millones de pacientes.

Exageración máxima: La falta de estándares comunes también ha permitido a las empresas privadas jactarse de la efectividad de su IA sin enfrentar el escrutinio que se aplica a otros tipos de intervención médica o diagnóstico. Por ejemplo, la empresa de salud digital con sede en el Reino Unido Salud de Babylon fue criticado en 2018 por anunciar que su chatbot de diagnóstico estaba «a la par con los médicos humanos», sobre la base de una prueba que los críticos argumentaron que era engañoso.

Babylon Health no está solo. Los desarrolladores han afirmado que las IA médicas superan o igualan la capacidad humana durante algún tiempo, y la pandemia ha acelerado esta tendencia a medida que las empresas compiten para hacer notar sus herramientas. En la mayoría de los casos, la evaluación de estas IA se realiza internamente y en condiciones favorables.

Promesa futura: Eso no quiere decir que la IA no pueda vencer a los médicos humanos. De hecho, la primera evaluación independiente de una herramienta de diagnóstico de IA que superó a los humanos en la detección de cáncer en mamografías fue publicado solo el mes pasado. El estudio encontró que una herramienta hecha por Lunit AI y utilizada en ciertos hospitales en Corea del Sur terminó en el medio del grupo de radiólogos contra los que se probó. Era incluso más preciso cuando se combinaba con un médico humano. Al separar lo bueno de lo malo, los nuevos estándares facilitarán este tipo de evaluación independiente y, en última instancia, conducirán a una IA médica mejor y más confiable.

Source link

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *