Clear Sky Science · es

Marco de razonamiento diagnóstico adaptativo para patología con modelos de lenguaje multimodales

· Volver al índice

Por qué importa esto para el diagnóstico del cáncer

Cuando un patólogo observa una muestra de tejido al microscopio, toma decisiones que pueden cambiar vidas: ¿hay cáncer?, ¿qué tipo es?, y ¿qué grado de agresividad podría tener? Los programas informáticos ya ayudan a analizar miles de imágenes de este tipo, pero la mayoría funcionan como cajas negras misteriosas, ofreciendo una respuesta de sí o no sin mostrar claramente su razonamiento. Este estudio presenta una nueva forma de combinar la comprensión de imágenes por parte de la IA con el razonamiento basado en lenguaje, de modo que el ordenador no solo indique su conclusión, sino que también explique el porqué, en términos que se alinean con la forma en que razonan los patólogos reales.

Convertir cajas negras en explicadores

La mayoría de los sistemas existentes para leer portaobjetos de patología se centran en la precisión bruta. Aprenden patrones a partir de millones de píxeles y luego generan una etiqueta como

Cita: Hong, Y., Kao, KC., Edwards, L. et al. Adaptive diagnostic reasoning framework for pathology with multimodal large language models. Commun Med 6, 236 (2026). https://doi.org/10.1038/s43856-026-01491-z

Palabras clave: patología computacional, IA explicable, diagnóstico de cáncer, modelos de lenguaje multimodales, imágenes médicas