Clear Sky Science · es

Investigación sobre expectativas y necesidades respecto al uso de grandes modelos de lenguaje en las clínicas universitarias bávaras

· Volver al índice

Por qué esto importa para pacientes y profesionales

Los hospitales están empezando a experimentar con los mismos chatbots que muchas personas usan ya en casa, pero para tareas mucho más serias. Este estudio examina cómo valoran estas herramientas los médicos, estudiantes de medicina y el personal hospitalario en las clínicas universitarias bávaras: para qué las utilizan ahora, qué esperan obtener y qué les genera inquietud. Comprender sus opiniones ayuda a diseñar cómo se introducirá la inteligencia artificial en clínicas reales, donde están en juego tanto la seguridad del paciente como la confianza.

Figure 1
Figure 1.

Quiénes fueron encuestados y qué hacen ya

Los investigadores encuestaron a 120 personas en cinco hospitales universitarios de Baviera: 70 estudiantes de medicina, 36 médicos y 14 miembros del personal administrativo. Muchos encuestados ya usan grandes modelos de lenguaje en su trabajo o estudios diarios, especialmente estudiantes y médicos. Recurren a estas herramientas para buscar literatura, generar ideas, traducir textos, redactar correos y informes, resumir documentos largos y aclarar conceptos desconocidos. El personal administrativo las usa con menos frecuencia, pero muestra interés en la transcripción de voz y la gestión de documentos. Al mismo tiempo, una proporción significativa—alrededor de una cuarta parte de estudiantes y médicos y un tercio de administradores—informa no usar estas herramientas en absoluto, y muchos estudiantes sienten que su comprensión de la tecnología queda por detrás de la de sus compañeros.

Lo que consideran útil

Al preguntar qué usos futuros serían más relevantes, los encuestados de todos los grupos destacaron la ayuda para traducir informes médicos y convertir el lenguaje hablado en texto escrito. También valoraron la redacción automática de informes clínicos, el resumen de documentos extensos y la simplificación del lenguaje técnico para que los pacientes lo entiendan con más facilidad. En contraste, funciones más complejas—como sugerir diagnósticos o proporcionar razonamientos médicos detallados—fueron valoradas como menos importantes, especialmente por el personal administrativo. Contestar preguntas de pacientes directamente fue la idea menos atractiva; aun así, la mayoría dijo que se sentiría cómoda dejando que un chatbot redactara respuestas en una crisis, siempre que un experto humano revisara las respuestas antes. Este patrón sugiere que los profesionales agradecen el apoyo en tareas rutinarias y textuales, pero quieren mantener un control humano estricto sobre las decisiones y la comunicación clínica.

Qué cambio esperan

La mayoría de los participantes cree que los modelos de lenguaje tendrán un efecto positivo en su campo, y muchos ya perciben un impacto notable hoy o esperan uno en la próxima década. Anticipan que la automatización de papeleo repetitivo podría liberar tiempo para la atención directa al paciente y favorecer tratamientos más personalizados y basados en la evidencia, lo que potencialmente haría la atención más rentable. Las opiniones son más mixtas respecto a cuánto remodelará la tecnología las necesidades de personal. Algunos prevén que se necesitarán menos trabajadores, especialmente en funciones administrativas, pero la mitad de los encuestados piensa que la necesidad total de personal se mantendrá más o menos igual. Los estándares de exactitud también dependen de la tarea: para cribados tempranos realizados por no especialistas, los encuestados aceptarían un rendimiento cercano al de un médico medio, pero para herramientas que guíen decisiones terapéuticas de médicos formados, esperan un rendimiento claramente superior.

Qué les preocupa más

A pesar del optimismo, los participantes expresaron grandes inquietudes. Médicos y estudiantes se mostraron especialmente preocupados por la naturaleza de “caja negra” de estos sistemas: no pueden ver con facilidad cómo se llegó a una conclusión, pero deben asumir la responsabilidad de actuar sobre ella. También temen amenazas a la privacidad de los datos, dado que los historiales médicos contienen información extremadamente sensible, y se muestran inquietos por una dependencia excesiva de grandes empresas tecnológicas en la sanidad. Los estudiantes además temen un daño en la relación de confianza entre médico y paciente si las máquinas parecen tomar decisiones clave. El personal administrativo está especialmente ansioso por cómo la automatización podría afectar la seguridad laboral. En todos los grupos hubo un deseo claro de disponer de herramientas que expliquen su razonamiento, protejan los datos confidenciales y apoyen más que reemplacen el juicio humano.

Figure 2
Figure 2.

Cuán preparados están los hospitales—y qué debe cambiar

La señal de alarma más evidente del sondeo es que la mayoría de los encuestados siente que sus instituciones no están preparadas para la introducción de herramientas basadas en modelos de lenguaje. Aunque muchos ya usan estos sistemas de forma privada para el trabajo, a menudo lo hacen sin orientación, formación o infraestructuras aprobadas, lo que plantea serios riesgos de privacidad y seguridad. Al preguntar qué debería cambiar, la petición más común fue educación: cursos y seminarios que expliquen qué pueden y qué no pueden hacer estos modelos y cómo usarlos de manera responsable. Los participantes también pidieron inversión en infraestructuras técnicas seguras, mejores registros digitales para sustituir las notas manuscritas, reglas claras sobre responsabilidad legal y una cooperación más estrecha con los departamentos de TI hospitalarios. Muchos enfatizaron que los sistemas deben funcionar bien en alemán e integrarse sin problemas con el software hospitalario existente.

Qué significa esto de cara al futuro

Para un público general, el mensaje principal es que muchas personas dentro de los hospitales ya ven los chatbots y herramientas afines como asistentes útiles, especialmente para reducir el papeleo tedioso y mejorar cómo se comparte la información con los pacientes. Sin embargo, son igualmente conscientes de los peligros de avanzar deprisa sin salvaguardias apropiadas. El estudio sugiere que, si los hospitales proporcionan formación, protecciones robustas de privacidad y sistemas bien integrados que mantengan a los médicos firmemente al mando, los modelos de lenguaje podrían apoyar una atención más eficiente y personalizada en lugar de reemplazar la pericia humana. En otras palabras, el futuro que estos profesionales imaginan no es un “médico robot”, sino herramientas más inteligentes que ayuden a los clínicos humanos a hacer su trabajo mejor y con más seguridad.

Cita: Vladika, J., Fichtl, A. & Matthes, F. Investigating expectations and needs regarding the use of large language models at Bavarian university clinics. Sci Rep 16, 10505 (2026). https://doi.org/10.1038/s41598-026-45245-2

Palabras clave: grandes modelos de lenguaje en sanidad, adopción de IA médica, transformación digital hospitalaria, actitudes del personal clínico, IA y privacidad del paciente