Clear Sky Science · fr
Étudier les attentes et les besoins concernant l’utilisation des grands modèles de langage dans les cliniques universitaires bavaroises
Pourquoi cela compte pour les patients et les professionnels
Les hôpitaux commencent à expérimenter les mêmes chatbots que beaucoup utilisent désormais à domicile, mais pour des tâches bien plus graves. Cette étude examine comment les médecins, les étudiants en médecine et le personnel hospitalier des cliniques universitaires bavaroises perçoivent ces outils : à quoi ils les utilisent déjà, ce qu’ils espèrent en tirer et ce qui les rend méfiants. Comprendre leurs points de vue aide à orienter l’introduction de l’intelligence artificielle dans les cliniques réelles, où la sécurité des patients et la confiance sont en jeu. 
Qui a été interrogé et ce qu’ils font déjà
Les chercheurs ont interrogé 120 personnes dans cinq hôpitaux universitaires de Bavière : 70 étudiants en médecine, 36 médecins et 14 membres du personnel administratif. Beaucoup d’enquêtés utilisent déjà des grands modèles de langage dans leur travail quotidien ou leurs études, en particulier les étudiants et les médecins. Ils recourent à ces outils pour chercher dans la littérature, générer des idées, traduire des textes, rédiger des e‑mails et des rapports, résumer de longs documents et clarifier des notions inconnues. Le personnel administratif les utilise moins souvent mais manifeste de l’intérêt pour la transcription de la parole et le traitement des documents. En même temps, une part notable — environ un quart des étudiants et des médecins et un tiers des administratifs — déclare ne pas utiliser du tout ces outils, et nombreux sont les étudiants qui estiment que leur compréhension de la technologie est inférieure à celle de leurs pairs.
Ce que les gens jugent utile
Lorsqu’on leur a demandé quelles utilisations futures seraient les plus pertinentes, les répondants de tous les groupes ont mis en avant l’aide à la traduction de rapports médicaux et à la transformation de la parole en texte écrit. Ils ont également apprécié la rédaction automatique de comptes rendus cliniques, la synthèse de longs documents et la simplification du langage technique pour le rendre plus accessible aux patients. En revanche, les rôles plus complexes — comme proposer des diagnostics ou fournir un raisonnement médical détaillé — ont été jugés moins importants, notamment par le personnel administratif. Répondre directement aux questions des patients était l’idée la moins attrayante, pourtant une majorité a dit se sentir à l’aise de laisser un chatbot rédiger des réponses en situation de crise, à condition qu’un expert humain révise d’abord les réponses. Ce schéma suggère que les professionnels accueillent l’appui pour des tâches routinières et textuelles mais souhaitent conserver un contrôle humain strict sur les décisions cliniques et la communication.
Quelle ampleur de changement ils anticipent
La plupart des participants estiment que les modèles de langage auront un effet positif sur leur domaine, et beaucoup perçoivent déjà un impact notable aujourd’hui ou s’attendent à en voir un dans la décennie à venir. Ils anticipent que l’automatisation des tâches administratives répétitives pourrait libérer du temps pour les soins directs aux patients et favoriser des traitements plus personnalisés et fondés sur des preuves, rendant potentiellement les soins plus rentables. Les avis sont plus partagés quant à l’impact sur les besoins en personnel. Certains prévoient une réduction des effectifs, notamment pour les fonctions administratives, mais la moitié des répondants pense que les besoins globaux en main‑d’œuvre resteront à peu près les mêmes. Les exigences en matière de précision dépendent aussi de la tâche : pour un dépistage précoce réalisé par des non‑spécialistes, les répondants acceptent des performances proches de celles d’un médecin moyen, alors que pour des outils guidant des décisions de traitement destinées à des médecins formés, ils attendent des performances clairement supérieures.
Ce qui les inquiète le plus
Malgré l’optimisme, les participants ont exprimé de fortes inquiétudes. Les médecins et les étudiants craignent avant tout le caractère « boîte noire » de ces systèmes : ils ne peuvent pas facilement voir comment une conclusion a été atteinte, alors qu’ils doivent assumer la responsabilité de l’action qui en découle. Ils redoutent également des atteintes à la confidentialité des données, étant donné que les dossiers médicaux contiennent des informations extrêmement sensibles, et se montrent préoccupés par une dépendance accrue des soins de santé vis‑à‑vis de grandes entreprises technologiques. Les étudiants s’inquiètent en outre d’une atteinte à la relation de confiance entre médecin et patient si les machines semblent prendre des décisions clés. Le personnel administratif est particulièrement anxieux quant aux répercussions de l’automatisation sur la sécurité de l’emploi. Tous groupes confondus, il existe un souhait clair d’outils qui expliquent leur raisonnement, protègent les données confidentielles et soutiennent plutôt que remplacent le jugement humain. 
À quel point les hôpitaux sont prêts — et ce qui doit changer
Le signal d’alarme le plus net issu de l’enquête est que la plupart des répondants estiment que leurs établissements ne sont pas prêts à l’introduction d’outils basés sur des modèles de langage. Bien que beaucoup utilisent déjà ces systèmes de manière privée pour le travail, ils le font souvent sans directives, formation ou infrastructure approuvée, ce qui pose de sérieux risques pour la confidentialité et la sécurité. Lorsqu’on leur a demandé ce qui devrait changer, la demande la plus fréquente a été la formation : des cours et des séminaires expliquant ce que ces modèles peuvent et ne peuvent pas faire et comment les utiliser de manière responsable. Les participants ont également réclamé des investissements dans une infrastructure technique sécurisée, des dossiers numériques de meilleure qualité pour remplacer les notes manuscrites, des règles claires sur la responsabilité juridique et une coopération plus étroite avec les services informatiques hospitaliers. Beaucoup ont insisté pour que les systèmes fonctionnent bien en allemand et s’intègrent de manière fluide aux logiciels hospitaliers existants.
Ce que cela signifie pour l’avenir
Pour un non‑spécialiste, le message principal est que de nombreuses personnes au sein des hôpitaux considèrent déjà les chatbots et outils similaires comme des assistants utiles, notamment pour réduire les tâches administratives fastidieuses et améliorer le partage d’informations avec les patients. Toutefois, ils sont tout aussi conscients des dangers d’une mise en œuvre précipitée sans garde‑fous appropriés. L’étude suggère que si les hôpitaux offrent formation, protections robustes de la vie privée et systèmes bien intégrés qui maintiennent les médecins en position de décision, les modèles de langage pourraient soutenir des soins plus efficaces et personnalisés sans remplacer l’expertise humaine. Autrement dit, l’avenir envisagé par ces professionnels n’est pas celui d’un « médecin robot », mais d’outils plus intelligents qui aident les cliniciens humains à mieux et plus sûrement accomplir leur travail.
Citation: Vladika, J., Fichtl, A. & Matthes, F. Investigating expectations and needs regarding the use of large language models at Bavarian university clinics. Sci Rep 16, 10505 (2026). https://doi.org/10.1038/s41598-026-45245-2
Mots-clés: grands modèles de langage en santé, adoption de l’IA médicale, transformation numérique des hôpitaux, attitudes du personnel clinique, IA et confidentialité des patients