Clear Sky Science · ja
医療におけるエージェンシック人工知能の役割:スコーピングレビュー
病院裏方のより賢い助っ人たち
病院にいるデジタルアシスタントが、ただ質問に答えるだけでなく、現場で何が起きているかを静かに観察し、次に何をすべきかを判断し、毎回人に指示されなくても行動を起こす姿を想像してください。本稿はそのような新興技術――「エージェンシックAI」と呼ばれるもの――を取り上げ、こうしたシステムが医師、看護師、患者を実際の臨床現場で安全に支援できる段階にどれほど近づいているかを検証します。

単純なプログラムから目的志向のパートナーへ
医療におけるコンピュータは当初、計算機や厳格なルール従属の道具でした。画像を分類したり、異常な検査値にフラグを立てたりはできても、正確に何をすべきか指示されなければ動けませんでした。チャットボットのような生成系の新しいシステムはテキストや画像、コードを作り出せますが、それでも人間のプロンプトを待ちます。エージェンシックAIはさらに一歩進みます。これらのシステムは、トラウマチームの対応を改善する、がん治療を個別化する、子どもの療育の進捗を助けるといった「目標」を中心に設計されます。複数の情報源からデータを集め、行動計画を立て、他のソフトウェアツールを自律的に呼び出し、事態の推移に応じて行動を調整します。ただし、重要な意思決定は人間が担います。
こうしたデジタルエージェントが試されている場面
著者らは主要な研究データベース5つを検索し、医療において真により自律的なスタイルのAIを用いた研究は世界でわずか7件しか見つかりませんでした。対象は救急医療、がん治療と診断、医用画像、リハビリテーション、創薬のためのタンパク質解析などに及びました。あるシステムはトラウマ症例をリアルタイムで追跡し、より完全な報告を作成してバイタルサインが逸脱した際にアラートを出しました。別のシステムはがん生存者に歩行を促すためにカスタマイズされた日々のメッセージを送信しました。バーチャルリアリティのゲームは難易度を調整してダウン症の子どもの運動・社会的スキルを育てました。他には胸部X線の読影、放射線治療の計画、血中の微粒子から肝がんを検出する試み、複雑なタンパク質データの自動解析といった研究があり、新しい治療法に関わる解析が行われました。

これらのシステムの得意・不得意
これらの実験を通じて、エージェンシックなシステムは一定の自律性をもって動けることが示されました。明確な目標を追い、分析を自発的に実行したり他のプログラムを呼び出したりし、場合によっては複数の協調するAI「エージェント」を組み合わせることもありました。結果はしばしば有望でした。あるツールは、通常の血液マーカーが誤導する患者を含めて肝がんと非がんを94%以上の精度で識別しました。別のシステムは放射線治療の設計で専門家のプランナーに匹敵またはそれを上回り、胸部X線の推論システムは各問いに対して再学習することなく最先端の性能に達しました。しかし、これらの成功はほとんどが狭いタスクに限定されていました。多くのシステムは制御された環境で、注意深く整備されたデータ上でしか機能せず、長期にわたって真に学習・改善したり、過去の患者を意味のある形で記憶する能力はありませんでした。
安全性、信頼、そして人間の役割
レビューは重要なリスクも指摘しています。これらのエージェントは自律的にデータを取り出したり計画を提案したりアラートを発したりできるため、誤りや調整不良が時間的に重要な分野、例えばがん医療などでは深刻な結果を招く可能性があります。多くの研究はバイアスのリスクが中等度から重大であり、日常的な臨床での検証は行われていません。さらに、内部推論が見えにくい「ブラックボックス」振る舞いやサイバーセキュリティ、そして自律システムが関与した場合の責任所在についての懸念もあります。米国や欧州の規制当局は医療AIを「高リスク」として扱い始めていますが、現在の規則は高度に自律的で目標指向のソフトウェアを想定して作られてはいません。著者らは人的な監視が中心であり続けること、そしてシステムがどこまで自律的に行動できるかについて明確なルールが必要だと主張しています。
次に何をすべきか
現時点では、医療におけるエージェンシックAIは完成品というより有望なプロトタイプに過ぎません。レビューは、これらのシステムが患者のモニタリングやリハビリ支援から複雑ながん治療の計画に至るまで幅広いタスクで役立ち得ることを示していますが、制御された試験で実患者を扱った研究は1件しかありません。著者らは「エージェンシック」とみなすための共通定義、安全性と便益を測る標準的な指標、そして規模の大きい実臨床研究を求めています。病院側もより良いデータ基盤、強固なプライバシー保護、臨床者が主導権を維持するための明確なガイドラインを整備する必要があります。これらの基盤が慎重に築かれれば、エージェンシックAIは負担を軽減し、意思決定を鋭くし、最終的には患者ケアを改善する信頼できるデジタルの協働者へと成熟し得る――独りで判断する不透明なブラックボックスになるのではなく。
引用: Collaco, B.G., Haider, S.A., Prabha, S. et al. The role of agentic artificial intelligence in healthcare: a scoping review. npj Digit. Med. 9, 345 (2026). https://doi.org/10.1038/s41746-026-02517-5
キーワード: エージェンティックAI, 医療の自動化, 臨床意思決定支援, 医用画像AI, デジタルヘルス