メディカル・テック

医療用AI機器が適切に評価されているかどうかを知るには

SHARE.

医療用AI機器が適切に評価されているかどうかを知るには

以前から人工知能(AI)はありましたが、近年では医療機器にも使用されるようになりました。これらのAI機器は、循環器内科医や腫瘍内科医など、多様な医療従事者に情報を提供しています。専門家は、AIから提供されるデータに基づき仕事をしますが、それは信用に値するのでしょうか。

FDA(米国食品医薬品局)は、AIを使用したものを含む医療機器の評価と承認を担当しています。実際、FDAは130以上のAI医療機器を承認し、その数は急速に増加しています。そのため、FDAの評価方法は万全とは言い難いと危惧されており、実際にチェックできる内容には限界がある可能性があります。

 

 

AIを搭載した医療機器の機能

医師が医療機器にAIを必要とする理由は何でしょう。

実は、検査結果の異常を見抜く能力は、医師よりもAIの方が優れている場合があるのです。例えば、がんの兆候を見つけるように訓練されたAIは、人間の目が認識するよりも素早く、腫瘍の兆候を拾うことができます。すぐに介入することで、多くの癌やその他の病気を早期に発見でき、患者にとってより良い結果につながります。

このような仕事をAIで行うことは理にかなっていますが、行き過ぎて医師の切り捨てが生じたり、医療関係者がAIに依存することで、何か別のものを見落とすのではないでしょうか。確かにその可能性は否めませんが、まず、現在のAI医療機器の使われ方に着目しましょう。

現在、AI医療機器は、脳ドックで出血の有無を確認したり、肺に血栓がないかどうかをチェックしたり、さらにはマンモグラフィで乳がんを確認するのにも使用されています。また、心臓用のAIデバイスは、数分間、心音を聞いただけでは不明瞭な心臓の問題をチェックするために使われています。心拍数を追跡し続けるウェアラブルは、他の方法では気づかない問題を見つけることが可能です。

AI技術, 医療機器, 人工知能, 機械学習, AI機器

 

FDAの評価は不十分なのか?

FDAが行う検査の精度はどの程度なのでしょうか。最近行われた評価では、FDAの検査には決定的な限界があることがわかりました。

2021年初頭の時点では、AIデバイスの信頼性と安全性を確保するための確固たるベストプラクティスはありません。取り組んではいるものの、規制基準はまだ技術に追いついていないのです。年初にはアクションプランが発表され、AIや機械学習の医療機器を確実に監督するためにFDAが取るべき今後のステップが示されました。

計画が策定されているとはいえ、常に進歩する新しい技術に適応するためには、時間をかけ進化させる必要があると予想されています。予想される計画の大部分を占めるのは、実際の状況でどれだけ機能するかを正確に確認するために、以前から使用されているデバイスの観察と評価です。

 

 

遡及的な研究

驚くべきことに、FDAが承認した130のAI医療機器のうち、126の機器はすべて遡及的な研究に基づいていたのです。最もリスクの高い54のテクノロジーについては、前向きな研究が行われていませんでした。これらの遡及的な研究では、ほぼすべてのケースで、評価が行われる前の臨床現場からデータが収集されていました。また、AI機器を使用した場合とそうでない場合の医師のパフォーマンスの比較がなされていないため、AI機器がより効果的であると示す基準値がありません。

また、遡及的な研究では、実際の患者の状況でデバイスがテストされていません。その代わり、過去の事例を確認するために使用されました。例えば、肺のがんを識別するように教育されたAIマシンは、結果がすでに判明している古い症例の画像を見せられることになります。これはいくつかの良い情報を提供しますが、最も正確な情報は、デバイスが臨床の場で生きた患者でテストされた実際の研究から得られます。

遡及的な評価は古いケースを使用するだけでなく、他のデバイスが準拠すべき基準を設定できません。これは、解決しなければ長期的に問題を引き起こす可能性があります。デバイスの使用後、実際にどれだけ機能しているかを再評価することが理想的です。また、正しい使い方をすることも重要ですが、これは多くのクリニックで問題になる可能性があります。医師がAIデバイスを本来の目的とは異なる用途に使用すると、情報が歪んだり、誤断につながる可能性があります。

大半のデバイスは、マルチサイト評価ではありませんでした。中には1つのサイトでしか評価されていないものもあります。これでは、機器の多様性が制限され、偏りが生じやすいため、FDAは機器を承認する際に使用する確かなデータがありませんでした。

その一例として、あるAIシステムは、1つの医療機関の患者データに対してトレーニングされ、評価に使用されました。そのシステムを他の2つの医療機関のデータと比較したところ、元の医療機関のデータよりも10%近く精度が低いことが判明したのです。また、このシステムは白人の患者に偏り、有色人種の患者に使用すると精度が落ちることも明らかになりました。

結局、この技術が実際の現場でどのように機能し、効果をもたらすのか否かは誰にもわからないままです。それにもかかわらず、年々多くの機器が承認されています。これは、FDAの評価プロセスにおける深刻な限界であり、早急に対処する必要があります。

 

 

AI医療機器の未来

今後、各AIデバイスに課せられる規制や基準が厳しくなる可能性があります。結局のところ、本来の目的と異なる使い方をされる可能性が高いデバイスや、誤った情報を引き起こす可能性があるデバイスをリリースするのは危険なことなのです。

今後も申請が認められていくのであれば、新たな基準や試験方法が必須です。AIは非常に強力な医療ツールになる一方で、正しく使用されなければ危険なものになる可能性もあります。FDAは、安全な環境を整え、医療機器が適切にテストされ、一般の人々に使用できるようにすることに注力しています。

近い将来、評価方法が大きく改善されることが期待されます。

SHARE.

前の記事

医療におけるデジタルトランスフォーメーションの影響

次の記事

ヘルスケアにおけるIoTの7つの事例

関連記事