intech.media

世界のヘルスケアテクノロジーの最新トレンドを発信する情報サイト

intech.media

世界のヘルスケアテクノロジーの最新トレンドを発信する情報サイト

皮膚科の抱える人種問題をAIが深刻化させる可能性 

 AI(人工知能)は驚異的な速さで医学に変革を与えおり、医療現場の最前線にはもちろん、患者にとって身近な診療所・病院にも存在します。AIのようなスマートシステムは患者のデータに働きかけ、症例ファイルを解析することで臨床医の診断を手助けしています。 

 AIは私たち人類からあらゆることを学習しますが、これは医療従事者にとって良い影響だけではなく悪い影響を与える可能性も持ち合わせているのです。良い影響とは、AIは膨大な量の患者データを吸収することができるため、デジタル診断ツールの広範囲での運用可能になることです。これは患者の診断にとって画期的であり、効率を上げることができます 

 しかしながら、先述したように悪い影響もあります。特に医療システムに偏見や不正がある場合、AIはそれを吸収して事態をより深刻化させる可能性があるということです 

 病理診断においてAIが最も得意としている分野は皮膚科学でしかし、残念なことにこの分野は医学の中で最も人種的に偏ったものの一つといわれています 

AI, ABCDルール, 治療, 皮膚科, 腫瘍, 肌の色, バイアス, 偏見, 医療

AIが皮膚科学の診断に適している理由 

皮膚科では軽度から中等度までの様々な皮膚疾患の状態を調べます。これにはニキビや乾癬、さらに皮膚がんなどの重篤な症状が含まれています。この分野は髄膜炎やCOVID-19などのリスクの高い疾患につながる発疹の認識にも重要な役割を果たしている。 

 他の専門医には診断のための様々なデータがあります。しかし、皮膚科医の場合、患者の皮膚を観察して発疹や病変などの異常がないかを調べるという昔ながらの方法をとらなければなりません。このように時間をかけて膨大なデータを蓄積することで、誰が重篤な症状を持っていて、局所治療を必要としているのかを素早く判断することができるのです。  

皮膚科医は病気を特定するために特定の診断ツールを用います。例えば、腫瘍がメラノーマ(悪性黒色腫であるか否かを判断するために腫瘍の特徴を観察する場合、以下のABCDルールを用います。  

  • A(asymmetry=形の非対称性)非対称性のある形をしているかどうか
  • B(border irregularity=周りの皮膚との境界)境界は不規則な形をしているかどうか
  • C(color variegation=色のむら)色のむらがあり、均一でないか
  • D(diameter=直径)直径6mmを超えているかどうか

このような診断ツールがあるとはいえ、全てのメラノーマが同じ特徴を持っているわけではないため、皮膚科医が悪性の腫瘍を特定できるようになるには、多くの皮膚がんの症例を研究する必要があるのです。 

AIはこの診断を改善するための完璧なツールだといえます。現代のAIは機械学習(ML)と呼ばれる技術を使っています。MLアルゴリズムは大量のデータを吸収してそれを学習し、さらに繰り返しパターンを検出することによって研究します。このアルゴリズムはこれらのパターンを用いてリスクを予測することができます。 

AIに何千枚もの皮膚がんの写真を集めたトレーニングデータを与えた場合、彼らは写真を研究し、ABCDルールに従って診断します。将来的には、このアルゴリズムは潜在的ながんのリスクを正確に検出し、発病を未然に防ぐことを可能にするでしょう。 

しかし、これが機能するためには正確なデータをAIに学習させる必要があります。 

なぜ皮膚科には人種的な問題があるのか 

2011年にアメリカの皮膚科医を対象行われた調査において、彼らのうち約半数が現在の医学研修は黒人の皮膚を治療するには不十分だと感じていることが判明しました。その原因は診断データの不足です。医学の教科書に掲載されている黒人の肌の写真はわずか4.5%だけで、さらに健康保険の適用範囲に差があるため、黒人の患者は医療を受ける可能性が低いのです。 

 最近では、COVID-19の文献に人種的な盲点があることが判明しました。発疹はこの世界的な流行病の症状の一つであるため、皮膚科医がCOVID-19発疹を診断する方法を知ることはもちろん重要です。しかし、COVID-19の患者のうち30%が黒人であるにも関わらず、公表された文献には一枚も黒人の皮膚の写真が載っていなかった。 

 皮膚の色は目で確認しやすいため、患者自身が診断するのに役立ちます。ここで以下に自己判断可能な例を提示します。 

・悪性黒色腫は他の皮膚と比較して色が濃い 

・湿疹や乾癬などの一般的な病気は皮膚の色では判断できない 

・全身性エリテマトーデスのような病気は広範囲の皮膚の色が濃くなり、正常な色をしている皮膚の方が目立つようになる 

皮膚の色が濃い人は色素沈着してしまう場合が多く、皮膚の斑点が濃くなる 

何が問題なのかを把握できないと、皮膚科で適切な治療を受けることができません。そのため治療の結果に影響を与えてしまいます。例えば、黒人の患者は健康保険に加入していても、乾癬の治療を受ける可能性が他の患者よりかなり低いことがわかっています。 

 

AIの診断が皮膚の色に影響を受けないためには 

AIが真の知能であるというにはほど遠いといえます。機械学習ツールはトレーニングデータを調べ、洗礼されたパターンを推定しますが、データの質を疑問視することはありません。つまり、バイアスのかかったデータを入力すると、そのままバイアスのかかった結果が出力されてしまうのです。例えば次の場合を見てみましょう。

研究者が猩紅熱の発疹の写真が集められたトレーニング用のデータセットを作成します。ここで撮影対象の患者は全員皮膚の色が薄いとします。そしてMLアルゴリズムはこれらのデータを研究して、写真の繰り返しパターンを識別し、猩紅熱の発疹が独特のピンク色を帯びているという特徴を認識します。その後、臨床医がこのMLアルゴリズムを用いて皮膚の色の濃い患者の診断をすると、患者に猩紅熱と発疹があったとしても発疹がピンク色でないため、この患者は陰性であると判断してしまうのです 

AIの観点からすると、トレーニングデータに基づいて判断しただけなのでこれは正しい診断だといえます。しつまり、AIはデータを正しく分析することができていたのです。しかし、道徳的に正確な診断を可能にするには何をすべきでしょうか。 

皮膚科, バイアス, 偏見

バイアスの影響を受けない皮膚科学AIをつくるには?

LEO Pharmaは近年、技術と医療分野において優秀な人材を集め、問題を解決するために Hacking Dermatologyチャレンジを行いました。ここでは皮膚の色が濃い人専用の日焼け止め開発や、理容師を訓練することによる頭皮の病気の特定など革新的なアイディアが生まれました。その中でも、医療AIに関連する3つのアイディアに着目していきます。 

  • オープンソースの皮膚科学:皮膚の色に焦点を当てた皮膚科学画像の公開リポジトリであり、ここでは医学生に有用な資料を提供し、出版されている資料の質を改善できます。
     
  • DermBox:すべての種類の皮膚の状態を高画質で画像化することのできる、専用の写真データボックスです。一般的なカメラでは不可能な細かい画像化が可能です。
  • プロジェクト:Agora皮膚科学画像の巨大なライブラリをつくるためのビックデータプロジェクト。このリポジトリはAIや機械学習プロジェクトの基盤となるでしょう。  

多様なAIをつくるためには、多様なデータにアクセスする必要があります。このようなプロジェクトは研究者が必要とするデータを提供するために大いに役立つでしょう。 

しかし、私たちは他の措置もとらなければならなりません。将来の皮膚科学ツールを構築するためには、以下のものが必要です。 

  • データの多様性:上記のようなデータ収集プロジェクトは大きな第一歩と言えますが、医療AI開発チームはこれらのデータを確実に使う必要があります。多様性はAIトレーニングデータが適切であることを保証するための基本的な品質チェックの一つであるべきです。 

 

  • 開発における多様性:テクノロジーには多様性が欠けています。例えばAI専門家のうち女性はわずか22%で、Google全従業員のうち黒人の割合はわずか2.5%にあたります。多様なチームはアルゴリズムに影響を与える偶発的なバイアスに対する有効な対策です。チームの中に様々な意見がある場合、差別問題に対して指摘される可能性が高くなります。 

 

  • 検査の多様性:臨床グレードの皮膚科AIはすでに検査段階にあります。スタンフォード大学は2017年にディープ・ラーニング・システムの初期臨床試験を実施しましたが、これは21人の有資格皮膚科医のパネルの性能に匹敵することがわかりました。この結果は有望ではありますが、研究者は対象に有色人種が含まれていることを確認する必要があります。これによってAIがすべての人のために正確に動作するのを確実にします。 

 

  • 患者のエンパワーメント:患者たちは皮膚科には多様性の問題があると長年訴えてきました。もしAIツールにも同様の問題があれば、患者が最初に問題を訴えることになりますそこで医療従事者は、患者の声に耳を傾け、患者の懸念を探り、そしてか正しくないことがあると判明した場合には行動を起こす義務があります。 

 つまり、多様性はプロセスの最後に調査するものではないということです。何らかの医療技術を開発しているのであれば、その過程のすべての段階において確実に用いる必要があります。 

 結論 

多様性と人工知能 (AI) の問題を議論するとき、私たち思い出さなければならないことがあります それは、AIは文化的な問題を解決することはできないということです。人工知能は、迅速、効率的、正確な医療の提供に役立ちます。しかし、差別に対処したり、包括性への取り組みに疑問を投げかけたりできるコンピュータは未だ存在しません。その仕事への責任は私たちにあります 

 しかし課題を意識すれば優れたデジタル医療ツールを作ることができるでしょう。適切な人材と適切なデータがあれば、すべての人に効果的な医療を提供するAIツールを構築することが可能なのです 

Leave A Reply