スマートシティ

次世代AIの鍵となる”多様性”とは

SHARE.

次世代AIの鍵となる”多様性”とは

人工知能(AI)は私たちの生き方や働き方を変え、未来を形作ろうとしています。

それだけでなく人類の歴史が始まって以来続く問題、つまり差別の解消にも一役買ってくれることを多くの人が期待しています。コンピュータープログラムであるAIは人種差別や性差別、その他の偏見を持つことはできないと信じられているからです。

しかし、本当にAIは差別や偏見を持たないのでしょうか?AIを組み込んだ様々なシステムが稼働するにつれて、AIは常に作成者の偏りを反映していることがわかってきました。

 

AIが目に見えない偏見をどのように明らかにしたか

 2020年9月、ユーザーより自動で画像から顔を検出し自動トリミングする機能が白人基準の人種差別ではないかと指摘され、ツイッター社は批判の声に晒されました。

問題となったのは、顔写真の位置にかかわらず、黒人と白人の画像を掲載すると白人が優先してプレビュー表示されたことから、ツイッターの画像管理システムのAIのアルゴリズムが白人に最適化されているのではないかという点でした。

しかしその後の調査により、このプログラムは顔のパーツの輪郭や立体感を識別しており、人種よりも画像をトリミングするシステムに影響する可能性が高い事が判りました。ツイッター社にとってもPR災害でした。

このAIシステムは画像の中で視覚的に目立つ部分を判断してそこを中心にトリミングを行うようになっていたのですが、人の目は一般的に顔や明暗のはっきりしたところにいきやすいため、結果的に白人の顔を中心としたサムネイルが生成されていたのです。
このツイッター社の事例はAIの判断基準に関する問題でしたが、バイアスはさらに厄介な形でAIに紛れ込むことがあります。

それはAIの学習に使用するデータ群の偏りによるものです。

2018年Amazonは、ヘッドハンティングに使用するAIシステムが女性候補者を無視する決定をしたことに困惑するコメントを発表しました。また米国の司法制度においては、犯罪者の再犯リスクを自動的に評価するシステム「COMPAS」について多くの人々が深刻な懸念を表明しています。

アメリカの非営利報道機関ProPublicaの調査によると、COMPASは黒人が白人の2倍の確率で再犯の可能性があるという不正確な危険度判定を下しています。
これらはAIの学習に使用されたデータ群に偏りがあったために起きた判定ミスです。
コンピューター科学の古い言葉に、「ゴミを入れたらゴミが出てくる」というものがあります。
この言葉はコンピューターは多くの問題を解決できるのと同時に、悪いプログラミングや悪いデータの影響からは逃れられないことを思い出させてくれます。

これは人種や性別などのバランスが取られていない開発チームに設計され、同様にバランスが考慮されていないデータ群で学習したAIにも当てはまります。
世界的コンサルティング会社マッキンゼー・アンド・カンパニーのレポートでは「AIは偏見を減らすのに役立つが、同時に偏見を再生産することもできる」と簡潔に述べてられています。

偏見, バイアス, 差別, AI, 人工知能, Twitter, 自動トリミング, 人種問題, 多様性

多様性がAIをどのように救うことができるか

公平性をAIに組み込むことは、論理的かつ哲学的なパズルです。
プリンストン大学のコンピューター科学者アーヴィンド・ナラヤナンは公平性をAIに組み込むパターンを21種類も開発しましたが、その彼でさえ、すべての不測の事態をカバーしているわけではないことを認めています。

しかしその問題に大きな効果のある、1つのシンプルな方策があります。
それは、AI開発のすべての段階で開発者の多様性を向上させることです。その取り組みは既に始まっています。

スタンフォード大学を中心にした人工知能チームは、女性とマイノリティによるAI開発を奨励するために全国で行われている、素晴らしい先進的な取り組みについてブログに綴りました。彼らの取り組みの中心を占めるのは「AI4ALLサマープログラム」と名づけられた夏休み合宿です。

全国の大学で運営されている16の合宿には女性、低所得学生、少数民族、LGBTに代表される性的マイノリティーの人々など、さまざまなグループから優秀な学生が多数参加しています。参加した学生はコンピューターに関する知識や経験は限られていても、それを十分に補うだけの意欲とビジョンを持ってプログラムに取り組んでいます。

プログラムマネージャーのジョナサン・ガルシア氏は、次のように述べています。「AI分野の開発者が幅広い人種や性別、文化を持つ人たちによって構成されることが必要です。なぜならAIは就職、ローンの審査、入国管理など私たちの日常生活に広く影響を与えているからです。これらのAIを使ったツールは一般の人々によって作られています。そしてツールやAI技術の作成者には、これまで社会から軽んじられ、無視されてきた人々の多くが含まれていません」

これまでに500人の卒業生がプログラムに参加しており、その全員がチェンジメーカーズと呼ばれる社会変革のために活動する人々のネットワークに所属しています。このネットワークは、プログラムの卒業生がキャリアを積むのに必要なサポートとアドバイスを提供します。

科学・技術・数学・工学の各分野において多様性を促進するための多くの国内プログラムがありますが、AI4ALLサマープログラムは完全に人工知能に焦点を当てた数少ない取り組みの1つです。

プログラムの成長と共に新世代の開発者、データサイエンティスト、プロジェクトマネージャーの輩出への期待が高まっています。この取り組みによって輩出された多様性豊かな人材は、AIにバイアスが入り込むことを防ぐのに役立つでしょう。

偏見, バイアス, 差別, AI, 人工知能, Twitter, 自動トリミング, 人種問題, 多様性

AIにとって多様性とは

AIは普段コンピューターに携わっていない人達にとっても、急速に日常生活の一部になりつつあります。たとえば金融の専門家は、信用評価と不正防止にAIツールを日常的に活用しています。人事チームはAIを使用して履歴書をスキャンし、最も有望な候補者を特定します。

マッキンゼーが指摘したように、AIツールは偏見を減らすのに役立ちますが、同時に偏見を固定化する働きをすることもあります。

人事評価の例を見てください。
複数の研究によると採用担当者は履歴書が同じであっても、西洋以外の民族的な名前を持つ人々より白人の名前により近い候補者を好むことが示されています。

AIを活用した候補者選択システムでは、この種の偏見による選択を示す可能性が低くなります。  ただし、偏りが忍び寄る可能性は他にもあります。

たとえば女性候補者を無視したAmazonのAI採用システムは、重要ポジションが男性に偏っていた過去の採用データで学習した結果です。この種の問題を回避する唯一の方法は、今すぐ次のような明確な措置を講じることです。 

 

多様なチームを構築する 

偏見による誤りは多くの場合、認識の死角によってもたらされます。白人だけのチームが有色人種が何を必要としているかを完全に理解できないのと同じように、男性だけのチームは女性の要件を理解していない可能性があります。こうした死角を埋める唯一の方法は、チームの中に様々な人からの声を含めることです。

IT以外の人材やカスタマーサービス、マーケティング、財務、運用、人事などの各部門もそれぞれ発言する必要があり、その中の誰もが人種や性別、宗教などに影響されることなく声を発することができなくてはいけません。

誰かが多様性の懸念を提起した場合、チームの他のメンバーはそれを真剣に受け止め、より良い方法を尋ねる必要があります。 

 

学習用データ群に幅広いデータがあることを確認する

AIと機械学習は、その学習工程にデータ群を使用します。たとえばツイッターの画像トリミングシステムは、サイトにアップロードされた画像のデータベース全体を使って学習します。しかしこの数十億の画像ファイルデータを使用しても、システムには偏りの兆候が見られます。

ほとんどの企業はそのようなビッグデータに手を付けられず、AIの偏りが発生してしまうのです。
機械学習ツールの学習用データを作成している場合は、次のような確認をする必要があります。

  • このデータはどこから来ていますか?
  • このデータは代表的なものですか?
  • 一部のデータを他のデータよりも優先しますか?
  • もしそうなら、何が重要かを、誰がどのように決定しましたか?

繰り返しになりますが、多様なチームがデータ品質の明らかな問題を報告するのに役立ちます。 

偏見, バイアス, 差別, AI, 人工知能, Twitter, 自動トリミング, 人種問題, 多様性

ユーザーテストにさまざまな人を含める 

顔認識は2017年にAppleのFaceIDで主流になりましたが、すぐに1つの大問題に遭遇しました。黒人の顔の認識精度が低かったのです。

明らかにAppleの事前テストの多様性は十分ではありませんでした。精度は今でこそ良くなっていますが、あってはならない問題です。

あなたがAIツールを取り入れるのであれば、十分なユーザーテストを実施することが最初の一歩です。そのテストがあなたのスタッフまたはあなたの顧客を含むかどうかにかかわらず、多様性に富んだ人々を含むことを確実にする必要があります。
これは、功罪含め考えられるすべての結果を評価する唯一の方法です。

 

社外からのフィードバックを聞く

誰もが自分に偏見があると思いながらAIを開発、学習させているわけではないものの、AIが導き出した結果に偏見が含まれると指摘されることがあります。

その指摘を受け、大抵の企業は過ちを公式に認め、システムを改善する必要性を表明しています。グーグルは自然言語処理APIが宗教的、民族的マイノリティに対してネガティブなラベル付けをしたことについて謝罪しました。ツイッターは「人種やジェンダーバイアスを分析できていなかった」事を認め、「自動で写真を切り取ることが、潜在的に害を及ぼすと認識するに至った」「最初にこの仕組みをデザインして作り上げたとき、この可能性を考慮に入れなければならなかった」と謝罪しました。

両社はシステムを再設計し、問題を修正しました。このような社会からのフィードバックに真摯に対応することは、サービスを提供する企業にとっても利益につながります。
こうした問題を放置するとシステム本来の目的に損害を与えるだけでなく、あなたの会社にも損害を与えます。AIの偏りは分析に影響を与え、最終的にビジネスを行う能力を損なう不正確または誤解を招くデータにつながります。フィードバックに応答してAIを修正することで、社会的信用をはじめとした会社に対する損失を抑えることができます。

 

AIの未来 

AIは私たちの生活に浸透しています。専門家はAIが2030年までに13兆ドル、つまり世界のGDP全体の1.2%を生み出す可能性があると予測しています。

既にAIは様々な形で私たちの生活に影響を与えています。AI技術を取り入れたSiriとAlexaは生活の一部となっています。ヘルスケアアプリで各個人に合わせた運動メニューを提案したり、Netflixのおすすめ作品を紹介するのにもAIが使われています。

仕事でもAIを使った協働ロボットが人間と連携して働いています。企業の上層部や政府では、私たちの生活に直結するような重要な経営判断や政策決定が、AIによる分析結果を元に行われています。

つまり、今こそAIについて大きな質問をし始める時です。
「これらのシステムをどのように構築して学習させますか?」
「システムがすべての人を公平に扱うようにするにはどうすればよいですか?」
最初の一歩は、AI開発プロセスのすべての段階で多様性があることを確認することです。 

SHARE.

前の記事

医療データを1つのプラットフォームにコンパクト化

次の記事

迷子・遭難者を助けるウェアラブルデバイス「Phoenix Watch」

関連記事