ChatGPTの2周年と生成AIアプリケーションの急増が近づく中、この技術の変革的な可能性は否定できない一方で、これらのモデルに内在するバイアスのリスクは無視できません。
この2年間で、AIは日常のタスク支援(ライドシェアの手配やオンライン購買の提案など)から、保険、住宅、信用、福祉申請といった重要な決定に影響を与える存在に進化しました。以前のバイアス(例えば、ピザ用の接着剤を勧めるなど)は軽視されがちでしたが、これが私たちの生活に影響を与える重要サービスに関わる場合、その深刻さは増します。
AIバイアスの軽減: ダイバーシティの重要性
重要な疑問が浮かびます:不完全なトレーニングデータに対して、どのようにAIバイアスを効果的に軽減できるのか?この課題は、モデル開発者がバイアスを認識できない場合にはさらに複雑になります。解決策は、AIチームの多様性を高めること—特に、女性やマイノリティ、高齢者を増やすことです。
早期教育と意識啓発
AIにおける多様性の促進は、争点ではなく、必要な課題です。私の30年間のSTEM分野での経験では、常に少数派の立場に置かれてきました。技術の進化に伴い、データや分析分野での労働力の多様性は未だ停滞しています。世界経済フォーラムによると、STEM労働者における女性の割合は29%に過ぎず、STEM以外の職業ではほぼ半数(49%)を占めています。数学やコンピュータサイエンスにおいて、黒人専門家はわずか9%です。これらの数字は20年にわたり変わらず、C-suiteに到達する女性は12%にとどまっています。
この状況を改善するためには、STEMを女性やマイノリティにとって魅力的にする包括的な戦略が必要です。特に、初等教育からの取り組みが重要です。マテルの動画が示すように、伝統的な玩具を選ぶ若い女の子たちが、アルゼンチンのツーリングカー・グランプリで初優勝した女性エリウィ・ロスキストのようなインスピレーションを受けることで、視点が変わることを示しています。
私たちは、若い女の子に対してSTEMについての前向きなメッセージを発信し、平等な探求の機会を保証しなければなりません。データサイエンス・フォー・オールやマーク・キューバン財団のAIブートキャンプなどの非営利法人との協力も不可欠です。AMDのCEOリサ・スー、OpenAIのCTOミラ・ムラティ、Algorithmic Justice Leagueのジョイ・ブオラムウィニのような先駆者を称賛して、STEMが男性だけのものではないことを示しましょう。
データとAIは、アスリートや映画制作者を含む多くの未来のキャリアを支える基盤です。マイノリティに向けたSTEM教育への障壁を取り除き、STEMの基盤が多様なキャリアパスを開くことを示すことが重要です。
バイアスの認識と対処
AIバイアスは、トレーニングに使用するデータセットやそれを開発する個人のバイアスの2つの主要な形で現れます。バイアスを軽減するには、まずその存在を認め、すべてのデータに内在するバイアスが存在することを認識しなければなりません。特に、無意識的な人間の偏見によって補強されることが多いです。
たとえば、MidJourney、DALL-E、Stable Diffusionなどの有名な画像生成ツールを考えてみましょう。ワシントン・ポストの分析によると、「美しい女性」というプロンプトに対する結果は、主に若くて痩せた白人女性で構成され、可視的に年をとった人は2%、肌の色が濃い人はわずか9%でした。この結果は、女性性の真の多様性との大きな乖離を示しています。
より微妙なバイアスも存在します。例えば、1980年代後半にジュネーブでキャリアを始めた際、主な生計を立てていたにもかかわらず、既婚女性として銀行口座を開設できなかったという経験があります。AIモデルが女性を代表しない歴史的な信用データで訓練されると、育児休暇や子供のケアの空白といった重要な要素を見逃してしまうかもしれません。これへの対処はAIが生成した合成データを使用することにつながる可能性がありますが、それには開発者がこれらのバイアスを認識していることが前提です。
したがって、AI開発プロセスのすべてのステップに多様な声、特に女性が関与することが不可欠です。世界の豊かな多様性を反映しない限られた技術者グループにこの責任を委ねることはできません。
AIにおける多様性の必要性
AIにおけるバイアスを完全に排除することは非現実的かもしれませんが、この問題を無視することも受け入れられません。STEMやAI開発チーム内での多様性を高めることは、全ての人々に利益をもたらすより正確で包括的なモデルを作成するために必須です。