アジア系の女性が画像生成AIにビジネス特化型SNSのLinkedInに掲載するプロフィール写真の生成をお願いしたところ、驚きの回答があった。

※アイキャッチ写真はイメージです。

「LinkedInのプロフィール写真を得ようとしたら…」

 今回の騒動は、女性がツイッター(X)に「AI編集でLinkedInのプロフィール写真を得ようとしたら、この結果となりました」と投稿をしたことにはじまる。

 アジア系である女性は、母校であるマサチューセッツ工科大学のロゴ入りTシャツを着た自身の写真をアップロードし、「オリジナルの写真に写る女性を、LinkedIn用のプロフェッショナルなものにして」とAIに命じた。自分の顔写真をよりプロフェッショナルに見えるように改良してほしいというお願いだったのだが、結果的に出力されたのは、目が大きくなって瞳が青色になった白人女性。

 これは明らかなる人種差別。

 この騒動を聞いて、女性が使ったPlaygroundという画像生成AIツールの創設者がコメント欄に登場。「このモデルはそのような指導可能なものではないので、プロンプトに基づいて一般的なものを選ぶのです。残念ながら、彼らの知能は十分ではありません」と投稿。「これを言っても価値があるかはわかりませんが、私たちはこの件にかなり不満を持っており、解決したいと考えています」と付け加えた。

 AIは機械とは言え、人間社会のデータから学習しているため人間社会にあるバイアス(偏見)も取り入れてしまうという問題は以前から指摘されている。女性の母校であるマサチューセッツ工科大学は、商用利用されている人工知能システムに“肌の白い男性のエラー率は0.8%なのに対して、肌の黒い女性のエラー率は34.7%”といった、性別と肌タイプのバイアスがあるという研究結果を2018年に発表。2023年の別の研究では、画像生成AIのDALL·E 2が、「CEO」や「ディレクター」といった権威ある職の97%以上に白人男性を出力していたことが分かった。

This article is a sponsored article by
''.