グーグルが2月中に導入した新たな人工知能(AI)モデル 「ジェミニ(英:Gemini ) 」は、人種・性別の多様性を重視し、歴史的に不正確な画像を生成したことから、多くのユーザーやイーロン・マスク氏などから批判を浴びた。グーグルは問題点を認め、ユーザーに対して謝罪し、ジェミニの画像生成機能を一時停止した。*1
ジェミニが最初に問題になったのは、先月リリースされたばかりの画像生成サービスが歴史的に不正確な画像を生成していることをユーザーが発見したときだ。SNSで注目を集めた事例は、黒人のバイキング、第二次世界大戦時のドイツ軍服を着たアジア人女性、女性のローマ法王などがある。*2 それらの結果は、生成AIに見られる性別や人種的なバイアスを覆す試みのように見えたことから、右派のユーザーからは「白人に対する逆差別だ」との反発を招いた。
生成AIは、無数の社会問題の解決に役立つ大きな可能性を秘めている一方で、人種的・文化的偏見を永続させるだけでなく、フェイクニュースや偽情報の蔓延を拡大し、大衆の心理や感性を操作するなど、関連するリスクも伴う。テック大手はこのようなリスクを低減するため、技術の展開を慎重に進めるものの、今回は不完全な対応措置でAIモデルの弱点が浮き彫りになった。
グーグルは同社ブログの投稿で、ジェミニの画像ジェネレーターの欠点について謝罪し、人物を生成する機能を一時停止した。*3
グーグルのスンダル・ピチャイ最高経営責任者(CEO)は、AIモデル「ジェミニ」が、回答の一部に「偏り」が見られたことを認めた。ピチャイCEOは2月28日、ニュースサイトのセマフォーが報じたメモの中で、偏りは「完全に容認できないものであり、我々は間違っていた」と従業員に語ったという。*4
生成AIツールは偏見に関する「多くの懸念を引き起こす」
米国建国の父、ローマ教皇、バイキングなどの歴史上の人物が、多様な人種として、あるいは異なる性別として描かれていたことでグーグルの画像生成ツールが一時停止となった。しかし、ジェミニの問題は画像ジェネレーターだけにとどまらない。
ここから先は「ThinkESG プレミアム」会員限定の
コンテンツです。
4つの特典が受けられる「ThinkESG プレミアム会員(1ヶ月定期購読)」の詳細についてはこちらをご覧ください。
「ThinkESG プレミアム会員(1ヶ月定期購読)」へはこちらからお申し込みいただけます。