問題点3. ステレオタイプの再生産、拡散

AIには既存のパターンを再現する傾向があるため、AIコンテンツを使用すると、ステレオタイプや偏見、排他的な意見を再生産し、拡散してしまう可能性があります。

また、ダイバーシティやインクルージョン(多様性とその尊重)の欠如という問題も生じています。残念ながらネット上には偏った価値観、考えによって制作されたコンテンツも多く、それをもとにAIが生成するのは、同じく偏った考えに基づいたコンテンツです。

これに関連して、テック系ニュースサイト・Futurismのマギー・ハリソン氏は、「ChatGPTは本質的に自動化されたマンスプレイニング(男性が女性などを見下し、知識をひけらかすこと)マシーンである」という興味深い記事を書いています。

AIは多数派の意見を反映してしまう傾向にあり、読者やユーザーを傷つける可能性があります。

(広告の後にも続きます)

問題点4. バイアスによる差別的な振る舞い

GoogleのAIであるBardや新しくなったBing、OpenAIのChatGPTなどを支える大規模言語モデル(LLM)は、Web上のコンテンツから学習しています。Webは多様な価値観を尊重する場であることが理想ですが、実際はそうとは言いきれません。

たとえば、オックスフォード大学の調査によると、Wikipediaは欧米の男性が編集していることが多く、書かれている内容には偏見があると指摘されています。

実際、AIがコンテンツにバイアスをかけてしまった事例はいくつか発生しています。具体例を見てみましょう。

事例1. AmazonのAI採用支援ツールによる性差別

Amazonは応募者の履歴書を自動採点するAIシステムを制作し、過去10年分の履歴書を読み込ませたうえで、応募者の履歴書を選び出させました。しかし、AIが選び出した履歴書のほとんどは男性のもので、女性の評価が下げられる現象が発生しました。

これはテック業界の男女比を反映したものでしたが、結果的に性差別的なAIが誕生してしまったのです。差別的なAIを作る意図がなくても、供給されたデータに偏りがあれば、そのAIがはじき出す情報にも偏りが生じる一例です。

事例2. 白人優位の画像生成

AIの画像生成にもバイアスがかかっています。たとえば、「手をつないだロマンチックなカップル」の画像を生成すると、多くの場合で白人優位の画像が生成されます。

2021年7月、Open AIの画像生成ツールであるDall-E 2は「より正確に世界人口の多様性を反映させる」として、ツールをアップデートしました。しかし、依然として生成される画像は多様性に欠けています。さらに、プロンプトに「貧しい」という言葉を追加したときだけ、有色人種が表示されるようになったのです。

もちろんツール側でシステムを調整することは可能です。しかし、公平性を確保するために熱心に取り組まないかぎり、AIコンテンツにはバイアスがつきものだと考えてください。