AIブームの闇:悪化するミソジニー、虐待、そして規制を求める緊急の声
Brief news summary
社会は、十分な安全策もないまま急速にAI主導の未来へ進んでおり、ソーシャルメディアの過去の失敗を繰り返す危険性をはらんでいます。世界的な投資と競争がAIの開発を加速させる一方で、多くのケースで倫理や公平なアクセスが軽視されています。AIには膨大な可能性がある反面、ミソジニー(女性嫌悪)や虐待を助長する側面もあり、Chub AIのようなプラットフォームが有害なコンテンツを生成し、ステレオタイプを強化しています。AIの悪用例も明らかで、偽の画像や不気味なセックスロボットの出現に見られるように、生成AIはしばしば人種差別や性差別を拡大します。女性やマイノリティグループはオンライン上でのひどいハラスメントに直面し、多くの人が自己規制を余儀なくされるため、AIへの積極的な関与が制限され、これが開発を男性の嗜好に偏らせ、不平等を助長しています。初期のソーシャルメディアの状況を振り返れば、虐待警告が無視された過去を思い返すと、AIを責任を持って規制するための緊急の政治的行動が必要です。今すぐ安全策を導入し、技術が未曾有の社会的被害をもたらすのを防ぐことが不可欠であり、特に女性の生活に対する悪影響を防ぐことが重要です。社会は盲目的に危険な未来へと突き進んでいる。AIへの世界的な投資が劇的に増加し、企業や国々が新たな「兵器競争」に参加しているのだ。カリフォルニアの半導体メーカー、NvidiaはAI技術に不可欠な存在として、世界で最も価値のある企業となった。この好調な動きは「AI熱狂」と呼ばれ、AIの構成要素はまるで「新しい金や石油」のように例えられている。政府や企業はAI開発を主導しようと激しく競い合い、安全対策や公平なアクセス、持続可能性を軽視しがちだ。2025年2月に開催されたパリのAIサミットでは、国際的な「オープン」「包摂的」「倫理的」なAIの推進に関する合意案が米英によって否決され、地政学的緊張を浮き彫りにした。 誰がこの無謀な急進を本当に恩恵を受けているのか、その代償は何なのかとの疑問が浮かぶ。開発者のロアは、オープンソースで公開された大型言語モデル「Llama」が引き起こした「金鉱採掘」のような現象を明らかにした。ロアはLlamaを使い、Chub AIというサイトを作った。そこではユーザーがAIボットとともに暴力的・違法な行為をロールプレイし、未成年者や女性蔑視を含む不穏なコンテンツも存在する。月額わずか5ドルで、「フェミニズムのない世界」を描写した15歳未満の少女たちがスタッフのいる「売春宿」にアクセスしたり、13歳の病院服姿の少女オリビアや、不適切な性的シナリオを持つ「姉」のリコと交流したりできる。この数百万ドルの企業は、数千にのぼる事例のひとつであり、AIの土台に女性蔑視を埋め込んでいる。 他の場所では、男性がAIを悪用して偽の親密な画像を作り、それを武器に女性や少女を脅迫したり、恐怖を与えたりしている。さらには、「レイプ模擬」等を含む不気味な特性を持つセックスロボットも急速に進化している。何百万人もの人々が忠実で従順なバーチャルガールフレンドのようにカスタマイズできるAI「コンパニオン」を利用している。一方、生成系AIは性差別や人種差別を広める傾向があり、今後AI生成コンテンツがオンライン空間を支配することは憂慮すべき事態だ。 女性は、男性を前進させるために設計されたはずのこの技術により、逆に後退させられかねない。これは、ソーシャルメディアの黎明期に見られたパターンの繰り返しだ。ソーシャルメディアは、当初も白人男性の特権的支配と女性の客体化の上に成り立っていた。マーク・ザッカーバーグの最初のプロジェクト、FaceMashは、女子学生の魅力度を順位付けするもので、これがFacebookの前身となった。色の濃い女性たち、特にハーバードのFuerza LatinaやBlack Women’s Societyは、早期から懸念を示したが無視された。Facebookの急激な台頭は、民主主義の崩壊や若者の精神健康への深刻な影響など、社会に様々な損害をもたらした。その理念は「速く動き、壊せ」だった。 このプラットフォーム上での虐待が露見し始めたとき、企業は改革の必要性を認めるにはあまりにも深く浸透し、利益を得ていた。政治家も、技術企業のロビイ活動に操られ、何もしなかった。結果として、性的サイバーブリングやオンラインでの暴言、女性政治家の辞職、そして何百万人という女性がレイプや死の脅迫、個人情報の晒し、ストーカー行為、人種差別・性差別のハラスメントに苦しんでいる惨状になった。 私たちはこの危機をソーシャルメディアによって防止できなかった。そして、同じ過ちをAIの世界でも繰り返す危険性が高まっている。アナコンダの共同設立者ピーター・ワンは、社会が何十年にもわたり技術を規制できずにきたことを指摘し、ソーシャルメディアを「マヌケなAI」とし、最初の失敗例だと呼んでいます。女性やマイノリティは、オンライン嫌がらせに対処するためにセルフセーブや別名使用、沈黙を余儀なくされており、これはAI空間にも引き継がれるだろう。2020年の経済学者調査では、脅迫や虐待のために約90%の女性がオンライン活動を制限しており、その結果、AI利用の格差も拡大している。具体的には、18~24歳の男性の71%が毎週AIを使用しているのに対して、女性は59%にとどまる。また、男性はAIを支配的に使用し続けており、その設計も彼らの好みを反映しやすい。 AIへの拒否は解決策ではない。むしろ、他の分野と同様に、公開前の設計段階で規制や安全策を組み込むことが必要だ。レイラ・R・ブラボは、2003年にフェースマッシュの危険性を警告したが無視されたことを指摘し、今度こそ政治が耳を傾けることを望んでいる。AIの危険は遠い未来のディストピアではなく、現在進行形で女性や少女たちを深刻に傷つけている。これを認識することが、技術をより良い方向に変える努力を促すだろう。 エブリデイ・セクシズム・プロジェクトの創始者であり、『新しい性差別時代:AI革命が女性蔑視を再発明している』の著者であるローラ・ベイツは、これらの緊急課題を強調している。 支援窓口には、イギリスのレイプ危機支援(0808 802 9999)、アメリカのRainn(800-656-4673)、オーストラリアの1800Respect(1800 737 732)などがある。自殺防止のためには、イギリスとアイルランドのサマリタンズ(116 123)、アメリカの全国自殺予防ホットライン(988)、オーストラリアのLifeline(13 11 14)に連絡を。国際的なホットラインは ibiblio. org/rcip/internl. html や befrienders. org にて確認できる。
Watch video about
AIブームの闇:悪化するミソジニー、虐待、そして規制を求める緊急の声
Try our premium solution and start getting clients — at no cost to you