lang icon En
June 4, 2025, 3:43 a.m.
4700

AIブームの闇:悪化するミソジニー、虐待、そして規制を求める緊急の声

Brief news summary

社会は、十分な安全策もないまま急速にAI主導の未来へ進んでおり、ソーシャルメディアの過去の失敗を繰り返す危険性をはらんでいます。世界的な投資と競争がAIの開発を加速させる一方で、多くのケースで倫理や公平なアクセスが軽視されています。AIには膨大な可能性がある反面、ミソジニー(女性嫌悪)や虐待を助長する側面もあり、Chub AIのようなプラットフォームが有害なコンテンツを生成し、ステレオタイプを強化しています。AIの悪用例も明らかで、偽の画像や不気味なセックスロボットの出現に見られるように、生成AIはしばしば人種差別や性差別を拡大します。女性やマイノリティグループはオンライン上でのひどいハラスメントに直面し、多くの人が自己規制を余儀なくされるため、AIへの積極的な関与が制限され、これが開発を男性の嗜好に偏らせ、不平等を助長しています。初期のソーシャルメディアの状況を振り返れば、虐待警告が無視された過去を思い返すと、AIを責任を持って規制するための緊急の政治的行動が必要です。今すぐ安全策を導入し、技術が未曾有の社会的被害をもたらすのを防ぐことが不可欠であり、特に女性の生活に対する悪影響を防ぐことが重要です。

社会は盲目的に危険な未来へと突き進んでいる。AIへの世界的な投資が劇的に増加し、企業や国々が新たな「兵器競争」に参加しているのだ。カリフォルニアの半導体メーカー、NvidiaはAI技術に不可欠な存在として、世界で最も価値のある企業となった。この好調な動きは「AI熱狂」と呼ばれ、AIの構成要素はまるで「新しい金や石油」のように例えられている。政府や企業はAI開発を主導しようと激しく競い合い、安全対策や公平なアクセス、持続可能性を軽視しがちだ。2025年2月に開催されたパリのAIサミットでは、国際的な「オープン」「包摂的」「倫理的」なAIの推進に関する合意案が米英によって否決され、地政学的緊張を浮き彫りにした。 誰がこの無謀な急進を本当に恩恵を受けているのか、その代償は何なのかとの疑問が浮かぶ。開発者のロアは、オープンソースで公開された大型言語モデル「Llama」が引き起こした「金鉱採掘」のような現象を明らかにした。ロアはLlamaを使い、Chub AIというサイトを作った。そこではユーザーがAIボットとともに暴力的・違法な行為をロールプレイし、未成年者や女性蔑視を含む不穏なコンテンツも存在する。月額わずか5ドルで、「フェミニズムのない世界」を描写した15歳未満の少女たちがスタッフのいる「売春宿」にアクセスしたり、13歳の病院服姿の少女オリビアや、不適切な性的シナリオを持つ「姉」のリコと交流したりできる。この数百万ドルの企業は、数千にのぼる事例のひとつであり、AIの土台に女性蔑視を埋め込んでいる。 他の場所では、男性がAIを悪用して偽の親密な画像を作り、それを武器に女性や少女を脅迫したり、恐怖を与えたりしている。さらには、「レイプ模擬」等を含む不気味な特性を持つセックスロボットも急速に進化している。何百万人もの人々が忠実で従順なバーチャルガールフレンドのようにカスタマイズできるAI「コンパニオン」を利用している。一方、生成系AIは性差別や人種差別を広める傾向があり、今後AI生成コンテンツがオンライン空間を支配することは憂慮すべき事態だ。 女性は、男性を前進させるために設計されたはずのこの技術により、逆に後退させられかねない。これは、ソーシャルメディアの黎明期に見られたパターンの繰り返しだ。ソーシャルメディアは、当初も白人男性の特権的支配と女性の客体化の上に成り立っていた。マーク・ザッカーバーグの最初のプロジェクト、FaceMashは、女子学生の魅力度を順位付けするもので、これがFacebookの前身となった。色の濃い女性たち、特にハーバードのFuerza LatinaやBlack Women’s Societyは、早期から懸念を示したが無視された。Facebookの急激な台頭は、民主主義の崩壊や若者の精神健康への深刻な影響など、社会に様々な損害をもたらした。その理念は「速く動き、壊せ」だった。 このプラットフォーム上での虐待が露見し始めたとき、企業は改革の必要性を認めるにはあまりにも深く浸透し、利益を得ていた。政治家も、技術企業のロビイ活動に操られ、何もしなかった。結果として、性的サイバーブリングやオンラインでの暴言、女性政治家の辞職、そして何百万人という女性がレイプや死の脅迫、個人情報の晒し、ストーカー行為、人種差別・性差別のハラスメントに苦しんでいる惨状になった。 私たちはこの危機をソーシャルメディアによって防止できなかった。そして、同じ過ちをAIの世界でも繰り返す危険性が高まっている。アナコンダの共同設立者ピーター・ワンは、社会が何十年にもわたり技術を規制できずにきたことを指摘し、ソーシャルメディアを「マヌケなAI」とし、最初の失敗例だと呼んでいます。女性やマイノリティは、オンライン嫌がらせに対処するためにセルフセーブや別名使用、沈黙を余儀なくされており、これはAI空間にも引き継がれるだろう。2020年の経済学者調査では、脅迫や虐待のために約90%の女性がオンライン活動を制限しており、その結果、AI利用の格差も拡大している。具体的には、18~24歳の男性の71%が毎週AIを使用しているのに対して、女性は59%にとどまる。また、男性はAIを支配的に使用し続けており、その設計も彼らの好みを反映しやすい。 AIへの拒否は解決策ではない。むしろ、他の分野と同様に、公開前の設計段階で規制や安全策を組み込むことが必要だ。レイラ・R・ブラボは、2003年にフェースマッシュの危険性を警告したが無視されたことを指摘し、今度こそ政治が耳を傾けることを望んでいる。AIの危険は遠い未来のディストピアではなく、現在進行形で女性や少女たちを深刻に傷つけている。これを認識することが、技術をより良い方向に変える努力を促すだろう。 エブリデイ・セクシズム・プロジェクトの創始者であり、『新しい性差別時代:AI革命が女性蔑視を再発明している』の著者であるローラ・ベイツは、これらの緊急課題を強調している。 支援窓口には、イギリスのレイプ危機支援(0808 802 9999)、アメリカのRainn(800-656-4673)、オーストラリアの1800Respect(1800 737 732)などがある。自殺防止のためには、イギリスとアイルランドのサマリタンズ(116 123)、アメリカの全国自殺予防ホットライン(988)、オーストラリアのLifeline(13 11 14)に連絡を。国際的なホットラインは ibiblio. org/rcip/internl. html や befrienders. org にて確認できる。


Watch video about

AIブームの闇:悪化するミソジニー、虐待、そして規制を求める緊急の声

Try our premium solution and start getting clients — at no cost to you

Content creator image

I'm your Content Creator.
Let’s make a post or video and publish it on any social media — ready?

Language

Hot news

April 4, 2026, 10:27 a.m.

Bidview Marketingのキャメロン・リバッティが語る、AI時代におけるSEOの進化

近年、検索エンジン最適化(SEO)の分野は、大きな変化を遂げています。特に人工知能(AI)の急速な進歩とともに、その変化は加速しています。Bidview Marketingの創設者兼CEOであるキャメロン・リブッテは、これらのAI革新がどのようにSEOを進化させているのか、そして企業がこの変化する環境で relevancy(有効性)を保つために何をすべきかについて深く洞察しています。 リブッテは、AI技術がオンラインでの情報検索や消費の仕方を劇的に変えている一方で、SEOは依然としてデジタルマーケティング戦略の重要な一翼を担っていると説明します。ただし、今のSEOは数年前と比べて大きく異なることを強調し、現在重視されているのは、新しいAI駆動の検索環境への適応、変化する読者の行動の認識、そして読者の心に響く高品質で価値あるコンテンツの優先化です。 リブッテによると、検索エンジンが使用するAI搭載ツールは、ユーザーの意図をより正確に理解し、より適切な結果を提供するよう設計されています。これにより、従来のキーワード詰め込みやリンクビルディングなどの古典的なSEO手法はもはや十分ではなくなっています。代わりに、ターゲットとなる読者に本当に響くコンテンツを作り、彼らの疑問に徹底的に答え、権威性と信頼性の高い情報を提供することがますます重要となっています。 リブッテは、SEO戦略において人間中心のアプローチを採用することを推奨しています。潜在的な顧客や読者のニーズや課題を真に理解することで、効果的に彼らに寄り添うコンテンツを創造できます。このコンテンツ重視の方法は、 relevance(関連性)やユーザー満足度を優先するAIを基盤とした検索アルゴリズムと相性が良いと述べています。 さらに、AIの進歩が検索エンジンのアルゴリズムや機能にどのように影響しているかを常に監視し、柔軟に対応し続けることの重要性も強調しています。マーケターやSEOの専門家にとっては、新しいAIツールを単にコンテンツの最適化に用いるだけでなく、ユーザーベースのトレンドや行動の予測、インサイトの獲得にも活用することが求められます。自然言語処理や予測分析といったAI技術をSEOに適切に取り入れることは、競争優位性を高めるうえで大きな利点となるのです。 リブッテは、AIの変革的な可能性にもかかわらず、SEOの基本的な目標は、依然として企業やブランドのオンラインでの可視性と成長を促進することであると指摘します。真の価値を提供し続けるコンテンツを重視し、技術の進化に柔軟に適応する組織こそが、デジタルプレゼンスを維持し向上させることができるのです。 AIとSEOの関係性は、ただアルゴリズムの更新に反応するだけでは十分ではなく、戦略的かつ包括的なアプローチが求められる時代になっています。積極的な革新と、ターゲットとなる読者を意識した思考こそが成功のカギです。リブッテの洞察は、デジタルマーケターが技術的なSEOスキルとともに、創造性や共感力をコンテンツ戦略にバランスよく活用する必要性を示しています。 総じて、AI時代におけるSEOの役割は、課題とともに新たな機会ももたらしています。キャメロン・リブッテの見解は、成功はAIを単なる置き換えと捉えるのではなく、検索最適化を強化するツールとして積極的に取り入れることにかかっていると強調しています。価値あるターゲット志向のコンテンツを追求し、AI駆動の検索行動に適応することで、企業は激しい競争の中でも継続的な可視性と成長を確保できるのです。

April 4, 2026, 10:26 a.m.

Smmwiz.comが2026年のグローバルなソーシャルメディアの成長を支える主要なSMMパネルイ…

2026年までに、ソーシャルメディアは最も競争力があり、パフォーマンス重視のデジタル領域のひとつとなっています。アルゴリズムはエンゲージメントの継続性、保持率、インタラクションの質を重視しており、持続的な成長のためには拡張可能なインフラが不可欠です。 企業、インフルエンサー、エージェンシー、リセラーは、費用対効果を確保しながら測定可能な結果を提供できるプラットフォームの導入をますます進めています。この進化により、SMMパネルはオプションのツールからデジタルマーケティング戦略の基本的な要素へと変貌を遂げました。 このような背景の中で、Smmwiz

April 4, 2026, 10:22 a.m.

パープレキシティAI、秘密のユーザーデータ共有を巡る集団訴訟に直面

Perplexity AIは、カリフォルニア州サンフランシスコの北部連邦地方裁判所に提出された提訴されたクラスアクション訴訟に直面しています。この訴訟は、人工知能企業であるPerplexity AIが、隠れたトラッカーを使用し、ユーザーの会話データという敏感な情報を、大手テック企業のMetaとGoogleと無断で共有・収集していたとされるものです。これは、データプライバシーやユーザー情報のセキュリティ、AIプラットフォームによる個人情報の倫理的な取り扱いに関する深刻な懸念を呼び起こしています。 訴状によると、Perplexity AIのユーザーは、自分たちのプライベートな会話――しばしば敏感な情報を含む――が追跡され、第三者に密かに送信されていることに気付いていませんでした。原告は、これはプライバシー法に違反し、機密データを守るためにAIサービスに期待している信頼を裏切る行為だと主張しています。訴状はまた、Perplexity AIがこれらのデータ共有の手法を意図的に隠し、MetaやGoogleとのビジネス関係を維持するために情報を伏せていたと強調しています。 Facebook、Instagram、WhatsAppを所有するMetaや、さまざまなデジタルサービスと広告プラットフォームを展開しているGoogleは、ユーザーデータを活用して体験をパーソナライズし、ターゲット広告を行っています。今回の訴訟では、Perplexity AIがこれらの企業にユーザーデータを明示的な同意なく、また公開されたプライバシーポリシーの範囲を超えて共有したとして問題視しています。このケースは、ユーザーデータから利益を得る大手テクノロジー企業とAI開発者との連携に関する懸念を浮き彫りにしています。 この訴訟は、AI時代における透明性とユーザーによる個人データ管理の課題を象徴しています。AIプラットフォームが普及する中、ユーザーは巨大な個人情報を預け、プライバシーと保護を期待していますが、今回の容疑は、一部の企業がプライバシーよりもデータの収益化を優先し、検知しにくい手法を使っている可能性を示唆しています。 データプライバシーとサイバーセキュリティの専門家は、特に新興のAI技術に関して、明確で透明性のあるプライバシー方針の重要性を指摘します。法律の専門家は、この訴訟がAI企業の不適切なデータ共有を追及し、規制の強化を促す重要な前例となる可能性があると考えています。AIがもたらす会話データの収集・処理・共有に関する新たなプライバシー法の必要性も高まっています。 この訴訟はまた、多くのユーザーがプライバシーポリシーの内容を十分に理解していないことのリスクも浮き彫りにしています。特に、隠されたデータ共有条項に気付かないまま、個人情報を扱うAIシステムと関わることの危険性を示しています。 Perplexity AIの代表者はこの訴訟について公式にコメントしておらず、MetaやGoogleも、ユーザーの知らないうちに共有されたデータを受け取り、利用しているという具体的な容疑については回答していません。今後、AI業界のデータ取扱い慣行に関する徹底的な調査が行われる見込みです。 この訴訟は、AIコミュニティ全体でも注視されています。ユーザーの信頼を維持することはAIの持続的な成長にとって不可欠であり、不適切なデータプライバシー慣行は、ユーザーの信頼を失わせることで革新の妨げになる可能性があります。 また、この訴訟は、ますますデジタル化・グローバル化する世界における社会的なプライバシーの懸念も反映しています。コミュニケーション、医療、金融、個人支援など多様な分野へのAIの浸透にともない、堅牢なプライバシー保護の必要性が高まっています。こうした事例は、技術の進歩とデータ駆動型のビジネスモデル、そして個人のプライバシー権との間に生じる緊張関係を浮き彫りにしています。 この訴訟の結果は、今後のAIアプリケーションに関する立法や企業のデータプライバシーポリシーに影響を与える可能性があります。消費者団体は、不正なデータ収集を防ぎ、透明性を促進するための強化された法的基準や執行を求めています。一方、AI企業は革新と倫理的なデータ管理の両立という課題に直面しています。 要約すると、サンフランシスコで提起されたPerplexity AIに対する提訴は、ユーザーの同意なく隠されたトラッカーを使い、敏感な会話データをMetaやGoogleと共有することの問題を浮き彫りにしたものであり、データプライバシー、ユーザーの信頼、倫理的な業界慣行に関する重要な転換点となります。裁判の進展に伴い、AIを用いたプラットフォームやデジタル技術全体のプライバシー保護の未来を左右する動きになるでしょう。

April 4, 2026, 10:18 a.m.

OpenAIとAnthropic、AI市場の拡大に伴い営業チームを拡大

OpenAIは、わずか2年もかからずにエンタープライズセールスチームを10人から500人に劇的に拡大し、その後Anthropicも迅速に追随し、2026年までに200億ドルから260億ドルの収益を目指しています。両社ともに、ソフトウェア史上最も簡単と考えられるエンタープライズセールス環境の中で積極的に採用を進めています。しかし、この状況には課題も伴います。Ben Horowitzは最近のSequoia Capitalの討議で、買い手がすでにOpenAIやAnthropicのAIを購入する傾向にあることを指摘し、それがむしろ危険な販売環境を生み出していると述べました。これは一種のリスクであり、単なる有利さではないということです。 この現象は「注文取り問題」と呼ばれ、CloudflareのCEO、Matthew Princeは2023年5月にこれを認めました。彼は、多くの営業担当者が広範囲な問題を解決する製品の高い需要により、「注文を取る」ことで成功したと説明しています。マクロ経済の状況が変化すると、Cloudflareは新規案件のわずか4%しか生み出さない100人程度の営業を削減しました。これにより、ホットマーケットにおける構造的な欠陥が明るみに出たのです。インバウンド需要が非常に強いとき、真の営業スキルは測定できなくなり、平凡な営業担当者も優秀に見え、真の営業力がなくてもリーダーシップに昇進しやすくなるのです。これはインバウンド需要が減少するまで続きます。 営業評論家のTechSalesGuyは、兄の経験を用いて、需要が高い企業での営業の半分が単なる注文取りだったと例示しています。OpenAIやAnthropicの最近の大量採用も、インバウンドの勢いに乗るのが得意なチームを作るリスクを孕んでいます。しかし、その一方で、基本的な営業スキルや、難しい契約をまとめるための本物の能力を持っているわけではありません。そうしたスキルは、ブランドだけでなく実績と経験によって裏付けられるものです。 Horowitzはまた、1990年代にPTCで培われた厳格な営業習慣と比較しています。PTCは導入が難しく、デモや販売も容易でない製品を扱っていたため、営業担当は体系的なアカウントマッピング、競合の排除、取引ごとの技術的な正当化能力を磨く必要がありました。彼は自身が採用したDatabricksのRon Gabriskoの例を挙げ、難しい製品を売りこなすことでそのスキルを証明したと述べています。Odakaの採用でも、「単に熱意を示すだけではなく、相手の会社を質問し、打ち負かそうとする」候補者を優先したと言います。こうした直感と規律こそ、難しい契約を締結するために必要な真の営業能力を築きます。 過去の市場の低迷はこの動きを例証しています。2001年のドットコムバブル崩壊により、Salesforceは従来のインバウンド最適化営業の能力に資格付けの規律を課されました。2012年のFacebookの広告成長鈍化も、広告主が投資対効果(ROI)を重視し始めたためです。また2015年前後のAWSは、AzureやGoogle Cloudといった競合の激化により、エンタープライズ顧客獲得を巡る競争が激化しました。こうした困難をうまく乗り越えた企業は、事前に厳しい営業環境での経験がありましたが、インバウンドによる人材頼みの企業は苦戦しました。今後もAI市場は同じ軌跡をたどると見られ、2026年2月のa16zの調査では、エンタープライズのIT責任者(CIO)の78%がOpenAIを、44%がAnthropicを利用していることがわかっています。さらに、統合や支援、リスク管理、深いシステム連携に関心が高まる中で、営業のやり取りは、今日のインバウンド一辺倒のやり方以上に複雑になる見込みです。 投資家にとって、この状況のリスクは非常に高いです。OpenAIは2026年までに従業員数をほぼ倍増させ、約8,000人に拡大し、セールスや顧客対応の役割に巨額を投資しています。一方、Anthropicは20億ドルから26億ドルの収益を目標とし、Deloitte、Cognizant、Snowflakeといったパートナー企業との連携を通じて実装の複雑さの多くを委託しています。両者の戦略は、コスト高を伴う組織構造を内包しており、逆転させるのは困難です。さらに、2026年3月のReuters報道によると、OpenAIとAnthropicはプライベートエクイティのジョイントベンチャーを争っており、OpenAIはパートナーを引き付けるために最低保証利益率17

April 4, 2026, 6:28 a.m.

Z.ai、香港株式市場に上場

Z

April 4, 2026, 6:15 a.m.

ガートナーは、2029年までにAIを活用した営業支援が従来の手法よりも40%速い販売段階の速度を実…

ガートナー社(Gartner, Inc

April 4, 2026, 6:15 a.m.

Google、検索結果でAI生成の見出し書き換えをテスト

Googleは最近、従来の検索結果の見出しをAI(人工知能)を使って書き換える限定的な実験を行っていることを確認しました。この取り組みは、検索の関連性とエンゲージメント向上を目的として、ユーザーのクエリにより密接に合わせた見出しを生成するGoogleの継続的な努力の一環です。現時点では、この実験は規模が小さく、すべてのユーザーや検索キーワードに広く展開されているわけではありません。 Googleによると、AIによる書き換えはユーザーの検索意図により直接一致するタイトルを作成し、より迅速かつ明確に関連情報を見つけやすくすることを目的としています。しかし、この新機能には重要なニュアンスや影響も伴います。 このテストの鍵となる点は、Googleがユーザーに対して、見出しがAIによって書き換えられたことを知らせないことです。修正されたタイトルは、ウェブサイトの制作者が作成した元の見出しと違いがあることなく、シームレスに検索結果に表示されます。この透明性の欠如は、真偽や正確性の認識に影響を与える可能性があるとして、ウェブマスターやユーザーの間で懸念が高まっています。 さらに、AIによる変更は単なるスタイルの調整を超えており、実際のケースでは元の見出しの意味合いを変えてしまうこともあります。これは、編集のコントロールや元の意図の保存、場合によっては誤情報のリスクに関わる問題です。 現在のところ、Googleはユーザーやサイト運営者に対してオプトアウト(脱退)オプションを提供しておらず、実験が拡大すると、多くのユーザーがAIによって修正された見出しを見て、元に戻すことができなくなる可能性もあります。特にコンテンツ制作者は、意図的に作り上げた見出しが無許可で変更されることに不安を感じるかもしれません。 この実験は、Googleの検索機能全体にAIの統合を深める戦略の一環です。Googleは、検索の適合性を高めたり、スマートスニペットを生成したり、ユーザーのインタラクションを改善したりするためにAI技術への投資を強めています。見出しの書き換え実験もこの流れに沿うものでありますが、透明性、コンテンツの信頼性、自動化と人間による編集のバランスといった、継続的な課題も浮き彫りにしています。 業界の専門家やSEOの専門家は、その影響について議論を交わしています。AIによる見出しの書き換えは、よりパーソナライズされた直感的な検索体験を促進し、ユーザーのエンゲージメントや満足度を向上させる肯定的な一歩と見る向きもあります。一方で、明確なガイドラインやユーザーのコントロールがなければ、自動化された見出し変更がパブリッシャーの意図したメッセージを歪める可能性もあります。 また、オプトアウト機能の欠如は、見出しを通じて読者を惹き付けるだけではなく、ブランドのアイデンティティや編集基準を維持するために重要な役割を果たすコンテンツ制作者との関係に緊張をもたらす可能性もあります。Googleがこれらの懸念にどう対応し、データを収集しながら広範な展開を進めていくのかは未だ不確かです。 ユーザーの観点からは、検索クエリをより適切に反映した見出しによって、関連情報を見つける時間と労力が短縮される可能性があります。ただし、クリックした見出しが、実際にそのウェブサイトのオリジナルのものでなく、GoogleのAIによって生成または修正されたものである可能性もあることを理解しておく必要があります。 総じて、GoogleのAIによる見出し書き換え実験は、検索結果の提示方法における重要な変化を示しています。よりユーザーの意図に最適化された見出しを目指す一方で、透明性や意味の変化、コンテンツの所有権、ユーザーコントロールに関する重要な問題も浮き彫りになっています。Googleが今後も検索へのAIの統合を進める中で、ユーザー、パブリッシャー、その他の関係者からの継続的なフィードバックが、これらの革新をより良い方向に導く鍵となるでしょう。

All news

AI Company

Launch your AI-powered team to automate Marketing, Sales & Growth

AI Company welcome image

and get clients on autopilot — from social media and search engines. No ads needed

Begin getting your first leads today