Anthropic AI、安全基準の弱体化と論争のデータ収集方法で批判に直面
Brief news summary
倫理的なAI企業であるAnthropicは、倫理と安全を優先する実現可能性を問う課題に直面しています。OpenAIの安全文化に対する懸念に応えるために設立された当初、Anthropicは安全テストと安全事件時のAIモデルの停止能力を義務付ける法案を弱めるために取り組んでいます。これにより、Anthropicからのより大きな監視を期待していた安全重視のグループは失望しました。さらに、同社は同意なしに公開データをスクレイピングするなどのデータ収集方法で逆風にさらされ、法的紛争や著作権侵害の挑戦に直面しています。また、AmazonやGoogleとの協力関係からも利益最大化と権力集中への懸念が生じています。これらの問題は、AI業界におけるインセンティブ構造を変更し、倫理的かつ安全な開発の実践を保証するための政府の介入が必要であることを強調しています。VoxのFuture Perfectのシニア記者でFuture Perfectポッドキャストの共同ホストであるシガル・サミュエルは、かつては倫理的で安全とされていたAI企業Anthropicが直面する課題について話し合っています。Anthropicはその初期の主張にもかかわらず、AIモデルの安全基準を実施する法律を弱めるためにロビー活動を行っています。この方針転換により、Anthropicが監視と説明責任を支持すると信じていた安全重視のグループは失望しました。さらに、Anthropicは同意なしに公開データをスクレイピングするなどのデータ収集方法で批判を受けており、AmazonやGoogleとの提携が権力集中や潜在的な反トラスト違反の懸念を引き起こしています。サミュエルは、企業が独自に倫理と安全を優先する可能性が低い場合、政府がAI業界のインセンティブ構造を変える必要があると主張しています。連邦規制がない場合、州法や市民社会の努力がAI企業の責任を追及する上で重要な役割を果たすかもしれません。
Watch video about
Anthropic AI、安全基準の弱体化と論争のデータ収集方法で批判に直面
Try our premium solution and start getting clients — at no cost to you