Anthropic AI, 약화된 안전 기준과 논란의 데이터 관행으로 비판에 직면
Brief news summary
책임 있는 AI 회사인 Anthropic은 윤리와 안전 우선의 실현 가능성에 의문을 제기하는 장애물에 직면해 있습니다. OpenAI의 안전 문화에 대한 우려에 대응하여 설립된 Anthropic은 이제 안전 테스트와 안전 사고 발생 시 AI 모델 중단 능력을 요구하는 법안을 약화시키려고 노력 중입니다. 이는 더 많은 감독을 기대했던 안전 초점 그룹들을 실망시켰습니다. 게다가, 회사는 허가 없이 공개 데이터를 스크래핑하는 데이터 수집 방법으로 인해 비판을 받았으며, 이로 인해 법적 분쟁과 저작권 침해 문제가 발생했습니다. 또한, 아마존과 구글 같은 기술 거대 기업들과의 협력은 이익 극대화와 권력 집중에 대한 우려를 증폭시킵니다. 이 문제들은 AI 산업에서 윤리적이고 안전한 개발 관행의 채택을 보장하기 위해 정부 개입의 필요성을 강조합니다.Vox의 Future Perfect 선임 기자이자 Future Perfect 팟캐스트 공동 진행자인 시갈 사무엘은 한때 윤리적이고 안전하다고 자리잡았던 AI 회사 Anthropic이 직면한 문제를 논의합니다. 초기 주장에도 불구하고, 현재 Anthropic은 AI 모델의 안전 기준을 시행할 법을 약화시키기 위해 로비 활동을 하고 있습니다. 이 변화는 감독과 책임성을 지원할 것이라고 믿었던 안전 초점 그룹들을 실망시켰습니다. 또한, Anthropic은 공개적으로 사용 가능한 데이터를 동의 없이 수집하는 등의 데이터 수집 방법과 아마존과 구글 같은 거대 기술 기업들과의 파트너십으로 인해 비판을 받고 있습니다.
이러한 파트너십은 권력 집중과 잠재적인 독점 금지 위반에 대한 우려를 제기합니다. 사무엘은 정부가 AI 산업의 인센티브 구조를 변화시켜 기업들이 자체적으로 윤리와 안전을 우선시 하지 않을 경우 개입해야 한다고 주장합니다. 연방 규제가 없는 상태에서 주법과 시민 사회의 노력은 AI 회사의 책임을 묻는 데 중요한 역할을 할 수 있습니다.
Watch video about
Anthropic AI, 약화된 안전 기준과 논란의 데이터 관행으로 비판에 직면
Try our premium solution and start getting clients — at no cost to you