Anthropic AI е изправена пред критика за отслабени стандарти за безопасност и противоречиви практики за събиране на данни
Brief news summary
Anthropic, отговорна AI компания, се сблъсква с препятствия, които поставят под въпрос възможността за приоритизиране на етика и безопасност. Първоначално установена в отговор на опасенията относно културата на безопасност в OpenAI, Anthropic сега се стреми да отслаби законопроект, който изисква тестване на безопасност и способността да се спрат AI модели по време на инциденти с безопасността. Това разочарова групите, фокусирани върху безопасността, очаквали по-строг надзор от Anthropic. Освен това, компанията е изправена пред критика за методите си за събиране на данни, включително неразрешено събиране на публично достъпни данни, което води до правни спорове и предизвикателства за нарушение на авторските права. Опасенията също възникват от сътрудничествата на Anthropic с технологични гиганти като Amazon и Google, тъй като те подхранват безпокойства за максимизиране на печалбите и концентрацията на власт. Тези проблеми подчертават необходимостта от правителствена намеса за промяна на стимулиращата рамка в AI индустрията и гарантиране на етични и безопасни практики за развитие.Сигал Самюел, старши репортер за Future Perfect на Vox и съводещ на подкаста Future Perfect, обсъжда предизвикателствата, пред които е изправена Anthropic, AI компания, която някога се е позиционирала като етична и безопасна. Въпреки първоначалните си твърдения, Anthropic сега лобира за отслабване на законодателството, което би наложило стандарти за безопасност за AI модели. Тази промяна разочарова групите, насочени към безопасността, които вярваха, че Anthropic ще подкрепи надзора и отговорността.
Освен това, Anthropic е критикувана за методите си на събиране на данни, включително събиране на данни от публично достъпни източници без съгласие, и партньорствата си с технологични гиганти като Amazon и Google, което поражда опасения за концентрация на власт и потенциални антимонополни нарушения. Самюел твърди, че правителството трябва да се намеси, за да промени структурата на стимулите в AI индустрията, ако компаниите не са склонни да приоритизират етика и безопасност самостоятелно. При отсъствие на федерално регулиране, държавните закони и усилията на гражданското общество могат да играят важна роля в поддържането на AI компаниите отговорни.
Watch video about
Anthropic AI е изправена пред критика за отслабени стандарти за безопасност и противоречиви практики за събиране на данни
Try our premium solution and start getting clients — at no cost to you