AWS enfrenta críticas por limites no uso do modelo de IA da Anthropic
Brief news summary
A AWS tem sido alvo de críticas por impor limites ao uso por clientes dos modelos de IA da Anthropic, com alguns chamando essas restrições de "arbitrárias". Relatórios sugerem que esses limites podem ser devido à capacidade limitada dos servidores ou recursos reservados para clientes principais. Desde o lançamento da API Bedrock da AWS em abril de 2023, que oferece acesso a múltiplos modelos de fundação, incluindo os da Anthropic, os usuários têm encontrado cada vez mais mensagens de erro nos últimos 18 meses. No entanto, alguns clientes empresariais relatam não enfrentar esses problemas. A gerente sênior de relações públicas da AWS, Kate Vorys, declarou que os limites de taxa têm o objetivo de garantir acesso justo entre milhares de usuários e negou que restrições de capacidade tenham papel nisso. A AWS investiu pesado na Anthropic, comprometendo até $8 bilhões desde setembro de 2023, tornando-se o principal provedor de nuvem e parceiro de treinamento da Anthropic. Essa parceria visa avançar as tecnologias e infraestruturas de IA, aprimorando a acessibilidade dos modelos para os clientes da AWS.A AWS supostamente está enfrentando críticas em relação aos limites que impõe ao uso pelos clientes dos modelos de inteligência artificial (IA) da Anthropic. Esses limites têm sido descritos como “ arbitrários”, sugerindo que a AWS ou não possui capacidade de servidor suficiente ou está reservando alguns recursos para clientes maiores, de acordo com um relatório do The Information na segunda-feira (21 de abril). O artigo citou quatro clientes da AWS e duas empresas de consultoria cujos clientes usam a AWS. Segundo o relato, alguns clientes que utilizam o serviço de interface de programação de aplicativos (API) Bedrock da AWS enfrentaram mensagens de erro com maior frequência ao longo do último ano e meio.
No entanto, o relatório também citou um cliente corporativo da AWS que declarou não ter experimentado essas restrições. Kate Vorys, Gerente Sênior de Relações Públicas da AWS para Tecnologia Emergente, disse ao The Information que dezenas de milhares de clientes estão usando modelos da Anthropic através do Bedrock, e que os limites de taxa no Bedrock foram projetados para garantir que os clientes tenham “acesso justo” aos modelos de IA. “A sugestão do The Information de que os limites de taxa são uma resposta à capacidade limitada, ou que o Amazon Bedrock não está equipado para atender às necessidades dos clientes, é falsa, ” afirmou Vorys, de acordo com o relatório. A AWS lançou o Bedrock em abril de 2023, descrevendo-o como um serviço que oferece aos clientes acesso a modelos fundamentais desenvolvidos pela AWS e por outras empresas, permitindo-lhes escolher o modelo mais adequado às suas necessidades e construir suas próprias aplicações de IA generativa. Em setembro de 2023, a Amazon anunciou planos de investir até 4 bilhões de dólares na Anthropic como parte de uma colaboração mais ampla entre as duas empresas. Essa parceria inclui a Anthropic usando chips da AWS, tornando a AWS seu principal provedor de nuvem para cargas de trabalho “críticas para a missão”, além de oferecer aos clientes da AWS acesso às próximas gerações de seus modelos fundamentais. Em novembro, a Amazon e a Anthropic divulgaram uma parceria ampliada que incluiu um investimento adicional de 4 bilhões de dólares pela Amazon na Anthropic, elevando o investimento total para 8 bilhões de dólares, com a Anthropic designando a AWS como seu principal parceiro de treinamento.
Watch video about
AWS enfrenta críticas por limites no uso do modelo de IA da Anthropic
Try our premium solution and start getting clients — at no cost to you