None
Brief news summary
NoneArtistas e cientistas da computação estão usando uma ferramenta chamada Nightshade para proteger imagens com direitos autorais de serem replicadas por plataformas de inteligência artificial (IA). O Nightshade altera as imagens de maneiras imperceptíveis para os seres humanos, mas as modifica significativamente aos olhos dos modelos de IA. Ao "envenenar" suas obras de arte com o Nightshade, artistas como Karla Ortiz podem impedir que seu trabalho seja escaneado e copiado por programas de texto-para-foto. A ferramenta aproveita o fato de que as máquinas "veem" imagens de maneira diferente dos humanos, com o Nightshade alterando os valores dos pixels para criar imagens que parecem completamente diferentes para os modelos de IA.
As distorções direcionadas do Nightshade podem confundir os modelos de IA, fazendo com que eles percebam um conceito diferente, como substituir imagens de cachorros por imagens distorcidas que se assemelham a gatos. Embora não se espere que o Nightshade ameace os geradores de imagens de IA, ele pode tornar algumas aplicações mais restritas inutilizáveis e responsabilizar as empresas pelo uso do trabalho dos artistas sem permissão. A ferramenta é gratuita para uso e seu criador pretende mantê-la dessa forma. Embora possam existir defesas potenciais contra o envenenamento de imagens do Nightshade, o uso de tais ferramentas destaca a necessidade de salvaguardas adicionais e regulamentações na indústria de IA.
Watch video about
None
Try our premium solution and start getting clients — at no cost to you