None
Brief news summary
NoneArtyści oraz naukowcy komputerowi korzystają z narzędzia o nazwie Nightshade, aby chronić prawa autorskie do obrazów przed replikacją przez sztuczną inteligencję (AI). Nightshade zmienia obrazy w niewidoczny dla ludzi sposób, ale znacząco je zmienia w oczach modeli AI. Poprzez "zatrucie" swoich dzieł sztuki przy użyciu Nightshade, artyści, tak jak Karla Ortiz, mogą zapobiec skanowaniu i kopiowaniu ich prac przez programy do przekształcania tekstu w zdjęcia. Narzędzie wykorzystuje fakt, że maszyny "widzą" obrazy inaczej niż ludzie, a Nightshade modyfikuje wartości pikseli, tworząc obrazy, które wydają się całkowicie inne dla modeli AI.
Ukierunkowane zniekształcenia Nightshade mogą wprowadzić zamęt w modelach AI, tak że będą dostrzegały inny koncept, na przykład zastępując obrazy psów zniekształconymi obrazami przypominającymi koty. Chociaż nie oczekuje się, że Nightshade zagrozi generatorom obrazów AI, może on uniemożliwić używanie niektórych węższych zastosowań i pociągać firmy do odpowiedzialności za korzystanie z prac artystów bez zgody. Narzędzie jest bezpłatne w użyciu, a jego twórca zamierza to zachować. Chociaż mogą istnieć potencjalne sposoby obrony przed zatruciem obrazami przez Nightshade, używanie takich narzędzi podkreśla potrzebę dodatkowych zabezpieczeń i regulacji w przemyśle AI.
Watch video about
None
Try our premium solution and start getting clients — at no cost to you