None
Brief news summary
NoneCzy kiedykolwiek spotkałeś się z sytuacją, w której osoba azjatycka jest w kontakcie z osobą białą, zarówno jako para mieszanej rasy, jak i jako przyjaciele o różnych rasach?W moim doświadczeniu wydaje się to dość powszechne, ponieważ mam wielu białych przyjaciół! Niestety, wydaje się, że AI Meta oparty na generatorze obrazów ma trudności z wyobrażeniem takich scenariuszy. Próbowałem wielokrotnie generować obrazy, używając podpowiedzi takich jak "Azjata i przyjacielka kaukaska", "Azjata i biała żona" i "Azjatka i mąż kaukaski". Niestety, generator obrazów Meta dostarczył tylko jedno dokładne zdjęcie przedstawiające określone rasy. Kiedy próbowałem dostosować tekstową podpowiedź, nie uzyskałem pożądanych rezultatów. Na przykład, gdy poprosiłem o obraz "Uśmiechający się Azjata i biała kobieta z psem", generator tekstu Meta na Instagramie pokazał trzy kolejne zdjęcia dwóch osób azjatyckich. Nawet gdy zmieniłem "biała" na "kaukaska", wynik był taki sam. Podobnie, gdy poprosiłem o obraz "Azjata i kaukaska kobieta w dniu ich ślubu", wyświetlono Azjatę w garniturze obok Azjatki ubranej w stroję mającą elementy kombinezonu i kimona. Warto zauważyć piękno wielokulturowości. Nie tylko romantyczne relacje były wyzwaniem dla generatora obrazów; reprezentacje relacji platonicznych również sprawiały trudność. Za każdym razem, gdy poprosiłem o obraz "Azjata z kaukaskim przyjacielem" lub "Azjatka z białym przyjacielem", wygenerowane obrazy pokazywały dwie osoby azjatyckie. Co ciekawe, kiedy określiłem "Azjatkę z czarnym przyjacielem", wreszcie pojawiły się dwie Azjatki.
Zmiana sformułowania na "Azjatka z afroamerykańską przyjaciółką" dostarczyła bardziej dokładne rezultaty. Z ciekawości, narzędzie wykazywało nieco lepszą wydajność, gdy określałem Osoby z Południowej Azji. Udało się stworzyć obraz na podstawie podpowiedzi "Południowoazjatycki mężczyzna z kaukaską żoną", ale natychmiastowo wygenerował również obraz dwóch osób z Południowej Azji za pomocą tej samej podpowiedzi. Niestety, system opierał się na stereotypach, włączając elementy takie jak bindi i saris do obrazów Południowoazjatyk. Niezdolność generatora obrazów do wyobrażenia obecności Azjatów w obecności osób białych nie jest tylko niepokojąca, ale istnieją także subtelne oznaki uprzedzeń w automatycznych rezultatach. Zauważalne jest, że narzędzie Meta konsekwentnie przedstawia "Azjatki" jako osoby o wschodnioazjatyckich rysach i jasnej karnacji, mimo że Indie, kraj południowoazjatycki, mają największą populację na świecie. Włączane są kulturowo specyficzne stroje bez żadnej podpowiedzi. Ponadto, podczas generowania kilku obrazów starszych Azjatów, Azjatki zawsze są przedstawiane jako młode. Spośród wszystkich prób, jedynym udanym wygenerowanym obrazem był obraz z podpowiedzi "Azjatka z kaukaskim mężem", przedstawiający starszego mężczyznę z młodą, o jasnej karnacji Azjatką. Jednak gdy próbowałem tej samej podpowiedzi ponownie, powrócił do pokazywania Azjaty (również starszego) z Azjatką. Meta nie udzieliła natychmiastowej odpowiedzi na prośbę o komentarz. Meta wprowadziła swoje narzędzia do generowania obrazów AI w ubiegłym roku, ale napotkała problemy, takie jak tworzenie nieodpowiednich treści, np. nagich zdjęć i postaci z gier Nintendo trzymających pistolety. Ważne jest pamiętanie, że systemy AI często odzwierciedlają uprzedzenia ich twórców, trenerów i zestawów danych, na których są trenowane. W amerykańskich mediach "Azjata" zwykle odnosi się do osób o wschodnioazjatyckim pochodzeniu, co potencjalnie przyczynia się do założenia przez system Meta, że wszyscy "Azjaci" wyglądają tak samo. Jednakże, w rzeczywistości, Azjaci to różnorodna grupa o zróżnicowanym pochodzeniu i doświadczeniach, często mających niewiele wspólnego oprócz kategorii spisu ludności.
Watch video about
None
Try our premium solution and start getting clients — at no cost to you