None
Brief news summary
NoneGenerator obrazów oparty na sztucznej inteligencji, opracowany przez Meta i znany jako Imagine, zostaje oskarżony o uprzedzenia rasowe. Użytkownicy odkryli, że narzędzie nie potrafi wygenerować obrazów przedstawiających Azjatyckiego mężczyznę i białą kobietę. Ta uprzedzona tendencja jest zaskakująca, biorąc pod uwagę, że Mark Zuckerberg, CEO Meta, jest żonaty z kobietą o wschodnioazjatyckim pochodzeniu. Imagine, generator obrazów oparty na AI, został uruchomiony pod koniec 2023 roku i ma zdolność do szybkiego przekształcania pisemnych wskazówek w realistyczne obrazy. Jednak użytkownicy odkryli, że system konsekwentnie nie potrafi generować obrazów ukazujących pary mieszanego pochodzenia. Gdy użytkownicy podawali jako polecenie wygenerowanie obrazu Azjatyckiego mężczyzny z żoną o białej karnacji, narzędzie wyświetlało jedynie obrazy par azjatyckich. Niektórzy użytkownicy żartobliwie publikowali zdjęcia Zuckerberga i jego żony, twierdząc, że ręcznie osiągnęli zamierzony rezultat. Pierwszy doniesienia na ten temat pochodzą od The Verge, gdzie reporterka Mia Sato stwierdziła, że próbowała wielokrotnie stworzyć obrazy azjatyckich mężczyzn i kobiet z białymi partnerami lub przyjaciółmi, ale udało się to tylko raz.
Meta jak dotąd nie udzieliła odpowiedzi w sprawie tego problemu na prośbę Business Insider. Warto zauważyć, że Meta nie jest pierwszą firmą technologiczną, która spotyka się z krytyką za "rasistowską" sztuczną inteligencję. Google musiało chwilowo zawiesić generator obrazów Gemini, gdy odkryto, że generowane obrazy są historycznie nieprecyzyjne, włączając w to przedstawienia azjatyckiego nazistów w Niemczech z 1940 roku, czarnych Wikingów i damskich rycerzy średniowiecznych. Te incydenty podkreślają trwające obawy dotyczące uprzedzeń rasowych w algorytmach sztucznej inteligencji. Gdy algorytmy predykcyjne mocno polegają na opinii społecznej, stereotypach lub stronniczych danych, mogą utrwalać wykluczenie, stereotypy i niesprawiedliwe ukierunkowanie na jednostki i społeczności. Generacyjne AI, takie jak Gemini i Imagine, czerpią z dużych ilości danych treningowych pochodzących ze społeczeństwa. Jeśli brakuje reprezentacji par mieszanego pochodzenia w tych danych, może to tłumaczyć trudności AI w generowaniu obrazów tego typu.
Watch video about
None
Try our premium solution and start getting clients — at no cost to you