lang icon En
Dec. 15, 2024, 5:07 a.m.
1750

Badacze z MIT opracowują metodę zwiększającą sprawiedliwość uczenia maszynowego.

Brief news summary

Naukowcy z MIT opracowali nowatorską metodę poprawy sprawiedliwości i dokładności modeli uczenia maszynowego poprzez eliminowanie uprzedzeń w zbiorach danych, które często pozostawiają niektóre grupy niedostatecznie reprezentowane. Takie uprzedzenia mogą prowadzić do poważnych błędów, jak błędne diagnozy, gdy modele trenowane głównie na danych pacjentów płci męskiej są stosowane wobec pacjentek. Tradycyjne rozwiązania często polegają na usuwaniu dużych segmentów danych, co może negatywnie wpływać na wydajność modeli. Zespół z MIT, kierowany przez Kimię Hamidieh, opracował technikę selektywnego usuwania nieobiektywnych punktów danych wpływających na grupy mniejszościowe, zachowując ogólną dokładność modelu. Metoda ta identyfikuje ukryte uprzedzenia w nieoznaczonych zbiorach danych, zwiększając sprawiedliwość, zwłaszcza w kluczowych sektorach, takich jak opieka zdrowotna. Uzupełnia ona istniejące strategie dotyczące uczciwości, prowadząc do bardziej kompleksowych rozwiązań. Podejście to koncentruje się na redukcji "błędu najgorszej grupy", gdzie modele zawodzą w przypadku mniejszościowych podgrup. Wykorzystując technikę o nazwie TRAK, zespół identyfikuje i usuwa problematyczne punkty danych powodujące niedokładne prognozy, co umożliwia ponowne trenowanie bez konieczności zmiany struktury modelu. Taka elastyczność jest kluczowa dla różnych typów modeli, zwłaszcza gdy etykiety podgrup nie są dobrze zdefiniowane. Nowa metoda prześciga istniejące techniki na trzech zbiorach danych, osiągając większą dokładność przy mniejszej liczbie usunięć danych w porównaniu do tradycyjnych metod. Wspierane przez National Science Foundation i DARPA, badania te stanowią znaczący postęp w rozwoju sprawiedliwych i niezawodnych modeli uczenia maszynowego. Zespół jest zaangażowany w doskonalenie tej techniki do zastosowań praktycznych.

Modele uczące się maszynowo często osiągają gorsze wyniki dla mniejszości z powodu niezrównoważonych zbiorów danych treningowych, co może prowadzić do błędnych prognoz. Na przykład, model trenowany głównie na danych od mężczyzn może nie przewidywać właściwie leczenia dla kobiet. Aby temu zaradzić, inżynierowie czasami równoważą zbiory danych, usuwając niektóre punkty danych, ale to może negatywnie wpływać na ogólną wydajność modelu. Badacze z MIT opracowali metodę, która selektywnie usuwa punkty danych najbardziej przyczyniające się do słabego działania modelu na grupach mniejszościowych, zachowując dokładność modelu i poprawiając jego sprawiedliwość. Technika ta może także ujawniać ukryte uprzedzenia w zbiorach danych pozbawionych etykiet, co jest przydatne, ponieważ dane bez etykiet są bardziej powszechne.

Metoda wykazała lepsze wyniki niż istniejące podejścia, zmniejszając liczbę usuniętych próbek i zwiększając dokładność najgorszej grupy. Oferuje to dostępny sposób na poprawę sprawiedliwości modelu bez konieczności zmiany jego architektury, co czyni ją potencjalnie użytecznym narzędziem dla praktyków. Badacze dążą do dalszej walidacji i udoskonalenia tego podejścia, wspierając rozwój bardziej sprawiedliwych i niezawodnych modeli. Badania te są wspierane przez Narodową Fundację Nauki i Agencję Zaawansowanych Projektów Badawczych Obrony USA.


Watch video about

Badacze z MIT opracowują metodę zwiększającą sprawiedliwość uczenia maszynowego.

Try our premium solution and start getting clients — at no cost to you

I'm your Content Creator.
Let’s make a post or video and publish it on any social media — ready?

Language

Hot news

Dec. 21, 2025, 1:44 p.m.

Narzędzia do moderacji treści wideo opartych na s…

Platformy mediów społecznościowych coraz częściej wykorzystują sztuczną inteligencję (SI) do ulepszania moderacji materiałów wideo, odpowiadając na gwałtowny wzrost liczby filmów jako dominującej formy komunikacji online.

Dec. 21, 2025, 1:38 p.m.

USA ponownie rozważa ograniczenia eksportu układó…

PRZEWROT POLITYKI: Po latach zaostrzeń ograniczeń, decyzja o zezwoleniu na sprzedaż chipów Nvidia H200 do Chin wywołała sprzeciw części Republikanów.

Dec. 21, 2025, 1:38 p.m.

SI było odpowiedzialne za ponad 50 000 zwolnień w…

Zwolnienia spowodowane sztuczną inteligencją zaznaczyły rynek pracy w 2025 roku, gdy duże firmy ogłosiły tysiące cięć zatrudnienia przypisywanych postępom w AI.

Dec. 21, 2025, 1:36 p.m.

Uruchomiono Usługi SEO Perplexity – NOWA STRONA I…

RankOS™ zwiększa widoczność marki i cytowania w Perplexity AI oraz innych platformach wyszukiwawczych typu answer-engine Usługi agencji SEO Perplexity Nowy Jork, NY, 19 grudnia 2025 (GLOBE NEWSWIRE) — Firma NEWMEDIA

Dec. 21, 2025, 1:22 p.m.

Rodzinny fundusz Erika Schmidta inwestuje w 22 st…

Oryginalna wersja tego artykułu ukazała się w newsletterze CNBC Inside Wealth, napisanym przez Roberta Franka, który stanowi tygodniowe źródło informacji dla inwestorów i konsumentów o wysokim majątku netto.

Dec. 21, 2025, 1:21 p.m.

Przyszłość briefingu marketingowego: Dlaczego „wy…

Nagłówki skupiają się na pokazaniu wielomiliardowej inwestycji Disneya w OpenAI i spekulacjach, dlaczego Disney wybrał OpenAI zamiast Google, przeciwko któremu wytacza proces o domniemane naruszenie praw autorskich.

Dec. 21, 2025, 9:34 a.m.

Dane z Salesforce pokazują, że sztuczna inteligen…

Salesforce opublikował szczegółowy raport dotyczący wydarzenia zakupowego Cyber Week 2025, analizując dane z ponad 1,5 miliarda klientów na całym świecie.

All news

AI Company

Launch your AI-powered team to automate Marketing, Sales & Growth

and get clients on autopilot — from social media and search engines. No ads needed

Begin getting your first leads today