Istraživači sa MIT-a razvijaju metodu za poboljšanje pravednosti u mašinskom učenju.
Brief news summary
Istraživači sa MIT-a razvili su novi metod za unapređenje pravičnosti i tačnosti modela mašinskog učenja bavljenjem predrasudama u skupovima podataka koje često ostavljaju određene grupe nedovoljno zastupljene. Ove pristranosti mogu dovesti do značajnih grešaka, kao što su pogrešne dijagnoze kada se modeli, primarno obučeni na podacima muških pacijenata, primene na ženske pacijentkinje. Tradicionalna rješenja često uključuju uklanjanje velikih segmenata podataka, što može negativno uticati na performanse modela. Pod vođstvom Kimie Hamidieh, tim sa MIT-a razvio je tehniku koja selektivno uklanja pristrasne tačke podataka koje utiču na manjinske grupe dok očuvava ukupnu tačnost modela. Ova metoda identifikuje skrivene pristrasnosti u neselektovanim skupovima podataka, poboljšavajući pravičnost, posebno u kritičnim sektorima kao što je zdravstvena zaštita. Ona dopunjuje postojeće strategije pravičnosti, vodeći ka sveobuhvatnijim rešenjima. Njihov pristup se fokusira na smanjenje "greške najgore grupe", gde modeli ne uspevaju sa manjinskim podgrupama. Koristeći tehniku zvanu TRAK, tim identifikuje i uklanja problematične tačke podataka koje izazivaju netačne prognoze, omogućavajući ponovno obučavanje bez potrebe za promenom strukture modela. Ova fleksibilnost je suštinska za različite tipove modela, posebno kada oznake podgrupa nisu dobro definisane. Novi metod nadmašuje postojeće tehnike na tri skupa podataka, postižući veću tačnost sa manje uklanjanja podataka u poređenju sa tradicionalnim metodama. Podržana od strane Nacionalne naučne fondacije i DARPA, ova istraživanja predstavljaju značajan napredak u razvoju pravih i pouzdanih modela mašinskog učenja. Tim je posvećen usavršavanju ove tehnike za praktične primjene.Modeli mašinskog učenja često postižu slabije rezultate za manjinske grupe zbog neuravnoteženih setova podataka za obuku, što može dovesti do netačnih predikcija. Na primjer, model obučen prvenstveno na podacima od muških pacijenata možda neće tačno predviđati tretman za žene. Da bi se ovo riješilo, inženjeri ponekad balansiraju skupove podataka uklanjanjem tačaka podataka, ali to može narušiti ukupne performanse modela. Istraživači sa MIT-a razvili su metodu koja selektivno uklanja tačke podataka koje najviše doprinose lošim performansama modela za manjinske grupe, održavajući tačnost modela i poboljšavajući pravednost. Ova tehnika također može otkriti skrivene pristranosti u skupovima podataka koji nemaju oznake, što je korisno jer su neoznačeni podaci češći.
Metoda je pokazala bolje performanse od postojećih pristupa smanjenjem broja uklonjenih uzoraka i povećanjem preciznosti za najniže grupe. Ona nudi pristupačan način za poboljšanje pravednosti modela bez mijenjanja arhitekture modela, što je čini potencijalno korisnim alatom za praktičare. Istraživači teže daljoj validaciji i poboljšanju ovog pristupa, podržavajući razvoj pravednijih i pouzdanijih modela. Ovo istraživanje je podržano od strane Nacionalne naučne fondacije i američke Agencije za napredne istraživačke projekte odbrane.
Watch video about
Istraživači sa MIT-a razvijaju metodu za poboljšanje pravednosti u mašinskom učenju.
Try our premium solution and start getting clients — at no cost to you