None
Brief news summary
NoneEksplozyjne śledztwo przeprowadzone przez +972 Magazine ujawnia, że izraelskie siły zbrojne używały sztucznej inteligencji napędzanej "listą śmierci", aby wybierać cele w Strefie Gazy, co prowadziło do ofiar wśród ludności cywilnej. Pomimo 10% fałszywych pozytywów, Izraelskie Siły Obronne celowo atakowały domniemanych bojowników w ich domach, ignorując zwiększone ryzyko dla cywilów. Wykorzystanie technologii AI, połączone z liberalnymi zasadami angażowania się w działania militarne, prowadzi do znacznego uszczerbku dla cywilów w Strefie Gazy. Oprogramowanie AI do celowania, znane jako "Lavender", przypisuje punkty, aby zidentyfikować potencjalnych bojowników, a żołnierze wprowadzają te informacje do oprogramowania "Where's Daddy" w celu monitorowania.
Ten raport podkreśla obawy, że AI przyspiesza i rozszerza zakres działań wojennych, stawiając cywilów w większym niebezpieczeństwie. Kwestionowane jest również znaczenie ludzkiego podejmowania decyzji w operacjach opartych na AI, ponieważ pobieżne przeglądy mogą prowadzić do zwiększonego uszczerbku dla ludności cywilnej. Raport podkreśla konieczność odpowiedzialnego wykorzystania AI w operacjach wojskowych i zachęca decydentów, zwłaszcza w Stanach Zjednoczonych, do wzięcia pod uwagę wniosków płynących z doświadczeń Izraela.
Watch video about
None
Try our premium solution and start getting clients — at no cost to you