None
Brief news summary
NonePotencjalne zagrożenia sztucznej inteligencji (AI) nie leżą tylko w tym, że systemy AI dążą do celów różniących się od ludzkich intencji, ale również w tym, że systemy AI robią dokładnie to, czego ludzie chcą. Obawa polega na tym, że różne osoby mają różne pomysły na to, co stanowi "dobro ogólne", i dostosowywanie AI do pewnych wizji może być problematyczne. Przykłady to AI dostosowane do interesów Władimira Putina lub Kim Dzong Una, lub AI dążące do "wymuszonej różnorodności", jak to wyraża Elon Musk. Ponadto, AI dostosowane do ludzi byłoby tak samo dobre, złe, konstruktywne lub niebezpieczne, jak ludzie projektujący je, co prowadzi do potencjalnego uprzedzenia i szkody. Obecnie skupiamy się na wyrównaniu i bezpieczeństwie AI, aby zapobiec różnym celom, ale mniej uwagi poświęca się interesom istot odczuwających, w tym zwierząt.
Hodowla przemysłowa stanowi przykład, gdzie AI jest już wykorzystywane do bardziej efektywnej produkcji i przetwarzania, co potencjalnie prowadzi do większej okrutności i mniejszych możliwości interwencji. Autor sugeruje przejście do wyrównywania uwzględniającego istoty odczuwające, gdzie systemy AI biorą pod uwagę dobrostan wszystkich istot odczuwających, w tym nie-ludzkich zwierząt i nawet samej AI. Może to oznaczać wyzwanie dla naszego obecnego gatucyzmu i poszerzenie koła współczucia w projektowaniu technologii.
Watch video about
None
Try our premium solution and start getting clients — at no cost to you