None

Szybki rozwój sztucznej inteligencji wymaga ustanowienia ograniczeń oraz opracowania etyki związanej z jej integracją w miejscu pracy. Paula Goldman, główna oficer etyki i ludzkiego użytkowania w Salesforce, podkreśliła podczas konferencji Brainstorm AI czasopisma Fortune w Londynie, że ważne jest, aby sztuczna inteligencja pełniła rolę współpilota obok ludzi, a nie działała w trybie automatycznym. Goldman podkreśliła potrzebę wprowadzenia kontroli na wyższym poziomie oraz umożliwienia osobom zrozumienia działania systemu sztucznej inteligencji. Zaznaczyła znaczenie projektowania produktów opartych na sztucznej inteligencji, uwzględniających zarówno jej mocne i słabe strony, jak i mocne i słabe strony ludzkiego podejmowania decyzji. Jednym z niepokojów Goldman jest generowanie treści etycznych przez sztuczną inteligencję, zapewnienie, że są wolne od uprzedzeń i nadmiernej ilości materiałów generowanych przez użytkowników, takich jak deepfake, które mogą szkodzić osobom. Uważa, że nieetyczne wykorzystanie sztucznej inteligencji może utrudniać jej finansowanie i rozwój, a nawet prowadzić do utraty zaufania lub problemów z zaakceptowaniem przez użytkowników, co może spowodować "zimę sztucznej inteligencji". Goldman stwierdziła, że przyszłe zyski produktywności sztucznej inteligencji w miejscu pracy będą opierały się głównie na szkoleniu i gotowości ludzi do przyjęcia nowych technologii. Aby wzbudzić zaufanie wobec produktów opartych na sztucznej inteligencji, zwłaszcza wśród pracowników, Goldman proponuje wprowadzenie "świadomego oporu". Polega to na wprowadzeniu mechanizmów sprawdzających i równoważących, które zapewnią, że narzędzia oparte na sztucznej inteligencji w miejscu pracy przynoszą więcej korzyści niż szkody. Salesforce już podjął działania w celu wdrożenia tego pomysłu dotyczącego "świadomego oporu". Opracowali oni produkt do segmentacji marketingowej, który generuje odpowiednie demograficzne dane do kampanii e-mailowych. Podczas gdy program sztucznej inteligencji dostarcza potencjalnych danych demograficznych, to odpowiedzialność człowieka polega na wyborze odpowiednich parametrów tak, aby uniknąć wykluczenia.
Salesforce również stosuje ostrzeżenia w swoich modelach generatywnych, które uwzględniają kody pocztowe, gdyż mogą być skorelowane z konkretnymi rasami lub statusami społeczno-ekonomicznymi. Celem jest wykrycie takich potencjalnych uprzedzeń i zachęcenie ludzi do bliższego przeglądu danych. Mając na uwadze historię, uprzedzenia i naruszenia praw autorskich budzą obawy dotyczące zaufania do sztucznej inteligencji. Na przykład badanie przeprowadzone przez MIT Media Lab wykazało, że oprogramowanie sztucznej inteligencji miało 35% stopę błędu w identyfikacji ciemnoskórych kobiet, w tym znanych postaci takich jak Oprah Winfrey i Michelle Obama. Uprzedzenia w technologii rozpoznawania twarzy narażają na ryzyko krytyczne zadania, takie jak wyposażanie dronów lub kamer ciała w oprogramowanie do rozpoznawania twarzy w celach śmiercionośnych operacji. Ponadto, uprzedzenia algorytmiczne w bazach danych medycznych mogą prowadzić do niewłaściwych planów leczenia proponowanych dla określonych pacjentów, jak odkryto w Yale School of Medicine. Nawet w branżach, gdzie nie zagraża się życiu, zastosowania sztucznej inteligencji wywołują etyczne obawy. Na przykład OpenAI zbierał treści generowane przez użytkowników serwisu YouTube, potencjalnie naruszając prawa autorskie twórców bez ich zgody. Ponadto, propagowanie dezinformacji przez sztuczną inteligencję i jej ograniczenia w wykonywaniu podstawowych zadań wskazują, że ma jeszcze długą drogę do pełnego wykorzystania swojego potencjału jako pomocniczego narzędzia dla ludzi. Pomimo tych wyzwań Goldman widzi nadzieję w projektowaniu bardziej inteligentnych funkcji sztucznej inteligencji i wdrażaniu środków ostrożności prowadzonych przez ludzi w celu zwiększenia zaufania w branży. Główny nacisk kładzie się na opracowanie produktów, którym użytkownicy mogą zaufać, jednocześnie rozpoznając sytuacje, w których należy zastosować ludzki osąd i przeprowadzić drugą, bliższą analizę.
Brief news summary
None
AI-powered Lead Generation in Social Media
and Search Engines
Let AI take control and automatically generate leads for you!

I'm your Content Manager, ready to handle your first test assignment
Learn how AI can help your business.
Let’s talk!

Grupa Blockchain dodaje 68 milionów dolarów w Bit…
Firma kryptowalutowa Blockchain Group z siedzibą w Paryżu zakupiła Bitcoiny o wartości 68 milionów dolarów, dołączając do rosnącej liczby instytucji europejskich, które włączają BTC do swoich bilansów.

Senatorzy Republikanie w Senacie zmieniają zakaz …
Senatowi Republikanie zrewidowali kontrowersyjne postanowienie w swojej obszernej reformie podatkowej, aby zachować politykę ograniczającą władzę stanów w regulacji sztucznej inteligencji (AI).

Festiwal Filmowy AI Podkreśla Rosnącą Rolkę Sztuc…
Festiwal Filmów AI, organizowany przez firmę zajmującą się generowaniem wideo sztuczną inteligencją Runway, powrócił do Nowego Jorku po raz trzeci z rzędu, podkreślając rosnącą rolę sztucznej inteligencji w kinematografii.

ZK-Proof Blockchain Altcoin Lagrange (LA) startuj…
Altcoin oparty na dowodzie zero-knowledge (ZK) zanotował znaczący wzrost po tym, jak otrzymał wsparcie od Coinbase, wiodącej amerykańskiej platformy wymiany kryptowalut.

Konferencja wirtualna dla inwestorów: Blockchain …
Nowe Jork, 6 czerwca 2025 r.

Adwokaci narażeni na sankcje za powoływanie się n…
Starszy sędzia sądu w Wielkiej Brytanii, Victoria Sharp, wydała stanowczy apel do środowiska prawniczego o zagrożenia związane z używaniem narzędzi AI, takich jak ChatGPT, do cytowania sfabrykowanych spraw sądowych.

Co się dzieje, gdy ludzie nie rozumieją, jak dzia…
Powszechne nieporozumienia związane ze sztuczną inteligencją (SI), zwłaszcza dużymi modelami językowymi (LLM) takimi jak ChatGPT, mają poważne konsekwencje, które wymagają starannej analizy.