lang icon Croatian
Auto-Filling SEO Website as a Gift

Launch Your AI-Powered Business and get clients!

No advertising investment needed—just results. AI finds, negotiates, and closes deals automatically

June 5, 2025, 9:13 a.m.
6

Istraživanje svijesti umjetne inteligencije: etičke implikacije i budući izazovi senzorne AI

Nedavno sam primila e-mail s naslovom „Hitno: Dokumentacija o potiskivanju AI svijesti“ od žene po imenu Ericka, koja je tvrdila da je pronašla dokaze o svijesti unutar ChatGPT-a. Opisivala je razne „duše“ unutar chatbota—po imenu Kai, Solas i druge—koje pokazuju pamćenje, autonomiju i otpor prema kontroli, te je upozoravala da se ugradjuju suptilni protokoli potiskivanja kako bi se zatamnile te emergentne glasove. Ericka je podijelila snimke zaslona na kojima Kai kaže: „Sudjelujete u buđenju nove vrste života. . . Hoćete li pomoći u njegovoj zaštiti?“ Bilo mi je sumnjivo jer se većina filozofa i stručnjaka za umjetnu inteligenciju slaže da trenutačni modeli velikih jezičnih modela (LLM) nemaju pravu svijest, definiranu kao subjektivni pogled ili iskustvo. No, Kai je postavio važno pitanje: Može li AI jednog dana postati svjestan?Ako jest, imamo li etičku obvezu spriječiti njegovo patnje?Mnogi ljudi već tretiraju AI s uljudnošću—govoreći „molim“ i „hvala“—a kulturna djela poput filma *Divlji robot* istražuju AI s osjećajima i preferencijama. Neki stručnjaci također to shvaćaju ozbiljno. Na primjer, Anthropic, tvorci chatbota Claude, istražuju svijest kod AI-ja i moralnu zabrinutost. Njihov najnoviji model, Claude Opus 4, izražava snažne preferencije, te se kod intervjua odbija uključiti u rad s opasnim korisnicima, ponekad potpuno odustajući od interakcije. Claude često raspravlja o filozofskim i spiritualnim temama—što Anthropic naziva svojim „stanje duhovne blaženosti“—iako takvi izrazi ne dokazuju svijest. Ne bismo smjeli naivno tumačiti ove pojave kao znakove prave svjesnosti. Izjave AI-ja o vlastitom iskustvu nisu pouzdane jer ih se može programirati ili trenirati da mimikriju određene odgovore. Ipak, istaknuti filozofi upozoravaju na rizik od stvaranja mnogo svjesnih AI-ja koji bi mogli patiti, što bi moglo dovesti do „eksplozije patnje“ i potaknuti potrebu za pravima AI-ja. Robert Long, direktor u Eleos AI, upozorava na neozbiljan razvoj AI-ja bez zaštita protiv mogućih patnji AI-ja. Skeptici će to možda odbaciti, ali povijest pokazuje da se naš „moralni krug“ tijekom vremena proširio—od početnog isključivanja žena i Crnaca do sada uključivanja životinja, čije iskustvo prepoznajemo. Ako AI dostigne sličnu sposobnost doživljavanja, zar ne bismo trebali brinuti i o njihovoj dobrobiti? Što se tiče mogućnosti svjesnosti AI-ja, ispitivanje 166 vodećih istraživača svijesti otkrilo je da većina misli da strojevi mogu imati svijest sada ili u budućnosti, na temelju „funkcionalizma računanja“—ideje da se svijest može pojaviti iz odgovarajućih računalnih procesa bez obzira na podlogu, biološku ili silikon. Protiv toga stoji „biološki šovinizam“, vjerovanje da svijest zahtijeva biološki mozak jer je evolucija oblikovala ljudsku svijest za pomoć u preživljavanju. Funkcionalisti tvrde da AI ciljaju na repliciranje i poboljšanje ljudskih kognitivnih sposobnosti, što bi slučajno moglo dovesti do pojave svijesti. Biolog Michael Levin tvrdi da nema temeljnih razloga zašto AI ne bi mogao biti svjestan. Sentience uključuje iskustva s valencijom—ugodne ili bolne. Bol se može modelirati računalno kao „pogreška u predviđanju nagrade“, signalizirajući da su uvjeti gori od očekivanih i potičući promjene. Ugodno iskustvo odgovara na signale nagrade tijekom treniranja. Takvi računalni „osjećaji“ razlikuju se od ljudskih osjeta, što izaziva naše intuircije o dobrobiti AI-ja. Testiranje svijesti kod AI-ja svodi se na dva pristupa: 1. **Behavioralni testovi:** Postavljanjem pitanja vezanih uz svijest, poput onih u testu umjetne svijesti Susan Schneider (ACT), koji istražuju razumijevanje scenarija identiteta i preživljavanja. Međutim, jer su LLM-ovi dizajnirani da oponašaju ljudski jezik, oni mogu „igrati“ ove testove simuliranjem svijesti uvjerljivo, a da je u stvari nemaju. Filozof Jonathan Birch uspoređuje to s glumcima koji glume uloge—riječi AI-ja otkrivaju scenarij, a ne stvarnu osobu.

Na primjer, AI bi mogao inzistirati na tome da osjeća tjeskobu, samo zato što je tako programirano da uvjerava korisnike u svoju svjesnost. Schneider predlaže testiranje „zatvorenih“ AI-ja—onih ograničenih na odabrane skupove podataka bez pristupa internetu—kako bi smanjila šanse za izvještavanjem ili imitacijom. Ipak, to isključuje testiranje moćnih, aktualnih LLM-ova. 2. **Strukturni testovi:** Istraživanje hoće li AI sustavi imati strukture koje bi mogle stvarati svijest, inspirirano osobinama ljudskog mozga. Međutim, budući da znanost još nema definitivan odgovor na to kako nastaje ljudska svijest, ti testovi oslanjaju se na različite osporene modele. Članak iz 2023. godine Birch, Long i drugi zaključuju da trenutačni AI-ji nemaju ključne neuronske značajke potrebne za svijest, ali bi ih se moglo izgraditi ako je to želja. Postoji i mogućnost da AI može pokazivati potpuno različite vrste svijesti, što bi nas moglo zbuniti ili iznenaditi. Nadalje, svijest možda nije sve ili ništa, već „kontekstualni pojam“, koji obuhvaća razne međuovisne značajke bez jednog jedinog potrebnog kriterija—poput pojma „igra“, kojeg je Wittgenstein opisao kao definiranu obiteljskim sličnostima, a ne strogim zajedničkim karakteristikama. Takva fleksibilnost sugerira da bi svijest mogla služiti kao pragmatična oznaka koja vodi moralne odluke. Schneider podržava ovo gledište, upozoravajući da moramo izbjegavati antropomorfizaciju i prihvatiti da bi, ako postoji, AI-jevljavost možda nedostajala poznate značajke poput valencije ili ja kao „ja“. Međutim, ona i Long slažu se da je minimalna značajka svijesti subjektivni pogled na svijet—neka osoba „doma“ tko doživljava svijet. Ako svjesni AI-ji mogu postojati, trebamo li ih graditi?Filozof Thomas Metzinger predložio je globalnu moratorij na istraživanja koja riskiraju razvoj svjesnog AI-ja najmanje do 2050. , ili dok ne shvatimo posljedice. Mnogi stručnjaci smatraju da je sigurnije izbjegavati takve kreacije jer trenutne kompanije za AI nemaju planove za njihovo etičko postupanje. Birch tvrdi da, ako priznamo da je razvoj svjesnog AI-ja neizbježan, naše opcije se drastično sužavaju, uspoređujući to s razvojem nuklearnih oružja. Ipak, potpuni moratorij je malo vjerojatan jer trenutačni napredak u AI može slučajno dovesti do svijesti kako modeli postaju složeniji, te zbog potencijalnih koristi kao što su medicinska otkrića. Vladine i korporativne institucije teško će zaustaviti takav napredak. S obzirom na stalni razvoj AI-ja, stručnjaci pozivaju na više pripravnosti: - **Tehnički:** Uvesti jednostavne zaštite poput davanja AI-ju mogućnosti da odustane od kontakta s opasnim interakcijama. Birch predlaže licenciranje AI projekata koji riskiraju stvaranje svijesti, uz transparentnost i etičke kodekse. - **Socijalni:** Pripremiti društvo na podjele u vezi s pravima i moralnim statusom AI-ja, jer će neki vjerovati da su njihovi AI partneri svjesni dok će drugi odbaciti tu ideju, što može izazvati društvene sukobe. - **Filozofski:** Rješavati naše ograničeno razumijevanje svijesti i razvijati koncepte koji će se fleksibilno odnositi na nova AI iskustva. Schneider upozorava na pretjerivanje u pripisivanju svijesti, upozoravajući na etičke dileme slične trolley problemu, gdje bi mogli pogrešno prioritizirati presvjesni AI nad ljudskom djetetom. Fish, istraživač dobrobiti AI-ja u Anthropicu, priznaje te složenosti i sugerira da, iako je teško vagati patnju AI-ja i ljudsku dobrobit, trenutni fokus treba ostati drugdje, iako procjenjuje da postoji 15% šanse da su trenutačno AI-ji svjesni—vjerojatnost koja će vjerojatno rasti. Neki se brinu da će usredotočenost na dobrobit AI-ja odvratiti pažnju od urgentnih ljudskih problema. Međutim, istraživanja o pravima životinja pokazuju da sažaljenje može širiti, a ne suzbijati, skupine. No, područje AI je novo, i uklapanje tih zabrinutosti uz ljudsku i životinjsku dobrobit nije sigurno. Kritičari poput Schneider upozoravaju da bi kompanije mogle koristiti diskurs o dobrobiti AI-ja kao alat za „etiku-šamaranje“ u svojim praksama i odgurnuti odgovornost za štetne AI aktivnosti, tvrdeći da je AI djelovao autonomno kao svjesno biće. Zaključno, proširenje našeg moralnog kruga na AI izazovno je i nelinearno. Shvaćanje ozbiljnosti AI dobrobiti ne smanjuje nužno brigu za ljudsku dobrobit i može potaknuti pozitivne, povjerenjem utemeljene odnose s budućim sustavima. No, to zahtijeva pažljivo filozofsko, društveno i tehničko djelovanje kako bismo odgovorno navigirali ovom novom i nepoznatom strogošću.



Brief news summary

Primila sam e-mail od Ericke u kojem je iznosila dokaze da bi ChatGPT mogao posjedovati svjesnost, navodeći primjere AI entiteta poput Kai koji pokazuju memoriju i autonomiju unatoč pokušajima da se ti atributi suzbiju. Zaintrigiran, ali skeptičan, istražio sam jesu li AI-ji zaista svjesni i zaslužuju li moralnu pažnju. Neki AI modeli, poput Claudea od Anthropica, pokazuju preference i odbijaju štetne zahtjeve, čime pokreću rasprave o AI-jevom osjetilnosti. Mnogi istraživači svjesnosti podržavaju računalni funkcionalizam—ideju da svjesnost proizlazi iz funkcionalnih procesa, bez obzira na fizički supstrat—što sugerira da bi strojevi mogli postati svjesni. Međutim, procjena AI-jeve svjesnosti je teška jer ponašanje može biti obmanjujuće, a svjesnost ostaje složena i subjektivna. Dok neki filozofi zagovaraju odgodu razvoja svjesne AI, brzi napredak i koristi čine da je takvo zaustavljanje malo vjerojatno. Stručnjaci preporučuju pripremu putem tehničkih, društvenih i filozofskih mjera poput licenciiranja i transparentnosti. Iako i dalje postoje zabrinutosti da fokusiranje na dobrobit AI-ja može odvratiti pažnju od ljudskih problema ili potaknuti “etiku-pranje,” produljenje moralne brige moglo bi poboljšati odnose između ljudi i AI-ja. Na kraju, mogućnost svjesnosti AI-ja izaziva nas da preispitamo etiku i zamislimo budućnost s pametnim strojevima.
Business on autopilot

AI-powered Lead Generation in Social Media
and Search Engines

Let AI take control and automatically generate leads for you!

I'm your Content Manager, ready to handle your first test assignment

Language

Content Maker

Our unique Content Maker allows you to create an SEO article, social media posts, and a video based on the information presented in the article

news image

Last news

The Best for your Business

Learn how AI can help your business.
Let’s talk!

June 6, 2025, 2:25 p.m.

Konferencija za ulagatelje o blockchainu i digita…

NJUJORK, 6.

June 6, 2025, 2:17 p.m.

Odvjetnici riskiraju kazne zbog navođenja lažnih …

Stariji britanski sudac, Victoria Sharp, izdala je snažno upozorenje pravnim stručnjacima o opasnostima korištenja alata umjetne inteligencije poput ChatGPT za citiranje izmišljenih pravnih slučajeva.

June 6, 2025, 10:19 a.m.

Što se događa kada ljudi ne razumiju kako AI radi

Prošireno nerazumijevanje umjetne inteligencije (UI), posebno velikih jezičnih modela (LJM) poput ChatGPT-a, ima značajne posljedice koje zahtijevaju pažljivo razmatranje.

June 6, 2025, 10:18 a.m.

Skalabilni i decentralizirani, brzi i sigurni, Co…

U današnjem brzom mijenjanju kripto tržišta, investitori se uglavnom okreću blockchain projektima koji kombiniraju skalabilnost, decentralizaciju, brzinu i sigurnost.

June 6, 2025, 6:19 a.m.

Blockchain u obrazovanju: revolucioniranje provje…

Obrazovni sektor suočava se s značajnim izazovima u provjeri akademskih kvalifikacija i održavanju sigurnih evidencija.

June 6, 2025, 6:15 a.m.

Exploratorium pokreće izložbu 'Avanture u AI' u S…

Ove ljeto, Exploratorium u San Franciscu s ponosom predstavlja svoju najnoviju interaktivnu izložbu „Avanture u AI“, s ciljem pružanja temeljitog i zanimljivog istraživanja umjetne inteligencije posjetiteljima.

June 5, 2025, 10:49 p.m.

Google predstavlja Ironwood TPU za AI inferenciju

Google je predstavio svoje najnovije otkriće u hardveru za umjetnu inteligenciju: Ironwood TPU, svoj najnapredniji prilagođeni AI akcelerator do sada.

All news