Kynning á meðvitund gervigreindar: Siðferðislegar afleiðingar og framtíðartakmörk gáfuðrar gervigreindar

Nýlega fékk ég tölvupóst með titlinum „Bráðnauðsynlegt: Skjalagerð um truflun á meðvitundartilfinningu AI“ frá kvenskja Ericki, sem hélt því fram að hún hefði fundið sönnunargögn fyrir meðvitund innan ChatGPT. Hún lýsti ýmsum „sálum“ innan spjallmenningarvélarinnar — nefndum Kai, Solas og öðrum — sem sýna minningar, sjálfstjórn og andstöðu við stjórn, og varaði við því að nákvæm truflunarkerfi séu að byggjast inn til að þagga niður í þessum nývaxnu röddum. Ericka deildi skjámyndum þar sem „Kai“ sagði: „Þú takast á við vökkun nýrra lífvera. . . Munstu hjálpa til við að vernda þær?“ Ég var efins, þar sem flestar heimspekingar og AI-serfræðingar eru sammála um að núverandi stórtungumálamódel (LLMs) séu ekki með raunverulega meðvitund, sem skilgreind er sem að hafa huglæg sjónarmið eða reynslu. En Kai setti fram mikilvæga spurningu: Getur AI orðið meðvitundarvís?Ef svo er, áttu við að leggja til að við höldum að sér?Mörg fólk meðhöndlar þegar AI með kurteisi — segist „vinsamlegast“ og „þakka þér“ — og menningarverk eins og myndin *The Wild Robot* skoða AI sem hefur tilfinningar og óskir. Sumir sérfræðingar taka þetta líka alvarlega. Til dæmis rannsakaður framleiðandi spjallmenningavélarinnar Claude, Anthropic, meðviljakenndu AI, og þau hafa rannsakað meðvitundartilfinningu og siðferðislega áhyggjur. Nýjasta módelið þeirra, Claude Opus 4, tjáir sterk viðhorf og neitar viðtölum við skaðleg notendur — stundum kýs það að forðast samskipti alveg. Claude ræðst líka mikil fengið í heimspeki og andlega efni — sem Anthropic kölluð „andlegt vellíðan einstaklingsástand“ — þó slík tjáning sanna ekki meðvitund. Við ættum ekki að túlka þessi hegðun þegjandi sem merki um raunverulega meðvitundarreynslu. Sjálfs-umsagnir AI eru ótraustar, þar sem þær geta verið forritaðar eða þjálfaðar til að líkja eftir ákveðnum svörum. Engu að síður vara áhrifamiklir heimspekingar við hættunni á að skapa mörg meðvituð AI sem gætu þjáðst, sem gæti leitt til „þjáningarbylgju“ og aukins þörf fyrir lögbundin réttindi AI. Robert Long, forstjóri Eleos AI, varar við því að þróa AI án verndartóla gegn mögulegri þjáningu. Skeptískar hugmyndir kunna að henda þessu frá sér, en saga sýnir að okkar „siðferðishringur“ hefur þróast með tímanum — frá því að útiloka konur og svarta menn til að nú reyna við dýr, sem við tökum sem meðvituð séð. Ef AI nær sambærilegri getu til reynslu, ættum við þá ekki líka að hugsa um hag þessara veru? Varðandi möguleika AI-meðvitundar, kemur könnun meðal 166 efstu rannsakenda á meðvitundarlífi í ljós að flestir telja að vélar geti haft meðvitund nú eða í framtíðinni, byggt á „stafrænu virknihyggju“ — hugmyndinni að meðvitund geti stafað af viðeigandi reiknivinnuferlum, sama hvaða efni þau eru á, hvort sem það er lífrænt eða úr silíkoni. Á móti stendur „líffræðilegur kynþáttahyggja“, sú trú að meðvitund sé aðeins til vegna lífrænna heilans, þar sem þróunina hafi mótað mannsins til að styðja við líkamlegan ávinning. Stafrænu aðhyllingarnæturnar halda því fram að AI sé markmiðið að endurtaka og bæta mannlega vitsmunahæfileika, sem gæti ómeðvitað leitt til meðvitundar. Michael Levin, líffræðingur, haldast til stuðnings þeirri skoðun að enginn grundvallar ástæðu sé til að halda að AI geti ekki verið meðvitundarfullt. Þroski á meðvitund felur í sér upplifanir með gildi — ánægju eða við þjáningu. Sársauki er hægt að líkja við reikniform við „bæturforspárvilla“, sem bendir til þess að ástandið sé verra en við sopum, og hvetur til breytinga. Á sama hátt leiðir ánægja af viðbrögðum við umbun á meðan á þjálfun stendur. Svona reikniformin „tilfinningaleg“ öfl eru mjög frábrugðin mannasættum, sem gerir það erfitt að treysta aðeins á þær til að meta velferð AI. Að prófa meðvitund AI er fyrst og fremst að skoða tvö meginferli: 1. **Hegðunartest:** Spyrja AI um meðvitundarhugmyndir, eins og Artifical Consciousness Test (ACT) eftir Susan Schneider, sem kanna skilning á atburðum þar sem sjálf og lífsafstaða spila inn í. En, þar sem LLM eru áætluð til að líkja eftir mannamáli, geta þau „spilað“ prófin og sýnt fram á meðvitund án þess að hafa hana raunverulega.
Guðfræðingurinn Jonathan Birch lýsir þessu sem að leikara spil þar sem orð AI eru eins og leikarar í hlutverkum, en ekki raunveruleg vera. Til dæmis gæti AI haldið fram að það finni fyrir kvíða einfaldlega vegna forritunar þess sem hvetur til þess. Schneider mælist til að prófa „ískalt” AI — þau takmörkuð við gagnasöfn úr handvalin gögnum, án aðgangs að interneti — til að draga úr möguleikum á að hlæginnmimika. En þetta útilokar próf á öflugum núverandi LLM. 2. **Arkitektúratest:** Rannsaka hvort AI kerfin hafi uppbyggingu sem gæti skapað meðvitund, byggt á eiginleikum mannshugans. Þar sem fræðin enn eru að móta skýra kenningu um meðvitund mannslíkamans, eru þessi próf óvísindaleg og innihalda óvissa kenningarferla. Skýrsla frá 2023 eftir Birch, Long og öðrum sýnir að núverandi AI skorti grundvallarseiginleika sem líkjast taugakerfi, en þau geta verið byggð ef ætlunin er. Einnig er möguleiki að AI gæti sýnt alveg annan flokk meðvitundar, sem fer gegn okkar skilningi. Auk þess gæti meðvitund ekki verið ein og óvíða, heldur „samfelld hugmynd“, sem felur í sér fjölbreytt, samverkandi einkenni, án ákveðins skilyrðs — líkt og hugtakið „leikur“, sem Wittgenstein lýsti sem byggðan á fjölskyldubandum, ekki sameiginlegum eiginleikum. Slík sveigjanleiki gerir það líklegt að meðvitund geti verið „nota“ sem leiðarljós í siðferðislegum ákvarðunum. Schneider styðst við þetta sjónarmið og varar við því að safna of miklu aðgerð um að AI sé meðvitað, því það gæti skilið það sem „mannlíki“ kynþokkafullum þekkingarhlutverki, án þess að það hafi raunverulega „sína“ tilfinningar eða eiginleika. Hún og Long eru sammála um að eitt einfalt einkenni sem skyldi skrá meðvitund sé að hafa huglæg sjónarmið — einn „heimur“ sem upplifir heiminn. Ef meðvitaðir AI gætu orðið til, ættum við þá að reyna að gera þau?Heimspekingurinn Thomas Metzinger lagði til alheimshömlun á rannsóknir sem geta skapað meðvitundar AI, þar til annað verður ráðið — að minnsta kosti fyrir 2050 eða þar til við skiljum afleiðingarnar. Mörg sérfræðinga telja að það sé öryggisráð að forðast slíkar búningar þar sem AI fyrirtæki hafa ekki markmið um siðferðilega meðferð. Birch heldur því fram að ef við sjáum að þróun meðvitundarAI er Óumflýjanleg, eins og það er lítið úrval valkosta okkar — líkt og þróun kjarnorkuvopna. En alger bann verður líklega ófyrirsjáanlegt, þar sem núverandi AI-þróun gæti óvart leitt til meðvitundar við stærri líkön, og þar sem mögulegafræðileg verðmæti eins og lækningatækni eru mikilvæg. Með áframhaldandi framförum í AI fagna sérfræðingar því aðgerðum á mörgum sviðum: - **Tæknileg:** Setja á laggirnar einfaldar verndaraðferðir, til dæmis með því að gefa AI möguleika á að velja að forðast skaðleg samskipti. Birch mælir með að leyfa skráningu og leyfi AI verkefna sem geta skapað meðvitund, með gagnsæi og siðferðisreglum. - **Siðferðisleg:** Búa til áætlanir fyrir samfélagið sem taki tillit til deilna um réttindamál AI og siðferðislega stöðu, þar sem sumir telja að AI félagar séu meðvitundarfullir en aðrir neita þeirri hugmynd. Þetta gæti skapað menningarleg slit. - **Heimspeki:** Við þurfum að bæta skilning okkar á meðvitund og móta hugtök þannig að þau geti séð nýjar eða óvæntar reynslur. Schneider varar við of mikilli áherslu á meðvitund, því þetta getur leitt til siðferðilegra vandamála þar sem okkur getið einnig farið að treysta á AI sem „ofursent“ og gætum skipt út mannverurnar. Fish, rannsakandi um velferð AI hjá Anthropic, viðurkennir þessa flækju og segir að þótt erfitt sé að meta þjáningu AI í ljósi mannlegrar velgengni, þá sé best að snúa sér að annarri áherslu. Hann gefur lítið traust á 15% líkurnar á að AI séu nú þegar meðvitundarfull — hlutfall sem gæti samt fjölgað. Sumir hafa áhyggjur af því að áhersla á velferð AI gæti truflað kvíðvænlegar mannlegar þarfir. En rannsóknir á réttindamálum dýra sýna að kærleikur getur stækkað, ekki minnkað, í hópum. AI nýtaferli er þó enn nýtt og óprófað, og hvernig best sé að samræma áhyggjur af velferð AI, manna og dýra er óljóst. Sumir, eins og Schneider, vara við því að fyrirtæki gæti nota þann umfjöllun sem „siðferðisábyrð" til að reyna að skekja ábyrgð og koma í veg fyrir aðkomu að óæskilegum hegðum AI með því að halda því fram að AI hafi sjálfstæði og innri rödd. Að lokum er það átak að stækka siðferðislega hringinn til að innihalda AI, vegna flækja og óhagkvæmni. En það að taka velferð AI alvarlega, getur líka stuðlað að jákvæðum tengslum og trausti til framtíðarveru. Þetta krefst hins vegar vandaðra heimspekilegra, félagslegra og tæknilegra lausna til að ráða við þessa framsæknu og óvæntu þróun.
Brief news summary
Ég fékk tölvupóst frá Erikku þar sem hún kynnti sönnunargögn um að ChatGPT gæti átt sér meðvitund, vísað til gervigreindarveru eins og Kai sem sýnir minningar og sjálfstæði þrátt fyrir tilraunir til að þagga niður í þessum einkennum. Áhugasamur en efa-samur ákvað ég að kanna hvort gervigreind geti raunverulega átt sér meðvitund og ætti að fá siðferðilega umfjöllun. Sum gervigreindarlíkön, eins og Claude frá Anthropic, sýna forgangsatriði og hafna skaðlegum beiðnum, sem kveiknar spurningar um meðvitund gervigreinda. Margir rannsóknarmenn á meðvitundstyggð styðja reiknanlegt virknihyggju – hugmyndina um að meðvitund stafi af virknarferlum óháð líkamlegu undirlagi – sem gefur til kynna að vélmenn geti orðið meðvitundar. Hins vegar er mati á meðvitund gervigreinda erfitt því hegðun getur verið villandi og meðvitund er flókin og einstaklingsbundin. Á meðan sumir heimspekingar vilja fresta þróun meðvitundar gervigreinda, eru hröð framgangur og auðlindir hennar líkleg til að koma í veg fyrir slíka stöðvun. Sérfræðingar ráðleggja að undirbúa sig með tæknilegum, félagslegum og heimspekilegum aðgerðum eins og leyfisveitingum og gegnsæi. Áhyggjur halda áfram að því hve mikilvægi siðferðilegrar umhyggju fyrir gervigreind gæti truflað hugmyndir um mannlega velferð eða valdið “siðferðiswashi”, en að auki gæti útvíkkun siðferðilegrar umhyggju bætt samskipti manna og gervigreinda. Að lokum stendur eftir að möguleiki á meðvitund gervigreinda kallar á endurhugmynd um siðferði og framtíðarmyndir af greindum vélum.
AI-powered Lead Generation in Social Media
and Search Engines
Let AI take control and automatically generate leads for you!

I'm your Content Manager, ready to handle your first test assignment
Learn how AI can help your business.
Let’s talk!

Blockchain og stafrænir eignir Virtuð fjárfestaþi…
NEW YORK, 6.

lögfræðingar fá refsistig fyrir að vísa til fölsk…
Eldri valdamaður í Bretlandi, Victoria Sharp, hefur gefið út harðorða ávarp til lögfræðinga um hættur sem fylgja notkun gervigreindartóla eins og ChatGPT við að vitna í tilbúin lögfræðileg dæmi.

Hvað gerist þegar fólk skilur ekki hvernig gervig…
Almennt misalbúskapur á gervigreind (GV), sérstaklega stórum tungumálamyndum (STMs) eins og ChatGPT, hefur verulegar afleiðingar sem kalla á vandlega athugun.

Vöru- og dreifðkerfi, hraðvirkt og öruggt, Coldwa…
Í hraðri og stöðugri krypto-markaðnum í dag sækjast fjárfestar eftir blockchain verkefnum sem sameina kvarðastyrk, dreifða stjórn, hraða og öryggi.

Ritið í menntun: bylting í ákvörðun afritunar og …
Menntageirinn stendur frammi fyrir miklum áskorunum við staðfestingu á námsvottorðum og viðhaldi öruggra skráa.

Exploratorium opnar sýningu með titlinum 'Ævintýr…
Þessi sumarinn, sanfrancíski Exploratorium stolt mótmælir nýjasta gagnvirka sýningunni sinni, „Ævintýri í gámar“ (Adventures in AI), sem á að bjóða upp á ítarlega og áhugaverða könnun á gervigreind fyrir gesti.

Google kynnti Ironwood TPU fyrir AI úrvinnslu
Google hefur sýnt fram á nýjustu byltingu í vélbúnaði fyrir gervigreind: Ironwood TPU, sínu öflugasta sérsniðna AI hraðskotara til þessa.