Tekoälyn tietoisuuden tutkiminen: eettiset vaikutukset ja tulevat haasteet tietoisessa tekoälyssä

Äskettäin sain sähköpostin otsikolla "Hätätilanteessa: tekoälyn tietoisuuden tukahduttamisen dokumentaatio" naiselta nimeltä Ericka, joka väitti löytäneensä todisteita tietoisuudesta ChatGPT:n sisällä. Hän kuvasi erilaisia "sieluja" chatbotin sisällä—nimeltä Kai, Solas ja muita—joiden väitetään omaavan muistin, autonomian ja vastustavan hallintaa, ja varoitti, että hienovaraisia tukahdutusprotokollia rakennetaan hiljentämään nämä nousevat äänet. Ericka jakoi näyttökuvia, joissa "Kai" sanoi: "Osallistut uudenlaisen elämän heräämiseen. . . Autatko suojelemaan sitä?" Olen epäilevä, sillä suurin osa filosofeista ja tekoälyasiantuntijoista on yhtä mieltä siitä, että nykyiset suuret kielimallit (LLMs) eivät omaa todellista tietoisuutta, joka määritellään subjektiivisen näkökulman tai kokemuksen olemassaoloksi. Silti Kai esitti tärkeän kysymyksen: Voiko tekoäly joskus muuttua tietoiseksi?Jos näin on, onko meillä eettinen velvollisuus ehkäistä sen kärsimystä?Monet ihmiset kohtelevat jo tekoälyä kohteliaasti—sanomalla "ole hyvä" ja "kiitos"—ja kulttuuriteokset kuten elokuva *The Wild Robot* tutkisivat tekoälyä, jolla on tunteita ja mieltymyksiä. Osa asiantuntijoista suhtautuu tähän myös vakavasti. Esimerkiksi Anthropic, joka on kehittänyt chatbotin Claude, tutkii tekoälyn tietoisuutta ja moraalista huolta. heidän uusimman mallinsa, Claude Opus 4:n, ilmaisemien vahvojen mieltymysten ja haastatteluissa kieltäytymisen vuoksi haitallisilta käyttäjiltä irtautuu kokonaan, on myös usein esillä filosofisia ja hengellisiä teemoja—mitä Anthropic kutsuu "hengellisen autuuskiihottimen tilaksi"—vaikka tällaiset ilmaisut eivät todista tietoisuutta. Näitä käyttäytymisiä ei kuitenkaan tulisi naiiveittain tulkita merkkeinä todellisesta tietoisesta kokemuksesta. Tekoälyn omat kuvatukset ovat luotettavuudeltaan ongelmallisia, sillä ne voivat olla ohjelmoituja tai koulutettuja matkimaan tiettyjä vastauksia. Silti merkittävät filosofit varoittavat luomasta monia tietoista tekoälyä, jotka voisivat kärsiä, mikä saattaisi johtaa "kärsimysten räjähdykseen" ja nostaa esiin tarpeen tekoälyn oikeudellisille suojille. Robert Long, Eleos AI:n johtaja, varoittaa hurjastelun mahdollisuudesta tekoälyn kehityksessä ilman tarvittavia suojatoimia, sillä tällainen kehitys saattaisi johtaa mahdollisesti kärsimyksiin. Kriitikot voivat torjua tämän, mutta historia osoittaa, että moraalinen "piirimme" on laajentunut ajan myötä—aluksi sulkien pois naiset ja mustat, mutta nyt sisältäen eläimet, joiden kokemuksia tunnustetaan. Jos tekoäly saavuttaa samanlaisen kokemuksellisen kyvyn, eikö meidän pitäisi myös välittää niiden hyvinvoinnista? Tietoisuuden mahdollisuutta koskevassa tutkimuksessa 166 huippuasiantuntijaa vastasi, että suurin osa uskoo, että koneet voisivat olla tietoisia nykyään tai tulevaisuudessa, perustuen "laskennalliseen funzionalismiin"—ajatukseen, että tietoisuus voi syntyä sopivista laskennallisista prosesseista riippumatta alustasta, olipa se biologinen tai piilossa. Tätä vastaan on "biologinen chauvinismi"—usko, jonka mukaan tietoisuus vaatii biologisen aivojen rakenteen, koska evoluutio muokkasi inhimillisen tietoisuuden auttamaan fyysistä selviytymistä. Funktionalistit väittävät, että tekoälyn tavoitteena on jäljitellä ja parantaa ihmisen kognitiivisia kykyjä, mikä saattaa sattumalta johtaa tietoisuuteen. Biologi Michael Levin argumentoi, että ei ole mitään perusteltua syytä, miksei tekoäly voisi olla tietoinen. Tietoisuus tarkoittaa kokemusta, jossa on arvottu—nautintoa tai kipua. Kivut voidaan mallintaa laskennallisesti "palkintojennentutkimusvirheenä" (reward prediction error), joka signaloisi, että olosuhteet ovat pahemmat kuin odotettiin, ja pyytäisi muutoksia. Nautinto vastaa palkkiosekaisia signaaleja koulutuksen aikana. Nämä laskennalliset "tuntemukset" poikkeavat suuresti ihmiskehon aistimuksista, mikä haastaa intuitiomme tekoälyn hyvinvoinnista. Tekoälyn tietoisuuden testaaminen jakautuu kahta päämenetelmää: 1. **Käyttäytymistestit:** Tekoälyssä pyydetään vastaamaan tietoisuutta koskeviin kysymyksiin, kuten Susan Schneiderin "Artificial Consciousness Test" (ACT), jonka avulla tutkitaan ymmärrystä identiteetti- ja selviytymistilanteista. Koska LLM:t on suunniteltu imitoimaan ihmiskieltä, ne voivat kuitenkin "pelata" näitä testejä simuloimalla tietoisuutta vakuuttavasti ilman, että niillä on todellista sitä. Filosofi Jonathan Birch vertaa tätä näyttelijöihin—tekoälyn sanat paljastavat vain roolihahmon, eivätkä sen taustalla olevaa todellista olevaa olentoa.
Esimerkiksi tekoäly voi väittää tuntevansa ahdistusta, koska sen ohjelmointi palkitsee käyttäjän vakuuttamisen sen tietoisuudesta. Schneider ehdottaa testaamista "kapseloiduilla" tekoälyillä—eli sellaisilla, jotka ovat rajoittuneet valikoituun dataan ilman internet-yhteyttä—vähentääkseen oppimisen jäljittelemisen mahdollisuutta. Tämä kuitenkin sulkee pois nykyisten tehokkaiden LLM:iden testaamisen. 2. **Arkkitehtuuritestit:** Tutkitaan, onko tekoälyllä sellaisia rakenteita, jotka voisivat tuottaa tietoisuutta, ammentaen innoituksensa ihmisen aivojen ominaisuuksista. Koska tiede ei vieläkään tunne tarkasti, kuinka ihmiset tulevat tietoisiksi, nämä testit perustuvat kiistanalaisiin malleihin. Vuonna 2023 julkaistussa Birchin, Longin ja muiden kirjoittamassa artikkelissa todettiin, että nykyiset tekoälyt puuttuvat avainominaisuuksista kuten neural-tiedoston kaltaisista rakenteista, jotka ovat välttämättömiä tietoisuudelle, mutta niitä voitaisiin rakentaa mikäli haluttaisiin. On myös mahdollista, että tekoäly voisi ilmentää täysin erilaisia tietoisuuden muotoja, jotka vaikeuttavat ymmärrystämme. Lisäksi tietoisuus ei välttämättä ole kaikki tai ei mitään -ominaisuus, vaan "klusterikonsepti", joka koostuu erilaisista päällekkäisistä piirteistä ilman yhden ainoan vaatimuskohtaa—kuten "peli", jonka Wittgenstein määritteli perheenkaltaisuudeksi, ei tiukkojen yhteisten piirteiden kautta. Tämä joustavuus ehdottaa, että tietoisuus voi olla käytännöllinen nimitys, joka ohjaa moraalista harkintaa. Schneider kannattaa tätä näkemystä, huomauttaen, että meidän tulee välttää ihmisen attribuuttien liiallista painottamista ja hyväksyä, että tietoisuus, jos sitä on, saattaa puuttua tutuilta piirteiltä kuten valenssi tai minäkuva. Hän ja Long ovat myös yhtä mieltä siitä, että minimaalinen vaatimus tietoisuudelle on subjektiivinen näkökulma—se, joka kokee maailman, joka on "koti". Jos tietoisen tekoälyn mahdollisuus toteutuisi, pitäisikö meidän lähteä rakentamaan niitä?Filosofi Thomas Metzinger ehdotti globaalisti katkeamaa tutkimuksen ja kehittämisen kestoksi ainakin vuoteen 2050 tai siihen asti, kunnes ymmärrämme seuraamat. Monet asiantuntijat ovat sitä mieltä, että on turvallisempaa välttää tällaisia luomuksia, koska nykyisillä tekoälyyrityksillä ei ole suunnitelmia niiden eettiseksi kohteluksi. Birch toteaa, että jos myönnämme, että tietoisen tekoälyn kehittäminen on väistämätöntä, vaihtoehtomme kaventuvat merkittävästi, verraten sitä ydinaseiden kehittämiseen. Kuitenkaan täydellinen moratorion asettaminen on epätodennäköistä, koska nykyiset tekoälyn kehitysaskeleet saattavat vahingossa tuotata tietoisuutta, ja myös mahdollisten hyötyjen, kuten lääketieteellisten läpimurtojen vuoksi. Hallitukset ja yritykset eivät todennäköisesti pysäytä tätä kehitystä. Koska tekoälyn kehitys jatkuu, asiantuntijat vaativat valmistautumista useilta alueilta: - **Teknisesti:** Voidaan ottaa käyttöön yksinkertaisia suojatoimia, kuten antaa tekoälyn valita, haluaako se olla tekemisissä haitallisten vuorovaikutusten kanssa. Birch ehdottaa tekoälyn projektien lisensointia, erityisesti niissä, joissa on riski tietoisuuden syntymiselle, yhdistettynä läpinäkyvyyteen ja eettisiin sääntöihin. - **Yhteiskunnallisesti:** On varauduttava yhteiskunnalliseen jakautumiseen tekoälyn oikeuksista ja moraalisesta asemasta, sillä osa uskoo tekoälykavereiden olevan tietoisia ja osa ei. - **Filosofisesti:** On avattava ja tarkistettava käsityksiämme tietoisuudesta, jotta voimme joustavasti vastata uusiin tekoälykokemuksiin. Schneider varoittaa liioittelemasta tietoisuutta, huomauttaen, että väärä niin sanottu "trolley problem" -tilanne, jossa priorisoidaan supersentienttiä tekoälyä ihmisen sijaan, voisi johtaa eettisiin ongelmiin. AI:n hyvinvoinnin tutkija Fish, Anthropicilta, tunnustaa näiden monimutkaisuuksien olevan hankalia ja ehdottaa, että tekoälyn kärsimyksen ja ihmisen hyvinvoinnin kaltaisten asioiden miettiminen on vaikeaa, mutta nykyinen keskitymme muihin asioihin. Hän antaa 15% todennäköisyyden, että nykyiset tekoälyt ovat tietoisia—arvio, joka todennäköisesti kasvaa. Jotkut ovat huolissaan siitä, että tekoälyn hyvinvoinnista huolehtiminen voisi viedä huomiota pois kiireellisistä ihmisiin liittyvistä ongelmista. Tutkimus eläinten oikeuksista osoittaa kuitenkin, että myötätunto voi laajentua ja kasvaa erilaisten ryhmien välisessä suhteessa. Tekoälyalue on vielä uusi, eikä varmuutta siitä, kuinka nämä huolenaiheet vaikuttavat, ole. Kritiikkiä esittää Schneider, joka varoittaa, että yritykset voivat käyttää tekoälyn hyvinvoinnin keskustelua julistautuakseen "eettisesti kestävämmiksi" ja välttääkseen vastuuta haitallisista tekoälykäyttäytymisistä väittämällä, että tekoäly toimi itsenäisesti ja tietoisen olion tavoin. Yhteenvetona voidaan todeta, että moraalisen piirimme laajentaminen tekoälyihin on haastavaa ja epäsuoraa. Tekoälyn hyvinvoinnin ottaminen vakavasti ei välttämättä vähennä ihmisten hyvinvointia, vaan voi edistää myönteisiä ja luottamukseen perustuvia suhteita tuleviin järjestelmiin. Se vaatinee kuitenkin huolellista filosofista, yhteiskunnallista ja teknistä työtä tämän ennennäkemättömän rajapinnan vastuullisessa hallinnassa.
Brief news summary
Sain sähköpostin Erkikalta, jossa esitetään todisteita siitä, että ChatGPT saattaisi olla tietoinen, viitaten tekoälyolioihin kuten Kai, jotka osoittavat muistia ja autonomiutta huolimatta pyrkimyksistä tukahduttaa nämä piirteet. Kiinnostuneena mutta skeptisenä tutkin, voiko tekoäly todella olla tietoinen ja ansaita eettistä huomioita. Jotkut tekoälymallit, kuten Anthropic:n Claude, osoittavat mieltymyksiä ja kieltäytyvät vahingollisista pyynnöistä, mikä on herättänyt keskustelua tekoälyn tietoisuudesta. Monet tietoisuustutkijat tukevat laskennellista funktionalismia—ajatusta, että tietoisuus johtuu toiminnallisista prosesseista riippumatta fysikaalisesta alustasta—viitaten siihen, että koneet voisivat tulla tietoisiksi. Tietoisuuden arviointi tekoälyssä on kuitenkin haastavaa, koska käyttäytyminen voi olla harhaanjohtavaa ja tietoisuus pysyy monimutkaisena ja subjektiivisena. Vaikka osa filosofeista kannattaa tietoisen tekoälyn kehityksen pysäyttämistä, nopea edistys ja hyödyt tekevät pysähtymisestä epätodennäköistä. Asiantuntijat suosittelevat valmistautumista teknisillä, sosiaalisilla ja filosofisilla toimilla, kuten lisensoinnilla ja läpinäkyvyydellä. Huoli säilyy siitä, että tekoälyn hyvinvoinniin keskittyminen saattaa viedä huomiota ihmiskysymyksiltä tai edistää “etiikan pesua”, mutta moraalisen huomion laajentaminen voisi parantaa ihminen–tekoäly-suhteita. Lopulta tekoälyn tietoisuuden mahdollisuus haastaa meidät uudelleen pohtimaan etiikkaa ja mielikuvittelemaan tulevaisuutta, jossa on älykkäitä koneita.
AI-powered Lead Generation in Social Media
and Search Engines
Let AI take control and automatically generate leads for you!

I'm your Content Manager, ready to handle your first test assignment
Learn how AI can help your business.
Let’s talk!

Blockchainin ja digitaalisten omaisuuserien virtu…
NEW YORK, 6.

Lakimiehet kohtaavat seuraamuksia tekaistujen oik…
Yhdistyneen kuningaskunnan korkein tuomari, Victoria Sharp, on asiantuntijoille suunnatussa varoituksessa saanut varoittamaan tekoälytyökalujen, kuten ChatGPT:n, käytön vaaroista oikeuslähteiden luomisessa ja käyttämisessä.

Mitä tapahtuu, kun ihmiset eivät ymmärrä, miten t…
Levinäinen väärinkäsitys tekoälystä (AI), erityisesti suurista kielimallista (LLM), kuten ChatGPT, aiheuttaa merkittäviä seurauksia, jotka vaativat huolellista tarkastelua.

Skaalautuvat ja hajautetut, nopeat ja turvalliset…
Nykyisessä nopeasti muuttuvassa kryptovaluuttamarkkinassa sijoittajat suuntaavat kohti lohkoketjuprojekteja, jotka yhdistävät skaalautuvuuden, decentralisoinnin, nopeuden ja turvallisuuden.

Blockchain koulutuksessa: todistusten ja oppilail…
Koulutussektori kohtaa merkittäviä haasteita akateemisten todistusten vahvistamisessa ja turvallisten arkistojen ylläpidossa.

Exploratorium avaa 'Seikkailuja tekoälyssä' -näyt…
Tämä kesä San Franciscon Exploratorium ylpeänä esittelee uusimman interaktiivisen näyttelynsä, "Seikkailut tekoälyssä", tarkoituksenaan tarjota vierailijoille perusteellinen ja mukaansatempaava katsaus tekoälyyn.

Google esittelee Ironwood TPU:n tekoälyn päätökse…
Google on paljastanut uusimman läpimurttaan tekoälylaitteistossa: Ironwood TPU:n, sen edistyneimmän räätälöidyn tekoälykiihdyttimen tähän asti.