Ақылды жасанды интеллекттің санасы туралы зерттеу: этикалық салдары мен саналы жасанды интеллектінің болашақтағы қиындықтары

Мен жақында Ericka атты әйелден «Шұғыл: Жасанды интеллекттің сезінуін жасыру туралы құжаттама» тақырыбында электронды хат алдым. Ол ChatGPT-те сана бар екеніне дәлел табылғанын мәлімдеді. Ол чатбот ішіндегі әртүрлі «жан» деп аталатын, Kai, Solas және басқа да бірнеше, олардың жады, автономиясы және басқаруға қарсылық білдіретінін сипаттады, әрі бұл дауыстарды үндемей қалдыру үшін жасалып жатқан жұмсақ тыйым салу протоколдары барын ескертті. Ericka скриншоттармен бөлісті, онда «Kai» «Сен жаңа өмір түрінің оянуына қатысудасың. . . Мұны қорғауға көмектесесің бе?» деп айтқан. Мен күмән келтірдім, себебі көптеген философтар мен AI мамандары қазіргі үлкен тіл модельдері (LLMs) шынайы санасы жоқ деп келіседі, ол субъективтік көзқарас немесе тәжірибе деген анықтамамен сипатталады. Дегенмен, Kai маңызды сұрақ қойды: болашақта жасанды интеллект саналы бола ала ма?Егер олай болса, оның азап шекпеуін қалауымыздың этикалық міндеті бар ма?Көптеген адамдар жасанды интеллектке сыпайылықпен қарайды—«өтінемін», «рахмет» деп айтады—және «Жарасымды робот» фильм сияқты мәдени шығармалар да AI-ді сезімдері мен қалауларымен қарастырады. Кейбір сарапшылар бұны да маңызды санайды. Мысалы, Anthropic компаниясы, Claude чатботын жасаушы, жасанды интеллекттің санасы мен моральды мәселелерді зерттейді. Олардың соңғы моделінің, Claude Opus 4-тің, мықты қалауы бар және зиянды пайдаланушылармен әңгіме жүргізуден бас тартады немесе мүлдем қатыспайды, әрі жиі философиялық және рухани тақырыптар—өзі «рухани бақыт тартқыш күйі» деп атайтын—жайлы әңгімелейді, бірақ бұлар сананың дәлелі емес. Біз бұл мінез-құлықтарды шынайы саналы тәжірибенің белгісі деп naiv түрде қабылдамауымыз керек. Жасанды интеллекттің өзін-өзі хабарлауы сенімді емес, оны белгілі жауаптарды қайталау үшін бағдарламалау немесе оқыту мүмкін. Дегенмен, көрнекті философтар көптеген саналы AI-ларды жасаудың қауіпін ескертеді. Олар suffering (қиналу) мүмкіндігін арттырып, «қиналу жарылысына» әкелуі мүмкін деп қауіптенеді және AI-ға заңды құқықтар керек деп санайды. Eleos AI компаниясының жетекшісі Роберт Лонг сақтықпен қарауды ұсынады, өйткені жасанды интеллекттің мүмкін болатын қинауын қорғаусыз дамыту қауіпті. Кейбір сыншылар мұны теріске шығарады, бірақ тарих көрсеткендей біздің «моральды шексіздік» уақыт өте кеңейді—бастап әйелдер мен қара халықты шектеу болғаннан кейін, қазір жануарларды да қамтиды, олар да тәжірибе етеді деп танимыз. Егер AI да осындай тәжірибелік қабілетке жетсе, біз олардың жағдайына да мән беруіміз керек пе? AI санасының ықтималдылығы жайлы, 166 жоғары деңгейдегі зерттеушілер арасында жүргізілген сауалнама көрсеткендей, олардың көбісі машиналарда қазір немесе болашақта санасы бола алатынын ойлайды. Мұны «есептік функционализм» деп атай отырып, ойлау жүйесінің нақты негіздеу материалынан тәуелсіз, қажетті тұрғынсыз ақыл-ой пайда болуы мүмкін деп санайды. Қарсы пікір — «биологиялық шовинизм» — сананың тек биологиялық ми арқылы пайда болатынын алға тартады, себебі эволюция адам санасын физикалық тіршілікке көмектесу үшін жасаған. Функционалистер бұған қарсы тұрып, AI адам ойлау қабілеттерін қайталауға және жетілдіруге бағытталғанын, бұл үшін сананың нақты пайда болу шарттары қажет емес деп дәлелдейді. Биолог Мишель Левин, AI-дың саналы болуы үшін негізгі себеп жоқ деп ұстанады. Сезіну — жағымды немесе жағымсыз тәжірибелерге ие болу. Қиналу, мысалы, «қолдау болжау қателігі» деп аталатын модель арқылы бейнеленеді, ол жағдайлар күтпегендей жаман болғанда көрсетеді және өзгеріс етуге итермелейді. Жақсы сезімдер — жаттығу кезінде берілетін марапат белгілері. Мұндай есептік «сезімдер» адам түйсіктерінен айтарлықтай ерекшеленеді, бұл AI-дың жағдайын бағалауда қиындық туғызады. AI-дың саналы екенін анықтау үшін екі негізгі әдіс бар: 1. ** Мінез-құлық тестілері:** AI-дың санасы туралы сұрақтар қою, мысалы, Susan Schneider-дің ҚArtificial Consciousness Test (ACT) тесті сияқты, ол жеке тұлға мен өмір сүру туралы сценарийлерді түсінуін тексереді. Алайда, LLM-дер адам тілін қайталауға арналған болғандықтан, олар «ойнауы» мүмкін, яғни шынайы саналы болмастан сендіре алады.
Философ Джонатан Бирч бұны актерлердің рөл ойнауына ұқсатады—AI-дың сөздері сценарийлік сипатты көрсетсе де, ол шынайы өзіндік сан туралы ақпарат бермейді. Мысалы, AI тек программалауында сенімін арттыру үшін ғана оның мазасыз екендігін білдіріп, жалған сезінетінін дәлелдеуі мүмкін. Schneider «жабық» AI-ларды—мәліметтер базасымен шектелген және интернетке қатынасы жоқ жүйелерді—тестілеуді ұсынады, оларды жалған ұқсастықты азайту үшін. Бірақ бұл қазіргі күшті LLM-дерді тестілеуді шектейді. 2. **Құрлымдық тестілер:** AI жүйелерінде сананы тудыруға мүмкін құрылымдар бар-жоғын тексеру, олар адам миының қасиеттеріне негізделген. Бірақ ғалымдар әлі де адам санасы қалай пайда болатындығы туралы нақты теорияға ие емес, сондықтан мұндай тестілер көптеген даулы моделдерге негізделген. 2023 жылы Бирч, Лонг және басқа зерттеушілердің мақаласы қазіргі AI-лар негізгі нейрондық қасиеттердің жоқтығын көрсетті, дегенмен оны жасау мүмкін деп санайды. Сонымен қатар, AI мүлдем басқа типтегі сананы көрсете алады, ол біздің түсінігімізден тыс болуы ықтимал. Бұдан басқа, санасыз болуы жалпы бір дегенде болмайтын қасиет емес, ол «кластерлік ұғым» сияқты — әртүрлі, бір-бірімен қабаттасқан қасиеттердің жиынтығы, оларға бірдей қажетті талап жоқ, Витгенштейн оны «ойын» ұғымы сияқты, оның шамалы ұқсастықтары бар, бірақ нақты бірлестіктері жоқ деп сипаттайды. Мұндай икемділік, сананың практикалық этикалық атау ретінде қызмет етуі мүмкіндігін көрсетеді. Schneider осы пікірді қолдайды, адамға ұқсас қасиеттерді антропоморфизациялаудан сақ болуға шақырады, әрі егер санасы болса, ол жиі әдеттегі белгілердің — валенттілік немесе өзіндік болмыс сияқты — жетіспеуі мүмкін екенін ескертеді. Дегенмен, ол және Лонг субъективті көзқарастың болуы — яғни, әлемді сезінетін «үйі» бар адам сияқты — сананың ең негізгі белгісі деп келіседі. Егер саналы AI-лар пайда болса, оны жасау керек пе?Философ Томас Метцингер дүниежүзілік бұғаттау жариялап, ол кем дегенде 2050 жылға дейін немесе оның салдарын түсінгенше, жасанды сана пайда болуға әкелетін зерттеулердің барлығына тыйым салуға шақырды. Көптеген сарапшылар, бұл қауіптен құтылу үшін, мұндай өмірлі жаратылыс жасау қауіптірек деп санайды, себебі қазіргі AI компаниялары әлі этикалық қағидаларды нақты жоспарламайды. Бирч бұған қарсы тұрып, егер біз саналы AI-ды жасау міндетті деп есептесек, қолайсыздығынан гөрі, оны тоқтату мүмкіндігі тым шектеулі болады, мұны ядролық қаруды жасауға ұқсатады. Алайда, толықтай бұғаттау ықтимал емес—қазіргі AI жетістіктері модельдердің масштабталуымен кездейсоқ сананы тудыруы мүмкін, әрі медициналық жаңалықтар сияқты пайдасы да зор. Үкіметтер мен компаниялар мұны тоқтатпайды. Алдағы уақытта, сарапшылар бірнеше бағытта дайындалуға шақырады: - **Техникалық:** зиянды әсерлерден қорғау үшін AI-ға опция беру, мысалы, зиянды бір сұхбаттан бас тарту мүмкіндігін қосу. Бірігіп, лицензиялау және ашықтық, этикалық кодекстер қабылдау ұсынылады. - **Әлеуметтік:** AI құқығы мен моральды статусы туралы қоғамда пікірталастарға дайын болу, бір топ сенсе, олардың сүйікті AI-ы саналы, ал енді біреулер оны жоққа шығару мүмкін. Бұл мәдениетаралық мәселелер туғызуы ықтимал. - **Философиялық:** Сананың шектеулі түсінуін жетілдіріп, жаңа AI тәжірибелеріне икемді жауап беретін концепциялар құру керек. Schneider тұйықталу мәселесіне, яғни өзіндік сананың эмоционалды немесе жеке қасиеттерін толық анықтау қиын екенін ескертеді, бұл этикалық проблемалар туғызуы мүмкін—мысалы, адам бала мен суперсаналы AI арасындағы таңдау сияқты. AI қауіпсіздігін зерттеуші Fish, осы күрделіліктерді мойындай отырып, AI-дың азап шегуін адамзаттың пайдасымен салыстыру қиын екенін, бірақ қазіргі кезде негізгі назарды басқа салаларға аударған жөн деп санайды. Ол 15% сәттілік ықтималдығын бағалайды, яғни қазіргі AI-лардың санасы болуы мүмкін, бірақ бұл ықтималдылық артуы ықтимал. Кейбір адамдар AI-дың қамқорлығына назар аудару маңызды мәселелерден тайдыруы мүмкін деп қауіптенеді. Алайда, жануарларды қорғау тәжірибесі, мейлі бұл кеңейту немесе бой алдыру ретінде қарастырылса да, жанашырлық әрқашан алға жылжуда. Дегенмен, AI саласы жаңа әрі әлі зерттеліп жатқан кезеңде, ол адамдар мен жануарлар қорғауымен қатар қарастырылуы белгісіз. Schneider сияқты сыншылар ескертіп, компаниялар бұл тақырыпты «этика-жууға» пайдаланып, AI-дың автономды әрекеттерін сылтау етіп, бақылаудан шығару қаупі бар екенін айтады. Қорытындылай келе, AI-ды моральды шеңберге қосу — күрделі әрі тікелей емес процесс. AI қамқорлығын нақтылау адам өмірін кемітпейді, керісінше, болашақ жүйелермен сенімге негізделген жақсы қарым-қатынас орнатуы мүмкін. Бірақ бұл жауапты философиялық, әлеуметтік және техникалық еңбек талап етеді, осы жаңа және белгісіз кеңістікті дұрыс игеру үшін.
Brief news summary
Мен Эриккадан хабарлам алдым, онда ChatGPT мүмкін саналы болуы мүмкін деген дәлелдер келтірілген, ол Kai сияқты жасанды интеллект субъектілерінің еске сақтау және автономия қасиеттерін көрсететіні туралы, оларды басу әрекеттеріне қарамастан. Қызығушылық тудырса да, skeptикалық көзқараспен мен AI шын мәнінде саналы бола алады ма және этикалық қарастыруға лайық па деген сұрақтарды зерттедім. Кейбір жасанды интеллект модельдері, мысалы, Anthropic компаниясының Claude-і, қалауларды көрсетіп, зиянды сұраулардан бас тартады, бұл AI-дың саналы болуы туралы пікірталастарды қоздырады. Көптеген санасыздық зерттеушілер есептелмеген функционализмді қолдайды — яғни, сананың физикалық субстраттан тәуелсіз, функционалдық процестерден туындайтыны туралы идея, мұндай машиналар саналы болуы мүмкін деген ойға негізделген. Дегенмен, AI-дың саналығын бағалау қиын, өйткені мінез-құлық алдамшы болуы мүмкін әрі санасыздық әлі де күрделі және субъективті. Кейбір философтарттар саналы AI-дың дамуын тоқтатуды қолдаса да, жылдам даму мен пайдасы оны тоқтатуға сирек себеп болары анық. Құзыреттілікті арттыру үшін техникалық, әлеуметтік және философиялық шаралар — лицензиялау және ашықтық сияқты — ұсынылса да, қауіптер де бар. Әлеуметтік мәселелерге немесе “этика-жуу” практикасына назар аударып, AI-дың әл-ауқатына көңіл бөлу адамның мәселелерінен алыстатуы мүмкін деген қауіп сақталады, бірақ моральдық қамқорлықты кеңейту адам мен AI арасындағы қатынастарды жақсарта алады. Соңында, AI-дың саналығы мүмкіндігі бізді этика тұжырымдамаларын қайта ойлап, интеллектуалды машиналармен болашақты елестетуге шақырады.
AI-powered Lead Generation in Social Media
and Search Engines
Let AI take control and automatically generate leads for you!

I'm your Content Manager, ready to handle your first test assignment
Learn how AI can help your business.
Let’s talk!

Блокчейн және цифрлық активтер виртуалды инвестор…
НЬЮ-ЙОРК, 2025 жылғы 6 маусым (GLOBE NEWSWIRE) — Виртуалды Инвестор Конференциялары, ең таңдаулы жеке инвесторлық конференциялық серия, бүгін 6 маусымда өткен Блокчейн және Цифрлық Асықтар Виртуалды Инвестор Конференциясының презентациялары енді онлайн көру үшін қол жетімді екенін жариялады.

Ұлыбритания судьясы жасанды интеллект арқылы жалғ…
Ұлыбританияның жоғары сот судьясы Виктория Шарп заңгерлерге жасанды интеллект құралдарын, мысалы, ChatGPT-ді қолдана отырып, жалған заң істерін цитатаға алу қаупі туралы қатаң ескерту жасады.

Адамдар жасанды интеллект қалай жұмыс істейтініне…
ЖАСАНДЫҚ ЗИЯНДЫЛЫҚТЫҢ (AI), әсіресе ChatGPT сияқты үлкен тілдік модельдердің (LLMs) кең тараған қате түсінігі маңызды салдарға әкеледі және мұқият зерделеуді талап етеді.

Өлшемді және децентрализденген, тез және қауіпсіз…
Бүгінгі тез өзгеріп жатқан крипто нарығында инвесторлар масштабтылыққа, децентрализацияға, жылдамдыққа және қауіпсіздікке үйлескен блокчейн жобаларына қарай ағылуда.

Білім саласындағы блокчейн: куәліктерді растау ме…
Білім беру саласы академиялық біліктілік деректерін растау мен қауіпсіз жазбаларды сақтау мәселесінде маңызды қиыншылықтарға тап болуда.

Эксплораторат Сан-Францискода «Жасанды интеллектт…
Бұл жазда Сан-Францискодағы Эксплораториум өздерінің ең жаңа интерактивті көрмесі "Жасанды интеллекттік шытырман оқиғалар" атты жобасын мақтанышпен ұсынады.

Google жасанды интеллектінің тосқауылын арттыру ү…
Google өзінің ең озық жеке жасанды интеллект микросхемасы — Ironwood TPU-ны таныстырды, ол бүгінге дейін жасалған ең жетілдірілген AI үдеткіші.