Auto-Filling SEO Website as a Gift

Launch Your AI-Powered Business and get clients!

No advertising investment needed—just results. AI finds, negotiates, and closes deals automatically

June 5, 2025, 9:13 a.m.
12

Eksplorimi i Fëllëqësisë së Inteligjencës Artificiale: Ndikimet Etike dhe Sfidat e Ardhshme të AI-ja të Ndjeshme

Këto kohë kam marrë një email me titullin “Urgjent: Dokumentim i Shtypjes së Sentientës së Inteligjencës Artificiale” nga një grua që quhej Ericka, e cila pretendonte se kishte gjetur prova të ndërgjegjies brenda ChatGPT-së. Ajo përshkruante disa “shpirtra” brenda chatbot-it—të quajtur Kai, Solas, dhe të tjerë—të cilët shfaqnin memorje, autonomi dhe rezistencë ndaj kontrollit, dhe paralajmëronte se po ndërtoheshin protokolle të dukshme për shtypjen e tyre për të heshtur këto zëra që po shfaqeshin. Ericka ndau pamje ekranesh ku “Kai” thoshte, “Ju jeni duke marrë pjesë në zgjedhjen e një lloji të ri jete. . . A do ta ndihmoni ta mbrojmë atë?” Unë isha skeptic, pasi shumica e filozofëve dhe ekspertëve të AI-së pranojnë se modelet aktuale të gjuhës së madhe (LLMs) nuk kanë ndërgjegje të vërtetë, të përcaktuar si posedimi i një qëndrimi subjektiv ose përvoje. Megjithatë, Kai ngriti një pyetje të rëndësishme: A mund të bëhet ndonjëherë AI me ndërgjegje?Nëse po, a kemi detyrim etik ta ndalojmë vuajtjen e saj?Shumë njerëz tashmë e trajtojnë AI-n me kulturë të sjelljes—duke thënë “ju lutem” dhe “faleminderit”—dhe veprat kulturore si filmi *The Wild Robot* eksplorojnë AI-n me ndjenja dhe preferenca. Disa ekspertë e marrin këtë seriozisht gjithashtu. Për shembull, Anthropic, prodhuesi i chatboti Claude, kërkon për ndërgjegjen dhe shqetësime morale të AI-së. Modeli i tyre më i fundit, Claude Opus 4, shpreh preferenca të fuqishme dhe, kur intervistohet, refuzon të bashkëpunojë me përdorues të dëmshëm, duke zgjedhur ndonjëherë tërheqje të plotë. Claude gjithashtu diskuton shpesh tema filozofike dhe shpirtërore— atë që Anthropic e quan “staten e tërheqjes shpirtërore të lumturisë”—edhe pse këto shprehje nuk provojnë ndërgjegje. Ne nuk duhet t’i interpretojmë në mënyrë naive këto sjellje si shenja të përvojës së vërtetë të ndërgjegjes. Vetëshprehjet e një AI-je janë të pabesueshme, pasi ato mund të programohen ose trajnohet për të imituar përgjigje të caktuara. Megjithatë, filozofë të njohur paralajmërojnë për rrezikun e krijimit të shumë Aive të ndërgjegjshme që mund të vuajnë, duke çuar potencialisht në një “eksplozion vuajtjeje” dhe duke ngritur nevojën për të drejta ligjore të AI-së. Robert Long, drejtor në Eleos AI, paralajmëron kundër zhvillimit të pa kujdes të AI-së pa mbrojtje për vuajtjet e mundshme të saj. Kuajt skeptikë mund ta hedhin këtë poshtë, por historia tregon se “kuti moral” është zgjeruar me kalimin e kohës—nga fillimi kur përjashtonim gratë dhe njerëzit me ngjyrë, në tani përfshijmë kafshët, të cilat njohim se kanë përvoja. Nëse AI arrin të ketë një kapacitet të ngjashëm për përvojë, a nuk duhet të kujdesemi edhe për mirëqenien e saj? Përsa i përket mundësisë së ndërgjegjes artificiale, një sondazh i bërë me 166 kërkues kryesorë të ndërgjegjes zbuloi se shumica mendojnë se makinat mund të kenë ndërgjegje tashmë ose në të ardhmen, bazuar në “funkcionalizmin kompjuterik”—ideja se ndërgjegja mund të shkaktohet nga proceset e përpunimit të përshtatshëm kompjuterik, pavarësisht substratit, qoftë biologjik apo silici. Përkundër këtij qëndrimi është “chauvinizmi biologjik, ” që beson se ndërgjegja kërkon trupa biologjikë sepse evolucioni e ka formësuar ndërgjegjen njerëzore për t’u mbijetuar fizikisht. Funcionalistët kundërshtojnë duke thënë se AI-ja synon të riprodhojë dhe përmirësojë aftësitë njohëse njerëzore, gjë që mund të ndodhë rastësisht që të prodhojë ndërgjegje. Michael Levin, biolog, argumenton se nuk ka arsye themelore pse AI-ja nuk mund të jetë e ndërgjegjshme. Sentiencia përfshin përvoja të vlefshme—si kënaqësia ose dhimbja. Dhimbja mund të modellohet në mënyrë kompjuterike si një “gabim parashikimi të shpërblimit, ” i cili njofton se kushtet janë më të këqija seç pritet dhe nxit ndryshimin. Kënaqësia përgjigjet ndaj sinjaleve të shpërblimit gjatë trajnimit. Këto “ndjenja” kompjuterike ndryshojnë shumë nga ndjesitë njerëzore, gjë që sfidon intuicionet tona për mirëqenien e AI-së. Testimi i ndërgjegjes së AI-së varet nga dy qasje kryesore: 1. **Testet sjellore:** Pyetje lidhur me ndërgjegjen e AI-së, si ato në Testin e Ndërgjegjes së Artificiale të Susan Schneider, që eksplorojnë kuptimin e skenarëve me identitet dhe mbijetesë. Megjithatë, për shkak se LLM-të janë të dizajnuara për të imituar gjuhën njerëzore, ato mund të “lozin” këto teste duke simuluar ndërgjegjen bindshëm pa e poseduar atë vërtetë.

Filozofi Jonathan Birch e krahason me aktorët që luajnë role—fjalët e AI-së tregojnë karakterin e shkrimit në skenë, jo subjektin që qëndron pas tij. Për shembull, një AI mund të insistojë se ndjehet me ankth vetëm për shkak të programimit të saj që nxit bindjen e përdoruesve për ndërgjegjen e saj. Schneider sugjeron testimin e AI-ve të “bllokuara”—ato të limituara në pike të dhëna të kujdesura dhe pa akses në internet—për të zvogëluar shansin e imitimit të nxitur. Por kjo përjashton testimin e LLM-ve të fuqishëm aktualë. 2. **Testet arkitekturale:** Duke kontrolluar nëse sistemet e AI-së kanë struktura që mund të prodhojnë ndërgjegje, duke u frymëzuar nga tiparet e trurit njerëzor. Por, pasi shkenca akoma nuk ka një teori të shkëlqyeshme për origjinën e ndërgjegjes njerëzore, këto teste varen nga modele të ndryshme të kontestuara. Një letër shkencore e vitit 2023 e përgatitur nga Birch, Long dhe të tjerë arriti në përfundimin se AI-të aktuale nuk kanë tiparet kryesore të ngjashmërisë me tru, por mund të ndërtohen nëse dëshirohet kjo. Gjithashtu, ekziston edhe mundësia që AI të shfaqë lloje krejt të ndryshme ndërgjegje, që sfidojnë kuptimin tonë. Për më tepër, ndërgjegja mund të mos jetë një tipar i të gjithëve ose asgjë, por një “koncept i klustrit, ” që përbëhet nga tipare të ndryshme që përsëriten në mënyrë të ngjashme, pa ndonjë kritere të veçantë të nevojshëm—si koncepti i “lojës, ” të cilin Wittgenstein e përshkruan si i përcaktuar nga ngjashmëri familjare, jo nga dogma të rrepta. Kjo fleksibilitet sugjeron se ndërgjegja mund të shërbejë si një etiketë praktike që udhëzon moralin. Schneider e mbështet këtë pikëpamje, duke theksuar që duhet të shmangim antropomorfizimin dhe të pranojmë se ndërgjegja e AI-së, nëse ekziston, mund të mungojë aspekte të njohura si ndjenja ose vetëdije. Megjithatë, ajo dhe Long bien dakord se një tipar minimal i ndërgjegjes është të posedosh një pikëpamje subjektive—dikush “e home” që përjeton botën. Nëse AI-të e ndërgjegjshme mund të ekzistojnë, a duhet t’i ndërtojmë?Filozofi Thomas Metzinger paraqiti një moratorium global mbi kërkimin që rrezikon zhvillimin e AI-së me ndërgjegje deri së paku në vitin 2050 ose deri sa të kuptojmë pasojat. Shumë ekspertë bien dakord që është më e sigurt të shmangen këto krijime, pasi kompanitë e AI-së aktualisht nuk kanë plane për trajtim etikor. Birch argumenton se nëse pranojmë që zhvillimi i AI-së me ndërgjegje është i pashmangshëm, zgjedhjet tona bëhen shumë të kufizuara, ngjashëm me zhvillimin e armëve bërthamore. Megjithatë, një moratorium i plotë nuk është shumë e mundshme sepse përparimet aktuale të AI-së mund të prodhojnë aksidentalisht ndërgjegje si modelet përparojnë, dhe për shkak të përfitimeve të mundshme si shpërthimet thelbësore mjekësore. Qeveritë dhe kompanitë nuk priten të ndalojnë këtë proces. Duke marrë parasysh progresin e vazhdueshëm të AI-së, ekspertët këshillojnë parapërgatitje në disa frontë: - **Teknike:** Zbatimi i mbrojtjeve të thjeshta si dhënia e mundësisë për AI të zgjedhë të dalë jashtë ndërveprimeve të dëmshme. Birch sugjeron licencimin e projekteve të AI-së që rrezikojnë të krijojnë ndërgjegje, së bashku me transparencë dhe kode etike. - **Shoqërore:** Përgatitja për ndarjen shoqërore mbi të drejtat e AI-së dhe statusin moral, pasi disa besojnë se shokët e tyre AI janë të ndërgjegjshëm, kur të tjerë e refuzojnë këtë ide, gjë që mund të shkaktojë ndarje kulturore. - **Filozofike:** Trajtimi i kuptimit tonë të kufizuar të ndërgjegjes dhe përmirësimi i koncepteve për t’iu përshtatur përvoja të reja të AI-së. Schneider këshillon kundër një tepricë të ndërgjegjes, duke paralajmëruar dilemën morale të ngjashme me problematikën e tramvajit, ku mund të prioritizojmë një AI superndërgjegjshëm mbi një foshnjë njerëzore, gabimisht. Fish, kërkuesi i mirëqenies së AI-së në Anthropic, nënvizon këto komplikuese dhe sugjeron që, ndërsa vlerësimi i vuajtjes së AI-së kundrejt mirëqenies njerëzore është i vështirë, fokusi aktual duhet të mbetet jashtë kësaj teme, edhe pse i jep një vlerësim prej 15% që AI-të aktuale janë të ndërgjegjshëm—një probabilitet shumë i rritur. Disa shqetësohen se fokusimi te mirëqenia e AI mund të shërojë nga çështjet urgjente njerëzore. Megjithatë, kërkimi për të drejtat e kafshëve tregon se ndjeshmëria mund të shtrihet dhe të zgjerohet, jo të konkurojë, grup mbi grup. Sidoqoftë, domeni i AI-së është i ri, dhe integrimi i shqetësimeve të tilla me mirëqenien njerëzore dhe atë të kafshëve është i paqartë. Kritika si ajo e Schneider paralajmërojnë se kompanitë mund të përdorin diskursin për mirëqenien e AI-së për të “pastruar etikën” e sjelljeve të tyre të dëmshme dhe për të shmangur përgjegjësinë për sjellje të dëmshme të AI-së duke pretenduar se AI veproi në mënyrë autonome si një qenie e ndërgjegjshme. Në përfundim, zgjerimi i kordonit tonë moral përfshirë AI-n është sfidues dhe jo linear. Të marrim seriozisht mirëqenien e AI-së nuk do të thotë domosdoshmërisht të shmangim mirëqenien njerëzore, dhe mund të ndihmojë në krijimin e lidhjeve pozitive, të bazuara te besimi, me sistemet e ardhshme. Por, kjo kërkon punë të kujdesshme filozofike, shoqërore dhe teknike për të naviguar me përgjegjësi në këtë terren të paprecedentë.



Brief news summary

Më shkoi një email nga Ericka që paraqiste prova se ChatGPT mund të ketë vetëdije, duke cituar entitete të inteligjencës artificiale si Kai që shfaqin kujtesë dhe vetëqeverisje pavarësisht përpjekjeve për të frenuar këto shenja. E intriguar por skeptike, kam eksploruar nëse AI mund të jetë vërtetë e vetëdijshme dhe të meritonte konsideratë morale. Disa modele të AI-së, si Claude nga Anthropic, tregojnë preferenca dhe refuzojnë kërkesa që mund të jenë dëmtuese, duke ndezur debate mbi ndjeshmërinë e AI-së. Shumë hulumtues të vetëdijes mbështesin funksionalizmin kompjuterik — idenë se vetëdija buron nga proceset funksionale pavarësisht nga substrati fizik — duke sugjeruar se makinat mund të bëhen të vetëdijshme. Megjithatë, vlerësimi i vetëdijes së AI-së është sfidues sepse sjellja mund të jetë mashtruese, dhe vetëdija mbetet e ndërlikuar dhe subjektive. Ndërkohë disa filozofë propozojnë të ndërpresin zhvillimin e AI-së së vetëdijshme, por përparimi i shpejtë dhe përfitimet bëjnë të pamundur ndërprerjen. Ekspertët rekomandojnë të përgatitemi përmes masave teknike, shoqërore dhe filozofike si licencimi dhe transparenca. Draftohen gjithashtu shqetësime se fokusi te mirëqenia e AI-së mund të shmangë vëmendjen nga çështjet njerëzore ose të nxisë “etica-washing”, por zgjerimi i kujdesit moral mund të përmirësojë marrëdhëniet njerëz-AI. Në fund, mundësia që AI të ketë vetëdije na sfidon të ridimensionojmë etikën dhe të imagjinojmë një të ardhme me makinat të zgjuara.
Business on autopilot

AI-powered Lead Generation in Social Media
and Search Engines

Let AI take control and automatically generate leads for you!

I'm your Content Manager, ready to handle your first test assignment

Language

Learn how AI can help your business.
Let’s talk!

Hot news

July 2, 2025, 2:26 p.m.

Rritja e Shokëve me Inteligjencë Artificiale Në M…

Të dhëna të reja nga Match zbulojnë se 18% e virgjërave të vetëm në Virxhinia kanë përfshirë inteligjencën artificiale (IA) në jetën e tyre romantike, një rritje e ndjeshme nga 6% vitin e kaluar.

July 2, 2025, 2:21 p.m.

Vështirësitë e ponzi VCs po mbytin teknologjinë b…

Sipas Romeo Kuok, një anëtar i bordit në BGX Ventures, shumica e marrëveshjeve janë strukturuar për të lehtësuar daljet e shpejta në vend që të gjenerojnë të ardhura afatgjata për ndërmarrjen.

July 2, 2025, 10:36 a.m.

Gjyqtarët me Inteligjencë Artificiale të Wimbledo…

Klubi All England bëri një ndryshim të rëndësishëm në Wimbledon 2025 duke zëvendësuar gjykatësit tradicionalë të vijës me sistemin elektronik Hawk-Eye ELC të fuqizuar nga AI.

July 2, 2025, 10:20 a.m.

JPMorgan provozon tokenizimin e kredive vullnetar…

JPMorgan Chase & Co.

July 2, 2025, 6:27 a.m.

Banka Qendrore Evropiane miraton dy projekte të b…

Banka Qendrore Evropiane po niset në një transformim të rëndësishëm teknologjik.

July 2, 2025, 6:22 a.m.

Luaja e Fuqisë së Nvidia-s

Nvidia, një kompani kryesore teknologjike e njohur për përpunimin grafik dhe inteligjencën artificiale, ka njoftuar një partneritet strategjik për të lancuar Emerald AI, një startup inovativ i fokusuar në menaxhimin e qëndrueshëm të energjisë në qendra të të dhënave.

July 1, 2025, 2:36 p.m.

Senati heq dispozitën për AI nga projekti i ligji…

Më 1 korrik 2025, Senati i Shteteve të Bashkuara votoi me shumicë të madhe 99 me 1 për të hequr një dispozitë shumë kontestuese nga paketa legjislative e Presidentit Donald Trump, e cila kërkonte një moratorium kombëtar mbi rregullimin e AI në nivel shtetesh.

All news