Wpływ generatywnej sztucznej inteligencji na uczciwość akademicką i proces nauki w szkolnictwie wyższym

Ten artykuł, opublikowany w newsletterze One Great Story w Nowym Jorku, analizuje szeroki wpływ generatywnej sztucznej inteligencji na szkolnictwo wyższe, ze szczególnym naciskiem na oszustwa i integralność naukową. Chungin „Roy” Lee, student informatyki na Columbia University, otwarcie przyznał się do korzystania z AI, głównie ChatGPT, do realizacji prawie wszystkich zadań w trakcie pierwszego semestru, szacując, że AI napisała około 80% jego esejów, a on dodawał jedynie drobne osobiste akcenty. Urodzony w Korei Południowej i wychowany w pobliżu Atlanty, Lee doświadczył porażek w procesie rekrutacji na uczelnie – utracił ofertę Harvardu z powodu problemów dyscyplinarnych i został odrzucony przez 26 szkół, zanim zaczął naukę w college’u społecznościowym, a następnie przeniósł się na Columbia. Postrzegając zadania jako w dużej mierze nieistotne i łatwo „hackowalne” przez AI, Lee bardziej stawiał na nawiązywanie kontaktów niż na naukę, twierdząc, że szkoły Ivy League służą głównie do poznawania przyszłych partnerów i współzałożycieli. Lee współzałożył startupy wspólnie z kolegą studentem Neel Shanmugamem, ale ich pierwsze przedsięwzięcia zakończyły się niepowodzeniem. Frustrowany żmudnym przygotowaniem do rozmów kwalifikacyjnych z kodowania na platformach takich jak LeetCode, Lee i Shanmugam opracowali Interview Coder – narzędzie, które ukrywało korzystanie z AI podczas zdalnych rozmów rekrutacyjnych, umożliwiając kandydatom oszukiwanie. Po tym, jak Lee zaprezentował to narzędzie w filmie viralowym — pokazując, jak oszukiwał podczas rozmowy o staż w Amazonie (która ostatecznie nie doszła do skutku) — Columbia nałożyła na niego karę dyscyplinarną za promowanie technologii oszustwa. Lee skrytykował surową postawę uczelni, szczególnie w kontekście jej partnerstwa z OpenAI, podkreślając, że AI-asystowane oszustwa są powszechne na kampusie i przewidując, że wkrótce nie będą już uważane za oszustwo. Od premiery ChatGPT pod koniec 2022 roku, badania wskazują, że niemal wszyscy studenci korzystają z AI do odrabiania zadań, a jej popularność osiągnęła szczyt podczas roku akademickiego. Studenci z różnych dyscyplin i uczelni używają generatywnej AI — ChatGPT, Gemini od Google, Claude od Anthropic, Copilot od Microsoftu — do notowania, tworzenia materiałów naukowych, pisania esejów, analizy danych i debugowania kodu. Sarah, studentka pierwszego roku na Wilfrid Laurier University w Ontario, przyznała się do dużego uzależnienia od ChatGPT od czasów licealnych, chwaląc, jak znacznie poprawiło jej oceny i ułatwiło pisanie, choć martwi się uzależnieniem. Nauczyciele próbowali różnych metod zabezpieczających przed AI — egzaminy ustne, ręcznie pisane testy Blue Book, ukryte „tropicielskie” frazy w poleceniach — ale oszustwa i pisanie przez AI nadal są powszechne i często trudne do wykrycia. Badania pokazują, że wykrywanie pracy generowanej przez AI przez profesorów następuje tylko w około 3% przypadków, a narzędzia do wykrywania AI, takie jak Turnitin, są niedoskonałe i czasami dają fałszywe alarmy, zwłaszcza wobec studentów neurodivergentnych lub uczących się języka angielskiego jako obcego. Studenci również manipulują wynikami AI, rephrasingując tekst i „prańując” go przez różne modele AI, aby zmniejszyć prawdopodobieństwo wykrycia. Edukatorzy wyrażają głębokie zaniepokojenie wpływem AI na proces uczenia się i krytyczne myślenie. Poeci i profesorowie etyki ostrzegają, że masowe poleganie na AI może doprowadzić do wykształcenia się absolwentów praktycznie niepiszących, nieznających kontekstu kulturowego ani krytycznej analizy. Asystenci naukowi zgłaszają chaos w pracach, z robotycznym językiem i rażącymi błędami faktograficznymi, martwiąc się, że uczelnie często muszą oceniać prace napisane przez AI, jakby były autentycznym wkładem studentów. To skłoniło niektórych nauczycieli, takich jak Sam Williams, do porzucenia studiów magisterskich, rozczarowanych brakiem skutecznych rozwiązań wobec nadużycia AI.
Pisanie jest coraz bardziej postrzegane jako zagrożony sztuka, a wielu profesorów myśli o wcześniejszej emeryturze, zmagając się z tym „egzystencjalnym kryzysem”. Artykuł zauważa, że długoletnio transakcyjny charakter szkolnictwa wyższego — prowadzonego głównie z powodu przyszłych perspektyw zawodowych, a nie rozwoju intelektualnego — został jeszcze bardziej ujawniony przez możliwości AI. Studenci, tacy jak Daniel z Uniwersytetu Florydy, dostrzegają wygodę AI, ale kwestionują, ile naprawdę się uczą, powierzając pracę chatbotom. Porównuje korzystanie z AI do korepetycji, lecz zastanawia się, gdzie kończy się jego własny wysiłek, a zaczyna AI. Inny student, Mark z Uniwersytetu Chicago, porównał AI do narzędzi dostępnych przy budowie domu, podkreślając jednak, jak ważna jest własna praca w tym procesie. Poza pisaniem, edukatorzy podkreślają, że podstawowe działania edukacyjne — takie jak nauka matematyki — rozwijają krytyczne umiejętności, takie jak systematyczne rozwiązywanie problemów i odporność na przeciwności, których AI może zagrozić. Eksperci, tacy jak socjolog Jonathan Haidt, argumentują za wartością stawiania dzieciom wyzwań, czego AI umożliwia im unikanie. CEO OpenAI, Sam Altman, bagatelizuje kwestie oszustw, opisując ChatGPT jako „kalkulator do słów” i proponując rozwijanie definicji oszustwa, chociaż przyznaje, że obawia się zmniejszania krytycznego osądu użytkowników. OpenAI aktywnie promuje ChatGPT wśród studentów, oferując zniżki i produkty edukacyjne, aby wyważyć korzystanie i odpowiedzialność. Doświadczenia Lee doprowadziły do jego zawieszenia na Columbia po tym, jak publicznie ujawnił szczegóły swojego postępowania dyscyplinarnego. Odrzucony w tradycyjnej karierze technologicznej, on i Shanmugam uruchomili Cluely — narzędzie napędzane AI, które w czasie rzeczywistym skanuje ekran i dźwięk użytkownika, aby dostarczać odpowiedzi, planując integrację z urządzeniami do noszenia i ostatecznie z interfejsami mózgowymi. Przy wsparciu inwestycji o wartości 5, 3 miliona dolarów, Cluely dąży do rozszerzenia wpływu AI na egzaminy standaryzowane i wszystkie zadania na uczelni, traktując innowacje w oszustwach jako odbicie postępu technologicznego, który zmienia normy pracy i edukacji. Wczesne badania budzą alarmy dotyczące skutków AI dla funkcji poznawczych: uzależnienie od chatbotów może osłabiać pamięć, kreatywność i krytyczne myślenie, szczególnie u młodszych użytkowników. Badania wskazują, że zaufanie do AI koreluje z oszczędzaniem wysiłku umysłowego, co może prowadzić do długoterminowego spadku intelektualnego, przypominającego zahamowanie lub cofanie korzyści dokumentowanych przez efekt Flynn'a. Psychologowie ostrzegają, że AI już teraz może obniżać ogólną inteligencję ludzi. Studenci wyrażają niepokój związany z uzależnieniem od AI, mimo intensywnego korzystania z niego nadal. Podsumowując, artykuł ukazuje złożony, rozwijający się kryzys, w którym generatywna AI kwestionuje istotę nauki, oceniania i rozwoju intelektualnego na szkolnictwie wyższym. Choć AI oferuje potężne możliwości zwiększania efektywności i innowacji, niekontrolowane jej przyjęcie grozi podważeniem podstawowych celów edukacyjnych, zostawiając uczelnie, nauczycieli i studentów w obliczu głębokich pytań etycznych, praktycznych i egzystencjalnych o przyszłość wiedzy i ludzkich możliwości.
Brief news summary
Ten artykuł analizuje rosnące użycie narzędzi AI, takich jak ChatGPT, przez studentów uniwersytetów do oszukiwania na zadaniach, co stanowi poważne wyzwanie dla szkolnictwa wyższego. Na Uniwersytecie Columbia student Chungin „Roy” Lee szeroko korzystał z AI do pracy zaliczeniowej, opracowywał ułatwienia do oszukiwania oraz używał noszonego asystenta AI o nazwie Cluely. W całym kraju studenci wykorzystują AI do pisania wypracowań, rozwiązywania problemów programistycznych, a nawet zdawania egzaminów, często omijając zasady akademickie. Profesorowie mają trudności z wykrywaniem prac generowanych przez AI, które wydają się dopracowane, ale brak im prawdziwego krytycznego myślenia. Nauczyciele obawiają się, że AI pogłębia transakcyjny charakter edukacji i podważa istotne procesy nauki. Badania wskazują, że nadmierne poleganie na AI może osłabiać pamięć, kreatywność i umiejętności rozwiązywania problemów, co zagraża przyszłej gotowości studentów. Uczelnie napotykają trudności w regulowaniu użycia AI, starając się wyważyć innowacje z koniecznością zachowania integralności akademickiej. Ten trend podkreśla zakłócający wpływ AI na tradycyjną edukację i pilną potrzebę opracowania nowych metod nauki, oceniania i rozwoju kompetencji w erze sztucznej inteligencji.
AI-powered Lead Generation in Social Media
and Search Engines
Let AI take control and automatically generate leads for you!

I'm your Content Manager, ready to handle your first test assignment
Learn how AI can help your business.
Let’s talk!

Papież Leon XIV przedstawia swoją wizję papiestwa…
W swoim inauguracyjnym przemówieniu jako pierwszy amerykański papież, Leo XIV przedstawił przekonującą wizję swojego pontyfikatu, opierając się na priorytetach swojego poprzednika, papieża Franciszka.

Cyfrowe waluty banków centralnych: rola technolog…
Światowe banki centralne aktywnie badają potencjał technologii blockchain w celu opracowania cyfrowych walut banków centralnych (CBDC).

Rodzina tworzy film z AI przedstawiający Arizoneg…
Innowacyjne wydarzenie polegające na wykorzystaniu sztucznej inteligencji w procesach sądowych miało miejsce, gdy rodzina Christophera Pelkeya, weterana armii USA zabitego w 2021 roku w wyniku incydentu z powodu furii na drodze, użyła wideo wygenerowanego przez AI podczas wydawania wyroku 1 maja 2025 roku w Sądzie Okręgowym hrabstwa Maricopa w Arizonie.

Blockchain i przyszłość tożsamości cyfrowej
W dzisiejszym szybko rozwijającym się cyfrowym środowisku zarządzanie cyfrowymi tożsamościami stało się kluczowym zagadnieniem z powodu rosnącej liczby działań online oraz coraz większej podatności danych osobowych na naruszenia i nieautoryzowany dostęp.

Google Chrome będzie wykorzystywał na urządzeniu …
Google wprowadza nową funkcję bezpieczeństwa w Chrome, która korzysta z wbudowanego dużego modelu językowego „Gemini Nano” (LLM) do wykrywania i blokowania oszustw technicznych podczas przeglądania sieci.

Główni detaliści wdrażają blockchain do zarządzan…
W ważnym przełomie dla branży detalicznej czołowi globalni detaliści wdrażają technologię blockchain, aby przemodelować swoje systemy zarządzania zapasami.

Ofiara szaleństwa drogowego „mówi” za pomocą SI p…
Mężczyzna z Arizony, skazany za zabójstwo w afekcie wywołane agresją drogową, został w zeszłym tygodniu skazany na 10 i pół roku więzienia po tym, jak jego ofiara przemówiła do sądu za pomocą sztucznej inteligencji, co może oznaczać pierwszy w historii przypadek wykorzystania tej technologii w takim kontekście – podali we środę urzędnicy.