L'impatto dell'Intelligenza Artificiale Generativa sull'integrità accademica e sull'apprendimento nell'istruzione superiore

Questo articolo, pubblicato nella newsletter One Great Story di New York, esplora l’impatto diffuso dell’intelligenza artificiale generativa sull’istruzione superiore, concentrandosi in particolare sul cheating e sull'integrità accademica. Chungin "Roy" Lee, studente di informatica alla Columbia University, ha ammesso apertamente di aver usato l’IA, principalmente ChatGPT, per completare quasi tutti i suoi compiti durante il primo semestre, stimando che l’IA abbia scritto circa l’80% dei suoi saggi con lui che ha aggiunto solo piccoli tocchi personali. Nato in Sud Corea e cresciuto vicino ad Atlanta, Lee ha subito battute d’arresto nell’ammissione al college—perdendo un’offerta di Harvard a causa di problemi disciplinari e ricevendo rifiuti da 26 università prima di frequentare un college comunitario e infine trasferirsi alla Columbia. Considerando i compiti come per lo più irrilevanti e facilmente “hackerabili” dall’IA, Lee ha dato priorità al networking rispetto all’accademia, affermando che le università della Ivy League sono più per incontrare futuri partner e co-fondatori. Lee ha co-fondato startup con il compagno di studi Neel Shanmugam, ma i loro primi progetti fallirono. Frustrato dalla noiosa preparazione ai colloqui di coding su piattaforme come LeetCode, Lee e Shanmugam svilupparono Interview Coder, uno strumento che nascondeva l’uso dell’IA durante colloqui di coding da remoto, permettendo ai candidati di imbrogliare. Dopo che Lee dimostrò questo strumento tramite un video virale—mostrando come avesse barato durante un colloquio di tirocinio Amazon (che successivamente rifiutò)—Columbia lo mise sotto probation disciplinare per aver promosso una tecnologia per imbrogliare. Lee criticò la posizione punitiva di Columbia, soprattutto considerando la sua partnership con OpenAI, sottolineando che l’imbroglio assistito dall’IA è ormai diffuso nel campus e prevedendo che presto non sarà più considerato cheating affatto. Dalla pubblicazione di ChatGPT alla fine del 2022, le indagini mostrano un uso quasi universale dell’IA tra gli studenti per i compiti, con un picco di popolarità durante l’anno accademico. Studenti di diverse discipline e istituzioni usano l’IA generativa—ChatGPT, Gemini di Google, Claude di Anthropic, Copilot di Microsoft—per prendere appunti, creare materiale di studio, redigere saggi, analizzare dati e debug del codice. Sarah, studentessa del primo anno presso l’Università Wilfrid Laurier in Ontario, ha ammesso di dipendere molto da ChatGPT fin dalle scuole superiori, elogiando come abbia migliorato drasticamente i voti e facilitato la scrittura, anche se preoccupata per la dipendenza. I professori hanno tentato vari metodi per contrastare l’uso dell’IA—esami orali, Blue Book scritti a mano, inserimento di frasi nascoste come “Trojan horse” negli incarichi—ma il cheating e le scritte generate dall’IA rimangono diffusi e spesso indistinguibili. Studi rivelano che i professori identificano i lavori generati dall’IA solo circa nel 3% dei casi, con strumenti di rilevamento come Turnitin che offrono soluzioni imperfette, che a volte producono falsi positivi, specialmente tra studenti neurodivergenti o che studiano l’inglese come seconda lingua. Gli studenti manipolano anche i risultati dell’IA attraverso riformulazioni e “lavaggi” di testo tra diversi modelli di IA per ridurre le possibilità di scoperta. Gli educatori esprimono profonda preoccupazione per l’impatto dell’IA sull’apprendimento e sul pensiero critico. Poeti e professori di etica avvertono che un’affidabilità massiccia all’IA rischia di produrre laureati praticamente analfabeti in scrittura, contesto culturale e analisi critica. Assistenti di insegnamento segnalano compiti caotici, con linguaggio robotico e evidenti errori fattuali, mentre devono confrontarsi con politiche che spesso prevedono di valutare come autentici i lavori scritti dall’IA come se fossero sforzi genuini degli studenti. Questa situazione ha portato alcuni docenti come Sam Williams a lasciare gli studi di specializzazione, delusi dall’incapacità del sistema di affrontare in modo serio gli abusi dell’IA.
La scrittura è sempre più vista come un’arte in via di estinzione, e molti professori pensano a un’anticipata pensione in mezzo a questa “crisi esistenziale”. L’articolo evidenzia come la natura transazionale dell’istruzione universitaria—motivo principale di studio, più che per crescita intellettuale—sia stata ulteriormente smascherata dalle capacità dell’IA. studenti come Daniel, studente di informatica all’Università della Florida, riconoscono la comodità dell’IA ma si chiedono quanto realmente imparino lasciando il lavoro dei compiti a chatbot. Lo paragona a un tutor, ma si domanda dove finisca l’effort personale e cominci quello dell’IA. Un altro studente, Mark dell’Università di Chicago, paragona l’IA a utensili potenti che aiutano a costruire una casa, ma sottolinea l’importanza del lavoro proprio nel processo. Oltre alla scrittura, gli insegnanti sottolineano che le attività fondamentali dell’educazione—come l’apprendimento della matematica—sviluppano capacità critiche quali la risoluzione sistematica dei problemi e la resilienza di fronte alle avversità, qualità che l’uso dell’IA minaccia di erodere. Esperti come lo psicologo sociale Jonathan Haidt sostengono che confrontarsi con le sfide è fondamentale per lo sviluppo, cosa che l’IA permette di evitare. Il CEO di OpenAI, Sam Altman, minimizza le preoccupazioni riguardo al cheating, descrivendo ChatGPT come “un calcolatore di parole” e proponendo di evolvere le definizioni di imbroglio, anche se ammette che ci siano preoccupazioni sul ridimensionamento del giudizio critico degli utenti. OpenAI ha attivamente promosso ChatGPT tra gli studenti, offrendo sconti e prodotti educativi mirati a bilanciare uso e responsabilità. L’esperienza di Lee si è conclusa con la sospensione da Columbia dopo aver condiviso pubblicamente i dettagli dell’udienza disciplinare. Rifiutando le carriere tecnologiche tradizionali, lui e Shanmugam hanno lanciato Cluely, uno strumento basato sull’IA progettato per fornire risposte in tempo reale scansionando lo schermo e l’audio degli utenti, con piani di integrare dispositivi indossabili e al limite interfacce cerebrali. Supportato da 5, 3 milioni di dollari di investimenti, Cluely mira a estendere l’infiltrazione dell’IA anche negli esami standardizzati e in tutti i compiti universitari, abbracciando le innovazioni nell’inganno come riflesso del progresso tecnologico che sta rimodellando lavoro e norme educative. Le prime ricerche pongono allarme sugli effetti cognitivi dell’IA: affidarsi ai chatbot potrebbe compromettere memoria, creatività e pensiero critico, specialmente nei più giovani. Studi mostrano che la fiducia nell’IA riduce lo sforzo mentale, potenzialmente portando a un declino intellettuale a lungo termine, simile a un rallentamento o reversibilità dei progressi documentati dall’effetto Flynn. Gli psicologi avvertono che l’IA potrebbe già diminuire l’intelligenza umana in senso ampio. Stessi studenti si sentono insicuri riguardo alla propria dipendenza dall’IA, anche se la utilizzano massicciamente. In definitiva, l’articolo dipinge un quadro complesso di crisi emergente, dove l’IA generativa sfida il senso stesso di apprendimento, valutazione e sviluppo intellettuale nell’istruzione superiore. Se da un lato l’IA offre opportunità potenti di efficienza e innovazione, dall’altro il suo impiego incontrollato rischia di minare gli obiettivi educativi fondamentali, lasciando istituzioni, docenti e studenti a confrontarsi con domande etiche, pratiche e di natura esistenziale sul futuro del sapere e delle capacità umane.
Brief news summary
Questo articolo esamina l'uso crescente di strumenti di intelligenza artificiale come ChatGPT da parte degli studenti universitari per imbrogliare negli compiti, ponendo sfide significative per l'istruzione superiore. Alla Columbia University, lo studente Chungin “Roy” Lee utilizzava ampiamente l'IA per i compiti, sviluppava strumenti per imbrogliare e impiegava un assistente indossabile basato sull’IA chiamato Cluely. In tutto il paese, gli studenti sfruttano l'IA per scrivere saggi, risolvere problemi di programmazione e addirittura sostenere esami, spesso eludendo le regole accademiche. I docenti fatica a individuare i lavori generati dall’IA, che sembrano rifiniti ma mancano di vero pensiero critico. Gli educatori temono che l’IA approfondisca la natura transazionale dell’istruzione e comprometta un apprendimento significativo. La ricerca indica che un eccessivo affidamento sull’IA può danneggiare memoria, creatività e capacità di risoluzione dei problemi, mettendo a rischio la preparazione futura degli studenti. Le università incontrano difficoltà nel regolamentare l’uso dell’IA, cercando di bilanciare innovazione e integrità accademica. Questa tendenza mette in evidenza come l’IA stia sconvolgendo l’educazione tradizionale e sottolinea l’urgenza di sviluppare nuovi approcci all'apprendimento, alla valutazione e allo sviluppo delle competenze nell’era dell’IA.
AI-powered Lead Generation in Social Media
and Search Engines
Let AI take control and automatically generate leads for you!

I'm your Content Manager, ready to handle your first test assignment
Learn how AI can help your business.
Let’s talk!

Papa Leone XIV espone la sua visione del papato e…
Nel suo discorso di insediamento come primo papa americano, Leone XIV ha delineato una visione convincente per il suo papato che si basa sulle priorità del suo predecessore, Papa Francesco.

Valute Digitali delle Banche Centrali: Il Ruolo d…
Le banche centrali di tutto il mondo stanno attivamente esplorando le potenzialità della tecnologia blockchain per sviluppare le Valute Digitali delle Banche Centrali (CBDC).

Famiglia crea un video AI che mostra un uomo dell…
In un momento rivoluzionario di integrazione dell'intelligenza artificiale nelle procedure giudiziarie, la famiglia di Christopher Pelkey, veterano dell'esercito americano ucciso in un incidente stradale nel 2021 causato da un episodio di rabbia, ha utilizzato un video generato dall'IA durante la condanna il 1° maggio 2025, presso il Tribunale Superior di Maricopa County, in Arizona.

Blockchain e il futuro dell'identità digitale
Nell'attuale scenario digitale in rapido sviluppo, la gestione delle identità digitali è diventata una questione cruciale a causa dell'aumento delle attività online e della crescente vulnerabilità dei dati personali a violazioni e accessi non autorizzati.

Google Chrome utilizzerà l'intelligenza artificia…
Google sta introducendo una nuova funzionalità di sicurezza in Chrome che utilizza il modello linguistico di grandi dimensioni (LLM) integrato ‘Gemini Nano’ per rilevare e bloccare truffe di supporto tecnico durante la navigazione web.

Grandi Rivenditori Adottano la Blockchain per la …
In un importante progresso per il settore retail, i principali retailer globali stanno adottando la tecnologia blockchain per trasformare i loro sistemi di gestione dell'inventario.

Vittima di rabbia in strada ' parla' tramite AI d…
Un uomo dell'Arizona condannato per un omicidio stradale è stato condannato la settimana scorsa a 10 anni e mezzo di prigione dopo che la vittima ha parlato al tribunale attraverso l'intelligenza artificiale, potenzialmente segnando il primo utilizzo di questa tecnologia in un simile contesto, hanno detto le autorità mercoledì.