lang icon Italian
Auto-Filling SEO Website as a Gift

Launch Your AI-Powered Business and get clients!

No advertising investment needed—just results. AI finds, negotiates, and closes deals automatically

April 19, 2025, 3:56 p.m.
13

Ricercatori del MIT sviluppano un metodo efficiente per la generazione di codice priva di errori utilizzando grandi modelli linguistici

I programmatori possono utilizzare grandi modelli linguistici (LLMs) per generare codice informatico più velocemente, ma ciò è utile solo se il codice rispetta le regole del linguaggio di programmazione e funziona senza errori. I metodi esistenti per garantire che il codice generato dagli LLM segua le regole del linguaggio spesso distorcono il significato previsto dal modello o sono troppo lenti per compiti complessi. Ricercatori del MIT e di altre istituzioni hanno sviluppato un nuovo approccio che guida automaticamente un LLM a produrre testi privi di errori e conformi alle regole, come ad esempio codice in un linguaggio di programmazione specifico. Il loro metodo assegna probabilisticamente più impegno a quegli output più probabili di essere validi e precisi, eliminando precocemente quelli meno promettenti, migliorando così l’efficienza computazionale. Grazie a questi miglioramenti in termini di efficienza, l’architettura sviluppata dai ricercatori ha permesso a modelli più piccoli di superare molto modelli più grandi nella generazione di output accurati e ben strutturati in applicazioni reali come la biologia molecolare e la robotica. In futuro, questo approccio potrebbe consentire anche a chi non è esperto di controllare i contenuti generati dall’IA; ad esempio, imprenditori potrebbero scrivere facilmente query complesse in SQL semplicemente usando istruzioni in linguaggio naturale. João Loula, uno studente del MIT e co-autore principale, osserva: “Questo lavoro ha implicazioni oltre la ricerca. Potrebbe migliorare assistenti di programmazione, analisi dei dati guidate dall’IA e strumenti di scoperta scientifica, garantendo che i risultati dell’IA rimangano utili e corretti. ” Il team internazionale include anche i co-autori principali Benjamin LeBrun (Mila), Li Du (Johns Hopkins) e i co-senior autori Vikash Mansinghka (MIT), Alexander K. Lew (Yale), Tim Vieira (ETH Zurich), e Timothy J. O’Donnell (McGill/Mila), tra altri. La loro ricerca sarà presentata alla Conferenza Internazionale sulle Rappresentazioni dell’Apprendimento. **Imposizione di Struttura e Significato** Un metodo comune per controllare la generazione di testo strutturato consiste nel verificare l’intero output (ad esempio, il codice) per assicurarne la validità; se fallisce, bisogna ricominciare, aumentando i costi computazionali.

In alternativa, si può verificare l’output passo dopo passo, ma correggerlo a ogni fase rischia di allontanarsi dall’intento originale, compromettendo la precisione. “È più facile imporre la struttura che il significato, ” spiega Loula. “Possiamo controllare rapidamente se l’output segue le regole di un linguaggio di programmazione, ma verificare il significato richiede l’esecuzione del codice. Il nostro lavoro affronta entrambi i tipi di informazione. ” I ricercatori integrano conoscenze esperte nel modello LLM per indirizzarlo verso output che probabilmente soddisfano i vincoli strutturali e riflettono il significato voluto. “Non stiamo addestrando di nuovo l’LLM, ma ingegnerizzando conoscenze esperte da combinare con le conoscenze già presenti nel modello, ” afferma Mansinghka, distinguendo il loro metodo dagli approcci tradizionali di scalabilità del deep learning. Usano tecniche di Monte Carlo sequenziale, che permettono a molte generazioni parallele da parte dell’LLM di competere tra loro. Gli output vengono assegnati di peso, che quantifica la probabilità che siano corretti dal punto di vista strutturale e semantico; il modello si concentra sugli output con punteggi più alti, eliminando progressivamente gli altri. Essenzialmente, l’LLM lavora con un esperto che supervisiona le sue scelte per mantenere l’allineamento con la struttura e il significato richiesti dall’utente, guidato da procedure di verifica fornite dall’utente stesso. “Abbiamo sviluppato una matematica che assicura, per qualsiasi vincolo, un corretto ponderamento, garantendo che gli output finali siano corretti, ” aggiunge Loula. **Potenziare i Modelli di Piccole Dimensioni** Testando il framework su compiti come la programmazione in Python, la generazione di query SQL, la progettazione di strutture molecolari e la pianificazione robotica, il metodo si è dimostrato più accurato e più efficiente rispetto alle tecniche esistenti. Ad esempio, un modello Python open-source di piccole dimensioni ha superato di più del doppio un modello commerciale di dimensioni maggiori. “Siamo entusiasti di aiutare i modelli piccoli a ottenere risultati superiori alle loro aspettative, ” commenta Loula. Guardando al futuro, i ricercatori mirano a controllare segmenti più grandi di testo generato, invece di piccoli pezzi, e a integrare l’apprendimento affinché i modelli migliorino la precisione grazie a questo controllo guidato sull’output. Il loro approccio può aiutare utenti non tecnici, combinandosi con modelli generativi di database per la modellazione e l’interrogazione automatizzata dei dati. Mansinghka immagina un’analisi dei dati assistita dal computer, in cui gli utenti dialogano con un software che modella con precisione il significato dei dati e le query degli utenti. O’Donnell aggiunge: “Mappare le parole a distribuzioni di significati ancorati in domini simbolici ristretti è un piccolo ma importante passo verso la risoluzione di sfide più profonde di linguistica e scienze cognitive riguardo al modo in cui le macchine comunicano con il mondo. ” Questa ricerca è supportata in parte dal Canada CIFAR AI Chairs Program, da MIT Quest for Intelligence e da Convergent Research.



Brief news summary

Ricercatori del MIT e di istituzioni partner hanno sviluppato un nuovo metodo per migliorare i modelli di linguaggio di grandi dimensioni (LLM) nel generare codici senza errori, strutturalmente validi e output simbolici corretti. A differenza delle tecniche tradizionali che verificano i risultati dopo il completamento—con il rischio di sprecare risorse computazionali—or check incrementally ma potenzialmente alterando i significati intesi, questo approccio utilizza metodi di Monte Carlo sequenziali per guidare probabilisticamente gli LLM verso la produzione di output parziali sia sintatticamente corretti che semanticamente significativi. Questa guida dinamica aumenta l’efficienza, consentendo a LLM più piccoli di superare quelli più grandi in compiti come programmazione Python, generazione di query SQL, design molecolare e pianificazione robotica. Importante, il metodo integra la conoscenza esperta senza richiedere il riaddestramento del modello. Oltre al codice, permette anche a non esperti di interagire in modo naturale con l’IA su query complesse, analisi dei dati e scoperte scientifiche, garantendo che i risultati generati dall’IA siano validi e significativi. Guidata da João Loula, Benjamin LeBrun e Li Du, questa ricerca sarà presentata alla Conferenza Internazionale sulle Rappresentazioni dell’Apprendimento, supportata dal MIT Quest for Intelligence e dal Canada CIFAR AI Chairs Program.
Business on autopilot

AI-powered Lead Generation in Social Media
and Search Engines

Let AI take control and automatically generate leads for you!

I'm your Content Manager, ready to handle your first test assignment

Language

Content Maker

Our unique Content Maker allows you to create an SEO article, social media posts, and a video based on the information presented in the article

news image

Last news

The Best for your Business

Learn how AI can help your business.
Let’s talk!

May 18, 2025, 10:05 p.m.

ONFA Fintech USA si partnership con Metti Capital…

SAN FRANCISCO, 18 maggio 2025 (GLOBE NEWSWIRE) — ONFA FINTECH USA, una controllata di METTITECH GROUP HOLDINGS, ha siglato un accordo strategico supportato da Metti Capital Funding per avanzare la sua piattaforma di digital banking basata su blockchain.

May 18, 2025, 9:42 p.m.

Microsoft mira a migliorare la collaborazione e l…

Microsoft sta avanzando verso un futuro in cui agenti AI di diverse aziende collaborano senza problemi e conservano memorie specifiche dei compiti.

May 18, 2025, 8:30 p.m.

DUSK Network parteciperà alla Dutch Blockchain We…

DUSK Network parteciperà alla Dutch Blockchain Week il 21 maggio ad Amsterdam.

May 18, 2025, 8:11 p.m.

Come gli studenti stanno respingendo le accuse di…

Passate alcune settimane dall'inizio del secondo anno di college, Leigh Burrell ricevette una notifica che le fece terribilmente salire il battito cardiaco.

May 18, 2025, 6:50 p.m.

Le azioni di Hong Kong superano la Cina continent…

Il mercato azionario di Hong Kong ha mostrato una forza eccezionale nel 2024, superando significativamente i mercati della Cina continentale.

May 18, 2025, 5:13 p.m.

CEO di Nvidia: Se fossi uno studente oggi, ecco c…

Se il CEO di Nvidia Jensen Huang fosse di nuovo uno studente, sfrutterebbe l’intelligenza artificiale generativa per costruirsi una carriera di successo.

May 18, 2025, 4:48 p.m.

Poof è il nuovo trucco magico di Solana per lo sv…

Immagina di scrivere una frase e ricevere immediatamente un'app blockchain live—senza codifica, senza problemi di configurazione, senza complicazioni con il portafoglio.

All news