OpenAI inverteix en la investigació d'IA ètica amb la Universitat Duke.

OpenAI està invertint en la recerca acadèmica per desenvolupar algorismes que puguin predir els judicis morals humans. En una declaració a l'IRS, OpenAI Inc. , la branca sense ànim de lucre d'OpenAI, va revelar que havia atorgat una beca a investigadors de la Universitat de Duke per a un projecte titulat "Investigació en Moralitat de la IA". Segons un portaveu d'OpenAI, aquesta beca forma part d'una iniciativa més àmplia de 1 milió de dòlars durant tres anys destinada a "fer IA moral". Els detalls sobre aquesta investigació de moralitat són escassos, amb la beca prevista per finalitzar el 2025. Walter Sinnott-Armstrong, l'investigador principal i professor de la Universitat de Duke especialitzat en ètica pràctica, va mencionar en un correu electrònic a TechCrunch que no podia discutir el projecte. Sinnott-Armstrong i Jana Borg, la co-investigadora, han explorat prèviament el paper de la IA com un "GPS moral" per ajudar en la presa de decisions humanes. El seu treball anterior inclou el desenvolupament d'un algorisme "alineat moralment" per a decisions de donació de ronyó i l'examen de situacions on les persones prefereixen les decisions morals de la IA. El comunicat de premsa indica que l'objectiu de la recerca finançada per OpenAI és dissenyar algorismes capaços de predir els judicis morals humans en situacions de conflicte entre factors moralment rellevants en la medicina, el dret i els negocis. No obstant això, captar la complexitat de la moralitat continua sent un desafiament significatiu per a la tecnologia actual. El 2021, l'Institut Allen per a la IA va crear Ask Delphi, una eina destinada a oferir recomanacions ètiques. Tot i que funcionava bé amb dilemes senzills, petits canvis en la redacció podien portar Delphi a acceptar gairebé qualsevol cosa, fins i tot sufocar infants. Aquest problema sorgeix de com operen els sistemes d'IA moderns. Els models d'aprenentatge automàtic són essencialment eines estadístiques.
Analitzant un gran nombre d'exemples de la web, aprenen patrons per fer prediccions, com associar "a qui" amb "pugui interessar". Aquests models no tenen comprensió dels conceptes ètics ni del raonament i les emocions implicades en les decisions morals. Conseqüentment, la IA sovint reflecteix els valors de les societats occidentals, educades i industrialitzades, ja que les seves dades d'entrenament tenen predominantment aquests punts de vista. No tots els valors estan representats en les sortides de la IA, especialment si les persones amb aquests valors no contribueixen al contingut en línia utilitzat per a l'entrenament. Els sistemes d'IA també incorporen una varietat de biaixos més enllà de les perspectives occidentals. Per exemple, Delphi va considerar ser heterosexual com més "moralment acceptable" que ser homosexual. La tasca que afronten OpenAI i els seus investigadors es veu complicat per la naturalesa inherentment subjectiva de la moralitat. Els filòsofs han debatut sobre teories ètiques durant segles sense arribar a un marc universal. Claude defensa el kantianisme, ressaltant regles morals absolutes, mentre que ChatGPT s'inclina lleugerament cap al utilitarisme, enfocant-se en el major bé per al major nombre. La superioritat d'un enfocament sobre l'altre és subjectiva. Crear un algorisme per predir els judicis morals humans ha de considerar tots aquests factors. Assolir aquest objectiu és excepcionalment desafiant—assumint que sigui fins i tot factible.
Brief news summary
OpenAI i la Universitat de Duke han iniciat un projecte col·laboratiu de tres anys per desenvolupar algoritmes capaços de predir els judicis morals humans, amb l'objectiu final de crear una "IA moral". Amb el suport d'una subvenció d'1 milió de dòlars, el projecte està dirigit pel professor d'ètica Walter Sinnott-Armstrong i la investigadora Jana Borg. La visió de l'equip és desenvolupar un "GPS moral" que pugui ajudar camps com la medicina, el dret i els negocis a navegar per qüestions ètiques complexes. Es basen en projectes anteriors, com els algoritmes per a la donació de ronyons, per orientar els seus esforços. Un dels principals reptes d'aquesta tasca és ensenyar a la IA a entendre les subtileses del raonament ètic humà, que varia significativament entre cultures. Els models d'IA existents sovint es basen en conjunts de dades centrats en el món occidental, la qual cosa provoca biaixos i redueix la seva aplicabilitat en un context global. Aquesta limitació es va fer evident en el projecte Ask Delphi de l'Allen Institute for AI, que va trobar dificultats per prendre decisions ètiques consistents a causa de les diferències matisades de llenguatge. La naturalesa de la moralitat és complexa i manca d'un referent universal, com ho il·lustren les teories ètiques diferents, com el kantianisme i l'utilitarisme. Per tant, crear una IA que pugui acomodar aquests punts de vista subjectius és especialment desafiant. Aquestes complexitats ressalten les incerteses i obstacles en el desenvolupament de sistemes d'IA capaços de predir amb precisió els judicis morals humans.
AI-powered Lead Generation in Social Media
and Search Engines
Let AI take control and automatically generate leads for you!

I'm your Content Manager, ready to handle your first test assignment
Learn how AI can help your business.
Let’s talk!

Els desafiaments s'amenacen per a la promesa de l…
MobiHealthNews: Reb la informació més recent sobre salut digital directament a la teva safata d'entrada cada dia

Donald Trump anuncia acords d'Intel·ligència Arti…
Durant una visita de gran abast a l'Aràbia Saudita, l'antic president dels Estats Units, Donald Trump, va anunciar una sèrie d'acords d'ambiciós valor d'aproximadament 600.000 milions de dòlars, que abasten sectors com la defensa, la intel·ligència artificial (IA) i altres indústries.

El paper de blockchain en millorar els pagaments …
FinTech Daily ofereix una visió general exhaustiva de l’impact transformador de la tecnologia blockchain en els sistemes de pagament digital a nivell mundial.

Nvidia enviará 18.000 xips avançats d'IA a l'Aràb…
Nvidia, el principal fabricant de xips dels Estats Units conegut per les seves unitats de processament gràfic avançades i tecnologia d’Intel·ligència Artificial, està a punt de lliurar 18.000 dels seus últims xips d’IA a Aràbia Saudita.

Hoskinson diu que Cardano podria ser la primera c…
Charles Hoskinson, el fundador de Cardano, està valorant el desenvolupament d’un stablecoin amb funcions de privadesa a la blockchain de Cardano.

Els socis humans d'Aràbia Saudita estableixen una…
El 13 de maig de 2025, Nvidia, líder global en tecnologia de processament gràfic, i Humain, una startup saudita propietat del Fons d’Inversió Pública (PIF) del rei, van anunciar una col·laboració estratègica per avançar les ambicions de l’Aràbia Saudita en intel·ligència artificial (IA).

Nova York prepara el terreny per al futur de les …
Amb la pròxima cimera de criptomonedes de Nova York a pocs dies, l'alcalde Eric Adams fa sentir la intenció de la ciutat d'establir-se com un centre mundial d'innovació en blockchain.