Durants anys, els equips de revisors de Meta avaluaven els riscos potencials cada vegada que s’llançaven noves funcionalitats a Instagram, WhatsApp i Facebook, examinant qüestions com les amenaces a la privacitat dels usuaris, els danys als minors o la difusió de contingut enganyós o tòxic. Aquestes revisions de privacitat i integritat s’eren principalment duites a terme per avaluadors humans. No obstant això, documents interns obtinguts per NPR revelen que Meta té la intenció de veure automatitzats fins a un 90% d’aquestes avaluacions de riscos properament. Això significa que les actualitzacions crítiques dels algoritmes, les noves funcionalitats de seguretat i els canvis en el compartiment de contingut seran en major part aprovats per sistemes d’Intel·ligència Artificial sense la revisió habitual del personal que considera repercussions imprevistes o l’ús indegut. A l’interior de Meta, aquest canvi és vist com beneficiós pels desenvolupadors de productes, ja que accelera la posada a punt d’actualitzacions i funcionalitats. Però, actuals i exempleats preocupen que aquesta automatització pugui conduir a una valoració inadequada dels riscos, provocant possibles danys en el món real. Un exdirectiu de Meta va expressar que les llançaments més ràpids amb menys revisió rigorosa augmenten la probabilitat d’resultats negatius, ja que es podrien passar per alt problemes importants de manera anticipada. Meta va afirmar que ha invertit milers de milions per protegir la privacitat dels usuaris i que els nous canvis en la revisió de riscos busquen optimitzar la presa de decisions, tot mantenint la experiència humana per a qüestions noves o complexes. Asseguren que només les decisions de “baix risc” seran automatitzades. No obstant això, documents interns suggereixen que l’automatització podria estendre’s a àrees sensibles com la seguretat de la IA, els riscos per als joves i la integritat general de la plataforma, que recull contingut violents i desinformació. El nou procés implica que els equips de producte responguin un qüestionari per rebre una “decisió instantània” de la IA, que exposa els riscos i les mesures de mitigació necessàries. Abans, els avaluadors de riscos havien d’aprovar les actualitzacions abans del desplegament; ara, els enginyers s’autovaloren els riscos en gran mesura, a menys que sol·licitin una revisió humana específica. Aquest canvi dona poder als enginyers i equips de producte—que sovint no són experts en privacitat—per a fer valoracions, fet que genera preocupacions sobre la qualitat d’aquestes valoracions.
Zvika Krieger, l’antic director d’innovació responsable de Meta, va advertir que els equips de producte són principalment valorats per la rapidesa en els llançaments, no per la seguretat, i que les autoavaluacions poden convertir-se en un simple check-box que passa per alt problemes importants. Va reconèixer que hi ha marge per a l’automatització, però va avisar que una dependència excessiva de l’IA podria degradar la qualitat de la revisió. Meta minimitzà les preocupacions, assenyalant que audita les decisions de la IA per a projectes sense revisió humana. Les seves operacions a Europa, sotmeses a regulacions estrictes com el Digital Services Act, mantindran la supervisió humana des de la seva seu a Irlanda. Algunes d’aquestes novetats coincideixen amb el tancament del programa de verificació de dades i l’alliberament de les polítiques contra l’hate speech, senyalant un canvi més ampli de la companyia cap a actualitzacions més ràpides i menys restriccions de contingut—una relaxació dels estàndards que havien estat dissenyats per evitar l’ús indegut de la plataforma. Aquesta estratègia s’alinea amb els esforços del CEO Mark Zuckerberg per adaptar-se a figures polítiques com l’expresident Trump, quí qui Zuckerberg va descriure com un “punt de viratge cultural”. La insistència en la automatització també està vinculada amb l’estratègia de llarg termini de Meta d’utilitzar la IA per accelerar les operacions, en competència amb TikTok, OpenAI i altres. Meta ha augmentat recentment la dependència de la IA per fer complir les normes de contingut, utilitzant models lingüístics que superen els humans en certs àmbits de polítiques. Això permet als revisors humans centrar-se en casos més complexos. Katie Harbath, antiga experta en polítiques públiques de Facebook, dóna suport a l’ús de la IA per incrementar la velocitat i l’eficiència, però reivindica la necessitat de controls humans. En canvi, un altre antic empleat de Meta qüestiona si fer més ràpids els avaluacions de riscos és prudent, ja que els nous productes repensen una supervisió rigorosa que sovint detecta problemes que s’havien passat per alt. Michel Protti, director de privacitat de Meta per a productes, va descriure els canvis com un impuls a l’emprovat de les equips de producte i una evolució en la gestió de riscos per simplificar la presa de decisions. La implementació de l’automatització es va accelerar durant l’abril i maig de 2024. Tot i això, alguns insiders critiquen aquesta interpretació, destacant que eliminar els humans de les avaluacions de riscos debilita la perspectiva humanista sobre possibles danys i qualifiquen la mesura com “irresponsable” en línia amb la missió de Meta. En resum, Meta està canviant devaluacions de riscos liderades per humans a valoracions principalment basades en IA per a canvis a la plataforma, amb l’objectiu d’acelerar la innovació, tot aixecant greus preocupacions internes sobre la manca de revisió rigorosa, els possibles danys i l’adequació de la IA per gestionar qüestions ètiques i de seguretat complexes.
Meta vol automatitzar fins a un 90 % de les valoracions de riscos, despertant inquietuds sobre la privacitat i la seguretat
El màrqueting anti-IA, que en un principi semblava una tendència de nínxol a Internet, s’ha convertit en una corrent dominant enmig de la reacció contra la intel·ligència artificial en la publicitat, destacant l’autenticitat i la connexió humana.
La tecnologia deepfake ha avançat ràpidament en els darrers anys, donant lloc a milloren notables en la producció de vídeos manipulats altament realistes.
Microsoft està intensificant el seu compromís amb la innovació en intel·ligència artificial sota el lideratge visionari del CEO Satya Nadella.
Ara podeu fer preguntes molt específiques a un model de llenguatge de gran format (LLM)—com ara sol·licitar suport per a l’arxivament dins d’un radi de compres concret—i rebre respostes clares i riques en context, com ara: “Aquí tens tres opcions properes que s’adapten als teus criteris.
C3.ai, Inc.
Z.ai, anteriorment coneguda com Zhipu AI, és una empresa tecnològica líder a la Xina especialitzada en intel·ligència artificial.
Jason Lemkin va liderar la ronda semilla via SaaStr Fund a unicorn Owner.com, una plataforma impulsada per intel·ligència artificial que transforma la manera com les petites restauracions funcionen.
Launch your AI-powered team to automate Marketing, Sales & Growth
and get clients on autopilot — from social media and search engines. No ads needed
Begin getting your first leads today