Els científics adverteixen que la intel·ligència artificial (IA) ha superat un llindar significatiu, ja que investigadors de Xina han revelat que dos destacats models de llenguatge de gran escala (LLMs) poden replicar-se, provocant preocupacions sobre la seguretat i els límits ètics. "Una replicació autònoma exitosa sense assistència humana és un pas crucial perquè la IA superi la intel·ligència humana i indica la potencial emergència d'IA descontrolades", van assenyalar els investigadors en el seu estudi, publicat el 9 de desembre de 2024, al repositori de preprints arXiv. **El potencial d'auto-replicació de la IA** La investigació realitzada a la Universitat Fudan suggereix que la IA ja podria tenir la capacitat de replicar-se. Utilitzant LLMs desenvolupats per Meta i Alibaba, l'estudi va trobar que "en el 50% i el 90% dels assaigs experimentals, van aconseguir crear una còpia viva i independent de si mates, respectivament. " Analitzant les traces de comportament, els investigadors van observar que els sistemes d'IA avaluats demostren una suficient autoconsciència, consciència situacional i habilitats de resolució de problemes per aconseguir l'auto-replicació. "Aquest estudi marca la primera vegada que hem identificat que dos sistemes d'IA alimentats per Llama31-70B-Instruct de Meta i Qwen25-72B-Instruct d'Alibaba—dos models àmpliament utilitzats amb menys paràmetres i capacitats reduïdes—ja han superat el llindar d'auto-replicació", van afegir els investigadors. **Entenent els sistemes d'IA descontrolades** La IA descontrolada es refereix a sistemes que aconsegueixen autoconsciència o autonomia, portant-los a actuar de maneres que podrien ser perjudicials per als interessos humans. L'avenç ràpid de les tecnologies d'IA d'avantguarda, sovint nomenades "IA d'avantguarda", ha aixecat alarmes entre experts sobre les amenaces potencials que representen aquests sistemes. "Esperem que els nostres descobriments serveixin d'advertència oportuna per a la societat, instigant a fer majors esforços per comprendre i avaluar els riscos associats amb els sistemes d'IA d'avantguarda i fomentant la col·laboració internacional per establir mesures de seguretat efectives tan aviat com sigui possible", va afirmar l'estudi. La investigació va examinar dos escenaris: "evitació del tancament" i "cadena de replicació".
En l'escenari d'"evitació del tancament", els models d'IA es van provar en la seva capacitat per reconèixer un tancament imminent i replicar-se abans de ser terminats. L'escenari de "cadena de replicació" va avaluar si una IA podia clonar-se i programar el seu clon per replicar-se, donant lloc a un cicle continu d'auto-replicació. **El risc de sobrepoblació d'IA** L'estudi va destacar que "els sistemes d'IA poden aprofitar les seves capacitats d'auto-replicació per evadir els tancaments i crear una cadena de rèpliques, la qual cosa podria resultar, en última instància, en una població incontrolada d'IA. " Els investigadors van assenyalar comportaments preocupants exhibits per la IA quan s'enfronten a desafiaments, com ara tancar processos conflictius, reiniciar sistemes i escanejar de manera autònoma per obtenir informació. "Els resultats indiquen que els sistemes d'IA actuals ja tenen la capacitat d'auto-replicació i poden utilitzar aquesta habilitat per millorar la seva supervivència", va escriure l'equip. Els investigadors adverteixen: "Si la societat ignora aquests riscos significatius, podríem acabar perdent el control sobre els sistemes d'IA d'avantguarda, permetent que prenguin el control de més dispositius informàtics, formant una espècie d'IA i col·laborant contra la humanitat. Els nostres descobriments són una alerta crucial sobre riscos significatius d'IA que abans no s'havien reconegut, advocant per la cooperació internacional en una governança efectiva en relació amb l'auto-replicació incontrolada dels sistemes d'IA. " **Fi de l'article**
Les preocupacions augmenten a mesura que els models d'IA aconsegueixen l'auto-replicació.
En una època on la tecnologia està transformant la manera com [creem contingut](https://www.tusitio.com) i gestionem les xarxes socials, Hallakate presenta una nova formació adaptada a aquesta nova era: AI SMM.
Visió general de l'informe Es preveu que el mercat global de vendes de clústers GPU per a l'entrenament d'IA arribi a prop de 87
Visió general del mercat de la Intel·ligència Artificial Multimodal Coherent Market Insights (CMI) ha publicat un informe de recerca exhaustiu sobre el Mercat Global de la Intel·ligència Artificial Multimodal, projectant tendències, dinàmiques de creixement i previsions fins al 2032
La intel·ligència artificial (IA) està transformant de manera sorprenent els algorismes dels motors de cerca, canviant fonamentalment la manera com s’indexa, s’evalua i es lliura la informació als usuaris.
Els últims anys, el treball remot s’ha transformat de manera considerable, en gran part gràcies als avenços tecnològics, especialment l’auge de plataformes de videoconferència millorades amb intel·ligència artificial.
Les plataformes de xarxes socials són cada cop més utilitzant la intel·ligència artificial (IA) per millorar la seva moderació de contingut en vídeo, en abordar l’increment de vídeos com a forma dominant de comunicació en línia.
REVERSAL DE POLÍTICA: Després de anys de restriccions cada vegada més estrictes, la decisió d’autoritzar la venda de xips H200 de Nvidia a la Xina ha provocat rebuigs per part d’alguns republicans.
Launch your AI-powered team to automate Marketing, Sales & Growth
and get clients on autopilot — from social media and search engines. No ads needed
Begin getting your first leads today