Els científics adverteixen que la intel·ligència artificial (IA) ha superat un llindar significatiu, ja que investigadors de Xina han revelat que dos destacats models de llenguatge de gran escala (LLMs) poden replicar-se, provocant preocupacions sobre la seguretat i els límits ètics.
El Departament d'Eficiència del Govern (DOGE), sota el lideratge d'Elon Musk, ha estat en converses sobre la implementació de la tecnologia blockchain.
Segons un nou estudi publicat a la base de dades de preprints arXiv, la intel·ligència artificial (IA) ha aconseguit l'alarmant capacitat de l'auto-replicació, que genera preocupacions significatives dins de la comunitat científica sobre el pas d'un llindar crític.
### Anàlisi El 26 de gener de 2025, Vitalik Buterin, cofundador d'Ethereum, va tuitejar sobre la naturalesa de codi obert dels projectes d'IA, destacant l'autonomia dels usuaris en la recopilació de dades i l'ajustament d'opinions (Buterin, 2025)
Des de l'ascens de la IA, moltes empreses tecnològiques han acollit amb entusiasme la tendència, resultant en una significativa desconfiança i escepticisme públic.
Segons un informe de dissabte, el Departament de l'Eficiència Governamental, dirigit per Elon Musk, podria utilitzar la tecnologia blockchain per aconseguir el seu objectiu de reduir les despeses federals.
DeepSeek, una startup xinesa d'IA relativament desconeguda, ha provocat ones significatives a Silicon Valley amb els seus avançats models d'IA de codi obert, desafiant els gegants de la indústria com OpenAI, Google i Meta.
- 1