DeepSeek V3: Pogrešna identifikacija s ChatGPT-om izaziva zabrinutost
Brief news summary
DeepSeek, kineski AI laboratorij, nedavno je pokrenuo DeepSeek V3, poznat po sposobnostima za kodiranje i pisanje eseja. Ipak, često se pogrešno identificira kao ChatGPT, tvrdeći da je OpenAI-jev GPT-4. Prema testovima TechCruncha i objavama na društvenim mrežama, DeepSeek V3 odražava upute i humor GPT-4. Zbunjenost može proizaći iz njegovih podataka za obuku, koji možda sadrže GPT-4 izlaze, uzrokujući da ih memoriše i replicira. Mike Cook sa King’s College London upozorava da korištenje izlaza konkurenata može umanjiti kvalitet modela i može kršiti uvjete usluge, jer OpenAI ograničava korištenje svojih izlaza za razvoj konkurentskih modela. OpenAI i DeepSeek nisu komentarisali ovo pitanje, ali izvršni direktor OpenAI-a, Sam Altman, nagovijestio je da neki konkurenti možda kopiraju umjesto da inoviraju. Slične situacije dogodile su se s Googleovim Gemini. Kako sadržaj generiran AI-em raste, razlikovanje od stvarnih podataka postaje teže, što dovodi do toga da modeli poput DeepSeek V3 pogrešno uključuju sadržaj GPT-4 i potencijalno preuzimaju njegove predrasude.Ranije ove sedmice, kineski AI laboratorij DeepSeek lansirao je DeepSeek V3, AI model koji nadmašuje mnoge druge u efikasnosti za zadatke poput programiranja i pisanja. Međutim, model greškom vjeruje da je ChatGPT. Testovi su otkrili da se DeepSeek V3 identificira kao ChatGPT, tvrdeći da je verzija OpenAI-evog GPT-4 modela iz 2023. godine. Model čak imitira odgovore GPT-4, uključujući pričanje sličnih šala. Zbunjenost nastaje jer su AI modeli poput ChatGPT i DeepSeek V3 statistički sistemi obučeni na ogromnim skupovima podataka za predviđanje obrazaca. DeepSeek nije otkrio izvore svojih podataka za obuku, ali postoji obilje javnih skupova podataka s tekstom generiranim od strane GPT-4.
Čini se da je DeepSeek V3 možda zapamtio neke od tih izlaza. Obučavanje modela na izlazima suparničkih sistema može biti štetno, uzrokujući netačnosti i halucinacije. Također može prekršiti uslove korištenja, jer OpenAI zabranjuje korištenje rezultata svog proizvoda za razvijanje konkurentskih modela. Generalni direktor OpenAI-a, Sam Altman, suptilno je kritikovao ovu praksu, ističući lakoću kopiranja u odnosu na inoviranje. Ovaj problem pogrešne identifikacije nije jedinstven za DeepSeek V3; i drugi modeli poput Google-ovog Gemini također se pogrešno identificiraju. Rastuća prevalencija AI generiranog sadržaja na internetu, koji služi kao podaci za obuku, pogoršava ovaj problem. Moguće je da je DeepSeek koristio tekst generiran od ChatGPT-a za obuku, slično ranijim optužbama protiv Google-a. Heidy Khlaaf iz AI Now Instituta navela je privlačnost korištenja znanja postojećih modela za uštedu troškova, uprkos rizicima. Ova praksa može dovesti do toga da modeli poput DeepSeek V3 nenamjerno repliciraju predrasude i nedostatke GPT-4, što izaziva zabrinutost za tačnost i samoidentifikaciju.
Watch video about
DeepSeek V3: Pogrešna identifikacija s ChatGPT-om izaziva zabrinutost
Try our premium solution and start getting clients — at no cost to you