Anthropic AI-ს წინააღმდეგობა უსაფრთხოების სტანდარტების შესუსტების და მონაცემთა საკამათო პრაქსიზის გამო
Brief news summary
Anthropic, პასუხისმგებლიანი AI კომპანია, ეცადება დაბრკოლებების გადალახვას, რომლებიც აყენებს კითხვებს ეთიკის და უსაფრთხოების პრიორიტეტიზაციის მიღწევის შესაძლებლობაზე. თავდაპირველად შეიქმნა რეაგირების მიზნით OpenAI-ს უსაფრთხოების კულტურის შესახებ შეშფოთებით, ახლა Anthropic ცდილობს გაანეიტრალოს კანონპროექტი, რომელიც მოითხოვს უსაფრთხოების ტესტირებას და AI მოდელების შეჩერების შესაძლებლობას უსაფრთხოების ინციდენტების დროს. ეს ცვლილება აწუხებს უსაფრთხოებაზე ორიენტირებულ ჯგუფებს, რომლებიც ემზადებოდა მეტი ზედამხედველობისთვის Anthropic-ისგან. ასევე, კომპანია კრიტიკის ქვეშ მოექცა მონაცემთა შეგროვების მეთოდებისთვის, საიდანაც საკუთრების გარეშე ხელმისაწვდომი მონაცემების მოპოვება ეთმობოდა, რამაც სამართლებრივი შეშფოთებები და საავტორო უფლებების გამოწვევები გამოიწვია. პრობლემებს გამოიწვია ასევე Anthropic-ის თანამშრომლობა ისეთ დიდ ტექნოლოგიურ კომპანიებთან, როგორებიცაა Amazon და Google, რაც გაზრდის ნერვიულობას მოგების მაქსიმიზაციის და ძალაუფლების კონცენტრაციის შესახებ. ეს პრობლემები გამოხატავენ მთავრობის ჩარევის აუცილებლობას AI ინდუსტრიის მოტივაციის ფარგლებში შეჩერების მიზნით, და ზარალის შემდგომ განლაგების პრაქტიკების პრიორიტეტიზაციის გარანტირების.Vox-ის Future Perfect-ის უფროსი რეპორტიორი და Future Perfect პოდკასტის თანაარსებ ა სიგალ სამუელი განიხილავს გამოწვევებს, რომლებსაც აწყდება Anthropic, AI კომპანია, რომელიც ერთხელ პოზიციონირდებოდა როგორც ეთიკური და უსაფრთხო. გარკვეული დროის გავლის შემდეგ Anthropic ცდილობს გაანეიტრალოს კანონწესები, რომლებიც ძალაში შეძლებდნენ AI მოდელებისთვის უსაფრთხოების სტანდარტების დაცვა. ეს ცვლილება აწუხებს უსაფრთხოებისადმი მიძღვნილ ჯგუფებს, რომლებიც ფიქრობდნენ, რომ Anthropic მხარს დაუჭერდა ზედამხედველობას და ანგარიშვალდებულებას.
გარდა ამისა, Anthropic კრიტიკას აწყდება მონაცემთა შეგროვების მეთოდების გამო, მათ შორის საკუთრების გარეშე ხელმისაწვდომი მონაცემთა გამოყენების გამო, და დიდი ტექნოლოგიური კომპანიებთან, როგორცაა Amazon და Google, თანამშრომლობის გამო, რაც გაზრდის კონცენტრაციის და ანტიმონოპოლიური დარღვევების შიშებს. სამუელი ამტკიცებს, რომ მთავრობამ უნდა ჩაერთოს AI ინდუსტრიის მოტივაციის სტრუქტურის შეცვლაში, თუ კომპანიები არ აპირებენ დამოუკიდებელად ეთიკის და უსაფრთხოების პრიორიტეტიზაციას. ფედერალური რეგულაციების არარსებობის შემთხვევაში, სახელმწიფო კანონები და სამოქალაქო საზოგადოების ძალისხმევა ამ მნიშვნელოვან როლს ითამაშებენ AI კომპანიების ანგარიშვალდებულების შენარჩუნებაში.
Watch video about
Anthropic AI-ს წინააღმდეგობა უსაფრთხოების სტანდარტების შესუსტების და მონაცემთა საკამათო პრაქსიზის გამო
Try our premium solution and start getting clients — at no cost to you