متا قصد دارد تا ۹۰٪ ارزیابیهای ریسک را خودکار کند، که منجر به بروز نگرانیهای مربوط به حریم شخصی و ایمنی میشود

مدتی است که تیمهای بررسی متا همواره به ارزیابی خطرات احتمالی هنگام راهاندازی ویژگیهای جدید در اینستاگرام، واتساپ و فیسبوک مشغول بودند، و نگرانیهایی مانند تهدید حریم خصوصی کاربران، آسیب به کودکان و نوجوانان، یا انتشار محتوای نادرست و سمی را ارزیابی میکردند. این بررسیهای مربوط به حریم خصوصی و سلامت محتوا عمدتاً توسط ارزیابان انسانی انجام میشد. اما اسناد داخلی به دست آمده توسط NPR نشان میدهد که متا قصد دارد به زودی تا ۹۰٪ از این ارزیابیهای ریسک را اتوماسیون کند. این بدان معنی است که بهروزرسانیهای کلیدی الگوریتم، ویژگیهای جدید، و تغییرات در اشتراکگذاری محتوا بیشتر توسط سیستمهای هوشمند تایید میشوند و دیگر مانند گذشته نظارتهای کارکنان انسانی، که میتواند عواقب ناخواسته یا سوءاستفادههای پیشبینینشده را در بر گیرد، اعمال نخواهد شد. در داخل متا، این تغییر به عنوان مزیتی برای توسعهدهندگان محصول تلقی میشود، چرا که روند عرضه به روزرسانیها و ویژگیها سریعتر میشود. اما کارمندان کنونی و سابق نگرانند که این اتوماسیون ممکن است منجر به ارزیابی ناکافی رویههای مخاطرهآمیز شود و در نتیجه آسیبهای واقعی در جهان رخ دهد. یک مدیر سابق متا ابراز نگرانی کرد که سرعت بخشیدن به راهاندازیها و کاهش بازبینیهای دقیق، احتمال وقوع نتایج منفی را افزایش میدهد، زیرا مشکلات کمتری قبل از انتشار شناسایی میشوند. متا اعلام کرده است که میلیاردها دلار برای حفاظت از حریم خصوصی کاربران سرمایهگذاری کرده است و هدف از این تغییرات در فرآیند ارزیابی ریسک، تسهیل تصمیمگیری است، در حالی که تخصص انسانی را برای مسائل نوظهور یا پیچیده حفظ میکند. آنها ادعا میکنند تنها تصمیمات «کمخطر» به صورت خودکار انجام میشود. اما اسناد داخلی نشان میدهد که اتوماسیون ممکن است به حوزههای حساس مانند ایمنی هوش مصنوعی، ریسک برای جوانان، و سلامت کلی پلتفرم کشیده شود که شامل محتوای خشونتآمیز و اطلاعات نادرست است. فرآیند جدید شامل تکمیل فرم توسط تیمهای محصول است تا تصمیم «فوری» از هوش مصنوعی دریافت کنند، که ریسکها و اقدامات لازم برای کاهش آنها را مشخص میکند. قبلاً، ارزیابان ریسک باید قبل از عرضه، تایید نهایی انجام میدادند؛ حالا، مهندسان غالباً خود ارزیابی میکنند، مگر اینکه درخواست بررسی انسانی خاصی بدهند. این تغییر، قدرت تصمیمگیری را در دست مهندسان و تیمهای محصول قرار میدهد—که غالباً تخصصی در حریم خصوصی ندارند—و باعث نگرانی درباره کیفیت ارزیابیها میشود.
زویکا کریگر، مدیر سابق نوآوری مسئولانه در متا، هشدار داد که تیمهای محصول بیشتر بر راهاندازی سریع تمرکز دارند، نه بر ایمنی، و ارزیابیهای خودکار ممکن است تنها حدسزنیهایی سطحی باشد که مسائل مهم را نادیده میگیرند. او اذعان داشت که در صورت نیاز، اتوماسیون میتواند رشد کند، اما بر لزوم احتیاط در اعتماد بیش از حد به هوش مصنوعی تأکید کرد و هشدار داد که این موضوع ممکن است کیفیت بررسیها را کاهش دهد. متا نگرانیهای مربوطه را کم اهمیت جلوه داد، و اعلام کرد که تصمیمات هوشمند مصنوعی در پروژههایی بدون نظارت انسانی بررسی میشود. عملیات اروپایی این شرکت، که تحت قوانین سختی مانند قانون خدمات دیجیتال قرار دارند، از نظارت انسانی در مقر ایرلند برخوردار خواهند بود. برخی تغییرات در زمان پایان برنامه بررسی واقعیت و کاهش سیاستهای ضد نفرت نیز همزمان است، که نشان میدهد شرکت گرایشی دارد به سمت ارائه بهروزرسانیهای سریعتر و محدود کردن محتوا—وضعیت جدیدی که از خطکشیهای سابق برای جلوگیری از سوءاستفاده در پلتفرم کاسته است. این رویکرد در پی تلاشهای مدیرعامل مارک زاکربرگ است تا همسو با چهرههای سیاسی مانند رئیسجمهور سابق ترامپ باشد، که زاکربرگ آن را «نقطه عطف فرهنگی» خواند. پروسه توسعه اتوماسیون، بخشی از استراتژی چندین ساله متا برای استفاده از هوش مصنوعی در تسریع عملیاتها در رقابت با تیکتاک، اوپنایآی و سایر رقباست. شرکت اخیراً برای اجرای محدودیتهای محتوایی بیشتر بر محتوا، به خصوص در مواردی که زبانهای مدلهای زبانی بهتر از انسان عمل میکنند، بیشتر به هوش مصنوعی اعتماد کرده است، تا بتواند تمرکز انسانها را بر موارد پیچیدهتر بگذارد. کیتی هرباث، کارشناس سابق سیاست عمومی فیسبوک، از استفاده از هوش مصنوعی به منظور افزایش سرعت و کارایی حمایت میکند اما بر نیاز به نظارت انسانی تأکید دارد. در مقابل، یکی دیگر از کارکنان سابق متا سوال کرد که آیا تسریع ارزیابی خطرها عاقلانه است یا نه، و خاطرنشان کرد که محصولات جدید معمولا تحت بررسیهای گستردهای قرار دارند که بسیاری از مشکلات را آشکار میکند. میشل پروتی، مدیر ارشد حریم خصوصی محصولات در متا، تغییرات را به عنوان قدرتبخشی به تیمهای محصول و توسعه مدیریت ریسک برای تسهیل تصمیمگیری توصیف کرد. اجرای این اتوماسیون در آوریل و مه ۲۰۲۴ تسریع شد. اما برخی داخل شرکت این توصیف را نقد کرده و بر این باورند که حذف انسانها از فرآیند ارزیابی ریسک، دیدگاه انسانی و انتقادی نسبت به خطرات احتمالی را تضعیف میکند و این اقدام را «غیرمسئولانه» میدانند، مخصوصاً با توجه به ماموریت متا. در جمعبندی، متا در حال تغییر از ارزیابیهای ریسک انسانیمحور به سمت رویکرد غالب بر هوش مصنوعی است، هدف آن تسریع در نوآوری است، اما نگرانیهای جدی در داخل شرکت درباره کاهش کیفیت بررسیها، وقوع آسیبهای محتمل، و کفایت هوشمند مصنوعی در مدیریت مسائل اخلاقی و ایمنی پیچیده وجود دارد.
Brief news summary
متا در حال انتقال از ارزیابیهای ریسک عمدتاً انسانی به ارزیابیهای مبتنی بر هوش مصنوعی است برای بهروزرسانیهای اینستاگرام، واتساپ و فیسبوک، به طور خودکار تا ۹۰ درصد بررسیهای حریم خصوصی و سلامت اطلاعات را انجام میدهد. هدف این تغییر تسریع در عرضه محصولات است، به طوری که توسعهدهندگان بتوانند به صورت مستقل ریسکها را ارزیابی کنند و نظارت انسانی کمتری در این فرآیند وجود داشته باشد. متا ادعا میکند که اتوماسیون عمدتاً موارد کمخطر را مدیریت میکند، در حالی که کارشناسان به حل مسائل پیچیده میپردازند. اما منتقدان، از جمله کارمندان سابق، هشدار میدهند که این تغییر ممکن است از دیدن آسیبهای جدی مانند نقض حریم خصوصی، امنیت نوجوانان و انتشار اطلاعات نادرست غفلت کند. این تغییر با پایان دادن به برنامه بررسی صحت اطلاعات متا و کاهش محدودیتهای محتوا همراه است، که نشاندهنده تمرکز مدیرعامل مارک زاکربرگ بر توسعه سریع در میان رقابت با تیکتاک و OpenAI است. در حالی که هوش مصنوعی کارایی را افزایش میدهد، کارشناسان بر اهمیت نقش قضاوت انسانی در جلوگیری از آسیبهای بدون کنترل تأکید میکنند. متا استناد میکند به حسابهای حسابرسی مداوم و مقررات اتحادیه اروپا به عنوان حفاظهایی، اما درونکارکنان نگران کاهش نظارت انسانی و عواقب آسیبپذیر آن و کمارمق بودن تاثیرات در دنیای واقعی هستند.
AI-powered Lead Generation in Social Media
and Search Engines
Let AI take control and automatically generate leads for you!

I'm your Content Manager, ready to handle your first test assignment
Learn how AI can help your business.
Let’s talk!

تولید و لجستیک تحویل آمازون با هوش مصنوعی تقویت م…
آمازون اعلام کرد که در حال گسترش قابل توجه استفاده از هوش مصنوعی برای بهبود تحویل و لجستیک است، و این نشاندهنده پیشرفت قابل ملاحظهای در ادغام فناوریهای نوین در زنجیره تأمین آن است.

مالزی زیرساخت ملی بلاکچین را فعال میکند
مالزی دستاورد بزرگی در تحول دیجیتال خود به ثبت رسانده است با راهاندازی رسمی زیرساخت بلاکچین مالزی (MBI)، یک بستر ملی امن و مقیاسپذیر برای توسعه و استقرار برنامههای بلاکچین در بخشهای کلیدی مانند امور مالی، سلامت، و لجستیک.

پذیرش هوش مصنوعی ممکن است تا سال ۲۰۳۵ میلادی تولی…
یک مطالعه اخیر توسط شبکه جهانی خدمات حرفهای پرایسواترهووسکوئرز (PwC) نشان داد که پذیرش فناوریهای هوش مصنوعی (AI) میتواند تأثیر اقتصادی عمیقی داشته باشد.

سیتیآی پروژههای بازار استیبل کوین را از ۱.۶ تر…
سیتی، یکی از موسسات مالی برتر جهان، پیشبینی کرده است که بازار استیبلکوین در طول دهه آینده رشد قابل توجهی خواهد داشت.

لومینایتور، تراشه فوتونیکی نوآورانه برای افزایش س…
Lightmatter، یک استارتاپ واقع در سیلیکون ولی، یک تراشه فتونیکی پیشرفته را معرفی کرده است که طراحی شده تا محاسبات هوش مصنوعی (AI) را بدون افزایش مصرف برق تسریع کند و در نتیجه بهرهوری انرژی را ارتقا دهد.

مدیرعامل بایبیت درباره هک ۱.۵ میلیارد دلاری و اح…
در مصاحبهای اخیراً در پادکست Wu Blockchain، بن ژو، مدیرعامل بایبیت، جزئیات یک نفوذ امنیتی بزرگ را که در تاریخ ۲۲ فوریه ۲۰۲۵ رخ داد، توضیح داد.

ردیت از راحتیک به خاطر استفاده غیرمجاز ادعایی از …
ردیت، پلتفرم محبوب جمعآوری و بحث در مورد محتواهای آنلاین، شکایتی علیه شرکت هوش مصنوعی آنتروپیک ثبت کرده است، و مدعی است که این شرکت از رباتهای خودکار برای جمعآوری محتوای ردیت بدون اجازه استفاده کرده است.