lang icon Persian
Auto-Filling SEO Website as a Gift

Launch Your AI-Powered Business and get clients!

No advertising investment needed—just results. AI finds, negotiates, and closes deals automatically

June 3, 2025, 12:07 a.m.
5

متا قصد دارد تا ۹۰٪ ارزیابی‌های ریسک را خودکار کند، که منجر به بروز نگرانی‌های مربوط به حریم شخصی و ایمنی می‌شود

مدتی است که تیم‌های بررسی متا همواره به ارزیابی خطرات احتمالی هنگام راه‌اندازی ویژگی‌های جدید در اینستاگرام، واتساپ و فیسبوک مشغول بودند، و نگرانی‌هایی مانند تهدید حریم خصوصی کاربران، آسیب به کودکان و نوجوانان، یا انتشار محتوای نادرست و سمی را ارزیابی می‌کردند. این بررسی‌های مربوط به حریم خصوصی و سلامت محتوا عمدتاً توسط ارزیابان انسانی انجام می‌شد. اما اسناد داخلی به دست آمده توسط NPR نشان می‌دهد که متا قصد دارد به زودی تا ۹۰٪ از این ارزیابی‌های ریسک را اتوماسیون کند. این بدان معنی است که به‌روزرسانی‌های کلیدی الگوریتم، ویژگی‌های جدید، و تغییرات در اشتراک‌گذاری محتوا بیشتر توسط سیستم‌های هوشمند تایید می‌شوند و دیگر مانند گذشته نظارت‌های کارکنان انسانی، که می‌تواند عواقب ناخواسته یا سوءاستفاده‌های پیش‌بینی‌نشده را در بر گیرد، اعمال نخواهد شد. در داخل متا، این تغییر به عنوان مزیتی برای توسعه‌دهندگان محصول تلقی می‌شود، چرا که روند عرضه به روزرسانی‌ها و ویژگی‌ها سریع‌تر می‌شود. اما کارمندان کنونی و سابق نگرانند که این اتوماسیون ممکن است منجر به ارزیابی ناکافی رویه‌های مخاطره‌آمیز شود و در نتیجه آسیب‌های واقعی در جهان رخ دهد. یک مدیر سابق متا ابراز نگرانی کرد که سرعت بخشیدن به راه‌اندازی‌ها و کاهش بازبینی‌های دقیق، احتمال وقوع نتایج منفی را افزایش می‌دهد، زیرا مشکلات کمتری قبل از انتشار شناسایی می‌شوند. متا اعلام کرده است که میلیاردها دلار برای حفاظت از حریم خصوصی کاربران سرمایه‌گذاری کرده است و هدف از این تغییرات در فرآیند ارزیابی ریسک، تسهیل تصمیم‌گیری است، در حالی که تخصص انسانی را برای مسائل نوظهور یا پیچیده حفظ می‌کند. آن‌ها ادعا می‌کنند تنها تصمیمات «کم‌خطر» به صورت خودکار انجام می‌شود. اما اسناد داخلی نشان می‌دهد که اتوماسیون ممکن است به حوزه‌های حساس مانند ایمنی هوش مصنوعی، ریسک برای جوانان، و سلامت کلی پلتفرم کشیده شود که شامل محتوای خشونت‌آمیز و اطلاعات نادرست است. فرآیند جدید شامل تکمیل فرم توسط تیم‌های محصول است تا تصمیم «فوری» از هوش مصنوعی دریافت کنند، که ریسک‌ها و اقدامات لازم برای کاهش آنها را مشخص می‌کند. قبلاً، ارزیابان ریسک باید قبل از عرضه، تایید نهایی انجام می‌دادند؛ حالا، مهندسان غالباً خود ارزیابی می‌کنند، مگر این‌که درخواست بررسی انسانی خاصی بدهند. این تغییر، قدرت تصمیم‌گیری را در دست مهندسان و تیم‌های محصول قرار می‌دهد—که غالباً تخصصی در حریم خصوصی ندارند—و باعث نگرانی درباره کیفیت ارزیابی‌ها می‌شود.

زویکا کریگر، مدیر سابق نوآوری مسئولانه در متا، هشدار داد که تیم‌های محصول بیشتر بر راه‌اندازی سریع تمرکز دارند، نه بر ایمنی، و ارزیابی‌های خودکار ممکن است تنها حدس‌زنی‌هایی سطحی باشد که مسائل مهم را نادیده می‌گیرند. او اذعان داشت که در صورت نیاز، اتوماسیون می‌تواند رشد کند، اما بر لزوم احتیاط در اعتماد بیش از حد به هوش مصنوعی تأکید کرد و هشدار داد که این موضوع ممکن است کیفیت بررسی‌ها را کاهش دهد. متا نگرانی‌های مربوطه را کم اهمیت جلوه داد، و اعلام کرد که تصمیمات هوشمند مصنوعی در پروژه‌هایی بدون نظارت انسانی بررسی می‌شود. عملیات اروپایی این شرکت، که تحت قوانین سختی مانند قانون خدمات دیجیتال قرار دارند، از نظارت انسانی در مقر ایرلند برخوردار خواهند بود. برخی تغییرات در زمان پایان برنامه بررسی واقعیت و کاهش سیاست‌های ضد نفرت نیز همزمان است، که نشان می‌دهد شرکت گرایشی دارد به سمت ارائه به‌روزرسانی‌های سریع‌تر و محدود کردن محتوا—وضعیت جدیدی که از خط‌کشی‌های سابق برای جلوگیری از سوءاستفاده در پلتفرم کاسته است. این رویکرد در پی تلاش‌های مدیرعامل مارک زاکربرگ است تا همسو با چهره‌های سیاسی مانند رئیس‌جمهور سابق ترامپ باشد، که زاکربرگ آن را «نقطه عطف فرهنگی» خواند. پروسه توسعه اتوماسیون، بخشی از استراتژی چندین ساله متا برای استفاده از هوش مصنوعی در تسریع عملیات‌ها در رقابت با تیک‌تاک، اوپن‌ای‌آی و سایر رقباست. شرکت اخیراً برای اجرای محدودیت‌های محتوایی بیشتر بر محتوا، به خصوص در مواردی که زبان‌های مدل‌های زبانی بهتر از انسان عمل می‌کنند، بیشتر به هوش مصنوعی اعتماد کرده است، تا بتواند تمرکز انسان‌ها را بر موارد پیچیده‌تر بگذارد. کیتی هرباث، کارشناس سابق سیاست عمومی فیسبوک، از استفاده از هوش مصنوعی به منظور افزایش سرعت و کارایی حمایت می‌کند اما بر نیاز به نظارت انسانی تأکید دارد. در مقابل، یکی دیگر از کارکنان سابق متا سوال کرد که آیا تسریع ارزیابی خطرها عاقلانه است یا نه، و خاطرنشان کرد که محصولات جدید معمولا تحت بررسی‌های گسترده‌ای قرار دارند که بسیاری از مشکلات را آشکار می‌کند. میشل پروتی، مدیر ارشد حریم خصوصی محصولات در متا، تغییرات را به عنوان قدرت‌بخشی به تیم‌های محصول و توسعه مدیریت ریسک برای تسهیل تصمیم‌گیری توصیف کرد. اجرای این اتوماسیون در آوریل و مه ۲۰۲۴ تسریع شد. اما برخی داخل شرکت این توصیف را نقد کرده و بر این باورند که حذف انسان‌ها از فرآیند ارزیابی ریسک، دیدگاه انسانی و انتقادی نسبت به خطرات احتمالی را تضعیف می‌کند و این اقدام را «غیرمسئولانه» می‌دانند، مخصوصاً با توجه به ماموریت متا. در جمع‌بندی، متا در حال تغییر از ارزیابی‌های ریسک انسانی‌محور به سمت رویکرد غالب بر هوش مصنوعی است، هدف آن تسریع در نوآوری است، اما نگرانی‌های جدی در داخل شرکت درباره کاهش کیفیت بررسی‌ها، وقوع آسیب‌های محتمل، و کفایت هوشمند مصنوعی در مدیریت مسائل اخلاقی و ایمنی پیچیده وجود دارد.



Brief news summary

متا در حال انتقال از ارزیابی‌های ریسک عمدتاً انسانی به ارزیابی‌های مبتنی بر هوش مصنوعی است برای به‌روزرسانی‌های اینستاگرام، واتساپ و فیسبوک، به طور خودکار تا ۹۰ درصد بررسی‌های حریم خصوصی و سلامت اطلاعات را انجام می‌دهد. هدف این تغییر تسریع در عرضه محصولات است، به طوری که توسعه‌دهندگان بتوانند به صورت مستقل ریسک‌ها را ارزیابی کنند و نظارت انسانی کمتری در این فرآیند وجود داشته باشد. متا ادعا می‌کند که اتوماسیون عمدتاً موارد کم‌خطر را مدیریت می‌کند، در حالی که کارشناسان به حل مسائل پیچیده می‌پردازند. اما منتقدان، از جمله کارمندان سابق، هشدار می‌دهند که این تغییر ممکن است از دیدن آسیب‌های جدی مانند نقض حریم خصوصی، امنیت نوجوانان و انتشار اطلاعات نادرست غفلت کند. این تغییر با پایان دادن به برنامه بررسی صحت اطلاعات متا و کاهش محدودیت‌های محتوا همراه است، که نشان‌دهنده تمرکز مدیرعامل مارک زاکربرگ بر توسعه سریع در میان رقابت با تیک‌تاک و OpenAI است. در حالی که هوش مصنوعی کارایی را افزایش می‌دهد، کارشناسان بر اهمیت نقش قضاوت انسانی در جلوگیری از آسیب‌های بدون کنترل تأکید می‌کنند. متا استناد می‌کند به حساب‌های حسابرسی مداوم و مقررات اتحادیه اروپا به عنوان حفاظ‌هایی، اما درون‌کارکنان نگران کاهش نظارت انسانی و عواقب آسیب‌پذیر آن و کم‌ارمق بودن تاثیرات در دنیای واقعی هستند.
Business on autopilot

AI-powered Lead Generation in Social Media
and Search Engines

Let AI take control and automatically generate leads for you!

I'm your Content Manager, ready to handle your first test assignment

Language

Content Maker

Our unique Content Maker allows you to create an SEO article, social media posts, and a video based on the information presented in the article

news image

Last news

The Best for your Business

Learn how AI can help your business.
Let’s talk!

June 4, 2025, 10:48 p.m.

تولید و لجستیک تحویل آمازون با هوش مصنوعی تقویت م…

آمازون اعلام کرد که در حال گسترش قابل توجه استفاده از هوش مصنوعی برای بهبود تحویل و لجستیک است، و این نشان‌دهنده پیشرفت قابل ملاحظه‌ای در ادغام فناوری‌های نوین در زنجیره تأمین آن است.

June 4, 2025, 10:11 p.m.

مالزی زیرساخت ملی بلاک‌چین را فعال می‌کند

مالزی دستاورد بزرگی در تحول دیجیتال خود به ثبت رسانده است با راه‌اندازی رسمی زیرساخت بلاک‌چین مالزی (MBI)، یک بستر ملی امن و مقیاس‌پذیر برای توسعه و استقرار برنامه‌های بلاک‌چین در بخش‌های کلیدی مانند امور مالی، سلامت، و لجستیک.

June 4, 2025, 9:15 p.m.

پذیرش هوش مصنوعی ممکن است تا سال ۲۰۳۵ میلادی تولی…

یک مطالعه اخیر توسط شبکه جهانی خدمات حرفه‌ای پرایس‌واترهووس‌کوئرز (PwC) نشان داد که پذیرش فناوری‌های هوش مصنوعی (AI) می‌تواند تأثیر اقتصادی عمیقی داشته باشد.

June 4, 2025, 8:28 p.m.

سی‌تی‌آی پروژه‌های بازار استیبل کوین را از ۱.۶ تر…

سیتی، یکی از موسسات مالی برتر جهان، پیش‌بینی کرده است که بازار استیبل‌کوین در طول دهه آینده رشد قابل توجهی خواهد داشت.

June 4, 2025, 7:42 p.m.

لومینایتور، تراشه فوتونیکی نوآورانه برای افزایش س…

Lightmatter، یک استارتاپ واقع در سیلیکون ولی، یک تراشه فتونیکی پیشرفته را معرفی کرده است که طراحی شده تا محاسبات هوش مصنوعی (AI) را بدون افزایش مصرف برق تسریع کند و در نتیجه بهره‌وری انرژی را ارتقا دهد.

June 4, 2025, 6:54 p.m.

مدیرعامل بای‌بیت درباره هک ۱.۵ میلیارد دلاری و اح…

در مصاحبه‌ای اخیراً در پادکست Wu Blockchain، بن ژو، مدیرعامل بای‌بیت، جزئیات یک نفوذ امنیتی بزرگ را که در تاریخ ۲۲ فوریه ۲۰۲۵ رخ داد، توضیح داد.

June 4, 2025, 6:03 p.m.

ردیت از راحتیک به خاطر استفاده غیرمجاز ادعایی از …

ردیت، پلتفرم محبوب جمع‌آوری و بحث در مورد محتواهای آنلاین، شکایتی علیه شرکت هوش مصنوعی آنتروپیک ثبت کرده است، و مدعی است که این شرکت از ربات‌های خودکار برای جمع‌آوری محتوای ردیت بدون اجازه استفاده کرده است.

All news