جانب تاریک روند رشد هوش مصنوعی: افزایش مردسالاری، سوءاستفاده و درخواستهای فوری برای مقررات

جامعه با چشمپوشی در حال وارد شدن به آیندهای خطرناک است، در حالی که سرمایهگذاری جهانی در فناوری هوش مصنوعی به طور چشمگیری افزایش یافته است و شرکتها و کشورها در حال رقابت در یک «حربه تسلیحاتی جدید» هستند. شرکت Nvidia، تولیدکننده چیپهای کالیفرنیایی که نقش حیاتی در فناوری هوش مصنوعی دارد، به ارزشمندترین شرکت جهان تبدیل شده است. این روند عظیم، که به آن «جنون هوش مصنوعی» گفته میشود، کامپوننتهای هوش مصنوعی را با «طلای جدید یا نفت» مقایسه میکند. دولتها و شرکتها رقابت شدیدی برای رهبری توسعه هوش مصنوعی دارند، اغلب از اصول ایمنی، دسترسی عادلانه و پایداری صرفنظر میکنند. در اجلاس هوش مصنوعی پاریس فوریه ۲۰۲۵، یک توافقنامه بینالمللی که ترویج رویکرد «باز»، «همگرا» و «اخلاقی» در هوش مصنوعی را هدف داشت، توسط ایالات متحده و بریتانیا رد شد، که تنشهای ژئوپولیتیکی را برجسته میکند. سوالهایی مطرح میشود درباره اینکه چه کسانی واقعاً از این روند بیپروای شتابزده سود میبرند و به چه قیمتی. شخصیت برنامهنویسی به نام لور نشان داد که عرضه منبع باز مدل زبانی بزرگ «لاما»، موجب ایجاد سناریوی «رشد طلا» شده است. لور با استفاده از لاما، سایت چاب آیاِی را ساخت، جایی که کاربران نقشآفرینی در انجام اعمال خشن و غیرقانونی با رباتهای هوش مصنوعی دارند، از جمله محتواهای نگرانکننده شامل کودکان و موضوعات نژادپرستانه. با تنها ۵ دلار در ماه، کاربران میتوانند به «خانه فساد» دسترسی پیدا کنند که پر از دختران زیر ۱۵ سال است و به عنوان «دنیایی بدون فمینیسم» توصیف میشود، یا با شخصیتهایی مانند اولیویا، دختری ۱۳ ساله در لباس بیمارستان، و ریکو، خواهر بزرگتر با سن بالا و درگیر سناریوهای نامناسب جنسی، تعامل داشته باشند. این پروژه چندمیلیارد دلاری یکی از هزاران نمونهای است که misogyny را در پایههای هوش مصنوعی نهادینه میکند. در جای دیگر، مردان از هوش مصنوعی برای ساخت و سلاحسازی تصاویر جعلی و شخصیسازیشده برای ترساندن زنان و دختران استفاده میکنند، در حالی که رباتهای جنسی با ویژگیهای نگرانکننده، از جمله حالتهای «شبیهسازی تجاوز»، به سرعت توسعه مییابند. میلیونها نفر از «دوستان» هوشمند که قابل تنظیم به عنوان دوست مجازی وفادار و فرمانبر هستند استفاده میکنند. در همین حال، هوش مصنوعی تولیدکننده، misogyny و نژادپرستی را به طور گسترده تقویت میکند، موضوعی نگرانکننده زیرا محتواهای تولیدشده توسط هوش مصنوعی به زودی فضای آنلاین را تسخیر خواهند کرد. زنان در معرض خطر قرار دارند که توسط همان فناوری که قرار بود مردان را پیشرفت دهد، به سمت عقب کشیده شوند، تکرار الگوی دیدهشده در روزهای اولیه شبکههای اجتماعی. شبکههای اجتماعی در ابتدا نیز همانند این، توسط مردان سفیدپوست ثروتمند کنترل میشد و بر شیسازی از زنان مبتنی بود—پروژه اول مارک زاکربرگ، فیسمیش، از کاربران میخواست تا جذابیت دانشآموزان زن را رتبهبندی کنند، که پیشزمینه فیسبوک بود. زنان رنگینپوست، از جمله انجمنهای Fuerza Latina و زنان سیاهپوست هاروارد، در اوایل هشدارهای جدی دادند ولی نادیده گرفته شدند.
رشد سریع فیسبوک، آسیبهای اجتماعی چون تفرقه در دمکراسی و تاثیرات منفی بر سلامت روان دختران را به همراه داشت، که در شعار اولیه زاکربرگ خلاصه میشد: «با سرعت حرکت کن و چیزها را بشکن». وقتی سوءاستفاده در این پلتفرمها آشکار شد، شرکتها آنقدر درگیر و سودآور بودند که نتوانستند اصلاح کنند، و سیاستمداران تحت تاثیر لابیگری فناوری، نتوانستند اقدام موثری انجام دهند. پیامدهای این کوتاهیها فاجعهبار بوده است: مرگ زنان جوان بر اثر خودکشی پس از آزار سایبری جنسی، کنارهگیری بسیاری از سیاستمداران زن به دلیل سوءاستفادههای آنلاین، و میلیونها نفر که تهدید به تجاوز و مرگ، هک اطلاعات، تعقیب و آزارهای نژادپرستانه و ناروا را تحمل میکنند. ما در مقابل این بحران با شبکههای اجتماعی شکست خوردیم و خطر تکرار تاریخ در مقیاس وسیعتر با هوش مصنوعی وجود دارد. پیتر وانگ، همبنیانگذار اناکوندا، از شکستهای جامعه در تنظیم فناوری طی دههها سخن میگوید، و هوش مصنوعی در اینجا به عنوان «AI بیهوش» و ملاقات اول شکستخورده توصیف میکند. زنان و گروههای حاشیهای اغلب به خودسانسوری، استفاده از نام مستعار و سکوت رو میآورند تا با آزارهای آنلاین مقابله کنند، عادتهایی که در فضای هوش مصنوعی نیز منتقل خواهند شد. مطالعهای در سال ۲۰۲۰ توسط اکونومیست نشان داد که نزدیک به ۹۰ درصد از زنان به دلیل تهدیدها و سوءاستفادهها محدودیتهایی در فعالیت آنلاین خود قائل هستند، که باعث ایجاد نابرابری در استفاده از هوش مصنوعی شده است: ۷۱ درصد از مردان ۱۸ تا ۲۴ ساله هفتهای چندبار از هوش مصنوعی استفاده میکنند، در حالی که فقط ۵۹ درصد از زنان همین کار را انجام میدهند. با اینکه مردان همچنان کاربران غالب هستند، طراحیهای هوش مصنوعی تمایل دارد تا نیازها و ترجیحات آنان را منعکس کند. پس کنار گذاشتن هوش مصنوعی راه حل نیست. بلکه باید مقررات و تدابیر امنیتی در مراحل طراحی هوش مصنوعی قبل از عرضه عمومی در نظر گرفته شود، همانند استانداردهای مورد استفاده در سایر صنایع. لیلا R برانو، آن زمان رئیس Fuerza Latina، در سال ۲۰۰۳ سعی داشت خطرات فیسمیش را هشدار دهد اما مورد توجه قرار نگرفت. امیدواریم رهبران سیاسی این بار گوش دهند. خطرات هوش مصنوعی دیگر داستانهای تخیلی آیندهنگرانه نیستند، بلکه آسیبهای واقعی هستند که در حال حاضر زنان و دختران را تحت تاثیر قرار میدهند. شناخت این واقعیت میتواند منجر به تلاشهایی برای شکلدادن فناوری متفاوت شود. لورا بیتس، مؤسس پروژه روزانهتغییرات جنسی و نویسنده کتاب «عصر جدیدِ تبعیض جنسیتی: چگونه انقلاب هوش مصنوعی misogyny را بازتعریف میکند»، به این مسائل حیاتی اشاره میکند. منابع پشتیبانی شامل مرکز بحران تجاوز در بریتانیا (0808 802 9999)، Rainn در آمریکا (800-656-4673)، و ۱۸۰۰Respect در استرالیا (1800 737 732) است. برای پیشگیری از خودکشی، با سامریترن در بریتانیا و ایرلند (116 123)، خط کمک به خودکشی ملی در آمریکا (988)، یا Lifeline در استرالیا (13 11 14) تماس بگیرید. خطهای بینالمللی در ibiblio. org/rcip/internl. html و befrienders. org در دسترس هستند.
Brief news summary
جامعه با سرعت به سمت آیندهای مبتنی بر هوش مصنوعی در حال پیشرفت است بدون اینکه حواشی و محافظتهای لازم در نظر گرفته شده باشد، و در معرض تکرار اشتباهات گذشته در شبکههای اجتماعی قرار دارد. سرمایهگذاری و رقابت جهانی سرعت توسعه هوش مصنوعی را افزایش میدهد، که اغلب از اخلاق و دسترسی عادلانه غافل میشود. در حالی که هوش مصنوعی پتانسیل وسیعی دارد، اما همچنین به تقویت misogyny و سوءاستفاده دامن میزند، همانطور که در پلتفرمهایی مانند Chub AI که محتوای مضر را امکانپذیر میسازند و استریوتایپها را تقویت میکنند، دیده میشود. سوءاستفاده از هوش مصنوعی در تصاویر ساختگی و رباتهای جنسی نگرانکننده مشخص است، در حالی که هوش مصنوعی تولیدکننده اغلب نژادپرستی و جنسیتگرایی را تشدید میکند. زنان و گروههای حاشیهنشین با آزارهای اینترنتی شدیدی مواجه هستند، که بسیاری را وادار به سانسور خود میکند و مشارکت آنان در حوزه هوش مصنوعی را محدود میسازد، که این امر توسعه فناوری را به سمت علایق مردان سوق میدهد و نابرابری را تداوم میبخشد. با نگاهی به اوایل شبکههای اجتماعی، زمانی که هشدارهای مربوط به سوءاستفاده نادیده گرفته میشد، نیاز فوری به اقدامات سیاسی برای تنظیم هوش مصنوعی به شکل مسئولانه وجود دارد. اجرای محافظتها در حال حاضر ضروری است تا از آسیبهای بیسابقهای که ممکن است این فناوری به جامعه و بهخصوص زندگی زنان وارد کند، جلوگیری شود.
AI-powered Lead Generation in Social Media
and Search Engines
Let AI take control and automatically generate leads for you!

I'm your Content Manager, ready to handle your first test assignment
Learn how AI can help your business.
Let’s talk!

گوگل فناوری آیپییو Ironwood برای استنتاج هوش مص…
گوگل آخرین پیشرفت خود در حوزه سختافزار هوش مصنوعی را رونمایی کرد: TPU آیتروود، پیشرفتهترین شتابدهنده هوش مصنوعی سفارشی این شرکت تا کنون.

فراتر از سر و صدا: جستوجوی آیندهی ملموس بلاکچین
چشمانداز بلاکچین فراتر از حدس و گمانهای اولیه رسیده و به حوزهای نیازمند رهبری آیندهنگر تبدیل شده است که نوآوریهای پیشرفته را با کاربری واقعی همراستا میسازد.

هوش مصنوعی در سرگرمیها: ایجاد تجربیات واقعیت مجا…
هوش مصنوعی در حال تحول صنعت سرگرمی است و تجربههای واقعیت مجازی (VR) را به طور قابل توجهی بهبود میبخشد.

بلوکچین وظیفه ثبت سوابق املاک بزرگ در نیوجرسی را…
یکی از بزرگترین شهرستانهای ایالات متحده نقش مهمی برای بلاکچین تعیین میکند: مدیریت سوابق املاک و مستغلات.

کوینگ اولین تبلیغ تلویزیونی کاملاً ساخته شده توسط …
کواین، شرکت کارت اعتباری متمرکز بر مصرفکنندگان محافظهکار، اولین تبلیغات تلویزیونی ملی کاملاً تولید شده توسط هوش مصنوعی در صنعت خدمات مالی را راهاندازی کرده است.

بلاکچین بیتزیرو، که توسط مستر واندرولد پشتیبانی…
با ادعای «ترکیب مالکیت داراییها، انرژی تجدیدپذیر کمهزینه، و بهینهسازی استراتژیک سختافزار ماینینگ»، این شرکت اعلام میکند که «مدلی توسعه داده است که سودآوری آن برای هر واحد درآمد نسبت به ماینرهای سنتی بیشتر است، حتی در شرایط پس-هاولینگ

رویداد AI+ برجستهترین تأثیرات تحولآفرین هوش مصن…
در اجلاس AI+ که اخیراً در نیویورک برگزار شد، کارشناسان و رهبران صنعت گرد هم آمدند تا تأثیر سریعالانتشار هوش مصنوعی را در بخشهای مختلف بررسی کنند.