
افزایش سانسور با هوش مصنوعی: یک چالش جهانی
هوش مصنوعی در حال ایجاد یک بحران اخلاقی جدی در زمینه سانسور الگوریتمی است. بیتوجهی به این موضوع میتواند منجر به کنترل مکالمات جهانی توسط دولتها و شرکتهای بزرگ شود. فناوری و صنعت هوش مصنوعی رشد چشمگیری داشتهاند و پتانسیل سانسور آن به طور فزایندهای افزایش مییابد، به طوری که قدرت محاسباتی سیستمهای هوش مصنوعی برای آموزش، هر یک تا دو سال، ده برابر میشود.
نقش دولتها و ابزارهای هوش مصنوعی در محدودیت دسترسی
هوش مصنوعی قادر است میلیونها نقطه داده را در چند ثانیه پردازش کند و از طریق تعدیل محتوا و کنترل اطلاعات، به سانسور بپردازد. مدلهای بزرگ زبانی (LLM) و سیستمهای پیشنهاد محتوا میتوانند به صورت گسترده اطلاعات را فیلتر یا سرکوب کنند. سازمان «فریدم هاوس» در سال ۲۰۲۳ تأکید کرد که هوش مصنوعی، سانسور دولتی را تقویت کرده است. چین به عنوان نمونهای برجسته، استراتژی سانسور را در ابزارهای هوش مصنوعی مولد خود گنجانده و از چتباتها میخواهد محتوای مورد نظر حزب کمونیست را مسدود کنند. مدلهای هوش مصنوعی چینی حتی موضوعات حساس مانند کشتار میدان تیانآنمن را سانسور میکنند تا روایت دولتی را ترویج دهند.
پیامدهای گسترده سانسور هوش مصنوعی و نگرانیهای عمومی
گزارشها نشان میدهند که آزادی اینترنت جهانی برای سیزدهمین سال متوالی کاهش یافته و بخش قابل توجهی از این افت به هوش مصنوعی نسبت داده شده است. ۲۲ کشور جهان قوانینی دارند که شرکتهای رسانههای اجتماعی را ملزم به استفاده از سیستمهای خودکار تعدیل محتوا میکنند که میتواند برای سرکوب مخالفان و تظاهرات به کار رود. دولتهایی مانند میانمار، ایران، بلاروس و نیکاراگوئه از هوش مصنوعی برای نظارت بر فعالیتهای آنلاین و سرکوب مخالفان استفاده کردهاند. اطلاعات نادرست و دیپفیکهای تولید شده توسط هوش مصنوعی نیز میتوانند اعتماد عمومی به فرآیندهای دموکراتیک را تضعیف کنند. نظرسنجیها نیز حاکی از نگرانی گسترده عمومی در مورد اطلاعات نادرست مبتنی بر هوش مصنوعی و پیامدهای آن برای آزادی بیان است.
افزایش کاربرد هوش مصنوعی در مکانیسمهای کنترل محتوا، پیشبینی میشود استراتژیهای عملیاتی و هزینههای تطبیقپذیری پلتفرمهای دیجیتال جهانی و ارائهدهندگان محتوا را تحت تأثیر قرار دهد.