عصر سرکوب دیجیتال: هوش مصنوعی شکل سرکوب را عوض کرده است

کد خبر: 941578

اوایل سال ۲۰۱۸ یکی از نیروهای امنیتی اصلی مالزی اعلامیه ای تکان دهنده منتشر کرد. «نیروهای امدادی» که شاخه ای از تعاونی پلیس سلطنتی مالزی است، قراردادی با شرکت فناوری ییتو چین امضا کرد تا ماموران خود را به فناوری تشخیص چهره این شرکت مجهز کند.

عصر سرکوب دیجیتال: هوش مصنوعی شکل سرکوب را عوض کرده است

استیون فلدستین/ استاد علوم سیاسی دانشگاه بوآ امریکا:

اوایل سال ۲۰۱۸ یکی از نیروهای امنیتی اصلی مالزی اعلامیه ای تکان دهنده منتشر کرد. «نیروهای امدادی» که شاخه ای از تعاونی پلیس سلطنتی مالزی است، قراردادی با شرکت فناوری ییتو چین امضا کرد تا ماموران خود را به فناوری تشخیص چهره این شرکت مجهز کند. حالا مقامات امنیتی مالزی قادر می بودند در چند ثانیه تصاویر دوربین های پخش زنده را با تصاویر پایگاه داده های خود مقایسه کنند. رئیس نیروهای امدادی نمی گفت که استفاده از فناوری هوش مصنوعی گام بزرگ رو به جلوی در تلاش برای بهبود امنیت ملی است. او همچنین اشاره داشت که سازمان تحت امرش در نهایت سیستم دوربین های خود را هم بهبود خواهد بخشید تا بتواند به توانایی تشخیص آنی چهره و هشدار سریع حضور مجرمان فهرست های پلیس دست یابد. سنگاپور هم بلافاصله پیرو همسایه اش شد و اعلام کرد که قصد دارد یک پروژه عظیم نصب دوربین را به صورت آزمایشی اجرا کند که هدفش تجهز کردن تک تک د تیرهای چراغ شهري به دوربین هایی با فناوری تشخیص چهره خواهد بود. هدف این پروژه ظاهرا تسهیل «تحلیل جمعیتی» و کمک به عملیات و مبارزه با تروریسم بود. برخی مدافعان حریم خصوصی هشدار دادند که این فناوری به دولت ها اجازه می دهد به راحتی مخالفان سیاسی را هدف بگیرند و آزادی بیان را سرکوب کنند، اما این اعتراض ها ثمری را نداشت. در سوی دیگر، در آوریل ۲۰۱۸ شرکت استارتاپی کلاودواک که مقرش در شهر گو انگ ژوی چین است و در زمینه فناوری هوش مصنوعی فعالیت می کنند، قراردادی بازیمبابوه امضا کرد تا به نیروهای امنیت داخلی آن کشور فناوری تشخیص چهره بفروشد و یک پایگاه داده تصویری در سطح ملی برای شان بسازد. کلاودواک پیش از این به نیروهای پلیس منطقه زینجیانگ چین هم، که یکی از سرکوب شده ترین مناطق جهان است. فناوری ، تشخیص چهره و تشخیص هویت فروخته بود. فناوری کلاودواک به تشدید سرکوب سیاسی در زیمبابوه کمک خواهد کرد. در کشوری که مقاماتش اخیرا اعتراضات پس از انتخابات را با خشونت سرکوب را کرده اند. این ها مثال هایی تک افتاده و استثنایی نیستند. در سراسر جهان، سیستم های هوش مصنوعی آرام آرام نشان می دهند که بالقوه توان

تقویت رژیم های سرکوبگر و تغییر شکل رابطة از شهروندان و حکومت را دارند، و از این از طریق به موج بازگشت استبداد در جهان کمک و آن را تشدید و تسریع می کنند جمهوری خلق چین پیشگام تامین رژیم های استبدادی و غیر لیبرال با فناوری هوش مصنوعی است و این به یکی از مهم ترین اجزای استراتژی ژئوپولیتیک چینی ها تبدیل شده است.

هوش مصنوعی مفهوم فرّاری است و به زحمت می شود تعریفی دقیق از آن داد. یک تعریف و تلقی رایج این است که هدف هوش مصنوعی «هوشمند کردن ماشین ها»ست؛ مفهومی که اغلب با ارجاع به هوش انسانی توضیح داده می شود. بعضی هم، باشک در این مقایسه ها توضیح داده اند که جوهر هوش مصنوعی توانایی کامپیوتر در انجام دادن تعمیم های درست در زمان کم و بر اساس داده های محدود است. این مقاله کاری با این اختلاف نظرها ندارد و تمرکزش را بر اثرات عملی این فناوری های جدید گذاشته است؛ فناوری هایی که به مدد سه تحول بزرگ وارد میدان شده و تکثیر شده اند: ۱) دسترسی بیشتر به کلان داده ها از منابع دولتی و خصوصی ۲) بهبود یادگیری ماشینی و رویکردهای الگوریتمی؛ و ۳) پیشرفت پردازش کامپیوتری. (یادگیری ماشینی که می شود در کارهای مختلف و متنوعی، از بردن بازی ورق تا تشخیص پاتوژنها، از آن استفاده کرد یک فرایند آماری تکرار شونده است که در آن مجموعه ای از داده ها در اختیار هوش مصنوعی گذاشته میشود و بعد هوش مصنوعی سعی می کند قاعده ای با ساز و کاری بسازد که این داده ها را توضیح دهد یا داده های آتی را پیش بینی کند.) اهمیت این فناوری برای حاکمان مستبد جهان و مخالفان دموکراتیک آن ها روز به روز آشکارتر می شود. چرا که در سال های اخیر، رژیم های استبدادی با به کار بستن سیستم های پیشرفته محاسبه کامپیوتری به داده های عظیم مرتب نشده ای که در فضای آنلاین در دسترس هستند، و نیز داده های دوربین های مختلف شهری و منابع دیگر نظارت و مراقبت به س طوح جدیدی از کنترل و دستکاری و فریب دست یافته اند. از فناوری های تشخیص چهره که تصاویر زنده را با داده های پیشین مقایسه می کنند، تا الگوریتم هایی که در رسانه های اجتماعی جست وجو می کنند تا نشانه های فعالیت اپوزیسیون را بیایند. این نوآوری ها ابزار مفیدی برای حاکمان و رژیم های مستبدی بوده اند که می کوشند گفتمان دایر در جامعه را شکل دهند و صدای اپوزیسیون را خفه کنند. هوش مصنوعی تنها فناوری ای نیست که اقتدارگرایان با اهداف سیاسی از آن بهره گرفته اند. فناوری های ارتباطی و اطلاعاتی دیگری هم، که معمولا همراه با هوش مصنوعی و در کنار آن به کار گرفته می شوند همان قدر اثرات محتملاً مخرب دارند. این فناوری ها شامل بایومتریکس پیشرفته هک سایبری دولتی، و تکنیک های دستکاری اطلاعات است. این مقاله به دو دلیل بر اثرات سرکوبگر فناوری هوش مصنوعی تأکید دارد. نخست این که هوش مصنوعی توانایی بالاتری است که کارکردهای فناوری های دیگر را به طرق جدید حیرت انگیزی درهم می آمیزد و بهبود می بخشد. دوم این که درک رایج از اثر سیاستی فناوری هوش مصنوعی همچنان بسیار محدود است و سیاستگذاران هنوز باید مدت ها در اثرات و پیامدهای سرکوبگر هوش مصنوعی تفکر جدی کنند.

1-چرا هوش مصنوعی برای رهبران مستبد موهبتی است؟

اگرچه هوش مصنوعی پتانسیل کمک به همه دولت های مختلف را دارد، برای رژیم های مستبد و غیر لیبرال فواید خاص و ویژه ای دارد. به رغم تنوع گسترده انواع رژیم های غیردموکراتیک از دیکتاتوری های تک حزبی گرفته تا رژیم های دورگه یا شبه استبدادی، تا دیکتاتوری های نظامی و استبدادهای شخصی اغلب این حکومت ها قدرت را از طریق ترکیبی از اعمال زور و اجبار (تهدید و ارعاب رقبا) و هم دست سازی (رشوه یا طرق دیگر ترغیب عوامل سیاسی به همدستی با ائتلاف حاکم) برای خود حفظ می کنند حاکمی که قصد سرکوب دارد باید روی نیروهای امنیتی حساب کند که تدابیر سرکوبگرانه لازم را اجرا کنند اما در این جادو مشکل پیش می آید، نخست، همچو سرکوبی به منابع انسانی نیاز دارد و هزینه بر است، دوم، منابعی که به عوامل سرکوبگر رژیم اجازه می دهند اپوزیسیون را سرکوب کنند، ایشان را قادر به اقدام علیه خود رژیم می کنند و به عبارت دیگر، هرچه رژیم بیشتر و بیشتر روی نیروهای پلیس یا سربازان تکیه می کند، در برابر فشار یا حتا قیام همان ها آسیب پذیرتر می شود.

این جاست که مزیت فناوری هوش مصنوعی آشکار می شود. حاکمان مستبد، به جای تکیه به زیرساخت های عظیم نیروهای امنیتی، برای نظارت، آزار و اذیت و ارعاب مخالفان می توانند با استفاده از هوش مصنوعی به یک توان دیجیتال دست یابند که هم کم هزینه تر است و هم از دغدغه دومی که به آن اشاره کردیم، می کاهد. در واقع، پیشرفته ترین عملیات نظارت و مراقبت به منابع و عوامل انسانی نسبتا کمتری نیاز دارد و بسیاری از کارکردها به جای انسان ها به هوش مصنوعی خودکار سپرده می شود. علاوه بر این، در مقایسه با ماموران انسانی که زمان و توجه محدودی دارند، سیستم های هوش مصنوعی می توانند شبکه وسیع تری بسازند و به سبب این حضور گسترده و همه جایی هوش مصنوعی، این سیستم ها می توانند حتا در غیاب خشونت فیزیکی ادامه دار، «اثر ارعابی» چشمگیری داشته باشند. اگر شهروندان بدانند که هیات های هوش مصنوعی همه ارتباطات آن ها را تحت نظر دارند و این که الگوریتم ها پیغام های نارضایتی آن ها را تشخیص داده و به مقامات گزارش خواهند کرد، بیش از پیش انگیزه همرنگی و تسلیم خواهند داشت، و این سادگی ظریف سرکوب هوش مصنوعی است. چرا که در مقایسه با سرکوب معمول عوامل انسانی بسیار کمتری نیاز دارد، آزار و اذیت فیزیکی کم تری دارد، و هزینه اش بسیار کمتر است، و از طرف دیگر می تواند تأثیر وسیع تر و نظام مندتری داشته باشد.

پیش از ظهور سرکوب دیجیتال، چشم انداز استبداد معاصر به طرق قابل ملاحظه ای در حال تغییر بود. نخست، روند از بین رفتن نهادها و هنجارهای دموکراتیک در سراسر جهان سرعت گرفته بود. چنان که سال ۲۰۱۸ تخمین زده شد حدود 5/2 میلیارد نفر در کشورهایی زندگی می کنند که از «روند جهانی گرایش به استبداد» تأثیر پذیرفته اند. دوم، نحوه خروج حاکمان مستند از قدرت هم در حال تغییر بود. از سال ۱۹۴۶ تا ۱۹۸۸، کودتا رایج ترین شیوه برکناری حاکمان مستبد بود و ۴۸۶ درصد از موارد خروج مستبدان از قدرت به این طریق بود. اما در دوره پس از جنگ سرد، موارد براندازی ناشی از عوامل بیرون از رژیم، از موارد کودتا سبقت گرفت و از سال ۱۹۸۹ تا ۲۰۱۷ رایج ترین دلیل برکناری دیکتاتورها قیام مردمی و شکست در انتخابات بود. برکناری با کودتا به شدت کاهش یافت و به سیزده درصد کل برکناری ها رسید. (در واقع در این دوره حتا برکناری های ناشی از جنگ داخلی هم کمی بیشتر از موارد برکناری با کودتا بوده است.) این نشان می دهد که امروز بزرگترین تهدید برای بقای استبداد نه از جانب شورش هایی به رهبری کسانی از داخل خود حکومت، که از جانب مردمان ناراضی در خیابان یا پای صندوق رأی است. معنای این تغییر برای دیکتاتورهایی که می خواهند بر سر قدرت بمانند چون روز روشن است: منابع را به سمت کنترل جنبش های مدنی مردمی هدایت کن و مهارت دستکاری و تقلب در انتخابات را تقویت کن، در این دو حوزه، هوش مصنوعی مزیت حیاتی دارد. کافی است نگاهی به این سه سناریو بیندازیم تا اهمیت هوش مصنوعی در حل بعضی از مهم ترین چالش های پیش روی مسبندان امروز آشکار شود.

سناریو 1:

پاییدن نارضایتی های مردمی و کنترل اعتراضات.

در سناریوی اول، یک رژیم تک حزبی حاکم با نارضایتی فزاینده نسبت به رکود اقتصادی و سرکوب سیاسی مواجه می شود. در یک سال گذشته به طور مرتب اعتراضات خودجوشی رخ داده، که خاطر حاکمان سیاسی را برآشفته است. رژیم می خواهد گام های محکمی در جهت به تاخیر انداختن بسیج سیاسی مردمی بردارد، اما منابع محدودش اجازه نمی دهند که تاکتیک دستگیری های گسترده را به کار ببندد. از طرفی هم از این بیم دارد که سرکوب علنی خشم مردم را بیش از پیش تحریک کند. بنابراین، یک استراتژی دوبخشی را به کار می گیرد: ۱) شناسایی، تحت نظر گرفتن و دستگیری گزینشی رهبران اپوزیسیون و چهره های اصلی هوادار آن ها؛ و ۲) تحت نظر گرفتن دقیق اجتماعاتی که ممکن است به راهپیمایی های گسترده بینجامند، و همزمان آماده باش نگه داشتن نیروهایش تا هر اعتراض و تظاهراتی را پیش از آن که بزرگ شود در هم بکوبند. رژیم، برای پیاده کردن این استراتژی، ابتدا باید رهبران مخالفان و چهره های اصلی هوادارشان را شناسایی کند. کار از تحلیل شبکه های اجتماعی و ارتباطات و تماس های شخصی آغاز می شود و از آن جا که گروه های چت و گفت و گو تنظیمات سفت و سختی برای حفظ حریم خصوصی دارند یا ارتباطات را به شکل رمزی جابه جا می کنند تا جلوی نفوذ و شنود دولت ها را بگیرند، مقامات احتمالا دست به دامان بنگاه های بین المللی ای مثل فين فيشر یا گروه ان. اس.او می شوند که کارشان طراحی نرم افزارهایی برای نفوذ در این گروه های بسته است. البته راه حل ارزان تری هم هست و می توانند برای این کار یک هکر بین المللی استخدام کنند. این بررسی و تحلیل داده ها به آن ها کمک می کند که الگوها را شناسایی، افراد موردنظر را پیدا، و مکالمات مهم را ردگیری و شنود کنند. پس از آن که پروفایل هایی برای فعالان سیاسی تهیه شد و شبکه های مدنی و اپوزیسیون نقشه برداری شدند، اطلاعات به یک الگوریتم هوش مصنوعی سپرده می شود تا در پایگاه های مختلف باجه جستوجو کند و کسانی را که متمایل به اعتراض سیاسی هستند شناسایی کند. این الگوریتم کمک می کند مسائلی را که موجب نارضایتی مردم شده و خشم آن ها را برانگیخته اند شناسایی کند، و گفت و گوهایی را که خبر از اعتراضات قریب الوقوع می دهند پیدا کند. حالا مجهز به این اطلاعات ارزشمند می توان شروع به دستگیری های هدفمند و بازداشت های پیشگیرانه کرد. حتا اگر هم به رغم همه این تدابیر اعتراضات در بگیرد. هوش مصنوعی می تواند در مهار و سرکوب کمک کند وی چت که از محبوب ترین پلتفرم های گفت و گوی چینی است. همین حالا فناوری ای دارد که نقشه های حرارتی ای ترسیم می کند که نشان می دهند کجا تراکم جمعیت وجود دارد. با این که در فضاهای شهری سیستم های تشخیص چهره نصب کند(مثل آن طرح تیرهای چراغ سنگاپور)، سیستم های هوش مصنوعی می توانند با استفاده از این دوربین ها تراکم جمعیت را بسنجند. افرادی را که پلاکارد سیاسی با سابقه اعتراض دارند تشخیص دهند و چهره های شناخته شده معترضان را ردگیری و تعقیب کنند. در نهایت، هوش مصنوعی توانایی سانسور گزینشی و انتشار اطلاعات کذب را هم تقویت می کند، و حکومت می تواند با این تدابیر ایجاد سردرگمی کند و اعتراضات را در نطفه و از درون متلاشی کند. این می تواند در قالب حمله های فلج کننده به وبسایت ها و پلتفرم های معترضان (تضعیف توانایی سازماندهی معترضان و سانسور اطلاعات حیاتی) با کارزارهای دستکاری اطلاعات و دروغ پراکنی (انتشار سیلی از پست های گمراه کننده برای کمرنگ ساختن و گم کردن پیام مخالفان و لبریز کردن کانال های اطلاعاتی با نویز اطلاعاتی و اطلاعات به دردنخور) را به خود بگیرد.

سناریو 2

مهار یک استان یاغی.

در این مثال، یک رژیم استبدادی با احتمال بی ثباتی در یک استان حاشیه ای رو به روست؛ استانی که عمده جمعیتش را یک اقلیت قومی تشکیل می دهد. مشروعیت رژیم در این استان همیشه اندک و متزلزل بوده است و این منطقه مرتبا درگیر ناآرامی و اعتراضات شده است. اخیرا دولت مرکزی تصمیم گرفته است که آشوب سیاسی را از طریق سرکوب شدید، و با ترکیبی از تاکتیک های سنتی و فناوری های جدید فروبنشاند. این سناریو شباهت زیادی به وضعیت کنونی منطقه شین جیانگ دارد، و تلاش های ادامه دار دولت مرکزی چین برای فرونشاندن نارضایتی ها در این منطقه حکایت از پتانسیل عظیم هوش مصنوعی در سرکوب دارد. خاصه وقتی که همراه با تاکتیک های قدیمی تر سرکوب به کار گرفته شود. نخست، دولت چین به شدت از تدابیر متعارف و معمول سرکوب فیزیکی استفاده می کند. مقامات، شبکه ای گسترده از اردوگاه های بازپروری تأسیس کرده اند که گفته می شود یک میلیون یا بیشتر زندانی مسلمان را در خود جای داده اند که بیشترشان از اقلیت اویغور هستند. این بخش بزرگی از جمعیت ۲۱ میلیون نفری شین جیانگ است در اردوگاه های باز پروری برنامه های فشرده شست وشوی مغزی در جریان است؛ از جمله تمرین های خود انتقادی و تکرار جملاتی مثل «ما در برابر افراطی گری می ایستیم، ما در برابر جدایی طلبی می ایستیم، ما در برابر تروریسم می ایستیم». زندانیان را در اتاق های دربسته و در شرایط رقت انگیزی نگه می دارند و انضباط سفت و سخت و بی رحمانه ای در اردوگاه ها حاکم است اما مقامات چین در کنار این سرکوب فیزیکی شدید، رویکرد جامع تری را هم در پیش گرفته اند که بر فناوری پیشرفته تکیه دارد. آن ها یک «مدیریت اجتماعی شبکه مانند» را به اجرا گذاشته اند که جوامع را به نواحی ژئومتریکی تقسیم می کند تا مأموران بتوانند به طور نظام مند همه فعالیت ها را با کمک فناوری های جدید تحت نظر بگیرند. دولت چین در مناطق هدفش پاسگاه های پلیسی در هر چند صد متر برپا کرده است که ده ها هزار مامور در آن ها مستقر هستند. علاوه بر این، مقامات چینی این نیروها را به امکانات پیشرفته شنود و نظارت مجهز کرده اند، و سیستم هایی که قادر به تحلیل کلان داده ها هستند مقامات شین جیانگ یک «پلتفرم مشترک یکپارچه عملیاتی» ساخته اند که از منابع مختلف، مثل دوربین های مداربسته تلویزیونی (اغلب مجهز به نرم افزار تشخیص چهره) و «شنود کنندگان وای فای» که اطلاعات لپ تاپ ها و گوشی های هوشمند را می دزدند، اطلاعات جمع می کند این پلتفرم از پلاک خودروها و نیز کارت های شناسایی ای که در پاسگاه های پلیس کنترل می شوند و حتا سوابق درمانی بانکی و حقوقی افراد، اطلاعات جمع می کند. با این که هنوز معلوم نیست این پلتفرم چقدر با برنامه های دیگر جمع آوری اطلاعات چین در ارتباط است، اما شایان توجه است که مقامات چینی به طور روزافزون از دستگاه های اسکن دستی برای نفوذ در گوشی های هوشمند و بیرون کشیدن اطلاعات تماس ها و شماره های ذخیره شده، نوشته های شبکه های اجتماعی و چَت ها، ایمیل ها، عکس ها و ویدیوها، استفاده می کنند. علاوه بر این، چین اخیرا یک پایگاه داده اجباری دی ان ای ایجاد کرده است که هدفش نمونه گیری از همه شهروندان ۱۲ تا ۶۵ ساله در شین جیانگ است. بعد از آن که همه این اطلاعات به کامپیوترهای پلتفرم مشترک یکپارچه عملیاتی سپرده شد، الگوریتم ها در انبوه اطلاعات به دنبال الگوهای رفتار تهدیدآمیز می گردند. طراحی و ساخت این سیستم ها ارزان نیست. بودجه ای که مقامات شین جیانگ برای «پروژه های سرمایه گذاری مرتبط با امنیت» تخصيص داده اند از ۲۷ میلیون دلار در سال ۲۰۱۵ به یک میلیارد دلار در سه ماهه نخست ۲۰۱۷ افزایش یافته است. اما این رقم در مقایسه با هزینه ساخت یک سیستم مشابه نظارت و سرکوب بدون استفاده از فناوری هوش مصنوعی، ناچیز است.

سناریو ۳:

استفاده از اطلاعات کذب برای مشروعیت زدایی از مخالفان

در سناریوی سوم، حکومت استبدادی به تبعیت از قانون اساسی انتخاباتی ملی برگزار می کند اما قصد دارد مثل همیشه میدان مبارزه انتخاباتی را به نفع خودش محدود کند. حالا او می خواهد استراتژی های جدیدی را هم به کار بگیرد تا پیروزی اش بر اپوزیسیون تضمین شود. فناوری هوش مصنوعی از چند طریق می تواند به کار بیاید، خاصه در جبهه انتشار اطلاعات کذب نخست، هوش مصنوعی می تواند اطلاعات موجود را دستکاری کند و پیام مورد نظر را لابه لای آن قرار دهد. مثلا، شبکه های اجتماعی از الگوریتم های تبلیغ محتوایی استفاده می کنند که کاربران را به سمت نوشته های خاصی هدایت می کنند و آن ها را معتاد به اخبار و تحلیل های شبکه های اجتماعی می کنند. مقامات دولتی می توانند از این الگوریتم ها سوء استفاده کنند و با استفاده از کارگران سایبری، بات ها و ترول ها، پیام های مطلوب خود را به خورد کاربران بدهند. هوش مصنوعی می تواند به شناسایی «اینفلوئنسر»های اصلی شبکه های اجتماعی کمک کند تا با رشوه یا ارعاب، این افراد را هم دست کنند و آن ها اطلاعات کذب منتشر کنند. فناوری های جدید هوش مصنوعی می توانند راه انداختن کارزارهای خودکار و به شدت شخصی شده دروغ پراکنی را هم آسان تر کنند - کارزارهایی که افراد یا گروه های مشخصی را هدف می گیرند - مثل آنچه احتمالا در سال ۲۰۱۶ و در تلاش روسیه برای تأثیرگذاری در انتخابات آمریکا دیدیم، یا در حملات ارتش ترول عربستان سعودی که مخالفانی مثل جمال خاشقچی را هدف می گیرند در سال های اخیر، روند روبه رشدی از انتشار اطلاعات کذب از این طریق و طرق دیگر وجود داشته است که هدفش تحریک هواداران با دلسرد کردن مخالفان بوده، اما علاوه بر این، هوش مصنوعی روز به روز در جعل صوت و تصویر هم تواناتر می شود یک تکنیک جدید که قابلیتش در تولید اطلاعات کذب سیاست گذاران را به هراس انداخته، استفاده از شبکه های رقیب مولد است که سیستم های مختلف هوش مصنوعی را به جان هم می اندازد. در این شبکه ها نخست یک ماشین، تصویر یا صوت یا اطلاعات دیگری را جعل می کند و بعد ماشین دیگری سعی می کند ایرادات آن را بگیرد و جعل آن را آشکار کند، نتیجه موشکافی سیستم دوم یه سیستم اول کمک می کند که نمونه های واقعی تر و ظریف تری بسازد. در نهایت، این به مهارت جعل شگرفی می انجامد که حتا پیشرفته ترین سیستم های هوش مصنوعی هم نمی توانند جعلی بودن آن را تشخیص دهند. این فناوری به حاکمان مستند اجازه می دهد که ویدیوهای هدف داری بسازند که حریفان و مخالفان را در حال ایراد سخنان کذب و تحریک آمیز یا در حال انجام کارهای شرم آمیز نشان دهند.

2- آیا دموکراسی ها از هوش مصنوعی باید بترسند؟

رواج استفاده از فناوری هوش مصنوعی و افزایش روزافزون سرکوب دیجیتال چالش های سیاستی جدی ای برای دموکراسی ها ایجاد کرده است. یک مسئله اصلی این است که آیا ابزارهای هوش مصنوعی خود دموکراسی ها را سرکوبگرتر نخواهند کرد. مشخصا این که آیا وسوسه استفاده از پتانسیل نظارت هوش مصنوعی در نهایت بر اركان تضمین دموکراسی نخواهد چربید؟ تاریخ نشان داده است که باید نگران باشیم. در سال ۱۹۷۵ اخبار تکان دهنده سوء استفاده های جامعه اطلاعاتی آمریکا موجب شد که سنای آمریکا مجوز تأسیس کمیته چرچ را بدهد. گزارش شده بود که سیا در تلاش برای ترور رهبران خارجی بوده است و آژانس های اطلاعاتی دیگر امریکا هم شبکه های وسیع نظارت و جاسوسی داخلی ساخته اند تا بر فعالیت های فعالان حقوق مدنی، معترضان سیاسی و سازمان های بومیان آمریکا نظارت کنند و آن ها را هدف آزار و اذیت قرار دهند. کمیته چرچ، در گزارش نهایی خود، هشدار داده بود که «بارها و بارها، اصول قانون اساسی در مسیر عملی مجاز شمردن اهداف مطلوب به منظور مشروعیت بخشیدن به وسایل مقتضی، فدا شده اند.» بنابراین، به رغم سنت دیرین محافظت از حقوق فردی و تحديد اختیارات حکومت در امریکا، دولت همچنان توان و امکان آن را داشت که پا را از گلیمش درازتر کند.

سوء استفاده های عمدی آژانس های امنیت داخلی از هوش مصنوعی تنها در مسائل مرتبط با آزادی های مدنی نیست. سوگیری های پنهان و تبعیض شدیدتر در الگوریتم ها هم مایه نگرانی هستند. مثلا استفاده از هوش مصنوعی در پلیس و خدمات درمانی، می تواند نابرابری ها را تشدید کند و موجب اقدامات تبعیض آمیز شود با چنین اقداماتی را افزایش دهد. یک نمونه مشهور این سوگیری های پنهان در سال ۲۰۱۵ اتفاق افتاد، آن زمان که سیستم تشخیص و دسته بندی عکس گوگل تصاویر امریکایی های افریقایی تبار را در دسته «گوریل ها» گذاشت. مقصر اصلی در این ماجرا «داده های آموزشی»ای بود که برای «آموزش» الگوریتم در تشخیص چهره ها به کار رفته بود: تعداد چهره های سفید در این داده ها بسیار بیشتر از چهره های رنگین پوستان بود. این هم که فقط دو درصد از کارکنان «حرفه ای» گوگل افریقایی تبار هستند عامل مهمی بود، چرا که موجب شد تیم طراحی این سیستم نتوانند این مسئله را زودتر دریابند. تحقیقات بعدی هم نشان داد که تبعیض و تعصب های انسانی تأثیر زیادی بر کار سیستم های هوش مصنوعی دارند. مجله سایت در سال ۲۰۱۷ مقاله ای منتشر کرد که در آن نحوه انتقال تبعیض از داده ها به برنامه های یادگیری ماشینی شرح داده شده بود، برنامه آزمایشی این تحقیق در نهایت توصیفات مرتبط با خانواده، مثل «والدین» را به اسم زن ها نسبت می داد و واژه هایی مثل «حرفه ای» را به اسم مردها.

بخش قضایی یکی از نخستین بخش هایی بود که تحلیل پیش بینانه و پیشگیرانه مبتنی بر هوش مصنوعی را به کار گرفت، اما تحقیقات نشان داده است که در زمینه جرم و جنایت که احتمال دستگیری امریکایی های افریقایی تبار بسیار بیشتر از آمریکایی های سفید پوست بوده است. الگوریتم های ماشینی به ندرت این را در نظر می گیرند که ممکن است دلیل دستگیری های بیشتر در میان سیاه پوستان نگاه تبعیض آمیز پلیس باشد. در عوض، فرض اول الگوریتم ها این است که سیاه پوستان بیش از سفیدپوستان مستعد ارتکاب جرم هستند. این نتیجه گیری مشکوک اساس پیش بینی های بعدی این الگوریتم ها را می سازد و اصلی حیاتی را هویدا می کند. ماشین های هوش مصنوعی فقط به اندازه داده هایی که در آموزش شان به کار رفته کارایی دارند.

3- چینی شدن هوش مصنوعی به چه معناست؟

تصورش سخت نیست که دولت های لیبرال دموکراتیک از تکنولوژی هوش مصنوعی در جهت تحدید حقوق شهروندان شان بهره بگیرند اما خوشبختانه شهروندان دموکراسی های پیشرفته توانسته اند مقابل نظارت گسترده دولتی ایستادگی کنند، و قیود و موازنه های محکم و استواری هست که می توانند جلوی زیاده روی های دولت ها را بگیرند. با این که هیچ تضمینی نیست که هوش مصنوعی نظام های سیاسی دموکراتیک را تضعیف نکند، اما خطر این اتفاق چندان هم جدی نیست خطر بیشتر متوجه دموکراسی های شکننده با کشورهایی با گرایش های استبدادی است. در رژیم های در حال عقب گردی مثل لهستان، مجارستان یا فیلیپین پتانسیل سرکوب هوش مصنوعی می تواند به وخامت بیش تر اوضاع بینجامد. دولت های غیر لیبرال که با احتمال قیام مردمی مواجه هستند میل طبیعی بیشتری به استفاده از فناوری هایی دارند که می توانند در فرونشاندن نارضایتی های گسترده به آن ها کمک کنند.

چین، در کنار امریکا، پیشگام فناوری هوش مصنوعی در جهان است. برای چین هوش مصنوعی جزئی اساسی از سیستمی وسیع تر از کنترل است که حاکمیت حزب کمونیست را تقویت می کند. علاوه بر این، استفاده از توان هوش مصنوعی در حمایت از مستبدان دوست، به تحقق هدف استراتژیک کلان آن رژیم کمک می کند: تضعیف نظم لیبرال، و در عین حال دستیابی به هژمونی چینی در آسیا و افزایش نفوذ آن در سراسر جهان، در نتیجه، چینی ها هم سخت در تلاش هستند که هوش مصنوعی را توسعه دهند و به توانایی های جدیدی برسانند و هم این محصولات جدیدشان را بیرون از مرزها عرضه و بازاریابی می کنند. از سه جزء اصلی هوش مصنوعی داده های آموزشی برای یادگیری ماشینی، قدرت محاسبه و الگوریتم های قدرتمند - چین به وفور داده های آموزشی در اختیار دارد و الگوریتم هایش مدام بهتر و پیشرفته تر می شوند، اما توان سخت افزاری و ظرفیت صنعتی تولیدش از آمریکا عقب تر است. چین زیر بیرق طرح «ساخت چین، ۲۰۲۵» به دنبال آن است که با سرمایه گذاری های کلان، ظرفیت تولید چیپش را بالا ببرد و در صنایع پیشرفته پیشگام شود. کارشناسان هشدار داده اند که این طرح خبر از آن دارد که چین چندان میلی به پیوستن به صف اقتصادهای پیشرفته مبتنی بر فناوری، مثل آلمان امریکا، کره جنوبی و ژاپن ندارد، بلکه می خواهد یک تنه جای همه آن ها را بگیرد.» پیشرفت سریع استارت آپ چینی پیتون که در زمینه هوش مصنوعی فعالیت می کند، نشانه ای است از این بلند پروازی چین، بیتو را دو متخصص هوش مصنوعی چینی در سال ۲۰۱۲ به راه انداختند و فقط در شش سال این شرکت توانست از چند مرز فناوری عبور کند. پلتفرم «چشم سنجاقک» این شرکت حالا بیش از 8/1 میلیون عکس دارد و پیتو ادعا می کند که این سیستم فقط سه ثانیه زمان می خواهد تا فردی را در پایگاه داده هایش پیدا کند. در این پایگاه داده، داده های ملی چین هم هست، از جمله چیزی حدود ۳۲۰ میلیون عکس ورود و خروج در مرزهای کشور ارزش بیتو در سال ۲۰۱۸ به 4/2 میلیارد دلار رسید و این شرکت بیش از پانصد نفر را در جاهای مختلف، از شانگهای و سنگاپور تا سیلیکن وَلی امریکا، در استخدام خود دارد. از هر چیز مهم تر این که، الگوریتم های این شرکت واقعا درست و دقیق کار می کنند. چین فناوری های هوش مصنوعی خودش را به حکومت های مختلف در سراسر جهان می فروشد و نمونه های جالب توجه این پروژه ها از ساخت شبکه ای از «شهرهای امن» در پاکستان (شهرهایی با نظارت بسیار زیاد به وسیله فناوری) تا تأمین فناوری هوش مصنوعی و نرم افزارهای تشخیص چهره برای حاکمان مستبد آرژانتین، را در بر می گیرند. چین فرض را بر این گذاشته است که هر چه الگوی حکمرانی کشورهای بیشتری را با الگوی خودش هماهنگ و هم آوا کند، آن کشورها کمتر تهدیدی برای هژمونی چین خواهند بود.

4- در برابر هوش مصنوعی چه چاره های سیاستی ای می توان داشت؟

در سال های پیش رو، هوش مصنوعی تأثیر بسیاری بر سیاست جهان خواهد داشت. گرچه نمی توان پاسخ سیاستی واحدی یافت که به قدر کافی در مواجهه با این مسئله پیچیده و چندوجهی کارایی داشته باشد، اما راه های متعددی پیش پای حکومت های دموکراتیک وجود دارد. در مجموع، دموکراسی های پیشرفته باید آشکارا و علنا به بزرگی تهدید فناوری هوش مصنوعی برای نظام های سیاسی آزاد و باز باور پیدا کنند. اما سوء استفاده از فناوری هوش مصنوعی مختص رژیم های استبدادی هم نیست. بنابراین هرچه دولت های دموکراتیک به فناوری های جدیدتری می رسند که توان نظارت و مراقبت آن ها را به شدت بالا می برند، باید محدودیت ها و مرزهای مجاز استفاده از این توانایی ها را هم به روشنی تعریف کنند دموکراسی ها باید نظر در خودشان اندازند و در تهیه چارچوب های تنظیمی و قانونی داخلی پیشگام شوند. چنین فرایندی دشوار و پرهزینه و پردردسر خواهد بود: نوآوری تکنولوژیک اغلب جلوتر از توان قانون گذاران حرکت می کند و ایشان نمی توانند به موقع معیارها و ضوابط مناسبی برای فناوری های جدید تعیین کنند. اما با وجود این، دموکراسی های پیشرفته اکنون در بهترین موضع و شرایط برای تنظیم و تحديد شرکت های خصوصی و جلوگیری از سوء استفاده هستند. تلاش های داخلی همچنین باید با اقدام هماهنگ و مکمل بین المللی برای خلق چارچوب های روشن برای استفاده از هوش مصنوعی همراه شوند. طرح هایی مثل طرح اصول راهنمای کسب و کار و حقوق بشر سازمان ملل الگوی مفیدی هستند. در این مسیر به بحث هنجاری گسترده تری هم نیاز است. جامعة بین الملل هنوز باید با مسائل متعددی در رابطه با تبعیض الگوریتم ها، تبعیض پنهان و حریم خصوصی، دست و پنجه نرم کند. در نهایت، دموکراسی ها باید به طرق مختلف در پی تقویت توان مقاومت جامعه مدنی برآیند تا بتواند در برابر سرکوب ناشی از هوش مصنوعی مقاومت، و در طرح ریزی چارچوب ها برای استفاده از هوش مصنوعی مشارکت نماید. سازمان های محلی جامعه مدنی، در محیط های سرکوب شده عمدتا به فضای آنلاین کوچ کرده اند. اما از به کار بستن گسترده ابزارهای امنیت دیجیتال موجود ناتوان هستند. ابزارهایی مثل خدمات رمزنویسی، در نتیجه، خطرات بزرگی در قالب حملات سایبری، نفوذ، نظارت و مراقبت پیش روی آن هاست. برای گروه های مشابه در کشورهای دموکراتیک، چالش بزرگ این است که چطور بر اعمال قواعد و چارچوب ها نظارت کنند، موارد نقض قانون و سوءاستفاده از هوش مصنوعی را رصد کنند، و در کل نقشی نظارتی را برعهده بگیرند. تحقیقاتی مثل تحقیقات پروپایلیکا که تبعیض پنهان الگوریتمی در دستگاه قضای آمریکا را افشا کرد، تأثیر چشمگیری در شیوه استفاده دولت ها از هوش مصنوعی دارد. بنابراین، در سطح بین الملل، حیاتی است که جامعه مدنی فرصت بیان قدرتمندی در بحث و گفت و گوها درباره استفاده درست از هوش مصنوعی و قواعد و چارچوب های نظارتی آن، داشته باشد.

هوش مصنوعی ابزاری «دوکاره» است: می توان آن را در کاربردهای مفید به کار بست، یا در خدمت اهداف نظامی و سرکوب به کار گرفت. اما نمی توان مرز مشخص و روشنی میان هوش مصنوعی «مفید» و «مخرب» ترسیم کرد. برای تضمین استفاده درست از هوش مصنوعی، تقویت روابط میان جامعه سیاست گذاران و مهندسان و محققان اهمیت کلیدی دارد. به عبارت دیگر، کسانی که مسئولیت طراحی، برنامه ریزی و اجرای سیستم های هوش مصنوعی را بر عهده دارند، باید مسئولیت اعمال وحفظ معیارهای حقوق بشری را هم بر عهده بگیرند. سیاست گذاران باید به طور مرتب با مهندسان و اهالی فناوری به بحث و گفت وگو بنشینند تا همه طرف های درگیر از کاربردها و سوء کاربردهای احتمالی هوش مصنوعی آگاه شوند و بتوانند به موقع واکنش های مناسبی طرح ریزی کنند از پاکستان تا زیمبابوه بینش استبدادی خطرناکی نسبت به آینده هوش مصنوعی در حال شکل گیری است. وقت آن رسیده است که دولت ها و نهادهای دموکراتیک به فکر واکنشی جدی و محکم باشند.

منبع: اندیشه پویا

۰

دیدگاه تان را بنویسید

 

اخبار مرتبط سایر رسانه ها

    نیازمندیها

    تازه های سایت

    سایر رسانه ها