سر مقاله ی فارن پالیسی؛ چگونه هوش مصنوعی جنگ را متحول خواهد کرد؟

به گزارش رانیامدیا مقاله زیر توسط میشل هیرش برای نشریه فارن پالیسی تهیه شده است که تحلیلگر ارشد مسائل سیاسی، آقای مهراد کچویی آن را برای مخاطبین این رسانه ترجمه کرده اند؛

لینک مقاله اصلی

وقتی صحبت از هوش مصنوعی پیشرفته به میان می آید، بیشتر بحث بر این موضوع متمرکز شده است که آیا کارگران یقه سفید اکنون با تهدیدی در سطح انقراض روبرو هستند که زمانی طبقه کارگر با ظهور صنعت روباتیک رو به رو شدند. در حالی که به طور ناگهانی این محتمل است که هوش مصنوعی بتواند بخش از کارهایی که وکلا، حسابداران، معلمان، برنامه نویسان – و بله حتی روزنامه نگاران انجام می دهند- را به خوبی انجام دهد، این البته جایی نیست که مهم ترین انقلاب ممکن است رخ دهد.

آخرین هوش مصنوعی که به عنوان ترانسفورماتورهای از پیش آموزش‌دیده مولد شناخته می‌شود (GPT) ، نوید تغییر کامل ژئوپلیتیک جنگ و بازدارندگی را می‌دهد. این کار را به شیوه‌هایی انجام می‌دهد که لزوماً راحت نیستند و حتی ممکن است تبدیل به یک ماهیت مسلم شوند.

از یک طرف، این فناوری می تواند جنگ را کمتر مرگبار کند و احتمالاً توانایی بازدارندگی را تقویت کند. با گسترش چشمگیر نقش پهپادهای هدایت شونده با هوش مصنوعی در نیروهای هوایی، نیروی دریایی و ارتش، می توان از جان انسان ها محافظت نمود. در حال حاضر، پنتاگون در حال آزمایش ربات‌های هوش مصنوعی است که می‌توانند با جت جنگنده F-16 اصلاح‌شده پرواز کنند و روسیه نیز تانک مشابه خودران خود را آزمایش کرده است. چین عجله دارد تا سیستم های هوش مصنوعی خود را راه اندازی کند و کارایی پهپادهای مسلح خود را نیز در سال های آینده افزایش دهد. یکی از بزرگ‌ترین تلاش‌ها برای پیشبرد هوش مصنوعی، اگرچه هنوز نوپا است، برنامه محرمانه ی نیروی هوایی ایالات متحده در نسل بعدی سلطه هوایی اش است که بر اساس آن، حدود 1000 هواپیمای بدون سرنشین «wingmen» در کنار 200 خلبان هواپیمای جنگی ماموریت های خود را انجام خواهند داد.

داگلاس شاو، مشاور ارشد در زمینه تهدیدات هسته ای، می‌گوید: «من به راحتی می‌توانم آینده‌ای را تصور کنم که در آن تعداد پهپادها بسیار بیشتر از افراد در نیروهای مسلح باشد. به گفته ژنرال بازنشسته نیروی هوایی ایالات متحده، چارلز والد، “این یک شتاب دهنده در جذب نیرو خواهد بود. یکی از بزرگترین مشکلات در حال حاضر جذب نیرو است.”

از سوی دیگر، نرم‌افزارهای مبتنی بر هوش مصنوعی می‌تواند قدرت‌های بزرگ را وادار کند که بازه ی تصمیم‌گیری خود را به‌جای ساعت‌ها یا روزها به چند دقیقه کاهش دهند. آنها ممکن است بیش از حد به ارزیابی های استراتژیک و تاکتیکی هوش مصنوعی وابسته شوند، حتی زمانی که صحبت از جنگ هسته ای به میان می آید. هربرت لین از دانشگاه استنفورد گفت: خطر واقعی این است که تصمیم گیرندگان می توانند به تدریج به هوش مصنوعی جدید به عنوان بخشی از فرماندهی و کنترل تسلیحات تکیه کنند، زیرا هوش مصنوعی با سرعتی بسیار بیشتر از انسان عمل می کند.
جیمز جانسون از دانشگاه آبردین در کتابی که امسال منتشر شد، AI and the Bomb، یک جنگ هسته‌ای تصادفی در دریای چین شرقی در سال 2025 را متصور میشود که توسط اطلاعات مبتنی بر هوش مصنوعی در هر دو طرف آمریکایی و چینی و “توربوشارژ شده توسط ربات های مجهز به هوش مصنوعی، دیپ فیک و عملیات با پرچم دروغین” صورت می‌پذیرد.

لین، یک کارشناس امنیت سایبری که در مجموعه علم و امنیت “بولتن دانشمندان اتمی” خدمت می کند گفت: «مشکل واقعی این است که حداقل چقدر زمان لازم است تا مردم متقاعد شوند که چیز نگران کننده ای وجود دارد، در حالی که تمام GPT یک مکانیزم تکمیل شونده خودکار و پیچیده دارد. با توجه به تمایل هوش مصنوعی به اغراق‌آمیز گویی، لین گفت: «وقتی مردم شروع به این باور می کنند که ماشین ها در حال فکر کردن هستند، احتمالاً کارهای دیوانه واری انجام می دهند.

انجمن کنترل تسلیحات در گزارشی که در اوایل فوریه منتشر شد، گفت که هوش مصنوعی و سایر فناوری‌های جدید، مانند موشک‌های مافوق صوت، می‌تواند منجر به «مبهم کردن تمایز بین حمله ای متعارف و هسته‌ای» شوند. در این گزارش آمده است که تلاش برای «بهره‌برداری از فناوری‌های نوظهور برای کاربرد نظامی، با سرعتی بسیار سریع‌تر از تلاش‌ها برای ارزیابی خطرات ناشی از آن‌ها و ایجاد محدودیت‌هایی برای استفاده از آن‌ها شده است». بنابراین، کاهش سرعت پیشرفت تسلیحاتی این فناوری‌ها، سنجش دقیق خطرات در انجام این کار، و اعمال محدودیت‌های موثر در استفاده نظامی از آنها ضروری است.»

مقامات آمریکایی گفته اند که این کار را انجام می دهند، اما ممکن است در مردد حرکت کنند. در ژانویه امسال، وزارت دفاع آمریکا دستورالعمل خود را درباره سیستم‌های تسلیحاتی مربوط به استفاده از هوش مصنوعی به‌روزرسانی کرد و گفت که حداقل باید از تصمیم انسانی در توسعه و استقرار سیستم‌های تسلیحاتی اتوماتیک استفاده شود.

با این حال، در همان زمان، پنتاگون در حال آزمایش هوش مصنوعی برای یکپارچه سازی تصمیم گیری در دستورات چندگانه نظامی بود و علیرغم اینکه دولت بایدن صادرات فناوری پیشرفته به چین را به منظور حفظ برتری فعلی ایالات متحده در هوش مصنوعی را رد می کند، پنتاگون نیز احتمالاً این قبیل تلاش ها (استفاده از هوش مصنوعی) را بیشتر خواهد کرد.

والد گفت: «من فکر می‌کنم هوش مصنوعی به اولویت‌بندی های اهداف کمک می‌کند. این البته می‌تواند در استراتژی در برابر چین مفید باشد، زیرا این کشور دارای برتری فضای سرزمینی نسبت به ایالات متحده در پل زدن فاصله‌های وسیع در اقیانوس آرام است که می‌تواند در پاسخ هماهنگ به حمله به تایوان اختلال ایجاد کند.

در یک سخنرانی در سال 2019، سپهبد جک شاناهان، مدیر سابق مرکز هوش مصنوعی مشترک پنتاگون، گفت که در حالی که وزارت دفاع مشتاقانه به دنبال “ادغام قابلیت های هوش مصنوعی” است، این قطعا شامل فرماندهی و دستورات هسته ای نمی شود. شاناهان اضافه کرد که زمانی که تصمیم انسانی گرفته شود، می‌توان نقش هوش مصنوعی را در تعیین نحوه استفاده از نیروی مرگبار موثر کند. او گفت: «من مستقیماً به سراغ «سیستم‌های تسلیحاتی اتوماتیک مرگبار» نمی‌روم، اما می‌خواهم بگویم که از هوش مصنوعی در سیستم‌های تسلیحاتی خود استفاده خواهیم کرد تا به ما مزیت رقابتی بدهیم. این در وهله اول برای نجات جان افراد و کمک به جلوگیری از وقوع جنگ است.”

سوال این است که آیا چینی ها و روس ها به همراه سایر طرف های ثالث از قوانین مشابه واشنگتن پیروی خواهند کرد؟

والد گفت: «من فکر نمی‌کنم که ایالات متحده در مسیر اجازه دادن به اقداماتی که کنترل انسانی را در اختیار شما را نمیگذارد، قدم بردارد. اما من مطمئن نیستم که دیگران نیز این کار را انجام ندهند. من فکر می‌کنم بزرگ‌ترین نگرانی اجازه دادن به این دستگاه یا کل موجودیت آنها بیش از حدود جغرافیایی است.»
نگرانی دیگر این است که فناوری پیشرفته هوش مصنوعی می تواند به بازیگران سرکش مانند تروریست ها اجازه دهد تا در ساخت بمب های کثیف یا سایر وسایل کشنده دانش کسب کنند. هوش مصنوعی در حال حاضر توسط بازیگران بسیار بیشتری نسبت به دوران جنگ سرد به اشتراک گذاشته شده است، به این معنی که می‌توان از آن برای شناسایی سایت‌های تسلیحات هسته‌ای استفاده کرد که این، اثر بازدارندگی ای که پنهان نگه داشتن مکان‌های آنها دارد را، کاهش می‌دهد. شاو گفت: هوش مصنوعی کاربرد پنهان کردن و یافتن را تغییر خواهد داد.

آنچه واضح به نظر می رسد این است که یک مسابقه تسلیحاتی جدید درخصوص هوش مصنوعی در حال انجام است و احتمالاً کاری برای متوقف کردن آن نمی توان انجام داد. در نامه‌ای سرگشاده در اواخر ماه مارس، بیش از 2000 رهبر و محقق فناوری – از جمله ایلان ماسک و استیو وزنیاک – از آزمایشگاه‌های سراسر جهان خواستند تا آموزش جدیدترین مدل‌های هوش دیجیتال را به دلیل ترس‌های مبنی بر اینکه ممکن است منجر به فاجعه‌ای برای بشریت شود، متوقف کنند.

هشدار آنها در مورد تهدید برای بشریت و جامعه ممکن است تا حدی اغراق آمیز باشد. این نامه توسط برخی از کارشناسان هوش مصنوعی به‌عنوان «پرستش ترس» و به دلیل این توهم که این مدل‌ها می‌توانند همیشه نگران کننده باشند، مورد انتقاد قرار گرفت، مانند فیلم‌های علمی تخیلی مانند «ترمیناتور». لین با اشاره به ذات شرور هوش مصنوعی که تمدن بشری را در فیلم معروف 1984 نابود کرد، گفت: «این اسکای نت نیست. اما می تواند منجر به خطای انسانی بر اساس وابستگی بیش از حد به هوش مصنوعی شود. این یک مهمات خطرناک با هدایت دقیق است که در برابر هوش انسانی و عقلانیت انسانی قرار میگیرد.»

مضاف بر این، این ایده که دولت‌ها به خاطر ایمنی، قصد دارند تحریمات تأخیری انجام دهند نیز در نهایت بعید است. این نه تنها به این دلیل است که بزرگترین شرکت‌های فناوری جهان درگیر رقابت باطل هستند ( به‌ویژه در سیلیکون ولی ) بلکه به این دلیل است که فناوری جدید در محیط بین‌المللی‌ای در حال گسترش است که اکنون ایالات متحده، چین و روسیه درگیر یک فضای مبارزه تلخ برای سلطه ی بیشتر هستند.

ژنرال بازنشسته نیروی هوایی دیوید دپتولا گفت: «به یاد داشته باشید که این مهم است که این ایده در سمت دشمن رای می‌آورد .حتی اگر تحقیقات خودمختاری و سایر توسعه‌های هوش مصنوعی نظامی را ما متوقف کنیم، چینی‌ها و تا حدی روس‌ها مطمئناً تحقیقات هوش مصنوعی خود را ادامه خواهند داد. هر دو کشور تمایلی به پیگیری توافقات آتی کنترل تسلیحاتی نشان نداده اند.»

این نامه سرگشاده آخرین شواهدی از چیزی بود که تنها می‌توان آن را یک وحشت گسترده نامید. از زمانی که ChatGPT در اواخر پاییز گذشته در صحنه ظاهر شد، شرکت‌های بزرگ فناوری تلاش کردند تا سیستم‌های هوش مصنوعی خود را با اصطلاح “رقابت با هوش انسان” معرفی کنند. در نامه ی مذکور آمده است که مسائل خطر آفرین برای تمدن بشری اساسی است: «آیا باید اجازه دهیم ماشین‌ها کانال‌های اطلاعاتی ما را با تبلیغات و دروغ پر کنند؟ آیا باید همه شغل‌ها را خودکار کنیم؟ آیا باید ذهن‌های غیرانسانی را ایجاد کنیم که در نهایت ممکن است از نظر تعداد از ما پیشی گرفته و جایگزین ما شوند؟ آیا باید با خطر از دست دادن کنترل تمدن خود مواجه باشیم؟»

اما نکته کلیدی این بود: اگر شرکت‌هایی که آزمایشگاه‌های هوش مصنوعی را تأمین مالی می‌کنند با چنین توقفی موافقت نمی‌کنند، پس «دولت‌ها باید وارد عمل شوند و یک سازوکار قانونی وضع کنند».

با این حال، در سال ۲۰۱۷، ولادیمیر پوتین، رئیس‌جمهور روسیه اعلام کرد : کسی که در این حوزه [هوش مصنوعی] رهبر شود، فرمانروای جهان خواهد بود و در جنگ‌های آینده، زمانی که پهپادهای یک طرف توسط پهپادهای طرف مقابل نابود شوند تصمیم‌گیری خواهد کرد.

شاو، در مورد ابتکار تهدید هسته ای، گفت: بزرگترین مشکل این است که “ما واقعاً در مورد آنچه که در آینده خواهد آمد گفتگو نمی کنیم.” بسیاری دیگر نیز موافق هستند. DARPA – آژانس پروژه های تحقیقاتی و پیشرفته دفاعی پنتاگون – در حال انجام یک برنامه تحقیقاتی گسترده به نام AI Forward است. مت تورک، سخنگوی دارپا اخیراً گفت که سیستم‌های هوش مصنوعی مولد مانند ChatGPT مسائل جدیدی را در مورد «سطح قابل اطمینان برای تصمیم‌گیری مرگ یا زندگی به آن نیاز است» را مطرح کرده‌اند.

مطلب قبلیاحتمال درگیری قدرت‌های بزرگ جهان در یک” اَبَر جنگ آخرالزمانی“
مطلب بعدیگزارش ویژه بیزینس اینسایدر؛ پنج نقطه ای که جنگ جهانی سوم میتواند از آنجا آغاز شود