به گزارش رانیامدیا مقاله زیر توسط میشل هیرش برای نشریه فارن پالیسی تهیه شده است که تحلیلگر ارشد مسائل سیاسی، آقای مهراد کچویی آن را برای مخاطبین این رسانه ترجمه کرده اند؛
وقتی صحبت از هوش مصنوعی پیشرفته به میان می آید، بیشتر بحث بر این موضوع متمرکز شده است که آیا کارگران یقه سفید اکنون با تهدیدی در سطح انقراض روبرو هستند که زمانی طبقه کارگر با ظهور صنعت روباتیک رو به رو شدند. در حالی که به طور ناگهانی این محتمل است که هوش مصنوعی بتواند بخش از کارهایی که وکلا، حسابداران، معلمان، برنامه نویسان – و بله حتی روزنامه نگاران انجام می دهند- را به خوبی انجام دهد، این البته جایی نیست که مهم ترین انقلاب ممکن است رخ دهد.
آخرین هوش مصنوعی که به عنوان ترانسفورماتورهای از پیش آموزشدیده مولد شناخته میشود (GPT) ، نوید تغییر کامل ژئوپلیتیک جنگ و بازدارندگی را میدهد. این کار را به شیوههایی انجام میدهد که لزوماً راحت نیستند و حتی ممکن است تبدیل به یک ماهیت مسلم شوند.
از یک طرف، این فناوری می تواند جنگ را کمتر مرگبار کند و احتمالاً توانایی بازدارندگی را تقویت کند. با گسترش چشمگیر نقش پهپادهای هدایت شونده با هوش مصنوعی در نیروهای هوایی، نیروی دریایی و ارتش، می توان از جان انسان ها محافظت نمود. در حال حاضر، پنتاگون در حال آزمایش رباتهای هوش مصنوعی است که میتوانند با جت جنگنده F-16 اصلاحشده پرواز کنند و روسیه نیز تانک مشابه خودران خود را آزمایش کرده است. چین عجله دارد تا سیستم های هوش مصنوعی خود را راه اندازی کند و کارایی پهپادهای مسلح خود را نیز در سال های آینده افزایش دهد. یکی از بزرگترین تلاشها برای پیشبرد هوش مصنوعی، اگرچه هنوز نوپا است، برنامه محرمانه ی نیروی هوایی ایالات متحده در نسل بعدی سلطه هوایی اش است که بر اساس آن، حدود 1000 هواپیمای بدون سرنشین «wingmen» در کنار 200 خلبان هواپیمای جنگی ماموریت های خود را انجام خواهند داد.
داگلاس شاو، مشاور ارشد در زمینه تهدیدات هسته ای، میگوید: «من به راحتی میتوانم آیندهای را تصور کنم که در آن تعداد پهپادها بسیار بیشتر از افراد در نیروهای مسلح باشد. به گفته ژنرال بازنشسته نیروی هوایی ایالات متحده، چارلز والد، “این یک شتاب دهنده در جذب نیرو خواهد بود. یکی از بزرگترین مشکلات در حال حاضر جذب نیرو است.”
از سوی دیگر، نرمافزارهای مبتنی بر هوش مصنوعی میتواند قدرتهای بزرگ را وادار کند که بازه ی تصمیمگیری خود را بهجای ساعتها یا روزها به چند دقیقه کاهش دهند. آنها ممکن است بیش از حد به ارزیابی های استراتژیک و تاکتیکی هوش مصنوعی وابسته شوند، حتی زمانی که صحبت از جنگ هسته ای به میان می آید. هربرت لین از دانشگاه استنفورد گفت: خطر واقعی این است که تصمیم گیرندگان می توانند به تدریج به هوش مصنوعی جدید به عنوان بخشی از فرماندهی و کنترل تسلیحات تکیه کنند، زیرا هوش مصنوعی با سرعتی بسیار بیشتر از انسان عمل می کند.
جیمز جانسون از دانشگاه آبردین در کتابی که امسال منتشر شد، AI and the Bomb، یک جنگ هستهای تصادفی در دریای چین شرقی در سال 2025 را متصور میشود که توسط اطلاعات مبتنی بر هوش مصنوعی در هر دو طرف آمریکایی و چینی و “توربوشارژ شده توسط ربات های مجهز به هوش مصنوعی، دیپ فیک و عملیات با پرچم دروغین” صورت میپذیرد.
لین، یک کارشناس امنیت سایبری که در مجموعه علم و امنیت “بولتن دانشمندان اتمی” خدمت می کند گفت: «مشکل واقعی این است که حداقل چقدر زمان لازم است تا مردم متقاعد شوند که چیز نگران کننده ای وجود دارد، در حالی که تمام GPT یک مکانیزم تکمیل شونده خودکار و پیچیده دارد. با توجه به تمایل هوش مصنوعی به اغراقآمیز گویی، لین گفت: «وقتی مردم شروع به این باور می کنند که ماشین ها در حال فکر کردن هستند، احتمالاً کارهای دیوانه واری انجام می دهند.
انجمن کنترل تسلیحات در گزارشی که در اوایل فوریه منتشر شد، گفت که هوش مصنوعی و سایر فناوریهای جدید، مانند موشکهای مافوق صوت، میتواند منجر به «مبهم کردن تمایز بین حمله ای متعارف و هستهای» شوند. در این گزارش آمده است که تلاش برای «بهرهبرداری از فناوریهای نوظهور برای کاربرد نظامی، با سرعتی بسیار سریعتر از تلاشها برای ارزیابی خطرات ناشی از آنها و ایجاد محدودیتهایی برای استفاده از آنها شده است». بنابراین، کاهش سرعت پیشرفت تسلیحاتی این فناوریها، سنجش دقیق خطرات در انجام این کار، و اعمال محدودیتهای موثر در استفاده نظامی از آنها ضروری است.»
مقامات آمریکایی گفته اند که این کار را انجام می دهند، اما ممکن است در مردد حرکت کنند. در ژانویه امسال، وزارت دفاع آمریکا دستورالعمل خود را درباره سیستمهای تسلیحاتی مربوط به استفاده از هوش مصنوعی بهروزرسانی کرد و گفت که حداقل باید از تصمیم انسانی در توسعه و استقرار سیستمهای تسلیحاتی اتوماتیک استفاده شود.
با این حال، در همان زمان، پنتاگون در حال آزمایش هوش مصنوعی برای یکپارچه سازی تصمیم گیری در دستورات چندگانه نظامی بود و علیرغم اینکه دولت بایدن صادرات فناوری پیشرفته به چین را به منظور حفظ برتری فعلی ایالات متحده در هوش مصنوعی را رد می کند، پنتاگون نیز احتمالاً این قبیل تلاش ها (استفاده از هوش مصنوعی) را بیشتر خواهد کرد.
والد گفت: «من فکر میکنم هوش مصنوعی به اولویتبندی های اهداف کمک میکند. این البته میتواند در استراتژی در برابر چین مفید باشد، زیرا این کشور دارای برتری فضای سرزمینی نسبت به ایالات متحده در پل زدن فاصلههای وسیع در اقیانوس آرام است که میتواند در پاسخ هماهنگ به حمله به تایوان اختلال ایجاد کند.
در یک سخنرانی در سال 2019، سپهبد جک شاناهان، مدیر سابق مرکز هوش مصنوعی مشترک پنتاگون، گفت که در حالی که وزارت دفاع مشتاقانه به دنبال “ادغام قابلیت های هوش مصنوعی” است، این قطعا شامل فرماندهی و دستورات هسته ای نمی شود. شاناهان اضافه کرد که زمانی که تصمیم انسانی گرفته شود، میتوان نقش هوش مصنوعی را در تعیین نحوه استفاده از نیروی مرگبار موثر کند. او گفت: «من مستقیماً به سراغ «سیستمهای تسلیحاتی اتوماتیک مرگبار» نمیروم، اما میخواهم بگویم که از هوش مصنوعی در سیستمهای تسلیحاتی خود استفاده خواهیم کرد تا به ما مزیت رقابتی بدهیم. این در وهله اول برای نجات جان افراد و کمک به جلوگیری از وقوع جنگ است.”
سوال این است که آیا چینی ها و روس ها به همراه سایر طرف های ثالث از قوانین مشابه واشنگتن پیروی خواهند کرد؟
والد گفت: «من فکر نمیکنم که ایالات متحده در مسیر اجازه دادن به اقداماتی که کنترل انسانی را در اختیار شما را نمیگذارد، قدم بردارد. اما من مطمئن نیستم که دیگران نیز این کار را انجام ندهند. من فکر میکنم بزرگترین نگرانی اجازه دادن به این دستگاه یا کل موجودیت آنها بیش از حدود جغرافیایی است.»
نگرانی دیگر این است که فناوری پیشرفته هوش مصنوعی می تواند به بازیگران سرکش مانند تروریست ها اجازه دهد تا در ساخت بمب های کثیف یا سایر وسایل کشنده دانش کسب کنند. هوش مصنوعی در حال حاضر توسط بازیگران بسیار بیشتری نسبت به دوران جنگ سرد به اشتراک گذاشته شده است، به این معنی که میتوان از آن برای شناسایی سایتهای تسلیحات هستهای استفاده کرد که این، اثر بازدارندگی ای که پنهان نگه داشتن مکانهای آنها دارد را، کاهش میدهد. شاو گفت: هوش مصنوعی کاربرد پنهان کردن و یافتن را تغییر خواهد داد.
آنچه واضح به نظر می رسد این است که یک مسابقه تسلیحاتی جدید درخصوص هوش مصنوعی در حال انجام است و احتمالاً کاری برای متوقف کردن آن نمی توان انجام داد. در نامهای سرگشاده در اواخر ماه مارس، بیش از 2000 رهبر و محقق فناوری – از جمله ایلان ماسک و استیو وزنیاک – از آزمایشگاههای سراسر جهان خواستند تا آموزش جدیدترین مدلهای هوش دیجیتال را به دلیل ترسهای مبنی بر اینکه ممکن است منجر به فاجعهای برای بشریت شود، متوقف کنند.
هشدار آنها در مورد تهدید برای بشریت و جامعه ممکن است تا حدی اغراق آمیز باشد. این نامه توسط برخی از کارشناسان هوش مصنوعی بهعنوان «پرستش ترس» و به دلیل این توهم که این مدلها میتوانند همیشه نگران کننده باشند، مورد انتقاد قرار گرفت، مانند فیلمهای علمی تخیلی مانند «ترمیناتور». لین با اشاره به ذات شرور هوش مصنوعی که تمدن بشری را در فیلم معروف 1984 نابود کرد، گفت: «این اسکای نت نیست. اما می تواند منجر به خطای انسانی بر اساس وابستگی بیش از حد به هوش مصنوعی شود. این یک مهمات خطرناک با هدایت دقیق است که در برابر هوش انسانی و عقلانیت انسانی قرار میگیرد.»
مضاف بر این، این ایده که دولتها به خاطر ایمنی، قصد دارند تحریمات تأخیری انجام دهند نیز در نهایت بعید است. این نه تنها به این دلیل است که بزرگترین شرکتهای فناوری جهان درگیر رقابت باطل هستند ( بهویژه در سیلیکون ولی ) بلکه به این دلیل است که فناوری جدید در محیط بینالمللیای در حال گسترش است که اکنون ایالات متحده، چین و روسیه درگیر یک فضای مبارزه تلخ برای سلطه ی بیشتر هستند.
ژنرال بازنشسته نیروی هوایی دیوید دپتولا گفت: «به یاد داشته باشید که این مهم است که این ایده در سمت دشمن رای میآورد .حتی اگر تحقیقات خودمختاری و سایر توسعههای هوش مصنوعی نظامی را ما متوقف کنیم، چینیها و تا حدی روسها مطمئناً تحقیقات هوش مصنوعی خود را ادامه خواهند داد. هر دو کشور تمایلی به پیگیری توافقات آتی کنترل تسلیحاتی نشان نداده اند.»
این نامه سرگشاده آخرین شواهدی از چیزی بود که تنها میتوان آن را یک وحشت گسترده نامید. از زمانی که ChatGPT در اواخر پاییز گذشته در صحنه ظاهر شد، شرکتهای بزرگ فناوری تلاش کردند تا سیستمهای هوش مصنوعی خود را با اصطلاح “رقابت با هوش انسان” معرفی کنند. در نامه ی مذکور آمده است که مسائل خطر آفرین برای تمدن بشری اساسی است: «آیا باید اجازه دهیم ماشینها کانالهای اطلاعاتی ما را با تبلیغات و دروغ پر کنند؟ آیا باید همه شغلها را خودکار کنیم؟ آیا باید ذهنهای غیرانسانی را ایجاد کنیم که در نهایت ممکن است از نظر تعداد از ما پیشی گرفته و جایگزین ما شوند؟ آیا باید با خطر از دست دادن کنترل تمدن خود مواجه باشیم؟»
اما نکته کلیدی این بود: اگر شرکتهایی که آزمایشگاههای هوش مصنوعی را تأمین مالی میکنند با چنین توقفی موافقت نمیکنند، پس «دولتها باید وارد عمل شوند و یک سازوکار قانونی وضع کنند».
با این حال، در سال ۲۰۱۷، ولادیمیر پوتین، رئیسجمهور روسیه اعلام کرد : کسی که در این حوزه [هوش مصنوعی] رهبر شود، فرمانروای جهان خواهد بود و در جنگهای آینده، زمانی که پهپادهای یک طرف توسط پهپادهای طرف مقابل نابود شوند تصمیمگیری خواهد کرد.
شاو، در مورد ابتکار تهدید هسته ای، گفت: بزرگترین مشکل این است که “ما واقعاً در مورد آنچه که در آینده خواهد آمد گفتگو نمی کنیم.” بسیاری دیگر نیز موافق هستند. DARPA – آژانس پروژه های تحقیقاتی و پیشرفته دفاعی پنتاگون – در حال انجام یک برنامه تحقیقاتی گسترده به نام AI Forward است. مت تورک، سخنگوی دارپا اخیراً گفت که سیستمهای هوش مصنوعی مولد مانند ChatGPT مسائل جدیدی را در مورد «سطح قابل اطمینان برای تصمیمگیری مرگ یا زندگی به آن نیاز است» را مطرح کردهاند.