هوش مصنوعی «دنیای بدون خودکشی» را در آینده نزدیک ممکن خواهد کرد

 هفته‌نامه تایم نوشت:  هوش مصنوعی به رسانه‌های اجتماعی در جلوگیری یا پیشگیری از خودکشی کمک خواهد کرد- یا به عبارت دیگر باعث خواهد شد رسانه‌های اجتماعی به مرزی برای جلوگیری یا پیشگیری از خودکشی تبدیل شوند.

به گزارش هفته‌نامه تایم؛ پیام به این شکل شروع می‌شود: «ما به طور تصادفی با پست شما برخورد کردیم. به نظر می‌رسد که شما روزگار چالش‌برانگیزی را سپری می‌کنید. ما این‌جاییم تا مواد و منابعی را با شما به اشتراک گذاریم که ممکن است موجب اندکی آرامش برای شما شود».

به دنبال این سطور هم پیوندهایی با خطوط تلفنی مقابله با خودکشی، یک سرویس گفتگوی مستقیم ۲۴ ساعته و البته روایت داستان افرادی که توانسته‌اند بر بحران‌های سلامت روان غلبه کنند، آمده است. در پایان نیز یک آغوش مجازی ارسال شده است.

این یادداشت که توسط یک شرکت هوش مصنوعی به عنوان یک پیام خصوصی در Reddit ارسال شده است، نشان‌دهنده چیزی است که به گفته برخی از محققان ابزاری امیدوارکننده برای مبارزه با اپیدمی خودکشی در ایالات متحده است که سالانه تقریباً 50000 قربانی می‌گیرد. شرکت‌هایی مانند سامورایی از هوش مصنوعی برای تجزیه و تحلیل پست‌های رسانه‌های اجتماعی برای یافتن نشانه‌هایی از تمایل به خودکشی استفاده می‌کنند و پس از آن از طریق استراتژی‌هایی مانند پیام مستقیم در این روند مداخله می‌کنند.

استفاده از رسانه‌های اجتماعی برای جلوگیری یا پیشگیری از خودکشی در ذات خود رویکردی طعنه‌آمیز به شمار می‌آید. به خصوص از این نظر که در بیشتر مواقع رسانه‌های اجتماعی به عنوان مقصر اصلی مسایل و مشکلات سلامت روانی و بحران خودکشی در ایالات متحده- به ویژه در میان کودکان و نوجوانان- مطرح شده‌اند.

پاتریچا تممسکا یکی از بنیانگذاران شرکت سامورایی در این زمینه می‌گوید: «به‌رغم رویکرد طعنه‌آمیز استفاده از رسانه‌های اجتماعی برای جلوگیری از مسایل حاد روانی، اما، برخی از محققان معتقدند که می‌توان مستقیماً از طریق رسانه‌های اجتماعی افراد مضطرب یا کسانی را که تمایل به خودکشی دارند، شناسایی کرد».

البته سامورایی تنها شرکتی نیست که از هوش مصنوعی برای یافتن و دسترسی به افراد در معرض خطر استفاده می‌کند. شرکت Sentinet می‌گوید که مدل هوش مصنوعی آن هر روز بیش از 400 پست را در رسانه‌های اجتماعی نشان می‌دهد که حکایت از قصد آن‌ها برای خودکشی می‌کند. و البته در این میان متا شرکت مادر فیس‌بوک و اینستاگرام نیز از فن‌آوری خود برای پرچم‌گذاری پست‌ها یا مرور رفتارهایی استفاده می‌کند که می‌توانند تمایل یک شخص به خودکشی را نشان دهند. اگر شخصی محتوای مرتبط با خودکشی را به اشتراک بگذارد یا جستجو کند، پلتفرم پیامی حاوی اطلاعاتی درباره نحوه دسترسی به خدمات پشتیبانی در زمان خودکشی و بحران ارسال می‌کند- یا حتی اگر تیم متا لازم بداند، امدادگران اضطراری فراخوانی می‌شوند.

پشتوانه این تلاش‌ها بر این ایده است که الگوریتم‌ها ممکن است بتوانند کاری را انجام دهند که به طور سنتی انسان‌ها را سرگردان کرده است: تعیین این‌که چه کسی در معرض خطر آسیب‌رسانی به خود است تا بتوانند قبل از این‌که دیر شود به آن‌ها کمک کنند. با این حال برخی از کارشناسان می‌گویند که این رویکرد- در حالی که امیدوارکننده است- اما هنوز کامل و به اندازه کافی کارآمد نیست.

دکتر جردن اسمولر یکی از مدیران مرکز تحقیقات پیشگیری از خودکشی دانشگاه هاروارد می‌گوید که پیش‌بینی این‌که چه کسی احتمالاً اقدام به خودکشی خواهد کرد، حتی برای آموزش‌دیده‌ترین متخصصان نیز دشوار است. اسمولر می‌گوید: «عوامل خطری وجود دارد که پزشکان می‌دانند باید در بیماران خود به دنبال آن‌ها بگردند- که از میان آن‌ها می‌توان به برخی از تشخیص‌های روان‌پزشکی، گذر از یک رویداد آسیب‌زا، از دست دادن یکی از عزیزان به دلیل خودکشی و مسایلی از این دست اشاره کرد».با این حال به گفته اسمولر؛ «خودکشی بسیار پیچیده و ناهمگن است و هرگز نمی‌توان یک محرک برای این اقدام پیدا کرد».

اسمولر می‌گوید: امید این است که هوش مصنوعی با توانایی خود در غربال کردن حجم عظیمی از داده‌ها، بتواند روندهایی را در گفتار و نوشتار افراد مختلف شناسایی کند- که انسان‌ها هرگز متوجه آن نمی‌شوند.

مطلب قبلیزمان یک نظم جهانی دموکراتیک فرا رسیده
مطلب بعدیروسیه در تلاش برای ایجاد «جنگ جهانی انرژی» است