بر اساس گزارش اخیر شورای امنیت سازمان ملل متحد در مورد جنگ داخلی لیبی، سیستم‌های تسلیحاتی خودمختار – که معمولاً به عنوان ربات‌های قاتل شناخته می‌شوند – ممکن است برای اولین بار در سال گذشته انسان‌ ها را کشته باشند. تاریخ به خوبی می تواند این را به عنوان نقطه شروع مسابقه تسلیحاتی بزرگ بعدی شناسایی کند، مسابقه ای که پتانسیل آن را دارد که آخرین مسابقه بشریت باشد.

سیستم‌ های تسلیحاتی خودمختار ربات‌ هایی با سلاح‌ های کشنده هستند که می‌توانند به طور مستقل عمل کنند، اهداف را انتخاب و بدون اینکه انسان بر آن تصمیم‌ ها فشار بیاورد، حمله کند. ارتش در سراسر جهان سرمایه گذاری زیادی در تحقیق و توسعه تسلیحات خودمختار انجام می دهد. ایالات متحده به تنهایی 18 میلیارد دلار برای تسلیحات خودران بین سال های 2016 تا 2020 بودجه اختصاص داده است.

در همین حال، سازمان‌های حقوق بشری و بشردوستانه برای ایجاد مقررات و ممنوعیت‌ هایی برای تولید چنین سلاح‌ هایی به رقابت می‌پردازند. بدون چنین بررسی‌ هایی، کارشناسان سیاست خارجی هشدار می‌دهند که فن‌آوری‌های مخرب سلاح‌های خودمختار به طور خطرناکی استراتژی‌های هسته‌ای کنونی را بی‌ثبات می‌کنند، هم به این دلیل که می‌توانند درک تسلط استراتژیک را به طور اساسی تغییر دهند و خطر حملات پیشگیرانه را افزایش دهند و هم به دلیل اینکه ممکن است با مواد شیمیایی، بیولوژیکی و رادیولوژیکی و خود سلاح های هسته ای ترکیب شوند.

سلاح‌های خود مختار، تعادل‌های ناپایدار و پادمان‌های متلاشی‌شده دنیای هسته‌ای، برای مثال اختیارات حداقل محدود رئیس‌جمهور ایالات متحده برای حمله را، ناپایدارتر و تکه تکه تر می‌کنند

 

خطاهای کشنده و جعبه سیاه ربات ها

چهار خطر اصلی با سلاح های خودمختار وجود دارد. اولین مورد مشکل شناسایی نادرست است. آیا در هنگام انتخاب یک هدف، سلاح های خود مختار می توانند بین سربازان متخاصم و کودکان 12 ساله ای که با تفنگ های اسباب بازی بازی می کنند، تمایز قائل شوند؟ بین غیرنظامیانی که از محل درگیری فرار می کنند و شورشیان که عقب نشینی تاکتیکی می کنند؟

مشکل اینجا این نیست که ماشین‌ ها چنین خطاهایی را مرتکب می‌شوند و انسان‌ها این کار را نمی‌کنند.  مشکل این است که تفاوت بین خطای انسانی و خطای الگوریتمی مانند تفاوت بین ارسال نامه و توییت است. مقیاس، وسعت و سرعت سیستم‌های روبات‌های قاتل که توسط یک الگوریتم هدف‌گیری که در سراسر یک قاره مستقر شده است، کنترل می‌شود، می‌تواند باعث شود که شناسایی نادرست توسط انسان‌ها مانند حمله اخیر هواپیماهای بدون سرنشین ایالات متحده در افغانستان در مقایسه با یک خطای گرد کردن ساده به نظر برسد.

پل شار، متخصص سلاح های خودمختار، از استعاره تفنگ فراری برای توضیح این تفاوت استفاده می کند. تفنگ فراری یک مسلسل معیوب است که پس از رها شدن ماشه به شلیک ادامه می دهد. اسلحه تا زمانی که مهمات تمام شود به شلیک ادامه می دهد، زیرا، به اصطلاح، اسلحه نمی داند که دارد خطا می کند. اسلحه های فراری بسیار خطرناک هستند، اما خوشبختانه آنها اپراتورهای انسانی دارند که می توانند اتصال مهمات را بشکنند یا سعی کنند سلاح را به سمتی امن هدایت کنند. سلاح های خودمختار، بنا به تعریف، چنین حفاظتی ندارند.

نکته مهم این است که هوش مصنوعی تسلیح‌شده حتی برای ایجاد اثر تفنگ فراری نیازی ندارد که معیوب باشد. همانطور که مطالعات متعدد در مورد خطاهای الگوریتمی در صنایع نشان داده است، بهترین الگوریتم ها – که طبق طراحی عمل می کنند – می توانند نتایج صحیح داخلی ایجاد کنند که با این وجود، خطاهای وحشتناک را به سرعت در بین جمعیت ها پخش می کند.

به عنوان مثال، یک شبکه عصبی طراحی شده برای استفاده در بیمارستان های پیتسبورگ، آسم را به عنوان یک کاهش دهنده خطر در موارد ذات الریه شناسایی کرد. نرم افزار تشخیص تصویر که توسط گوگل استفاده می شود، آمریکایی های آفریقایی تبار را به عنوان گوریل شناسایی می کند. و یک ابزار یادگیری ماشینی که توسط آمازون برای رتبه‌بندی نامزدهای شغلی استفاده می‌شود، به طور سیستماتیک نمرات منفی را به زنان اختصاص می‌دهد.

مشکل فقط این نیست که وقتی سیستم‌های هوش مصنوعی اشتباه می‌کنند، به‌طور عمده اشتباه می‌کنند. این است که وقتی آنها اشتباه می کنند، سازندگان آنها اغلب نمی دانند چرا این کار را انجام داده اند و بنابراین، چگونه آنها را اصلاح کنند. مشکل جعبه سیاه هوش مصنوعی تصور توسعه اخلاقی مسئولانه سیستم های تسلیحاتی خودران را تقریبا غیرممکن می کند.

 

مشکلات تکثیر

دو خطر بعدی مشکلات تکثیر تسلیحات کم رده و بالا است. بیایید با پایان پایین شروع کنیم. ارتش‌هایی که در حال توسعه سلاح‌های خودمختار هستند، با این فرض پیش می‌روند که می‌توانند استفاده از سلاح‌های خودمختار را مهار و کنترل کنند. اما اگر تاریخ فناوری تسلیحات چیزی به دنیا آموخته باشد، این است: سلاح ها گسترش می یابند.

فشارهای بازار می‌تواند منجر به ایجاد و فروش گسترده چیزی شود که می‌توان آن را معادل سلاح خود مختار تفنگ تهاجمی کلاشینکف در نظر گرفت: ربات‌ های قاتل که ارزان، مؤثر و تقریباً غیرممکن هستند که در سراسر جهان در حال گردش هستند.  سلاح های خودمختار «کلاشینکف» می تواند به دست افراد خارج از کنترل دولت، از جمله تروریست های بین المللی و داخلی، برسد.

با این حال، تکثیر تسلیحات رده بالا به همان اندازه بد است. کشورها می توانند برای توسعه نسخه های ویرانگر فزاینده ای از سلاح های خودمختار، از جمله آنهایی که قادر به نصب سلاح های شیمیایی، بیولوژیکی، رادیولوژیکی و هسته ای هستند، رقابت کنند. خطرات اخلاقی افزایش مرگبار سلاح با افزایش استفاده از سلاح تقویت می شود.

سلاح‌های خود مختار سطح بالا احتمالاً منجر به جنگ‌های مکرر می‌شوند، زیرا دو نیروی اصلی را که به طور تاریخی از جنگ‌ها جلوگیری کرده و کوتاه‌تر کرده‌اند، کاهش می‌دهند: نگرانی برای غیرنظامیان در خارج از کشور و نگرانی برای سربازان خود. این سلاح‌ها احتمالاً مجهز به حاکمان اخلاقی گران قیمتی هستند که برای به حداقل رساندن آسیب‌های جانبی طراحی شده‌اند، با استفاده از آنچه اگنس کالامار، گزارشگر ویژه سازمان ملل، آن را «افسانه حمله جراحی» برای سرکوب اعتراضات اخلاقی می‌نامد. تسلیحات خودمختار همچنین نیاز و خطر سربازان خود را کاهش می‌دهند و به طور چشمگیری تحلیل هزینه و فایده کشورها را در حین راه‌اندازی و حفظ جنگ‌ها تغییر می‌ دهند.

جنگ‌های نامتقارن، یعنی جنگ‌هایی که در خاک کشورهایی که فاقد فناوری رقیب هستند به راه افتاده است، احتمالاً رایج‌تر می‌شوند. به بی‌ثباتی جهانی ناشی از مداخلات نظامی شوروی و ایالات متحده در طول جنگ سرد، از اولین جنگ نیابتی تا ضربه‌ای که امروز در سراسر جهان تجربه می‌شود، فکر کنید. آن را در هر کشوری که در حال حاضر به دنبال تسلیحات خودمختار پیشرفته هستند ضرب کنید.

5 / 5. 19

✍️ دیدگاه کاربران در رابطه با این مطلب

😍 شاید علاقه مند باشید...