مناقشه بر سر تقبیح "روباتهای آدمکش"
۱۳۹۷ شهریور ۴, یکشنبهآنچه "جنگافزارهای مرگبار خودگردان" خوانده میشود، در زبان روزمره به "روباتهای آدمکش" نیز معروف است. اینها میتوانند ماشینهایی باشند که مستقل هدفگیری و تیراندازی میکنند. پهپادها و زیردریاییهای بیسرنشین نیز جزو همین جنگافزارها هستند.
ویژگی آنها اینست که در مأموریتهای جنگی از سوی انسانها هدایت نمیشوند، بلکه بطور مستقل تصمیم میگیرند که کدام هدف مشروع است و سپس شلیک میکنند. آیا باید چنین جنگافزارهایی را ممنوع کرد؟
به گزارش "اشپیگل آنلاین" از تاریخ ۵ شهریور (۲۷ اوت) نمایندگان بیش از ۷۵ کشور جهان در شهر ژنو سوئیس گردمیآیند تا در این باره رایزنی کنند.
به کانال دویچه وله فارسی در تلگرام بپیوندید
آماندیپ گیل، سفیر هند و رئیس این نشست مشورتی در آغاز سال جاری گفته بود که "نباید این امر را دراماتیزه کرد و روباتها بر جهان مسلط نخواهند شد".
اما منتقدان هشدار میدهند. توماس کوشنمایستر، عضو آلمانی "کارزار بینالمللی علیه روباتهای آدمکش" معتقد است که جنگافزارها قادر به تشخیص دوست از دشمن نیستند و باید آنها را از نظر حقوق بینالمللی به دقت سنجید. به گفتهی او، این تصمیم که به زندگی یک انسان پایان داده شود، هرگز نباید به یک ماشین واگذار شود.
توسعهی شتابندهی هوش مصنوعی
جنگافزارهای خودگردان از طریق توسعهی شتابندهی هوش مصنوعی ممکن شدهاند. کامپیوترها از راه دادههای تزریق شده میآموزند که یک هدف چگونه به نظر میرسد، چگونه حرکت میکند و چه زمانی باید به آن شلیک کرد و این کار را بدون شرکت انسان در تصمیمگیری انجام میدهند.
جنگافزارهای خودگردان را برای نمونه باید از "موشکهای پتریوت" متمایز کرد. این موشکها هم بطور اتوماتیک شلیک میشوند، اما هدف آنها باید پیشتر توسط انسان دقیق برنامهریزی شده باشد.
میشائیل بیونتینو که تا چندی پیش نماینده آلمان در نهاد خلعسلاح در ژنو بود میگوید: «جنگافزارهای خودگردان هدف را خودشان انتخاب میکنند و دارای بانکی اطلاعاتی از اهداف نیستند.»
البته باید خاطر نشان کرد که مرز میان سیستمهای اتوماتیک و خودگردان سیال است.
دیگر جای تردیدی نیست که کشورهایی مانند ایالات متحده آمریکا، روسیه، چین، اسرائیل، کره جنوبی و بریتانیا مشغول کار روی چنین سیستمهایی هستند. نایل داویسون عضو کمیتهی بینالمللی صلیب سرخ معتقد است که این سیستمها هماکنون نیز وجود دارند.
او که ناظر رعایت حقوق بینالملل انسانی مصرح در کنوانسیون معتبر ژنو است، از توسعهی این سیستمها ابراز نگرانی میکند. در کنوانسیون ژنو آمده است: «حملات باید اکیدا به اهداف نظامی محدود باشند». اما آیا ماشینها قادر به تصمیمگیری در این باره هستند؟ داویسون معتقد است که انسانها باید کنترل کافی در اختیار داشته باشند تا بتوانند تصمیمات مشروع بگیرند.
اما جنگافزارهای خودگردان و روباتهای آدمکش با خود تردیدها و پرسشهای زیادی میآورند:
ـ آیا آنها میتوانند تشخیص دهند که یک دشمن هماکنون میخواهد خود را تسلیم کند یا زخمی شده است؟
ـ آیا میتوانند تشخیص دهند انسانی که شناسایی شده و سلاح در دست دارد، یک سرباز است یا یک شکارچی؟
ـ آیا میتوانند تشخیص دهند که سرباز شناسایی شده از نیروهای خودی است؟
ـ چه کسی مسئول و پاسخگوی جنایتهایی خواهد بود که توسط این جنگافزارها صورت میگیرد و انسان کنترلی بر آنها ندارد؟
ماشینها نباید در مورد مرگ و زندگی تصمیم بگیرند
میشائیل بیونتینو میگوید سیاست جمهوری فدرال آلمان در این زمینه کاملا روشن است: تصمیم برای زندگی و مرگ نباید به یک ماشین واگذار شود. به گفتهی او این مساله حتی در قرارداد دولت ائتلافی آلمان نیز تصریح شده است: «ما با سیستمهای تسلیحاتی خودگردان که تحت کنترل انسان نباشند مخالفیم و خواهان تقبیح جهانی آنها هستیم.»
آلمان مشترکا به همراه فرانسه اصل و عرفی رفتاری پیشنهاد کرده که بر مبنای آن همهی سیستمهای تسلیحاتی امروز یا آینده باید تحت کنترل انسان باشند.
اما توماس کوشنمایستر، عضو "کارزار بینالمللی علیه روباتهای آدمکش" این اصل رفتاری را "ببر بیدندان" میخواند و معتقد است که چنین عرفی از نظر حقوق بینالملل تعهدآور نیست. به همین دلیل سازمان او خواهان یک قرارداد متعهدکننده و الزامآور است.
اما به گفتهی کوشنمایستر، بسیاری از کشورها نمیخواهند سیستمهای تسلیحاتی خود را محدود کنند. به همین دلیل در مذاکرات بینالمللی هیچ تعجیلی نشان نمیدهند. اما این بازی با زمان بسیار حساس و خطرناک است، وقتی در نظر بگیریم که جنگافزارهای جدید هماکنون به چه درجهای از خودگردانی رسیدهاند.
بیش از دوهزار دانشمند که در حوزهی هوش مصنوعی فعالیت میکنند، این جنگافزارها را محکوم کردهاند. آنان در فراخوانی از جمله نوشتهاند: یک مولفهی اخلاقی وجود دارد. ما نباید تصمیمگیری دربارهی زندگی و مرگ را به ماشینها واگذار کنیم.
این دانشمندان قول دادهاند که هرگز در توسعه و تولید اینگونه جنگافزارها همکاری نکنند و از شرکتهای فنآوری نیز خواستهاند که همین قول را بدهند.