آیا فناوریهای نوآورانه آن را با سیستمهای تسلیحاتی خودران بیش از حد پیش میبرند؟
آیا نسل بشر یک گام نهایی به پایان خود نزدیک شده است؟ سیستمهای تسلیحاتی خودمختار که به رباتهای قاتل نیز گفته میشود، میتواند فصل بعدی توسعه سلاحها باشد، اما میتواند آخرین فصل آن نیز باشد. آنها سومین انقلاب در جنگ را پس از باروت و بمب های هسته ای رقم می زنند. آنها چه هستند و چرا چنین تهدیدی برای بشریت ایجاد می کنند؟
به نظر میرسد روباتهایی با سلاحهای کشنده که در فیلمها تماشا کردهایم و در مورد آنها خواندهایم، ممکن است قبلاً اینجا باشند. سیستم های تسلیحاتی خودمختار به گونه ای توسعه یافته اند که به طور مستقل عمل کنند و اهداف را با پردازش حسگر شناسایی کنند نه توسط انسان. طرد انسان ها از فرآیند تصمیم گیری و عدم همدلی، عواطف، روحیه و اخلاق به راحتی می تواند به اشتباهات غم انگیزی با پیامدهای پیش بینی نشده و بی سابقه منجر شود.
به قول معروف راه جهنم با نیت خیر هموار شده است. اکثر نوآوریها، اگر نگوییم همه، از یک نیت خوب سرچشمه میگیرند، اما ما قبلاً شاهد بودیم که چگونه برخی از آنها در دستان نادرست، یا توسط مجموعهای از رویدادها به وجود آمدهاند، بیشتر ضرر میکنند تا مفید. بسیاری از اوقات ما حتی نمیتوانیم تصور کنیم که یک نوآوری چه تاثیری میتواند داشته باشد و مسیری که طی خواهد کرد. و این بار جنبه تاریک نوآوری ها تهدیدی واقعی برای موجودیت ما به شمار می روند. به همین دلیل است که بسیاری نگران توسعه بیشتر سیستمهای سلاح خودمختار و هوش مصنوعی هستند.
پوشش نقرهای این فناوریهای جدید این است که سربازان انسانی کمتری به کار گرفته میشوند و در نتیجه جانهای بیشتری نجات مییابد. استفاده از این فناوریهای نوآورانه نه تنها اقدامات سریعتر و کارآمدتر را ممکن میسازد، بلکه مأموریتهایی را نیز ممکن میسازد که در غیر این صورت بسیار پرخطر، پرهزینه یا حتی غیرممکن هستند. توانایی جنگیدن از راه دور با استفاده از این فناوریهای نوآورانه، جایگزین نبرد رو در رو میشود و جان سربازان را نجات میدهد، اما شفقت و همدلی را نیز کاهش میدهد. انگار کسی در حال انجام یک بازی ویدیویی است. تصمیم برای رفتن به جنگ بیهوده خواهد بود.
اولین دلیل آشکار برای نگرانی فقدان قضاوت انسانی است . اگرچه یک ماشین دقیقتر است و واکنشهای سریعتری نسبت به انسانها دارد، اما در هر چیزی که ما را انسان میسازد، کم است و درک متن مشکل دارد. فن آوری هایی مانند تشخیص صدا و چهره قبلاً ثابت کرده اند که در تشخیص بخش های خاصی مانند زنان، رنگین پوستان و افراد دارای معلولیت، میزان شکست بالایی دارند. چگونه یک ربات بین یک هدف متخاصم و یک کودک در حال بازی با یک تفنگ اسباب بازی تشخیص می دهد؟
انسان ها همیشه مرتکب اشتباه می شوند، اما اگر مقیاس، سرعت و وسعتی که سیستم های تسلیحاتی خودگردان در آن مستقر می شوند و خطای احتمالی آنها را در نظر بگیریم، نتیجه ویرانگر است. حتی با وجود حفاظت، این سیستم ها همیشه می توانند در برابر هک آسیب پذیر باشند. در نهایت وقتی خطایی صورت می گیرد مقصر و پاسخگو کیست؟ ماشین، اپراتور یا فرمانده؟ پاسخ به چالش های حقوقی و اخلاقی و پرسش مسئولیت دشوار است. سازمانهای حقوق بشر و بشردوستانه در طول سالها برای نجات جان هر چه بیشتر با تلاش برای تنظیم مقررات توسعه چنین سلاحهایی مبارزه کردهاند. مینهای زمینی و سلاحهای هستهای باعث مرگ صدها هزار نفر شده و با معاهدات خلع سلاح بشردوستانه ممنوع شدهاند.
دومین دلیل آشکار برای نگرانی این است که چنین فناوری ممکن است به دست اشتباه بیفتد. اگر به ترکیب احتمالی این فناوری ها با سایر فناوری ها و تسلیحات مانند شیمیایی، بیولوژیکی، رادیولوژیکی، هسته ای و غیره فکر کنیم، نتایج می تواند وحشتناک باشد. به راحتی می تواند منجر به سلاح های کشتار جمعی و نابودی ما در یک چشم به هم زدن شود. جنگهای نامتقارن قبلاً وجود داشته است، این فناوریهای مخرب خودگردان تنها میتوانند شکاف را افزایش دهند.
پهپادها، تانک های پهپاد و وسایل نقلیه مسلح خودگردان در حال حاضر در حال استفاده هستند و می توانند اولین گام ها برای جنگ کاملاً خودمختار باشند. بحث امکان تحقق چنین فناوری نیست بلکه پیامدهای احتمالی آن است . شکی نیست که زمانی فناوریهای نوآورانهای که هواپیماها و زیردریاییها را امکانپذیر میکردند، که سوالات زیادی را در آن روز به وجود میآوردند، از دیدگاه ما امروز هیچ تهدیدی ندارند. آیا در مورد این فناوری ها هم همینطور خواهد بود یا دلیل واقعی برای ترس داریم؟
بدون نظر