چگونه تحقیقات پیش از توسعه نوآوری بعدی خود را انجام دهید

آیا فناوری‌های نوآورانه آن را با سیستم‌های تسلیحاتی خودران بیش از حد پیش می‌برند؟

آیا نسل بشر یک گام نهایی به پایان خود نزدیک شده است؟ سیستم‌های تسلیحاتی خودمختار که به ربات‌های قاتل نیز گفته می‌شود، می‌تواند فصل بعدی توسعه سلاح‌ها باشد، اما می‌تواند آخرین فصل آن نیز باشد. آنها سومین انقلاب در جنگ را پس از باروت و بمب های هسته ای رقم می زنند. آنها چه هستند و چرا چنین تهدیدی برای بشریت ایجاد می کنند؟

به نظر می‌رسد روبات‌هایی با سلاح‌های کشنده که در فیلم‌ها تماشا کرده‌ایم و در مورد آنها خوانده‌ایم، ممکن است قبلاً اینجا باشند. سیستم های تسلیحاتی خودمختار به گونه ای توسعه یافته اند که به طور مستقل عمل کنند و اهداف را با پردازش حسگر شناسایی کنند نه توسط انسان. طرد انسان ها از فرآیند تصمیم گیری و عدم همدلی، عواطف، روحیه و اخلاق به راحتی می تواند به اشتباهات غم انگیزی با پیامدهای پیش بینی نشده و بی سابقه منجر شود.

به قول معروف راه جهنم با نیت خیر هموار شده است. اکثر نوآوری‌ها، اگر نگوییم همه، از یک نیت خوب سرچشمه می‌گیرند، اما ما قبلاً شاهد بودیم که چگونه برخی از آنها در دستان نادرست، یا توسط مجموعه‌ای از رویدادها به وجود آمده‌اند، بیشتر ضرر می‌کنند تا مفید. بسیاری از اوقات ما حتی نمی‌توانیم تصور کنیم که یک نوآوری چه تاثیری می‌تواند داشته باشد و مسیری که طی خواهد کرد. و این بار جنبه تاریک نوآوری ها تهدیدی واقعی برای موجودیت ما به شمار می روند. به همین دلیل است که بسیاری نگران توسعه بیشتر سیستم‌های سلاح خودمختار و هوش مصنوعی هستند.

پوشش نقره‌ای این فناوری‌های جدید این است که سربازان انسانی کمتری به کار گرفته می‌شوند و در نتیجه جان‌های بیشتری نجات می‌یابد. استفاده از این فناوری‌های نوآورانه نه تنها اقدامات سریع‌تر و کارآمدتر را ممکن می‌سازد، بلکه مأموریت‌هایی را نیز ممکن می‌سازد که در غیر این صورت بسیار پرخطر، پرهزینه یا حتی غیرممکن هستند. توانایی جنگیدن از راه دور با استفاده از این فناوری‌های نوآورانه، جایگزین نبرد رو در رو می‌شود و جان سربازان را نجات می‌دهد، اما شفقت و همدلی را نیز کاهش می‌دهد. انگار کسی در حال انجام یک بازی ویدیویی است. تصمیم برای رفتن به جنگ بیهوده خواهد بود.

اولین دلیل آشکار برای نگرانی فقدان قضاوت انسانی است . اگرچه یک ماشین دقیق‌تر است و واکنش‌های سریع‌تری نسبت به انسان‌ها دارد، اما در هر چیزی که ما را انسان می‌سازد، کم است و درک متن مشکل دارد. فن آوری هایی مانند تشخیص صدا و چهره قبلاً ثابت کرده اند که در تشخیص بخش های خاصی مانند زنان، رنگین پوستان و افراد دارای معلولیت، میزان شکست بالایی دارند. چگونه یک ربات بین یک هدف متخاصم و یک کودک در حال بازی با یک تفنگ اسباب بازی تشخیص می دهد؟

انسان ها همیشه مرتکب اشتباه می شوند، اما اگر مقیاس، سرعت و وسعتی که سیستم های تسلیحاتی خودگردان در آن مستقر می شوند و خطای احتمالی آنها را در نظر بگیریم، نتیجه ویرانگر است. حتی با وجود حفاظت، این سیستم ها همیشه می توانند در برابر هک آسیب پذیر باشند. در نهایت وقتی خطایی صورت می گیرد مقصر و پاسخگو کیست؟ ماشین، اپراتور یا فرمانده؟ پاسخ به چالش های حقوقی و اخلاقی و پرسش مسئولیت دشوار است. سازمان‌های حقوق بشر و بشردوستانه در طول سال‌ها برای نجات جان هر چه بیشتر با تلاش برای تنظیم مقررات توسعه چنین سلاح‌هایی مبارزه کرده‌اند. مین‌های زمینی و سلاح‌های هسته‌ای باعث مرگ صدها هزار نفر شده و با معاهدات خلع سلاح بشردوستانه ممنوع شده‌اند.

دومین دلیل آشکار برای نگرانی این است که چنین فناوری ممکن است به دست اشتباه بیفتد. اگر به ترکیب احتمالی این فناوری ها با سایر فناوری ها و تسلیحات مانند شیمیایی، بیولوژیکی، رادیولوژیکی، هسته ای و غیره فکر کنیم، نتایج می تواند وحشتناک باشد. به راحتی می تواند منجر به سلاح های کشتار جمعی و نابودی ما در یک چشم به هم زدن شود. جنگ‌های نامتقارن قبلاً وجود داشته است، این فناوری‌های مخرب خودگردان تنها می‌توانند شکاف را افزایش دهند.

پهپادها، تانک های پهپاد و وسایل نقلیه مسلح خودگردان در حال حاضر در حال استفاده هستند و می توانند اولین گام ها برای جنگ کاملاً خودمختار باشند. بحث امکان تحقق چنین فناوری نیست بلکه پیامدهای احتمالی آن است . شکی نیست که زمانی فناوری‌های نوآورانه‌ای که هواپیماها و زیردریایی‌ها را امکان‌پذیر می‌کردند، که سوالات زیادی را در آن روز به وجود می‌آوردند، از دیدگاه ما امروز هیچ تهدیدی ندارند. آیا در مورد این فناوری ها هم همینطور خواهد بود یا دلیل واقعی برای ترس داریم؟

بدون نظر

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *