دیده بان علم ایران

یکشنبه، ۲۱ آذر، ۱۳۹۵ | Sunday, 11 December , 2016

هشدار دانشمندان درباره ظهور ربات‌های قاتل

کد خبر: 1947 نسخه قابل پرینت
۳۰ خرداد ۱۳۹۵ | ۱۳:۴۵
هشدار دانشمندان درباره ظهور ربات‌های قاتل

محققان معتقدند که با توجه به سرمایه‌گذاری‌ هنگفت دولتی و بخش خصوصی در زمینه تولید ربات‌های هوشمند جنگی، باید وجه منفی عملکرد این تجهیزات کشنده را نیز در نظر گرفت.

به گزارش دیده بان علم ایران، طرح استفاده ابزاری از فناوری هوش مصنوعی به عنوان جایگزینی برای نیروهای نظامی از سال‌ها قبل مطرح شده است، اما با توجه به پیشرفت روزافزون تکنولوژی و رقابت فشرده شرکت‌های دولتی و بخش خصوصی در این زمینه، انتظار می‌رود تا سال آینده میلادی اولین نمونه خودکار ربات مجهز به سلاح کشنده توسط محققان ارتش ایالات متحده آمریکا تولید و به کار گرفته شود.
دانشمندان معتقدند که با روی‌ کار آمدن فناوری رباتیک به عنوان ابزاری جهت کشتن انسان‌ها چه به صورت خودکار و یا کنترل از راه دور، تصمیم‌گیری برای کشتن شهروندان بی‌گناه بسیار آسان‌تر از شرایط واقعی خواهد شد.
امکان تصمیم‌گیری اتفاقی یا بدون قضاوت توسط فناوری هوش مصنوعی به کار رفته در ربات‌های مجهز به سلاح‌های واقعی غیرقابل پیشگیری است، بنابراین امکان هدف‌گیری شهروندان معمولی به جای افراد مسلح همواره وجود دارد.
فناوری ربات‌های مجهز به سلاح یا killer robots می‌تواند در شکل‌های گوناگونی ظاهر شود. در واقع این فناوری را می‌توان در تجهیزات زمینی، هوایی و حتی دریایی به کار گرفت.
اگرچه همیشه کارشناسان علم رباتیک خطر ورود ربات‌های هوشمند مجهز به سلاح را هشدار می‌دهند، اما طبق معمول شرکت‌های تولید‌کننده سلاح با در دست داشتن ابزار مالی و لابی‌گری در سیاست به هدف خود دست می‌یابند و همواره  شهروندان بی‌گناه قربانی می‌شوند.
کارشناسان رباتیک همچنین معتقدند که جایگزینی هوش مصنوعی در هدف‌گیری و تصمیم به شلیک به جای منطق انسان یک تصمیم کاملا خطرناک و غیرعاقلانه است، چرا که در این حالت یک ربات تصمیم می‌گیرد که به یک هدف انسانی بدون در نظر گرفتن منطق و اهمیت جان انسان‌ شلیک کند.
اکثر حقوقدانان آمریکایی معتقدند که متاسفانه از نظر مسائل حقوقی در شرایطی که ربات به طور خودسرانه و برخلاف منطق عملی را انجام دهد، هیچکس مقصر نخواهد شد و نمی‌توان هوش مصنوعی را مقصر قلمداد کرد. در واقع بهترین اقدام برای جلوگیری از وقوع چنین بحرانی، جلوگیری از ساخت چنین وسایل خطرناکی است یا در خوشبینانه‌ترین حالت تصمیم تیراندازی باید توسط یک انسان انجام شود نه یک ماشین هوشمند.

انتهاي پیام

نظر بدهید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

خواهشمند است جهت تسهیل ارتباط خود با دیده‌بان علمی ایران، در هنگام ارسال پیام نکات ذیل را در نظر داشته باشید:
۱. از توهین به افراد، قومیت‌ها و نژاد‌ها خودداری کرده و از تمسخر دیگران بپرهیزید و از اتهام‌زنی به دیگران خودداری نمائید.
۲.از آنجا که پیام‌ها با نام شما منتشر خواهد شد، بهتر است با ارسال نام واقعی و ایمیل خود «دیده‌بان علمی ایران» را در شکل دهی بهتر بحث یاری نمایید.
۳. از به کار بردن نام افراد (حقیقی یا حقوقی)، سازمان‌ها، نهادهای عمومی و خصوصی خودداری فرمائید.
۴. از ارسال پیام های تکراری که دیگر مخاطبان آن را ارسال کرده اند خودداری نمائید.
۵. حتی الامکان از ارسال مطالب با زبانی غیر از فارسی خودداری نمائید.
آخرین مطالب
تمامی حقوق این سایت متعلق به «دیده‌بان علمی ایران» است
Copyright © 2016
Designed By Aryan