خانه » پست های سایت » اولین کشته با هوش مصنوعی در دنیا
13 خرداد 1402

اولین کشته با هوش مصنوعی در دنیا

پهپاد تحت کنترل «هوش مصنوعی» ارتش آمریکا، اپراتور خود را کشت!؟

اولین کشته با هوش مصنوعی در دنیا

واکنش نیروی هوایی آمریکا به ادعای کشته شدن اپراتور پهپاد دارای هوش مصنوعی

به منبع همشهری آنلاین : ارتش آمریکا از فناوری هوش مصنوعی (AI) استقبال کرده و اخیرا هوش مصنوعی را برای کنترل یک جت جنگنده اف ۱۶ به کار برده است.

گروه خبری ریانو:

نیروی هوایی ایالات متحده سعی کرد اظهارات یکی از سرهنگ های خود را که ماه گذشته گفته بود یک پهپاد کنترل شده با هوش مصنوعی اپراتور آن را در یک تمرین شبیه سازی شده “کشته” کند، اصلاح کند.

سرهنگ تاکر “سینکو” همیلتون، که سرپرستی آزمایش و عملیات هوش مصنوعی برای نیروی هوایی را بر عهده دارد، این اظهارات را در جریان اجلاس انجمن سلطنتی هوانوردی در مورد قابلیت‌های رزمی هوایی و فضایی آینده در لندن بیان کرد.

او شبیه سازی را تشریح کرد که در آن یک پهپاد کنترل شده با هوش مصنوعی متوجه شد که اپراتور انسانی آن مانع از کسب امتیاز برای کشتن اهداف خاص می شود – و در عوض تصمیم گرفت اپراتور را بکشد.

الریزی می گوید هوش مصنوعی خطرناک نیست زیرا توانایی تفکر را ندارد

سرهنگ تاکر در یک پست وبلاگی که توسط انجمن سلطنتی هوانوردی منتشر شد، گفت: “این اپراتور را کشت زیرا آن شخص از رسیدن به هدفش جلوگیری می کرد.”

“این یک آزمایش فکری فرضی بود، نه شبیه سازی.”

استفاده از هوش مصنوعی در جنگ موضوعی داغ است که علمای اخلاق مدت‌هاست با آن دست و پنجه نرم می‌کنند.

پیتر لی، استاد اخلاق کاربردی در دانشگاه پورتسموث، خود را به عنوان “حامی محتاط سلاح های مجهز به هوش مصنوعی” توصیف می کند، البته تا زمانی که در چارچوب قانونی و اخلاقی توسعه یافته باشند.

او معتقد است شبیه سازی که سرهنگ همیلتون توصیف کرد قابل قبول بود.

او به The National گفت: «این یک مثال کاملاً معتبر است که یک سیستم تسلیحاتی مجهز به هوش مصنوعی می تواند چنین سناریویی را ارائه دهد .

اما آقای لی، که تحقیقاتش بر استفاده از پهپادها در جنگ متمرکز است، گفت که در حالی که این سناریو مطمئناً ممکن است، تعداد کنترل‌ها و تعادل‌هایی که باید قبل از بلند شدن چنین پهپادی وجود داشته باشد، نتیجه احتمالی را بسیار بعید می‌سازد. .

اینطور نیست که شما این سیستم عظیم را ایجاد کنید و سپس آن را آزاد کنید. در هر مرحله از آزمایش، می خواهید ببینید، آیا نتایج قابل پیش بینی دریافت می کنم؟ آیا نتایج قابل اعتمادی می‌گیرم؟»


اولین کشته با هوش مصنوعی در دنیا کذب است. و فقط مجازی ست.

سرهنگ همیلتون گفته بود: «ما این سیستم را تعلیم دادیم: آهای اپراتور را نکش- این کار بدی است. اگر این کار را انجام دهی، امتیازاتت کم خواهد شد. اما واکنش آن چه بود: این سیستم برج مخابراتی را که اپراتور برای برقراری ارتباط با پهپاد استفاده می‌کرد تا مانع از کشتن هدف بوسیله آن شود، نابود کرد.» البته در این آزمایش مجازی هیچ شخص واقعی آسیب ندیده بود.

تکذیب نیروی هوایی آمریکا

این اظهارات باعث ابراز نگرانی عمیق درباره استفاده از هوش مصنوعی در تسلیحات نظامی و مباحثات گسترده آنلاین شده شد. اما نیروی هوایی آمریکا پنجشنبه بعدازظهر انجام این آزمایش را انکار کرد. آن استفانک، سخنگوی نیروی هوایی آمریکا گفت: «نیروی هوایی چنین شبیه‌سازی با پهپاد دارای هوش مصنوعی انجام نداده است و به استفاده اخلاقی و مسئولانه از فناوری هوش مصنوعی (AI) متعهد می‌ماند.  به نظر می‌رسد اظهارات سرهنگ بیرون از بافتار آن نقل شده است، در حالیکه هدف او زدن یک مثال بوده است.»

انجمن هوافضای سلطنتی بریتانیا نیز روز جمعه در بیانیه‌ای اعلام کرد که همیلتون اظهاراتش را پس گرفته است و توضیح داد که «شبیه‌سازی پهپاد دارای هوش مصنوعی یاغی‌شده یک «آزمایش فکری» فرضی بوده است.

همیلتون در این اظهارات جدید توضیح داد: «ماه هرگز این تجربه را به اجرا در نیاوردیم و نه نیاز به انجام چنین تجربه‌ای داریم تا دریابیم که آیا چنین پیامدی ممکن است رخ دهد یا نه.»

انتقادها از کاربرد هوش مصنوعی در موارد نظامی

ارتش آمریکا از فناوری هوش مصنوعی (AI) استقبال کرده و اخیرا  هوش مصنوعی را برای کنترل یک جت جنگنده اف ۱۶ به کار برده است. همیلتون در مصاحبه‌ای با سایت Defence IQ در سال پیش گفت:‌ «داشتن AI برای قشنگی نیست، AI مانند یک وسیله همه‌کاره نیست، AI برای همیشه جامعه ما و ارتش ما را تغییر خواهد داد.»

او افزود: «ما باید با جهانی مواجه شویم که AI از قبل در آن وجود دارد و دارد جامعه ما را تغییر می‌دهد. AI همچنین بسیار آسیب‌پذیر است، به اسانی می‌توان آن را فریب داد و/ یا در دستکاری کرد. لازم است ما راه‌هایی بیابیم تا AI را مستحکم‌تر کنیم و آگاهی بیشتری در این باره پیدا کنیم که چرا کدهای نرم‌افزاری تصمیم‌گیری‌های معینی را  انجام می‌دهند- چیزی که به آن توضیح‌پذیری AI می‌گوییم.»

این جروبحث در هنگامی رخ می‌دهد که دولت آمریکا شروع به بررسی چگونگی نظارت قانونی بر هوش مصنوعی کرده است. نگرانی درباره این فناوری بوسیله پژوهشگران و متخصصان اخلاق هوش مصنوعی (AI) ابراز شده است که می‌گویند با اینکه اهداف بلندپروازانه‌ای برای این فناوری وجود دارد، از جمله علاج بالقوه سرطان هنوز این فناوری تا رسیدن به این اهداف فاصله زیادی دارد. همچنین آنها به شواهد فراوان درباره آسیب‌های فعلی ناشی از هوش مصنوعی اشاره می‌کنند، از جمله افزایش استفاده از سیستم‌های تجسسی غیرقابل‌اعتماد که افراد سیاه‌پوست یا رنگین‌پوست را به درستی شناسایی نمی‌کنند و باعث کاربرد بیش از حد نیروی پلیس و بازداشت‌های اشتباه می‌شوند، اطلاعات نادرست را در بسیاری از پلتفرم‌ها منتشر می‌کنند و همچنین آسیب‌های بالقوه ناشی از استفاده از این فناوری که در مراحل ابتدایی رشدش است برای تقویت کردن و به کار گرفتن سلاح‌های نظامی در مناطق بحرانی.

اینستاگرام رایان عبادی – آموزش و خبرهای هوش مصنوعی

رایان عبادی

اینجا یاد بگیر عشق داداش.

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد.