مطالب این بخش از سایر خبرگزاری‌ها جمع‌آوری شده است و صرفا جهت افزایش آگاهی شما قرار گرفته است و لزوما به معنای تایید آن توسط چنج‌کن نیست.

ایستادگی مدیرعامل آنتروپیک در برابر فشار پنتاگون برای حذف محدودیت‌های هوش مصنوعی

داریو آمودی (Dario Amodei)، مدیرعامل شرکت آنتروپیک (Anthropic)، رسماً اعلام کرد که این شرکت از حذف تدابیر امنیتی مدل هوش مصنوعی کلود (Claude) برای استفاده‌های نظامی خودداری می‌کند. این تصمیم در پی ضرب‌الاجل وزارت دفاع ایالات متحده (Pentagon) اتخاذ شده که از پیمانکاران هوش مصنوعی خواسته است اجازه هرگونه بهره‌برداری قانونی از سیستم‌های خود در سامانه‌های طبقه‌بندی‌شده نظامی را صادر کنند. تنش‌ها زمانی بالا گرفت که پنتاگون تهدید کرد قرارداد ۲۰۰ میلیون دلاری این شرکت را لغو و آن را به عنوان «خطر زنجیره تأمین» معرفی خواهد کرد.

آمودی ضمن تأکید بر اهمیت استراتژیک هوش مصنوعی در دفاع از دموکراسی، خاطرنشان کرد که سیستم‌های فعلی برای سلاح‌های کاملاً خودمختار به اندازه کافی قابل‌اعتماد نیستند. او معتقد است استفاده از این فناوری برای نظارت توده‌ای داخلی یا تسلیحات مستقل، با ارزش‌های دموکراتیک در تضاد است.

در حال حاضر، مدل کلود در بخش‌های مختلف دفاعی برای تحلیل داده‌های اطلاعاتی، شبیه‌سازی و برنامه‌ریزی عملیاتی استفاده می‌شود، اما آنتروپیک حاضر به واگذاری کنترل کامل لایه‌های امنیتی آن به ارتش نیست.

وزارت دفاع آمریکا در نظر دارد با استناد به قانون تولید دفاعی، آنتروپیک را مجبور به همکاری کند. رابرت ویسمن (Robert Weissman)، رئیس سازمان پابلیک سیتیزن (Public Citizen)، معتقد است پنتاگون با تحت فشار گذاشتن عمومی آنتروپیک، قصد دارد پیامی به تمام شرکت‌های بزرگ فناوری ارسال کند تا بدانند ارتش دسترسی بدون محدودیت به اختراعات آن‌ها را انتظار دارد.

داریو آمودی در بیانیه رسمی خود گفت:

دلیل اصلی پافشاری آنتروپیک بر حفظ خطوط قرمز، نتایج نگران‌کننده مطالعات اخیر است. در تحقیقات دانشگاه کینگز لندن، مدل‌های پیشرفته هوش مصنوعی از جمله کلود و جی‌پی‌تی در ۹۵ درصد سناریوهای شبیه‌سازی‌شده بحران‌های ژئوپلیتیک، به استفاده از تسلیحات هسته‌ای روی آورده‌اند. این عدم ثبات در تصمیم‌گیری‌های حساس، نگرانی‌ها درباره واگذاری کنترل کامل این ابزارها به بخش‌های نظامی بدون نظارت شرکت‌های سازنده را دوچندان کرده است.