پیام ویژه - فارس / فارن افرز اعتراف کرد سامانههای هشدار هستهای آمریکابرای مقابله با چالش های هوش مصنوعی آماده نیستند.
این رسانه آمریکایی به ضعف عمده در امنیت ملی آمریکا با ورود هوش مصنوعی به حوزههای حساس هستهای بدون آمادهسازی کافی اشاره کرده و نکات جالبی را مطرح می کند: پیام اصلی این است که سیستمهای هشدار زودهنگام آمریکا، که باید تشخیص حملات هستهای را دقیق و بدون خطا انجام دهند، هنوز برای مواجهه با چالشهای هوش مصنوعی—از جمله خطاهای تشخیصی، توهم دادهای و دیپفیکها—آماده نیستند.
با پیشرفت سریع هوش مصنوعی، تهدیدات علیه ثبات هستهای افزایش یافتهاند. یکی از نگرانیها این است که یک کشور دارنده سلاح هستهای تصمیم به استفاده از سلاحها را به ماشینها واگذار کند. آمریکا برای جلوگیری از این خطر، اقداماتی را به کار گرفته تا تصمیم نهایی برای شلیک همواره در دست انسان باقی بماند. بر اساس استراتژی دفاع ملی ۲۰۲۲، انسان همواره «در حلقه» تصمیمگیری درباره استفاده یا توقف استفاده از سلاحهای هستهای حضور خواهد داشت. همچنین، رئیسجمهور آمریکا و رهبر چین توافق کردند که «تصمیمگیری درباره استفاده از سلاحهای هستهای باید تحت کنترل انسان باشد». با این حال، هوش مصنوعی تهدیدی پنهانتر نیز ایجاد میکند: دیپفیکها. این فناوریها که شامل ویدیو، تصویر و صوت جعلی و بسیار واقعی هستند، انتشار اطلاعات غلط را سادهتر میکنند. نمونههایی از آن در سالهای اخیر دیده شدهاند؛ از جمله ویدیوهای جعلی از رئیسجمهور اوکراین و رئیسجمهور روسیه که باعث گمراه شدن مردم شدند. در سناریویی افراطی، دیپفیک میتواند رهبر یک کشور هستهای را قانع کند که حملهای در حال وقوع است، یا پلتفرمهای هوش مصنوعی میتوانند هشدارهای کاذب از جمله حمله بمب کثیف ارائه دهند. در همین حال، دولت ترامپ خواستار استفاده «تهاجمی» از هوش مصنوعی در بخش امنیت ملی شده است. سامانههایی مانند GenAI.mil معرفی شدهاند که ابزارهای هوش مصنوعی را در اختیار کارکنان وزارت دفاع قرار میدهند. اما در ادغام هوش مصنوعی در زیرساختهای امنیت ملی، ضروری است که نقش ماشینها در مراحل اولیه تصمیمگیری هستهای محدود و تحت کنترل انسان باشد.
بازار


مهندسان هنوز نتوانستهاند مشکلات ذاتی هوش مصنوعی مانند «توهم» و «تقلب» را بهطور کامل رفع کنند، بنابراین باید تصمیمگیری نهایی همیشه انسانی باقی بماند.
بحرانهای زنجیرهای
رئیسجمهور فعلی آمریکا و مشاورانش گاهی دیپفیکها را روی شبکههای اجتماعی بازنشر میکنند. در این شرایط، احتمال نفوذ اطلاعات جعلی به تصمیمات حیاتی امنیت ملی، از جمله تصمیمات هستهای در ایالات متحده، افزایش مییابد. طبق قانون آمریکا، رئیسجمهور بدون مشورت با هیچ نهادی میتواند دستور استفاده از سلاح هستهای را صادر کند. نیروهای هستهای آمریکا آمادهاند تا طی نیم ساعت موشکهای بینقارهای خود را به هدف برسانند و پس از شلیک، هیچکس نمیتواند آن را متوقف کند. دیپفیکها میتوانند بهانههای جنگ ایجاد کنند. سیستمهای «شلیک در هشدار» آمریکا و روسیه میتوانند به محض تشخیص حرکت موشکهای دشمن، واکنش نشان دهند. بنابراین رهبر کشورها تنها چند دقیقه برای ارزیابی واقعیت دارند. استفاده از هوش مصنوعی برای تفسیر دادههای هشدار زودهنگام میتواند حملهای خیالی را نشان دهد و مقامات آمریکایی را در موقعیتی مشابه موقعیت پتروف (اشاره به حادثهای تاریخی در سال ۱۹۸۳ در شوروی سابق دارد که میتوان آن را نقطه حساسی در تاریخ جنگ سرد و خطرات هستهای دانست) قرار دهد. تحقیقات نشان میدهد که افراد حتی با آشنایی متوسط با هوش مصنوعی، تمایل دارند به خروجیهای ماشینی اعتماد کنند و آن را بدون بررسی دقیق قبول کنند. در شرایط بحرانی هستهای، این اعتماد میتواند به اشتباهات فاجعهآمیز منجر شود.
چشمانداز بحرانی
دیپفیکها حتی در رسانههای عمومی نیز خطرناک هستند. رهبران آمریکایی ممکن است تستهای موشکی روسیه را حمله واقعی تعبیر کنند یا تمرینات نظامی چین را تهدیدی برای متحدان آمریکا بدانند. این فناوری میتواند بهانه جنگ بسازد، حمایت عمومی را جلب کند و سردرگمی ایجاد نماید. هوش مصنوعی در برخی بخشهای نظامی مفید است، مانند زمانبندی تعمیرات، ترجمه اطلاعات و تحلیل تصاویر ماهوارهای. اما به کارگیری آن در سیستمهای هشدار هستهای و فرماندهی و کنترل بسیار خطرناک است، زیرا احتمال خطا و توهم بالا است و دادههای کافی برای آموزش هوش مصنوعی در این زمینه وجود ندارد. از این رو، جایگزینی نیروهای انسانی با هوش مصنوعی در حوزه هستهای میتواند به خطا، تعصب و سوءتفاهم منجر شود. باید همانند پهپادهای خودران، کنترل انسانی معنادار در تمام بخشهای هشدار هستهای تضمین شود.
ضعف راهبردی آمریکا
امروزه خطر جنگ هستهای بیشتر از دهههای پیش است. روسیه تهدید به استفاده از سلاح هستهای در اوکراین کرده، چین زرادخانه خود را سریعاً گسترش میدهد، و کره شمالی قادر به هدف گرفتن آمریکا با ICBM است. سیاستهای کنترل تسلیحات و جلوگیری از اشاعه نیز تضعیف شدهاند.در این شرایط، ضروری است که انسانها و نه ماشینها، ارزیابی اقدامات و نیات دشمن را انجام دهند. آژانسهای اطلاعاتی باید منشأ اطلاعات هوش مصنوعی را بهتر رصد کنند و مشخص کنند که دادهها اصلی یا جعلی هستند.دیپفیکها میتوانند رهبران کشورها را فریب دهند و تصور حملهای غیرواقعی را ایجاد کنند. در گذشته، دیپلماسی و گفتوگوی واقعی مانع سوءتفاهم میان قدرتهای هستهای میشد. امروز، سیاستها و رویهها باید خطرات اطلاعاتی هوش مصنوعی را کاهش دهند تا از وقوع «آخرالزمان» جلوگیری شود.