نشریه چینی بررسی کرد؛
هوش مصنوعی؛ سلاح پنهان قدرتهای بزرگ در جنگهای کنونی
جهان
145311
یک نشریه چینی در گزارشی با اشاره به تحولات میادین نبرد در سالهای اخیر، تاکید کرد: انقلاب هوش مصنوعی به عاملی تعیینکننده در جنگهای کنونی تبدیل شده و قدرتهای بزرگ با تکیه بر این فناوری، برتری راهبردی خود را دنبال میکنند.
ایران آنلاین: از نشریه آسیا تایمز، تمرکز بسیاری از تحلیلگران نظامی در سالهای اخیر بر نقش هواپیماهای بدون سرنشین (پهپاد) در تغییر ماهیت جنگ بوده است، درحالی که تحول عمیقتر و تعیینکنندهتر در سرشت جنگ ها را در انقلاب هوش مصنوعی میشود دید.
به گزارش ایرنا، براساس همین گزارش، هوش مصنوعی میتواند کارایی پهپادها را افزایش دهد و همچنین در انتخاب اولویتبندی اهداف، طراحی عملیاتهای تاکتیکی، تحلیل دادههای میدانی و ارزیابی نتایج نقش محوری داشته باشد. علاوه برآن، این فناوری نوین درحال بازتعریف میدان نبرد است.
این نشریه چینی افزود که اگرچه آمریکا در این حوزه مزیتهای چشمگیری دارد اما با خطرات و آسیبپذیریهای جدی نیز روبهروست.
هوش مصنوعی در چندین درگیری اخیر از جنگ غزه و اوکراین گرفته تا عملیاتهای مشترک آمریکا و اسرائیل در ایران نقشی مهم ایفا کرده است. بنابراین، در صورت هرگونه اقدام نظامی جدید، برنامهریزی و اجرای عملیات به احتمال زیاد با پشتیبانی گسترده سامانههای هوش مصنوعی انجام خواهد شد.
ایالات متحده و اسرائیل از پیشگامان ادغام هوش مصنوعی در ساختارهای نظامی هستند اما بازیگران مهم دیگری نیز در حال پیشرویاند؛ چین بهسرعت درحال توسعه موتورهای بومی هوش مصنوعی است و روسیه نیز از این فناوری در پهپادها و سامانههای تاکتیکی استفاده میکند. همچنین کشورهای اروپایی مانند انگلیس، فرانسه و آلمان نیز آن را در حوزه اطلاعاتی و نظامی بهکار گرفتهاند.
آسیا تایمز در گزارش خود مینویسد که در آمریکا، شرکتهایی مانند «پالانتیر» (Palantir) با همکاری شرکتهای «انویدیا» (NVIDIA) و «آنتروپیک» (Anthropic) در حوزه کلانداده و تحلیلهای پیشرفته فعالیت دارند. همچنین اسرائیل نیز ترکیبی از واحدهای نظامی مانند واحد ۸۲۰۰ و شرکتهایی چون «اِلبیت سیستمز»(Elbit Systems) و استارتاپهای نوآور در زمینه محاسبات لبهای و رباتیک فعالاند.
این نشریه چینی مقیم هنگکنگ تاکید می کند که شرکتهای غول فناوری نظیر «اوپنایآی»(OpenAI)، گوگل، آنتروپیک و متا سهم قابلتوجهی از بازار مدلهای زبانی بزرگ (LLM) را در اختیار دارند اما با این حال، اختلافهایی میان پنتاگون و برخی شرکتها بر سر نحوه استفاده نظامی از مدلها وجود دارد.
درهمین پیوند، ایالات متحده تاکنون دهها میلیارد دلار در مراکز داده، زیرساختهای مرتبط با تراشههای پیشرفته و تحقیق و توسعه هوش مصنوعی سرمایهگذاری کرده تا بتواند ساختار نیروی کار فدرال و حتی نقشهای نظامی را دگرگون کند. همچنین پنتاگون سالانه میلیاردها دلار بهطور مستقیم و غیرمستقیم در این حوزه هزینه میکند و در حال شکل دادن به یک قدرت برتر هوش مصنوعی است.
در مقابل، روسیه که با محدودیتهای زیرساختی و مالی مواجه است اما از هوش مصنوعی در پهپادهایی مانند «گران-۲» (Geran-2) و «زالا لَنست»(Zala Lancet) و سامانه «سْوُد»(Svod) برای آگاهی موقعیتی تاکتیکی بهره میبرد.
«سوُد» یک سامانه است که میتواند دادههای ماهوارهای، پهپادی و اطلاعات میدانی را یکپارچه کرده و گزینههای تاکتیکی از پیشمحاسبهشده ارائه دهد. همچنین سامانه بر پایه سیستمعامل بومی و چارچوبهایی مانند «یولو»(YOLO) -یک الگوریتم تشخیص اشیا در زمان واقعی است که در بینایی ماشین برای شناسایی سریع اهداف در تصاویر و ویدئوها استفاده میشود- برای تشخیص اهداف و مدلهایی مانند مدل زبانی «لاما» (LLaMA)- توسط شرکت متا (Meta) توسعه یافته و یک مدل زبانی بزرگ (LLM) متنباز است- و «میسترال» (Mistral) - «میسترال» نام یک شرکت فرانسوی فعال در حوزه مدلهای زبانی بزرگ (LLM) است- برای پردازش متن توسعه یافته است. با این حال، مسکو به دلیل تحریمها به تراشههای قاچاق یا چینی متکی است و در حوزه ارتباطات شبکهمحور با چالش جدی روبهروست، بهویژه در مقایسه با اوکراین که از شبکه استارلینک بهره میبرد.
چین نیز در توسعه هوش مصنوعی از روسیه جلوتر است اما همچنان با آمریکا رقابت میکند. با این حال، کمبود تجربه عملی در میدان نبرد مدرن ممکن است بر کارایی سامانههای چینی تاثیر بگذارد.
نشریه آسیا تایمز در گزارش خود به افزایش تهدیدات امنیتی در کنار مزایا هوش مصنوعی اشاره و میگوید که حملات «استخراج مدل»(Model Extraction)، جیلبریکها (Jailbreak) و آلودگی چتباتها (AI Poisoning) نشان میدهد که سامانههای هوش مصنوعی هدف مستقیم رقبا قرار گرفتهاند.
در حوزه امنیت هوش مصنوعی، سه تهدید مهم شامل استخراج مدل، جیلبریک و مسمومسازی چتباتها هستند که هر یک ماهیت متفاوتی دارند اما همگی میتوانند امنیت سامانههای هوش مصنوعی را به خطر اندازند.
استخراج مدل نوعی حمله سایبری است که در آن مهاجم با ارسال حجم زیادی از پرسوجوها به یک سامانه هوش مصنوعی، تلاش میکند ساختار، منطق یا پارامترهای آن را مهندسی معکوس کرده و نسخهای مشابه از مدل اصلی ایجاد کند. هدف این حمله معمولاً سرقت فناوری یا دستیابی به قابلیتهای اختصاصی مدل است.
جیلبریک به روشی گفته میشود که طی آن کاربر یا مهاجم با طراحی دستورات خاص، محدودیتها و فیلترهای ایمنی مدل را دور میزند و آن را وادار میکند پاسخهایی ارائه دهد که در شرایط عادی مجاز نیستند. در این حالت، مدل از چارچوبهای حفاظتی خود خارج میشود.
مسمومسازی یا آلودگی چتباتها زمانی رخ میدهد که مهاجمان با تزریق دادههای نادرست، سوگیرانه یا هدفمند به منابع آموزشی یا محیط اطلاعاتی مدل، خروجیهای آن را منحرف میکنند. در نتیجه، چتبات ممکن است اطلاعات غلط، روایتهای تبلیغاتی یا تحلیلهای تحریفشده ارائه دهد.
گزارشها از تلاش بازیگران روسی، چینی و دیگر کشورها برای نفوذ، مهندسی معکوس و دستکاری خروجی مدلهای هوش مصنوعی حکایت دارد و وابستگی پنتاگون به سامانههای تجاری نیز خطرات جانبی ایجاد کرده و امنیت هوش مصنوعی میتواند به پاشنه آشیل برتری فناوری آمریکا تبدیل شود.
در مجموع، هوش مصنوعی به یکی از ارکان اصلی امنیت ملی و رقابت ژئوپلیتیکی تبدیل شده است. در حالی که این فناوری مزیتهای عملیاتی عظیمی فراهم میکند، حفاظت از سامانهها، دادهها و زیرساختهای مرتبط با آن ضرورتی حیاتی است؛ زیرا در آینده نزدیک، ماشینها و شبکههای هوش مصنوعی به اهداف اصلی رقابت و حمله در عرصه جهانی تبدیل خواهند شد.
انتهای پیام/