نشریه چینی بررسی کرد؛

هوش مصنوعی؛ سلاح پنهان قدرت‌های بزرگ در جنگ‌های کنونی

جهان

145311
هوش مصنوعی؛ سلاح پنهان قدرت‌های بزرگ در جنگ‌های کنونی

یک نشریه چینی در گزارشی با اشاره به تحولات میادین نبرد در سال‌های اخیر، تاکید کرد: انقلاب هوش مصنوعی به عاملی تعیین‌کننده در جنگ‌های کنونی تبدیل شده و قدرت‌های بزرگ با تکیه بر این فناوری، برتری راهبردی خود را دنبال می‌کنند.

ایران آنلاین: از نشریه آسیا تایمز، تمرکز بسیاری از تحلیلگران نظامی در سال‌های اخیر بر نقش هواپیماهای بدون سرنشین (پهپاد) در تغییر ماهیت جنگ بوده است، درحالی که تحول عمیق‌تر و تعیین‌کننده‌تر در سرشت جنگ‌ ‌ها را در انقلاب هوش مصنوعی می‌شود دید.

به گزارش ایرنا، براساس همین گزارش، هوش مصنوعی می‌تواند کارایی پهپادها را افزایش دهد و همچنین در انتخاب اولویت‌بندی اهداف، طراحی عملیات‌های تاکتیکی، تحلیل داده‌های میدانی و ارزیابی نتایج نقش محوری داشته باشد. علاوه برآن، این فناوری نوین درحال بازتعریف میدان نبرد است.

این نشریه چینی افزود که اگرچه آمریکا در این حوزه مزیت‌های چشمگیری دارد اما با خطرات و آسیب‌پذیری‌های جدی نیز روبه‌روست.

هوش مصنوعی در چندین درگیری اخیر از جنگ غزه و اوکراین گرفته تا عملیات‌های مشترک آمریکا و اسرائیل در ایران نقشی مهم ایفا کرده است. بنابراین، در صورت هرگونه اقدام نظامی جدید، برنامه‌ریزی و اجرای عملیات به احتمال زیاد با پشتیبانی گسترده سامانه‌های هوش مصنوعی انجام خواهد شد.

ایالات متحده و اسرائیل از پیشگامان ادغام هوش مصنوعی در ساختارهای نظامی هستند اما بازیگران مهم دیگری نیز در حال پیشروی‌اند؛ چین به‌سرعت درحال توسعه موتورهای بومی هوش مصنوعی است و روسیه نیز از این فناوری در پهپادها و سامانه‌های تاکتیکی استفاده می‌کند. همچنین کشورهای اروپایی مانند انگلیس، فرانسه و آلمان نیز آن را در حوزه اطلاعاتی و نظامی به‌کار گرفته‌اند.

آسیا تایمز در گزارش خود می‌نویسد که در آمریکا، شرکت‌هایی مانند «پالانتیر» (Palantir) با همکاری شرکت‌های «انویدیا» (NVIDIA) و «آنتروپیک» (Anthropic) در حوزه کلان‌داده و تحلیل‌های پیشرفته فعالیت دارند. همچنین اسرائیل نیز ترکیبی از واحدهای نظامی مانند واحد ۸۲۰۰ و شرکت‌هایی چون «اِل‌بیت سیستمز»(Elbit Systems) و استارتاپ‌های نوآور در زمینه محاسبات لبه‌ای و رباتیک فعال‌اند.

این نشریه چینی مقیم هنگ‌کنگ تاکید می کند که شرکت‌های غول فناوری نظیر «اوپن‌ای‌آی»(OpenAI)، گوگل، آنتروپیک و متا سهم قابل‌توجهی از بازار مدل‌های زبانی بزرگ (LLM) را در اختیار دارند اما با این حال، اختلاف‌هایی میان پنتاگون و برخی شرکت‌ها بر سر نحوه استفاده نظامی از مدل‌ها وجود دارد.

درهمین پیوند، ایالات متحده تاکنون ده‌ها میلیارد دلار در مراکز داده، زیرساخت‌های مرتبط با تراشه‌های پیشرفته و تحقیق و توسعه هوش مصنوعی سرمایه‌گذاری کرده تا بتواند ساختار نیروی کار فدرال و حتی نقش‌های نظامی را دگرگون کند. همچنین پنتاگون سالانه میلیاردها دلار به‌طور مستقیم و غیرمستقیم در این حوزه هزینه می‌کند و در حال شکل دادن به یک قدرت برتر هوش مصنوعی است.

در مقابل، روسیه که با محدودیت‌های زیرساختی و مالی مواجه است اما از هوش مصنوعی در پهپادهایی مانند «گران-۲» (Geran-2) و «زالا لَنست»(Zala Lancet) و سامانه «سْوُد»(Svod) برای آگاهی موقعیتی تاکتیکی بهره می‌برد.

«سوُد» یک سامانه است که می‌تواند داده‌های ماهواره‌ای، پهپادی و اطلاعات میدانی را یکپارچه کرده و گزینه‌های تاکتیکی از پیش‌محاسبه‌شده ارائه دهد. همچنین سامانه بر پایه سیستم‌عامل بومی و چارچوب‌هایی مانند «یولو»(YOLO) -یک الگوریتم تشخیص اشیا در زمان واقعی است که در بینایی ماشین برای شناسایی سریع اهداف در تصاویر و ویدئوها استفاده می‌شود- برای تشخیص اهداف و مدل‌هایی مانند مدل زبانی «لاما» (LLaMA)- توسط شرکت متا (Meta) توسعه یافته و یک مدل زبانی بزرگ (LLM) متن‌باز است- و «میسترال» (Mistral) - «میسترال» نام یک شرکت فرانسوی فعال در حوزه مدل‌های زبانی بزرگ (LLM) است- برای پردازش متن توسعه یافته است. با این حال، مسکو به دلیل تحریم‌ها به تراشه‌های قاچاق یا چینی متکی است و در حوزه ارتباطات شبکه‌محور با چالش جدی روبه‌روست، به‌ویژه در مقایسه با اوکراین که از شبکه استارلینک بهره می‌برد.

چین نیز در توسعه هوش مصنوعی از روسیه جلوتر است اما همچنان با آمریکا رقابت می‌کند. با این حال، کمبود تجربه عملی در میدان نبرد مدرن ممکن است بر کارایی سامانه‌های چینی تاثیر بگذارد.

نشریه آسیا تایمز در گزارش خود به افزایش تهدیدات امنیتی در کنار مزایا هوش مصنوعی اشاره و می‌گوید که حملات «استخراج مدل»(Model Extraction)، جیل‌بریک‌ها (Jailbreak) و آلودگی چت‌بات‌ها (AI Poisoning) نشان می‌دهد که سامانه‌های هوش مصنوعی هدف مستقیم رقبا قرار گرفته‌اند.

در حوزه امنیت هوش مصنوعی، سه تهدید مهم شامل استخراج مدل، جیل‌بریک و مسموم‌سازی چت‌بات‌ها هستند که هر یک ماهیت متفاوتی دارند اما همگی می‌توانند امنیت سامانه‌های هوش مصنوعی را به خطر اندازند.

استخراج مدل نوعی حمله سایبری است که در آن مهاجم با ارسال حجم زیادی از پرس‌وجوها به یک سامانه هوش مصنوعی، تلاش می‌کند ساختار، منطق یا پارامترهای آن را مهندسی معکوس کرده و نسخه‌ای مشابه از مدل اصلی ایجاد کند. هدف این حمله معمولاً سرقت فناوری یا دستیابی به قابلیت‌های اختصاصی مدل است.

جیل‌بریک به روشی گفته می‌شود که طی آن کاربر یا مهاجم با طراحی دستورات خاص، محدودیت‌ها و فیلترهای ایمنی مدل را دور می‌زند و آن را وادار می‌کند پاسخ‌هایی ارائه دهد که در شرایط عادی مجاز نیستند. در این حالت، مدل از چارچوب‌های حفاظتی خود خارج می‌شود.

مسموم‌سازی یا آلودگی چت‌بات‌ها زمانی رخ می‌دهد که مهاجمان با تزریق داده‌های نادرست، سوگیرانه یا هدفمند به منابع آموزشی یا محیط اطلاعاتی مدل، خروجی‌های آن را منحرف می‌کنند. در نتیجه، چت‌بات ممکن است اطلاعات غلط، روایت‌های تبلیغاتی یا تحلیل‌های تحریف‌شده ارائه دهد.

گزارش‌ها از تلاش بازیگران روسی، چینی و دیگر کشورها برای نفوذ، مهندسی معکوس و دستکاری خروجی مدل‌های هوش مصنوعی حکایت دارد و وابستگی پنتاگون به سامانه‌های تجاری نیز خطرات جانبی ایجاد کرده و امنیت هوش مصنوعی می‌تواند به پاشنه آشیل برتری فناوری آمریکا تبدیل شود.

در مجموع، هوش مصنوعی به یکی از ارکان اصلی امنیت ملی و رقابت ژئوپلیتیکی تبدیل شده است. در حالی که این فناوری مزیت‌های عملیاتی عظیمی فراهم می‌کند، حفاظت از سامانه‌ها، داده‌ها و زیرساخت‌های مرتبط با آن ضرورتی حیاتی است؛ زیرا در آینده نزدیک، ماشین‌ها و شبکه‌های هوش مصنوعی به اهداف اصلی رقابت و حمله در عرصه جهانی تبدیل خواهند شد.


انتهای پیام/
دیدگاه ها
آخرین اخبار جهان