هوش مصنوعی در خدمت نسلکشی در غزه
بینالملل
60306
به موازات توسعه هوش مصنوعی و افزایش قابلیتهای این فناوری، نگرانیها درباره احتمال سوءاستفاده از آن بالا گرفته و بسیاری از کشورها بهدنبال راهی برای قانونمند کردن استفاده از این فناوری نوظهور هستند.
این سیستم آپارتاید
به دنبال خشم بینالمللی نسبت به حملات بیرحمانه اسرائیل به مردم غیرنظامی غزه، کشته شدن امدادگران و خبرنگاران و همچنین کشته شدن ۷ داوطلب آشپزخانه جهانی، نگاهها بیش از گذشته به سوی غزه رفت. در واکنش به رفتار رژیم صهیونیستی، یووال آبراهام، روزنامهنگار و فیلمساز اسرائیلی در مجله ۹۷۲+ به سیاستهای رژیم صهیونیستی تاخت و این رژیم را بهدلیل استفاده از فناوریهای مختلف به منظور کشتار مردم غزه نکوهش کرد. نویسنده این گزارش پیش از این بهدلیل فراخوان عمومیاش برای پایان دادن به آنچه او سیستم «آپارتاید» در اسرائیل و سرزمینهای فلسطینی مینامد، شناخته شده بود. آبراهام پیش از این در ماه نوامبر هم در گزارشی با تأکید بر آنچه که یک افسر اطلاعاتی سابق ناشناس به او گفته بود، اشارهای به تصمیمات هدفگیری مبتنی بر هوش مصنوعی داشت و آن را «کارخانه ترور دستهجمعی» نامیده بود.
وی در این گزارش نوشت: ابزار هوش مصنوعی، شناسایی هدف را در غزه آسان کرده است. هوش مصنوعی Lavender (اسطوخودوس) بر اساس دادههای نظارت اطلاعاتی رژیم صهیونیستی بر جمعیت فلسطینی، با استفاده از ردپای دیجیتالی افراد شناختهشده حماس بهعنوان مدلی برای یافتن سیگنالهایی مشخص آموزش دیده است.
آبراهام در این گزارش نوشت: شش مقام اطلاعاتی اسرائیل، جزئیات استفاده این کشور از هوش مصنوعی را در نشریه ۹۷۲+ فاش کردند. طبق گفته آنها Lavender با ابزار هدفگیری هوش مصنوعی مورد بحث ما در گزارش نوامبر که معروف به «Habsora» یا «The Gospel» بود، متفاوت است، زیرا به جای ساختارها، افراد را ردیابی میکند. تحقیقات ما نشان میدهد که این برنامه با افزودن ویژگیهای مختلفی که ظاهراً نشاندهنده حماس است، اهداف را شناسایی میکند و اغلب آدرس میدهد. وی با اشاره به اینکه منابع گزارش میگویند که تقریباً همه افراد غزه امتیاز یک به ۱۰۰ را دریافت کردهاند، نسبت به این موضوع ابراز نگرانی کرد و گفت: بنابراین احتمالاً همه ساکنان غزه از نظر اسرائیل عضوی از حماس محسوب میشوند و طبق نظر هوش مصنوعی ساخته دست رژیم صهیونیستی، میتوان جان آنها را گرفت. چنین دیدگاهی را تنها میتوان نسلکشی دانست.
کشتار مردم غزه در ۲۰ ثانیه
طبق گزارش نشریه ۹۷۲+، این نرمافزار که توسط تعدادی از متخصصان نیروی دفاعی اسرائیل (IDF) ساخته شده است از هوش مصنوعی برای پردازش حجم عظیمی از دادهها استفاده کرده تا افرادی را که به ظن رژیم صهیونیستی با حماس مرتبط هستند، شناسایی کند. سازندگان این نرمافزار مدعی هستند که این هوش مصنوعی با دقت ۹۰ درصد میتواند افراد را شناسایی کند. اما منابع اطلاعاتی خاطرنشان کردند با وجودی که نتایج یک مطالعه داخلی نشان میدهد هوش مصنوعی Lavender حتی به گفته اسرائیلیها حداقل در ۱۰ درصد مواقع افراد را به اشتباه شناسایی میکند اما افسران انسانی هر هدف انتخاب شده توسط هوش مصنوعی را تنها حدود ۲۰ ثانیه اسکن کرده و عملیات پرتاب موشک یا دستگیری انجام میشود. طبق دادههای این گزارش، ارتش اسرائیل در جنگ غزه از این هوش مصنوعی برای شناسایی ۳۷ هزار هدف استفاده کرده است.
در این گزارش همچنین آمده است:منابع اطلاعاتی گفتند که دادههای ردیابی تلفن، یکی از معیارهای غیرقابل اعتماد است که توسط الگوریتم Lavender معتبر شناخته شده است. یکی از مقامات اطلاعاتی دراین باره گفت: در جنگ، اعضای حماس همیشه تلفنهایشان را عوض میکنند. همچنین افراد ارتباط خود را با خانواده خود قطع میکنند و تلفن خود را به یک دوست یا همسر خود میدهند بنابراین هیچ راهی برای تکیه ۱۰۰صددرصدی به مکانیسم خودکاری که تعیین میکند کدام شماره تلفن متعلق به چه کسی است، وجود ندارد. در این جنگ اسرائیل با تکیه بر این الگوریتم، به طور سیستماتیک به اهدافی در خانههای مردم غزه حمله کردند که این حملات معمولاً در شب که تمام خانواده حضور داشتهاند، صورت گرفته است. طبق شهادت منابع مطلع، هزاران فلسطینی که بیشتر آنها زن و کودک و افراد غیرنظامی بودهاند با تصمیمات برنامه هوش مصنوعی و بدون وجود هیچ اپراتور تصمیم گیرنده انسانی، بویژه در هفتههای اول جنگ توسط حملات هوایی اسرائیل به شهادت رسیدهاند.
همچنین در این گزارش آمده است که دو منبع به ۹۷۲+ گفتهاند که ارتش اسرائیل به ازای هدف گرفتن هر عامل کوچک حماس، کشتن ۱۵ تا ۲۰ غیرنظامی را قابل قبول میداند و این رقم در مواردی برای فرماندهان حماس، به بیش از ۱۰۰ غیرنظامی میرسد که چنین ارقامی فاجعه است.
ابزار تشخیص چهره
نیویورک تایمز هم در تازهترین گزارش خود یادآور شده است، فناوری هوش مصنوعی که پیش از این برای اولین بار به منظور یافتن گروگانهای اسرائیلی به کار گرفته شد، حالا به طور فزایندهای برای کشتار فلسطینیها استفاده میشود و این ابزار گاه منجر به کشتار مردم غزه و دستگیری اشتباه آنها شده است. در این گزارش آمده است که ارتش اسرائیل از ابزارهای تشخیص چهره برای شناسایی و بازداشت مظنونان در غزه و ترور آنها استفاده میکند.
جنگ غزه شاهد استقرار بیسابقه ابزارهای هوش مصنوعی توسط ارتش اسرائیل برای شناسایی اهداف بوده است و برخلاف ادعای رژیم صهیونیستی مبنی بر تلاش برای به حداقل رساندن آسیب به جمعیت غیر درگیر با کمک فناوری، تاکنون بیش از ۳۳هزار نفر از مردم بیگناه غزه به شهادت رسیدهاند.
این روزنامه به نقل از افسران اطلاعاتی، مقامات نظامی و سربازان اسرائیلی، گزارش داد که اسرائیل صدها مظنون فلسطینی را در نوار غزه با استفاده از یک دستگاه تجسسی آزمایشی و مجهز به هوش مصنوعی دستگیر کرده است. نیویورک تایمز به نقل از چهار افسر اطلاعاتی گفته است که این برنامه به Google Photos و فناوری توسعه یافته توسط شرکت خصوصی اسرائیلی Corsight AI برای شناسایی چهرهها در جمعیت و فیلمهای باکیفیت پایین هواپیماهای بدون سرنشین متکی است. این افراد، چنین عملی را سوءاستفاده از زمان و منابع میدانند.
این ابزار ابتدا برای یافتن گروگانهای اسرائیلی در جنگ غزه استفاده شد، اما اکنون بهطور فزایندهای علیه مظنونان احتمالی در غزه مورد استفاده قرار گرفته است. گزارش سال ۲۰۲۳ عفو بینالملل قبلاً میزان استفاده اسرائیل از فناوری تشخیص چهره در کرانه باختری و اورشلیم شرقی را شرح داده بود، اما نیویورک تایمز یادآورشد که از ۷ اکتبر، تلاشهای نظارتی اسرائیل در غزه از تلاشهای جاسوسی در سایر مناطق پیشی گرفته است. بر اساس این گزارش، از ابتدای جنگ غزه، سربازان در کرانه باختری و شرق بیتالمقدس چهره فلسطینیها را با اپلیکیشنهای گوشیهای هوشمند و دوربینهایی با وضوح بالا اسکن کردهاند، در حالی که در نوار غزه، ارتش اسرائیل تا زمان جنگ کنونی، به شنود، هواپیماهای بدون سرنشین و تصاویر رسانههای اجتماعی متکی بوده است. طبق این گزارش، در جنگ کنونی، به سربازانی که وارد غزه میشوند، دوربینهایی برای تکمیل دستگاههای نظارتی موجود در غزه داده شده و عملاً حریم خصوصی برای مردم گرفتار در جنگ باقی نمانده و به راحتی هم ترور شده و مورد هدف حملات موشکی و بمباران قرار میگیرند.
ابراز نگرانی سازمان ملل
رئیس سازمان ملل متحد از گزارشهایی که اسرائیل از هوش مصنوعی برای شناسایی اهداف غزه استفاده میکند، «عمیقاً نگران» است. آنتونیو گوترش گفت: ما عمیقاً از گزارشهایی مبنی بر اینکه کمپین بمباران ارتش اسرائیل شامل هوش مصنوعی بهعنوان ابزاری در شناسایی اهداف، بویژه در مناطق مسکونی پرجمعیت، که منجر به تلفات غیرنظامیان در سطح بالایی میشود، ناراحت هستیم. هیچ بخشی از تصمیمات مرگ و زندگی که بر کل خانوادهها تأثیر میگذارد نباید به محاسبه سرد الگوریتمها واگذار شود. ارتش اسرائیل با استفاده از سیستم هدفگیری هوش مصنوعی با نظارت اندک انسانی، دهها هزار شهروند غزه را مظنون به ترور معرفی کرده است.
واقعیت یا تخیل؟
برخی از گزارشها حاکی است ارتش اسرائیل برای تشدید حملات هوایی از ابزار هوش مصنوعی (AI) استفاده میکند و فلسطینیان بیشتری را هدف قرار میدهد. مفسران این گزارشها معتقدند که اسرائیل از ابتدای جنگ تلاش داشته تا با هشدار تخلیه و استفاده از عبارت حملات دقیق به جامعه جهانی القا کند که یک ارتش با اخلاق است و قصد کشتن غیرنظامیان را ندارد ولی این تنها تخیل است و واقعیت چیز دیگری است. واقعیت این است که چنین عباراتی تنها بهعنوان پوششی برای نسلکشی با کمک هوش مصنوعی در غزه استفاده شده است. نقشهها، اعلامیهها، توئیتها و ادعاهای فناوری نظامی «دقیق»، هیچ یک، از غیرنظامیان غزه محافظت نکرده و همه آنها چیزی بیش از یک ترفند تبلیغاتی برای سرپوش گذاشتن بر آنچه واقعاً روی زمین در حال رخ دادن است یعنی یک نسلکشی با کمک هوش مصنوعی، نیست. اسرائیل نه تنها برق غزه را قطع کرد، بلکه شبکه تلفن همراه آن را نیز هدف قرار داده و به آن آسیب رساند تا با قطع اینترنت، اندک امید مردم بیگناه این منطقه برای رساندن صدای خود به جهانیان هم خاموش شود.
در این گزارش آمده است، سربازان اسرائیلی که از سیستم هدفگیری هوش مصنوعی استفاده میکنند از تعداد غیرنظامیانی که خواهند کشت، آگاه هستند چرا که تعداد حدودی قربانیان در فایل هدف نمایش داده میشود. اما هر چه اسرائیل تلاش دارد توانایی فنی خود را بزرگ جلوه دهد، مردم بیشتر میپرسند که چرا این همه غیرنظامی کشته میشوند. تنها پاسخ این است که اسرائیل همچنان مردم را بدون تفکیک، هدف قرار میدهد. بنابراین، فناوری پیشرفته، به جای دقت و احتیاط، در عوض بهعنوان ابزاری برای کشتار و تخریب جمعی ازسوی رژیم صهیونیستی مورد استفاده قرار میگیرد. به عبارت دیگر، آنچه ما در غزه میبینیم یک نسلکشی با کمک هوش مصنوعی است.
انتهای پیام/