نشانه شناسی تصاویر ساخته شده با هوش مصنوعی

چطور هوش مصنوعی زلزله افغانستان را فاجعه بارتر کرد؟

فاطمه اسکندری

فاطمه اسکندری

فضای مجازی

118122
چطور هوش مصنوعی زلزله افغانستان را فاجعه بارتر کرد؟

پس از زلزله مرگبار افغانستان که جان بیش از ۱۴۰۰ نفر را گرفت، موجی از تصاویر و ویدئوهای منتشرشده در شبکه‌های اجتماعی، بر پیچیدگی این بحران افزود.در این گزارش بررسی می کند این محتواها از کجا آمده‌اند و پشت پرده آن‌ها چه واقعیتی وجود دارد.

 

فاطمه اسکندری _ گروه راستی آزمایی ایران آنلاین: در پی زلزله قدرتمند افغانستان که بیش از ۱۴۰۰ کشته و بیش از ۵ هزار خانه ویران برجای گذاشت، در حالی که امدادگران در تلاش برای نجات بازماندگان هستند و نگرانی هایی بابت افزایش تعداد قربانیان وجود دارد، موجی از تصاویر و ویدئوهای جعلی و ساخته‌شده با هوش مصنوعی در شبکه‌های اجتماعی دست‌به‌دست می‌شود که ادعا می‌کنند وسعت و آثار زلزله را نشان می‌دهند و بعدی تلخ‌تر به این فاجعه اضافه کرده‌اند.

در این گزارش بخشی از این ادعاهای پربازدید بررسی شده اند:

ادعا:

کاربری در شبکه اجتماعی ایکس (X) ویدئویی منتشر کرده که در آن صدها جنازه در کفن سفید به خاک سپرده می‌شوند و آن را به زلزله ولایت کنر نسبت داده است.

 

 

 

در کپشن این ویدئو نوشته شده: اینجا غزه نیست - اینجا استان کنر افغانستان است، جایی که بیش از ۸۰۰ نفر جان خود را از دست داده‌اند و هزاران نفر فقط در یک شب به دلیل زلزله ویرانگر زخمی شده‌اند. یا الله، به ما کمک کن و از ما محافظت کن. هر کسی که مایل به کمک یا اهدا است می‌تواند با شماره‌های افغانی زیر که توسط سخنگوی امارت اسلامی به اشتراک گذاشته شده و معتبر و فعال هستند، تماس بگیرد.

نتیجه بررسی:

این ویدئوی هشت ثانیه ای با هوش مصنوعی ساخته شده است.

نشانه‌ها:

  • چهره‌ها قابل تشخیص نیستند.
  • حرکات افراد غیرطبیعی و ربات‌مانند است.
  • اجساد به‌طور غیرواقعی صاف و افقی حمل می‌شوند.
  • ساختمان‌های پشت‌صحنه سالم‌اند، در حالی که در واقعیت، ویرانی ها بسیار گسترده است.

 

 همچنین جست‌وجوی معکوس نشان داد این ویدئو پیش‌تر به سیل‌های پاکستان نسبت داده شده بود. نسخه‌های دیگری از همین ویدئو در تیک‌تاک نیز پخش شده که مشکلات بصری و «ادغام شدن افراد» در آن آشکارتر است. کارشناسان دیجیتال می‌گویند یکی از نشانه‌های فعلی ویدئوهای تولیدشده با هوش مصنوعی، کوتاه بودن آن‌هاست (حداکثر ۸ تا ۱۰ ثانیه). ابزارهایی مانند Veo 3 چنین محدودیتی دارند.

 

در ویدئوی مشابهی، کاربر دیگری نوشت: «پشت هر جسد، یک خانواده شکسته وجود دارد...»

 

 

این ویدئو هم هشت ثانیه طول دارد و ظاهراً مراسم تدفین صدها نفر را نشان می‌دهد. هشتگ‌ها این ویدئو را به زلزله افغانستان مرتبط کرده‌اند.

اما در ویدئو همان نشانه‌های جعلی دیده می‌شود:

نشانه‌ها:

  • چهره‌ها ثابت و غیرقابل تشخیص هستند.
  • افراد در جهات مختلف حرکت می‌کنند یا با هم ادغام می‌شوند.
  • بسته‌های سفید و سفتی که همگی شبیه هم هستند.

 

اسکرین‌شات یکی از فریم‌ها نشان داد که ویدئو قبلاً هم در ارتباط با سیل‌های پاکستان منتشر شده بود. یک کاربر آن را با لینکی به یک سازمان خیریه مستقر در بریتانیا به اشتراک گذاشته بود. وقتی با آن سازمان تماس گرفته شد، گفتند از انتشار چنین ویدئویی در فضای آنلاین هیچ اطلاعی ندارند.

 

چرا کلیپ‌ها کوتاه هستند؟

هر دو ویدئو تنها هشت ثانیه طول دارند.

بسیاری از نرم‌افزارهای هوش مصنوعی اکنون امکان ساخت کلیپ‌های کوتاه را می‌دهند، اما حداکثر طول معمولاً حدود ۸ ثانیه است. هانی فرید، متخصص جرم‌یابی دیجیتال در دانشگاه کالیفرنیا، برکلی، نیز این موضوع را در یکی از پست‌های خود در لینکدین در ژوئن امسال اشاره کرده است.

«یکی از نشانه‌های ساده (فعلاً) این است که تمام این ویدئوها یا دقیقاً هشت ثانیه طول دارند یا از چند کلیپ کوتاه (۸ ثانیه یا کمتر) کنار هم ساخته شده‌اند. چرا هشت ثانیه؟ این طول حداکثری است که ابزار تولید ویدئو از متن به ویدئو، Veo 3، می‌تواند یک شات پیوسته ایجاد کند. دیگر مدل‌ها محدودیت کمی طولانی‌تر دارند، اما معمولاً ۸ تا ۱۰ ثانیه است.»هانی فرید

هر دوی این ویدئوها گویی با پهپاد فیلم‌برداری شده‌اند. اگرچه این امکان‌پذیر است، اما بررسی ها نشان می دهد که این الگو در ویدئوهای تولیدشده با هوش مصنوعی که بیانگر تخریب زیرساخت ها در سوریه، غزه یا ایران است، به کرات دیده شده می شود.

 

 ادعا:

تصویری که در ایکس پخش شده، ظاهراً خرابی‌های زلزله در ولایت کنر را نشان می‌دهد و با آن درخواست کمک فوری مطرح شده است.

 

نتیجه بررسی:

تصویر مملو از جزئیات غیرعادی است.

نشانه ها:

  • آسمان ابری با ماه نیمه‌پنهان، آتش در میان آوار و خانه‌های تخریب‌شده.
  • سایه‌ها با منبع نور هماهنگ نیستند.
  • مردم لباس زمستانی بر تن دارند و آرام ایستاده‌اند، در حالی که عکس‌های واقعی چنین صحنه‌ای را نشان نمی‌دهند.

 

جست‌وجوی معکوس نشان داد این عکس با ابزار Google AI ساخته شده است. برخی رسانه‌های بزرگ نیز فریب خوردند و از همین تصویر در گزارش‌های خود استفاده کردند، از جمله Indian Express و شبکه دولتی ترکیه (TRT).

نتیجه گیری:

در حالی که افغانستان با یکی از مرگبارترین زلزله‌های سال‌های اخیر دست‌وپنجه نرم می‌کند، انتشار تصاویر و ویدئوهای جعلی تولیدشده با هوش مصنوعی، بُعدی جدید و تلخ به بحران افزوده است. راستی‌آزمایی نشان می‌دهد که بسیاری از این محتواها هیچ ارتباطی با زلزله ندارند و با هدف جلب توجه یا حتی دریافت کمک مالی نادرست منتشر می‌شوند.

 

منبع: دویچه وله


انتهای پیام/
دیدگاه ها
آخرین اخبار فضای مجازی