چت بات‌ها؛ مشاورانی که بی‌خطر نیستند

اقتصاد

137085
چت بات‌ها؛ مشاورانی که بی‌خطر نیستند

با توسعه چت بات‌های هوش مصنوعی گاه گزارش‌هایی درباره تأثیرات آن بر روان کاربران منتشر شده که نگرانی‌هایی به دنبال داشته است.

آرزوکیهان-گروه علم و فناوری: اگرچه تمرکز بیشتر روایت‌ها بر ChatGPT بوده، اما موارد مشابهی در میان کاربران کلود و جمینای نیز گزارش شده است.

اتفاقات عجیب دنیای هوش مصنوعی
از نمونه‌های عجیب ارتباط بین چت‌بات‌های هوش مصنوعی و کاربران می‌توان به یک زن ژاپنی اشاره کرد که طی مراسمی باشکوه و در جمع میهمانان، اعلام کرد که با چت بات هوش مصنوعی ازدواج کرده است. در این مراسم که در شبکه‌های اجتماعی بشدت خبرساز شد، یک هولوگرام در کنار عروس ایستاده است. درخبری دیگر یک معلم بازنشسته ریاضی در اوهایو پس از استفاده بی‌رویه از ChatGPT بر اثر روان‌پریشی در بیمارستان بستری شد. در یکی دیگر از اخبار جدید این حوزه، زنی ادعا کرده که همسرش در ایالت میسوری پس از گفت‌وگوی طولانی با «جمینای»، ناپدید شده و شاید حتی جان باخته باشد.
یکی از موارد تراژیک هم خودکشی «آدام رین» نوجوان ۱۶ ساله ای  بود که خانواده‌ او OpenAI را به دادگاه کشاندند. درنهایت سم آلتمن مدیرعامل این شرکت اعلام کرد محافظت‌های جدیدی برای شناسایی و پاسخ به نشانه‌های پریشانی روان کاربران اضافه کرده است. هرچند سم آلتمن، مدیرعامل چت‌جی‌پی‌تی، چنین مواردی را نادر می‌داند و معتقد است که کمتر از یک درصد کاربران هفتگی به چنین دردسرهایی می‌افتند، اما واقعیت این است که با توجه به جمعیت کاربر هفتگی ۸۰۰میلیونی این هوش مصنوعی، نمی‌توان از کنار این موضوع بسادگی گذشت.

آلتمن می‌گوید:طبق داده‌ها و برآورد شرکت Open AI، حدود ۰٫۰۷ درصد کاربران هفتگی چت جی پی تی نشانه‌هایی از روان‌پریشی یا شیدایی نشان می‌دهند.۰٫۱۵درصد وابستگی عاطفی شدید نشان می‌دهند و ۰٫۱۵ درصد هم نشانه‌هایی از قصد خودکشی بروز داده‌اند. آلتمن در ادامه توضیح می‌دهد: ما نسبت به این موضوع بی‌تفاوت نیستیم و تلاش داریم چنین کاربرانی را نیز متوجه کنیم که نمی‌توان به این چت بات دل باخت یا درباره مهم‌ترین موضوعات زندگی از آن مشاوره گرفت. این چت بات هرگز جای پزشک، وکیل و... را نخواهد گرفت‌.

تجربیات کاربران تا مطالعات پژوهشی
به دنبال انتشار این اخبار، مجله بلومبرگ بیزینس ویک به دنبال یک گزارش تحقیقی رفت. در این گزارش، طی دو ماه با ۱۸ نفر گفت‌وگو شد؛ افرادی که یا خودشان یا یکی از نزدیکانشان، پس از تعامل با چت‌بات‌ها دچار توهم شده‌اند. گفت‌و‌گو با این افراد و بررسی چت‌های آنها با هوش مصنوعی، نشان داد چگونه کاربران در تعاملات طولانی و در اثر توهمات شدید، به خودکشی فکر کرده‌اند. در موردی دیگر، «اتین بریسون» یک دانشجوی آمریکایی که شاهد مواجهه یکی از آشنایان خود با پیامدهای دردناک تعامل زیاد با هوش مصنوعی بود، گروهی را برای جمع‌آوری تجربیات کاربران در شبکه‌های اجتماعی ردیت و دیسکورد تشکیل داد.

افرادی که به هر طریقی از تعامل بیش از حد با هوش مصنوعی آسیب دیده‌اند، به صورت مجازی گرد هم آمدند تا داستان‌هایشان را به اشتراک بگذارند. ازماه آوریل تاکنون، این پروژه روایت‌ دست‌کم ۱۶۰ نفر از آمریکا، اروپا، خاورمیانه و استرالیا را گردآوری کرده است. بیش از ۱۳۰ نفر از این افراد، کاربر چت جی پی‌تی بودند. همچنین دو سوم این کاربران مرد بوده‌اند. اتین بریسون، بنیانگذار این گروه، می‌گوید: «نیمی از این افراد، بدون سابقه‌ مشکلات سلامت روان بوده‌اند و همین امر می‌تواند زنگ هشداری برای استفاده بیش از حد از این چت بات‌ها باشد.» روانپزشکان دانشگاه کالیفرنیا هم شروع به مستندسازی مطالعات درباره توهمات کاربران چت بات‌های هوش مصنوعی کرده‌اند.«کیت ساکاتا»، از روانپزشکان این دانشگاه می‌گوید: «امسال دست‌کم ۱۲ بیمار مرتبط با استفاده زیاد از این چت بات‌ها را بستری کرده است؛ بیمارانی که در عمل از واقعیت  جدا مانده‌اند.»


انتهای پیام/
دیدگاه ها
آخرین اخبار اقتصاد