راز یادگیری هوش مصنوعی فاش شد؛ فکر نمی‌کند، فقط حدس می‌زند

بازار

97723
string(837) "[{"name":"a","aspect":"16:9","width_small":"480","width_medium":"720","width_large":"960","_sy":"1","_sx":"1","_r":"0","_h":"426.00000000000006","_w":"757.3333333333334","_y":"0","_x":"21.333333333333318","source":"\/news\/photo\/1404\/02\/18\/299188f907c83b7a4ddcdb1b35b88dc1.jpg","_pr_css":"display: block; width: 169.014px; height: 90px; min-width: 0px !important; min-height: 0px !important; max-width: none !important; max-height: none !important; transform: translateX(-4.50704px) translateY(-5.20968e-15px);"},{"name":"b","aspect":"1:1","width_small":"480","width_medium":"720","width_large":"960","_sy":"","_sx":"","_r":"","_h":"","_w":"","_y":"","_x":"","source":""},{"name":"c","aspect":"16:6","width_small":"720","width_medium":"960","width_large":"1250","_sy":"","_sx":"","_r":"","_h":"","_w":"","_y":"","_x":"","source":""}]" راز یادگیری هوش مصنوعی فاش شد؛ فکر نمی‌کند، فقط حدس می‌زند

پرده از راز یادگیری هوش مصنوعی برداشته شد. بر خلاف تصور عموم، این فناوری پیشرفته فکر نمی‌کند، بلکه صرفاً حدس‌ می‌زند.

ایران آنلاین: پرده از راز یادگیری هوش مصنوعی برداشته شد. بر خلاف تصور عموم، این فناوری پیشرفته فکر نمی‌کند، بلکه صرفاً حدس‌ می‌زند. این یافته، درک ما از توانایی‌ها و محدودیت‌های فعلی هوش مصنوعی را به چالش می‌کشد.

به گزارش گجت نیوز، مدل‌های هوش مصنوعی مانند ChatGPT در واقع فکر نمی‌کنند، استدلال نمی‌کنند، درک نمی‌کنند، بلکه صرفاً الگوهای حدس‌زن هستند که بر اساس حجم عظیمی از متون انسانی آموزش دیده‌اند و تلاش می‌کنند تا کلمه یا مفهوم بعدی را بر مبنای همبستگی‌هایی که پیش‌تر مشاهده کرده‌اند، پیش‌بینی کنند. همین واقعیت، بنیان آن‌ها را تشکیل می‌دهد.

این موضوع ما را به پرسش مهمی می‌رساند: اگر این مدل‌ها تا این اندازه هوشمند به نظر می‌رسند، پس چرا همچنان دچار خطا می‌شوند، واقعیت‌ها را تحریف می‌کنند یا گرایش‌های جانبدارانه نشان می‌دهند؟ برای فهم این مسئله، لازم است تا نحوه یادگیری آن‌ها را بررسی کنیم.

راز یادگیری هوش مصنوعی در چیست؟
مدل‌های زبانی بزرگ، اطلاعات را به شیوه‌ای متفاوت از انسان‌ها پردازش می‌کنند. در عمل آن‌ها هیچ‌گونه استدلال، درک یا آگاهی ندارند. آن‌ها روی مجموعه‌‌ای بزرگ از داده‌‌ها شامل کتاب‌ها، وب‌سایت‌ها و گفتگوها آموزش دیده‌اند تا بتوانند آنچه را که در یک زنجیره از کلمات می‌آید، پیش‌بینی کنند. این مدل‌ها، زبان را به واحدهای کوچکی به نام «توکن» تجزیه می‌کنند که اغلب می‌توانند بخش‌هایی از کلمات باشند و سپس تلاش می‌کنند تا با بالاترین احتمال، یک توکن را پس از توکن دیگر حدس بزنند.

در ادامه، نحوه عملکرد یک مدل هوش مصنوعی در فهم و استدلال داده‌ها و اطلاعات شرح داده شده است:

توکن‌ها: زبان به واحدهای کوچکی نظیر کلمات یا هجاها تقسیم می‌گردد. برای نمونه، واژه «washing» ممکن است به «wash» و «ing» تفکیک شود. مدل‌ها با ایده‌های کامل سروکار ندارند، بلکه صرفاً احتمالات توکن به توکن را در نظر می‌گیرند.

وزن‌ها: این‌ها میلیاردها مقدار قابل تنظیم در شبکه عصبی هستند. آن‌ها را می‌توان به مثابه دکمه‌هایی تصور کرد که به مدل می‌گویند یک توکن تا چه میزان بر توکن دیگر تأثیر بگذارد.

تابع زیان: این روشی است که مدل از طریق آن ارزیابی می‌کند پس از یک حدس، چه مقدار اشتباه کرده است. مدل، وزن‌های خود را به منظور کاهش اشتباهات آتی تغییر می‌دهد.

تشخیص الگو: در نهایت، مدل در شناسایی الگوهای زبانی بسیار ماهر می‌شود. اما همچنان «واقعیت‌ها» را نمی‌داند، بلکه فقط آنچه را که معمولاً صحیح به نظر می‌رسد، تشخیص می‌دهد. اگر بپرسید پایتخت فرانسه کجاست، مدل نمی‌داند که پاریس است. بلکه صرفاً می‌داند که واژه «پاریس» اغلب در داده‌های آموزشی آن پس از این پرسش آمده است.

درک این سازوکار اساسی از اهمیت بسزایی برخوردار است، زیرا مبنایی را فراهم می‌آورد تا دریابیم چرا مدل‌ها همچنان می‌توانند دچار توهم شوند، تعصب نشان دهند یا اشتباهات غیرقابل پیش‌بینی مرتکب شوند.

یکی از اساسی‌ترین مشکلات مدل‌های هوش مصنوعی، پدیده توهم است. این وضعیت زمانی رخ می‌دهد که مدل با اطمینان خاطر، داده‌های نادرست یا خیالی تولید می‌کند. برای مثال، یک مقاله علمی ساختگی را جعل می‌کند یا به منابعی استناد می‌کند که اصلاً وجود خارجی ندارند. این عمل دروغ‌گویی آگاهانه نیست؛ بلکه مدل به سادگی تمایزی بین حقیقت و ساختگی قائل نمی‌شود و صرفاً بر اساس الگوهای موجود حدس می‌زند.

در کاربردهای عملی، توهمات می‌توانند نتایج وخیمی به بار آورند. در زمینه‌های حقوقی، آکادمیک یا پزشکی، یک هوش مصنوعی قادر است قوانین و منابع را از خود بسازد یا با اعتماد به نفس کامل، تشخیص‌های پزشکی نادرستی ارائه دهد بدون آنکه از پیشینه سلامت بیمار آگاهی داشته باشد. این مسئله به روشنی نشان می‌دهد که چرا انسان‌ها باید تمامی محتوای تولید شده توسط هوش مصنوعی را بررسی و صحت‌سنجی کنند، به ویژه در زمینه‌هایی که دقت و صحت اطلاعات از اهمیت فوق‌العاده‌ای برخوردار است.

سوگیری، یکی دیگر از مشکلات است. مدل‌های زبانی بزرگ این قابلیت را دارند که به نحوی هدایت شوند تا خروجی‌هایی را ارائه دهند که یک دیدگاه را بر دیدگاه دیگر ارجحیت می‌بخشند. این مدل‌ها با استفاده از حجم عظیمی از داده‌های موجود در اینترنت، شامل کتاب‌ها، وب‌سایت‌ها و رسانه‌های اجتماعی، آموزش دیده‌اند و در نتیجه، تعصبات موجود در این داده‌ها را جذب کرده‌اند. بنابراین، مدل نمی‌داند چگونه این موضوعات را پالایش کند. بلکه صرفاً آنچه را که به آن داده شده، فرا می‌گیرد. این سوگیری‌ها یک عمل عمدی نیست، بلکه به طور مستقیم به داده‌های آموزشی که در اختیار آن قرار گرفته است، بستگی دارد.

با همه مشکلاتی که وجود دارد، پژوهشگران و شرکت‌ها فعالانه می‌کوشند تا هوش مصنوعی را امن‌تر، اطمینان‌بخش‌تر و سازگارتر با ارزش‌های انسانی کنند. این تلاش‌ها، پیشرفت‌های الگوریتمی تا مباحث پیرامون قوانین و مقررات بین‌المللی را شامل می‌شود.

برای نمونه، شرکت OpenAI طرحی با عنوان “Superalignment” را آغاز کرده که تمرکز آن بر همسو کردن مدل‌های پیشرفته هوش مصنوعی با اهداف والای انسانی است. گروه دست‌اندرکار این پروژه در حال توسعه نوعی از هوش مصنوعی است که قادر خواهد بود درباره ارزش‌ها و ایمنی انسان بدون احتیاج به مداخله و نظارت پیوسته انسانی، استدلال و منطق بیاورد.


انتهای پیام/
دیدگاه ها
آخرین اخبار بازار