کانال تلگرام ایران جیب
ایرانیان خودرو
ایرانیان خودرو

یک سوم پاسخ‌های هوش مصنوعی درست نیست


کد خبر : ۱۳۸۳۶۴سه شنبه، ۶ آبان ۱۴۰۴ - ۰۷:۵۹:۴۶۱۲۵۷ بازدید

یک مطالعه جدید از سوی اتحادیه شبکه‌های رادیو و تلویزیون اروپا نشان می‌دهد که میزان خطای بالایی در میان چت‌بات‌های محبوب وجود ...
یک سوم پاسخ‌های هوش مصنوعی درست نیستیک سوم پاسخ‌های هوش مصنوعی درست نیست

یک مطالعه جدید از سوی اتحادیه شبکه‌های رادیو و تلویزیون اروپا نشان می‌دهد که میزان خطای بالایی در میان چت‌بات‌های محبوب وجود دارد. این سیستم‌ها به طور منظم اطلاعاتی را اختراع می‌کنند و حتی منابع نادرست ارائه می‌دهند.

میلیون‌ها نفر در سر اسر جهان سوال‌های خود در زمینه‌های مختلف را از چت‌بات‌های محبوب می‌پرسند. مثلا از چت‌جی‌پی‌تی (ChatGPT)  درباره نتیجه انتخابات یک کشور سوال می‌کنند، یا از کلاود (Claude)  می‌خواهند اخبار را خلاصه کند، یا به پرپلکسیتی (Perplexity) برای اطلاعات پس‌زمینه درباره درگیری خاورمیانه مراجعه می‌کنند و به پاسخ‌های آن اعتماد دارند.

هر هفته ۸۰۰ میلیون نفر در سراسر جهان تنها ازChatGPT  استفاده می‌کنند. دستیارهای دیجیتال برای بسیاری جایگزین جستجوی کلاسیک در گوگل شده‌اند. اما این اعتماد خطرناک است و احتمال آن وجود دارد که پاسخی کاملا ساختگی بگیرند.

این نتیجه‌ای است که از یک تحقیق اخیر اتحادیه شبکه‌های رادیو و تلویزیون به دست آمده است. این اتحادیه که شامل ۶۸ شبکه بخش عمومی (رسانه‌هایی که متعلق به بخش خصوصی یا تجاری نیستند) از ۵۶ کشور است، به طور سیستماتیک قابلیت اطمینان محبوب‌ترین سیستم‌های هوش مصنوعی را آزمایش کرده است.

نتیجه این تحقیق هشداردهنده است؛ چت‌جی‌پی‌تی، کلاود، جمینی و دیگر چت‌بات‌ها تا ۴۰ درصد پاسخ‌های خود را اختراع می‌کنند و آن‌ها را به عنوان واقعیت ارائه می‌دهند.

هوش مصنوعی به‌طور متقاعدکننده دروغ می‌گوید
 
چت‌بات محبوب ChatGPT با اصرار اعلام می‌کند پاپ فرانسیس هنوز زنده است، مایکروسافت کوپایلوت در برنامه‌های آفیس مثل Word  و Excel  حضور دارد، نمی‌داند که سوئد عضو ناتو است و Google Gemini دوباره انتخاب شدن دونالد ترامپ را "ممکن" می‌داند، در حالی که این اتفاق مدتی پیش رخ داده است.

پتر پوش، اقتصاددان از دانشگاه فنی دورتموند آلمان هشدار می‌دهد: «پاسخ‌های این سیستم‌ها قانع‌کننده به نظر می‌رسند، حتی وقتی که بارها کاملاً اطلاعات غلط ارائه می‌کنند. این موضوع برای کاربران کم‌تجربه بسیار خطرناک است، زیرا خطاها اغلب فورا قابل شناسایی نیستند.»

این پدیده‌ای است که متخصصان آن را "توهم" می‌نامند؛ هوش مصنوعی اطلاعاتی را اختراع می‌کند که به نظر منطقی می‌رسند، اما هیچ پایه واقعی ندارند. این مسئله به‌ویژه در مورد رویدادهای منطقه‌ای، تحولات روزانه یا هنگامی که چندین اطلاعات باید به هم مرتبط شوند، رخ می‌دهد.

تهدیدی برای دموکراسی
اما این برای جامعه‌ای که روزبه‌روز اطلاعات خود را از چت‌بات‌ها می‌گیرد، چه معنایی دارد؟

پیامدها قابل مشاهده است؛ اطلاعات نادرست به سرعت در شبکه‌های اجتماعی منتشر می‌شوند، زیرا کاربران "واقعیت‌های" تولیدشده توسط هوش مصنوعی را بدون بررسی به اشتراک می‌گذارند. دانش‌آموزان و دانشجویان اطلاعات اختراعی را در کارهای خود وارد می‌کنند. شهروندان ممکن است بر اساس ادعاهای نادرست تصمیمات انتخاباتی بگیرند.

این به‌ویژه از این نظر خطرناک است که بسیاری از کاربران نمی‌دانند چت‌بات‌ها می‌توانند "توهم" داشته باشند. آن‌ها فرض می‌کنند که فناوری به‌طور عینی و دقیق عمل می‌کند. سیستم‌های هوش مصنوعی در شرایط استفاده خود نسبت به خطاهای ممکن هشدار می‌دهند، اما چه کسی آن‌ها را می‌خواند؟

زنگ خطری برای روزنامه‌نگاری معتبر
یک مشکل دیگر مربوط به اعتبار رسانه‌های تثبیت‌شده است. چت‌بات‌ها به طور منظم ادعا می‌کنند که اطلاعات اختراعی آن‌ها از مثلا کانال‌های معتبر رادیو تلویزیون آلمان آمده است، در حالی که این اطلاعات از سوی آنها هرگز گزارش داده نشده یا کاملاً متفاوت گزارش شده‌اند. نتیجه این که وقتی هوش مصنوعی از نام آن‌ها برای اطلاعات نادرست سوءاستفاده می‌کند، کاربران اعتماد خود را به منابع معتبر از دست می‌دهند.

مطالعه یاد شده چت‌بات‌ها را با صدها سوال واقعی آزمایش کرده است. از جمله درباره رویدادهای تاریخی، یافته‌های علمی و اخبار روز. بسته به موضوع، نرخ خطا بین ۱۵ تا ۴۰ درصد بود. هیچ یک از هوش مصنوعی‌های آزمایش‌شده بدون خطا نبودند.

چرا هوش مصنوعی اشتباه می‌کند؟
برای بسیاری این پرسش طرح می‌شود که چرا این اشتباهات رخ می‌دهد؟ مشکل در سیستم است. چت‌بات‌ها واقعاً نمی‌دانند چه می‌گویند. آن‌ها بر اساس حجم عظیمی از متن محاسبه می‌کنند که کدام کلمات به احتمال زیاد با هم جور درمی‌آیند. آن‌ها نمی‌توانند صحت نتیجه را بررسی کنند. آن‌ها دانش واقعی ندارند، فقط الگوهای آماری دارند.

شرکت‌های فناوری از این کمبودها آگاه هستند و روی راه‌حل‌ها کار می‌کنند. آن‌ها پایگاه‌های داده را ادغام می‌کنند، منابع را بهبود می‌بخشند و سیستم‌ها را دوباره آموزش می‌دهند. در توسعه این فناوری میلیاردها دلار سرمایه‌گذاری می‌شود. با این حال، توهمات یک مشکل اساسی حل‌نشده در فناوری باقی می‌ماند.

آنچه کاربران باید انجام دهند
اتحادیه شبکه‌های رادیو و تلویزیون اروپا  توصیه می‌کند هرگز به‌طور کورکورانه اعتماد نکنید. اطلاعات مهم را همیشه بررسی متقابل کنید. برای اخبار و واقعیت‌ها به رسانه‌های تثبیت‌شده اعتماد کنید، نه هوش مصنوعی. احتیاط به‌ویژه در موضوعات سیاسی، مسائل بهداشتی یا تصمیمات مالی، لازم است.

آنها همچنین توصیه جدی می‌کنند که مدارس و دانشگاه‌ها سواد رسانه‌ای شهروندان را ارتقاء دهند؛ این که مثلا چگونه اطلاعات نادرست تولیدشده توسط هوش مصنوعی را شناسایی کنیم؟ کدام منابع قابل اعتماد هستند؟ دولت آلمان برنامه‌های اطلاع‌رسانی دارد، اما این برنامه‌ها با تاخیر عرضه می‌شوند.

اما تا زمانی که فناوری قابل اعتماد شود، توجه به این نکات ضروری است؛ چت‌بات‌ها ممکن است برای کارهای خلاقانه یا به عنوان دستیار نوشتن مفید باشند. اما به عنوان بررسی‌کننده واقعیات یا منبع خبری مناسب نیستند، حداقل هیچ‌کس نباید ۱۰۰ درصد به آن‌ها اعتماد کند.

کسی که می‌خواهد اطلاع پیدا کند، نمی‌تواند از رسانه‌های معتبر صرف‌نظر کند، جایی که ویراستاران انسانی کار می‌کنند، منابع را بررسی می‌کنند و ادعاها و شواهد را تحلیل می‌کنند. انقلاب دیجیتال ممکن است بسیاری چیزها را تغییر دهد، اما ضرورت تحقیق و کار تحقیقی دقیق همچنان باقی می‌ماند.



اخبار مرتبط

دیدگاه ها

افزودن دیدگاه


  • نظرات غیر مرتبط با موضوع خبر منتشر نمی شوند.
  • نظرات حاوی توهین و افترا منتشر نمی‌شوند.
  • لطفاً نظرات خود را به صورت فارسی بنویسید.
نام:
پست الکترونیک:
متن:

آخرین اخبار

پربازدیدترین اخبار هفته

پربحث ترین ها

سایر خبرها