یک مطالعه جدید از سوی اتحادیه شبکههای رادیو و تلویزیون اروپا نشان میدهد که میزان خطای بالایی در میان چتباتهای محبوب وجود دارد. این سیستمها به طور منظم اطلاعاتی را اختراع میکنند و حتی منابع نادرست ارائه میدهند.
میلیونها نفر در سر اسر جهان سوالهای خود در زمینههای مختلف را از چتباتهای محبوب میپرسند. مثلا از چتجیپیتی (ChatGPT) درباره نتیجه انتخابات یک کشور سوال میکنند، یا از کلاود (Claude) میخواهند اخبار را خلاصه کند، یا به پرپلکسیتی (Perplexity) برای اطلاعات پسزمینه درباره درگیری خاورمیانه مراجعه میکنند و به پاسخهای آن اعتماد دارند.
هر هفته ۸۰۰ میلیون نفر در سراسر جهان تنها ازChatGPT استفاده میکنند. دستیارهای دیجیتال برای بسیاری جایگزین جستجوی کلاسیک در گوگل شدهاند. اما این اعتماد خطرناک است و احتمال آن وجود دارد که پاسخی کاملا ساختگی بگیرند.
این نتیجهای است که از یک تحقیق اخیر اتحادیه شبکههای رادیو و تلویزیون به دست آمده است. این اتحادیه که شامل ۶۸ شبکه بخش عمومی (رسانههایی که متعلق به بخش خصوصی یا تجاری نیستند) از ۵۶ کشور است، به طور سیستماتیک قابلیت اطمینان محبوبترین سیستمهای هوش مصنوعی را آزمایش کرده است.
نتیجه این تحقیق هشداردهنده است؛ چتجیپیتی، کلاود، جمینی و دیگر چتباتها تا ۴۰ درصد پاسخهای خود را اختراع میکنند و آنها را به عنوان واقعیت ارائه میدهند.
هوش مصنوعی بهطور متقاعدکننده دروغ میگوید
چتبات محبوب ChatGPT با اصرار اعلام میکند پاپ فرانسیس هنوز زنده است، مایکروسافت کوپایلوت در برنامههای آفیس مثل Word و Excel حضور دارد، نمیداند که سوئد عضو ناتو است و Google Gemini دوباره انتخاب شدن دونالد ترامپ را "ممکن" میداند، در حالی که این اتفاق مدتی پیش رخ داده است.
پتر پوش، اقتصاددان از دانشگاه فنی دورتموند آلمان هشدار میدهد: «پاسخهای این سیستمها قانعکننده به نظر میرسند، حتی وقتی که بارها کاملاً اطلاعات غلط ارائه میکنند. این موضوع برای کاربران کمتجربه بسیار خطرناک است، زیرا خطاها اغلب فورا قابل شناسایی نیستند.»
این پدیدهای است که متخصصان آن را "توهم" مینامند؛ هوش مصنوعی اطلاعاتی را اختراع میکند که به نظر منطقی میرسند، اما هیچ پایه واقعی ندارند. این مسئله بهویژه در مورد رویدادهای منطقهای، تحولات روزانه یا هنگامی که چندین اطلاعات باید به هم مرتبط شوند، رخ میدهد.
تهدیدی برای دموکراسی
اما این برای جامعهای که روزبهروز اطلاعات خود را از چتباتها میگیرد، چه معنایی دارد؟
پیامدها قابل مشاهده است؛ اطلاعات نادرست به سرعت در شبکههای اجتماعی منتشر میشوند، زیرا کاربران "واقعیتهای" تولیدشده توسط هوش مصنوعی را بدون بررسی به اشتراک میگذارند. دانشآموزان و دانشجویان اطلاعات اختراعی را در کارهای خود وارد میکنند. شهروندان ممکن است بر اساس ادعاهای نادرست تصمیمات انتخاباتی بگیرند.
این بهویژه از این نظر خطرناک است که بسیاری از کاربران نمیدانند چتباتها میتوانند "توهم" داشته باشند. آنها فرض میکنند که فناوری بهطور عینی و دقیق عمل میکند. سیستمهای هوش مصنوعی در شرایط استفاده خود نسبت به خطاهای ممکن هشدار میدهند، اما چه کسی آنها را میخواند؟
زنگ خطری برای روزنامهنگاری معتبر
یک مشکل دیگر مربوط به اعتبار رسانههای تثبیتشده است. چتباتها به طور منظم ادعا میکنند که اطلاعات اختراعی آنها از مثلا کانالهای معتبر رادیو تلویزیون آلمان آمده است، در حالی که این اطلاعات از سوی آنها هرگز گزارش داده نشده یا کاملاً متفاوت گزارش شدهاند. نتیجه این که وقتی هوش مصنوعی از نام آنها برای اطلاعات نادرست سوءاستفاده میکند، کاربران اعتماد خود را به منابع معتبر از دست میدهند.
مطالعه یاد شده چتباتها را با صدها سوال واقعی آزمایش کرده است. از جمله درباره رویدادهای تاریخی، یافتههای علمی و اخبار روز. بسته به موضوع، نرخ خطا بین ۱۵ تا ۴۰ درصد بود. هیچ یک از هوش مصنوعیهای آزمایششده بدون خطا نبودند.
چرا هوش مصنوعی اشتباه میکند؟
برای بسیاری این پرسش طرح میشود که چرا این اشتباهات رخ میدهد؟ مشکل در سیستم است. چتباتها واقعاً نمیدانند چه میگویند. آنها بر اساس حجم عظیمی از متن محاسبه میکنند که کدام کلمات به احتمال زیاد با هم جور درمیآیند. آنها نمیتوانند صحت نتیجه را بررسی کنند. آنها دانش واقعی ندارند، فقط الگوهای آماری دارند.
شرکتهای فناوری از این کمبودها آگاه هستند و روی راهحلها کار میکنند. آنها پایگاههای داده را ادغام میکنند، منابع را بهبود میبخشند و سیستمها را دوباره آموزش میدهند. در توسعه این فناوری میلیاردها دلار سرمایهگذاری میشود. با این حال، توهمات یک مشکل اساسی حلنشده در فناوری باقی میماند.
آنچه کاربران باید انجام دهند
اتحادیه شبکههای رادیو و تلویزیون اروپا توصیه میکند هرگز بهطور کورکورانه اعتماد نکنید. اطلاعات مهم را همیشه بررسی متقابل کنید. برای اخبار و واقعیتها به رسانههای تثبیتشده اعتماد کنید، نه هوش مصنوعی. احتیاط بهویژه در موضوعات سیاسی، مسائل بهداشتی یا تصمیمات مالی، لازم است.
آنها همچنین توصیه جدی میکنند که مدارس و دانشگاهها سواد رسانهای شهروندان را ارتقاء دهند؛ این که مثلا چگونه اطلاعات نادرست تولیدشده توسط هوش مصنوعی را شناسایی کنیم؟ کدام منابع قابل اعتماد هستند؟ دولت آلمان برنامههای اطلاعرسانی دارد، اما این برنامهها با تاخیر عرضه میشوند.
اما تا زمانی که فناوری قابل اعتماد شود، توجه به این نکات ضروری است؛ چتباتها ممکن است برای کارهای خلاقانه یا به عنوان دستیار نوشتن مفید باشند. اما به عنوان بررسیکننده واقعیات یا منبع خبری مناسب نیستند، حداقل هیچکس نباید ۱۰۰ درصد به آنها اعتماد کند.
کسی که میخواهد اطلاع پیدا کند، نمیتواند از رسانههای معتبر صرفنظر کند، جایی که ویراستاران انسانی کار میکنند، منابع را بررسی میکنند و ادعاها و شواهد را تحلیل میکنند. انقلاب دیجیتال ممکن است بسیاری چیزها را تغییر دهد، اما ضرورت تحقیق و کار تحقیقی دقیق همچنان باقی میماند.
