هوش مصنوعی تهدیدی برای امنیت ملی کشورها است

یکشنبه، ۱۴ خرداد ۱۴۰۲ - ۱۹:۲۸:۲۴
کدخبر:۱۰۸۴۷۲

سازمان دیدبان تروریسم با ابراز نگرانی از تهدیدهای هوش مصنوعی برای امنیت ملی کشورها، از سازندگان این فن‌آوری انقلابی خواسته تا ذهنیت «آرمان‌شهری» خود از هوش مصنوعی را کنار بگذارند، چراکه این فن‌آوری جدید می‌تواند افراد آسیب‌پذیر را با خود همراه کند.

گاردین به نقل از جاناتان هال کی‌سی، مدیر این نهاد مستقر در بریتانیا، نوشت که تهدید‌های امنیتی هوش مصنوعی روز‌ به ‌روز  آشکارتر می‌شود و در پیش‌برد این فن‌آوری باید ملاحظات و نیات تروریست‌ها را در نظر داشت.

به گفته جاناتان هال کی‌سی، در توسعه بیش از اندازه هوش مصنوعی عمدتا بر نکات بالقوه مثبت این فن‌آوری تمرکز شده و در این مسیر از چگونگی استفاده احتمالی تروریست‌ها از آن برای حملات غفلت شده است.

گاردین در ادامه به نقل از هال نوشت که سازندگان هوش مصنوعی باید در کنار خود یک نئو‌نازی ۱۵ ساله دو آتشه داشته باشند تا تهدیدهای بالقوه این فن‌آوری را بهتر درک کنند.

دیدبان تروریسم که به‌طور مستقل به بازبینی قوانین دولت بریتانیا در زمینه تروریسم می‌پردازد، نگرانی فزاینده خود را از دامنه ربات‌های چت هوش مصنوعی برای متقاعد کردن افراد آسیب‌پذیر و یا افراد دارای طیف متنوعی از عملکردهای عصبی برای انجام حملات تروریستی ابراز کرده است.

جاناتان هال در ادامه می‌افزاید: «تلقین‌پذیری انسان‌های غوطه‌ور در دنیای دیجیتال و فن‌آوری‌های نوین نگران کننده است. این فن‌آوری‌ها به کمک زبان مخاطبان خود را به اقداماتی ترغیب می‌کنند. از همین رو، امنیت جامعه می‌تواند به شدت به خطر بیفتد.»

به گفته دیدبان تروریسم، برای مقابله با نوع تازه‌ای از تهدیدهای تروریستی مرتبط با هوش مصنوعی نیاز به تدوین قوانین تازه‌ای است. از آنجایی که هوش مصنوعی می‌تواند در انتخاب اهداف تروریست‌ها به‌غایت کاربردی باشد، مقررات موثر و دارای ضمانت اجرا می‌تواند تا اندازه‌ای خطر فزاینده سلاح‌های مرگبار خودکار را مهار کند.

فاصله میان پیشرفت فن‌آوری‌های جدید و قوانین ناظر بر آن همواره محل بحث و نگرانی‌های سازمان‌های مدافع صلح و امنیت بوده است. با رشد فزاینده فن‌آوری‌ها در حوزه ربات‌ها از یک‌سو و از فناوری‌های ارتباطی از سوی دیگر، نوع تازه‌ای از تهدید‌های تروریستی ظهور یافته که به شدت مایه نگرانی شده است.

برای مثال دور از  ذهن نیست که یک پهپاد کوچک کاملا خودکار از مکانی نامعلوم برای حمله به هدفی مشخص به پرواز درآید و با کمک فن‌آوری هوش مصنوعی در لحظه‌ای مناسب هدف را شناسایی و حمله انجام شود، و هیچ اثری از خود باقی نگذارد. این حمله می‌تواند در روز روشن و در میان جمعیتی در میدان شهر روی دهد، طوری که هیچ کس نتواند حدس بزند هوش مصنوعی قرار است در لحظه چه تصمیمی بگیرد و چه کسی یا کسانی را هدف قرار دهد.

واقعیت این است که قوانین بازدارنده در این زمینه و دستگاه‌های ناظر بر چنین فن‌آوری‌هایی تاخیر نسبتا زیادی دارند.

پیش از این، تسلیحات مرگبار خودکار در نبرد اوکراین عرض اندام کرده‌ بود و سوال‌های جدی اخلاقی در مورد پیامدهای ماشین کشتار خودکار مطرح شده است.

در بریتانیا، سازمان اطلاعات داخلی (ام‌آی۵) و موسسه آلن تورینگ، نهاد ملی علم داده‌ها و هوش مصنوعی در حال انجام اقداماتی برای مقابله با چالش‌های امنیتی ناشی از هوش مصنوعی هستند.

همان‌طور که الکساندر بلانچارد، محقق اخلاق دیجیتال در برنامه دفاعی و امنیتی این مؤسسه می‌گوید، هوش مصنوعی در تعامل با محیط می‌تواند یاد بگیرد و خود را سازگار کند.

توجه به هم‌بودگی این سه عامل یعنی تعامل، یادگیری و سازگاری با محیط، ویژگی حیرت‌انگیز هوش مصنوعی نشان می‌دهد که بشر با چه تهدید جدی روبه‌روست. در کنار مزایای هوش مصنوعی، به نظر می‌رسد اتخاذ تدابیر نظارتی بر هوش مصنوعی از ضرورتی انکارناپذیر برخوردار است، تا این تازه‌ترین فناروی بشری به ماری در آستین، و بلای عصر نوین تبدیل نشود.