چهره پنهان هوش مصنوعی؛ آیا این فناوری به خدمت افراط‌گرایی درمی‌آید؟

العین
fa.al-ain.com
دوشنبه 01 دی 1404
هوش مصنوعی
چهره پنهان هوش مصنوعی؛ آیا این فناوری به خدمت افراط‌گرایی درمی‌آید؟

این نگرانی‌ها به احتمال انحراف این فناوری نوین به مسیرهایی خطرناک بازمی‌گردد؛ مسیری که می‌تواند هوش مصنوعی را به ابزاری در خدمت گروه‌های افراطی و سازمان‌های تروریستی تبدیل کند.

این هشدار دیگر صرفا یک فرضیه تئوریک نیست، بلکه به موضوعی جدی در محافل امنیتی و اطلاعاتی بدل شده است. شواهدی وجود دارد که نشان می‌دهد تلاش‌هایی هدفمند برای آزمودن توانمندی‌های هوش مصنوعی و به‌کارگیری آن در مقاصد غیرقانونی در جریان است؛ تلاش‌هایی که می‌تواند توازن امنیتی را در بسیاری از کشورها بر هم بزند.

مارکو مسعد، کارشناس حوزه هوش مصنوعی، در گفت‌وگو با رسانه‌ها تاکید کرده است که این فناوری ماهیتی دوگانه دارد. به گفته او، هوش مصنوعی از یک‌سو می‌تواند موتور محرک اقتصاد جهانی، افزایش‌دهنده بهره‌وری و تسهیل‌کننده تحقیقات علمی باشد و از سوی دیگر، در صورت سوءاستفاده، به ابزاری برای تسریع اقدامات خشونت‌آمیز و تحقق اهداف گروه‌های تروریستی تبدیل شود.

به باور این کارشناس، گروه‌های افراطی دیگر تنها به نیروی انسانی برای جذب و تاثیرگذاری متکی نیستند، بلکه با استفاده از هوش مصنوعی به سراغ جذب دیجیتال جوانان، اثرگذاری بر افکار عمومی در شبکه‌های اجتماعی و انتشار اخبار و تصاویر جعلی رفته‌اند؛ روندی که قدرت تخریبی این گروه‌ها را چند برابر می‌کند.

مسعد همچنین به دشواری‌های نهادهای اطلاعاتی و دولت‌ها در کنترل استفاده منفی از هوش مصنوعی اشاره می‌کند. او توضیح می‌دهد همان‌طور که امکان کنترل کامل فعالیت‌های تروریستی به‌طور صددرصدی وجود ندارد، پیش‌بینی واکنش‌های دقیق مدل‌های هوش مصنوعی نیز همواره ممکن نیست. حتی اگر این مدل‌ها از پاسخ مستقیم به پرسش‌های حساس خودداری کنند، بازنویسی هوشمندانه سوال‌ها می‌تواند راه را برای دسترسی به اطلاعات خطرناک هموار کند.

به گفته این کارشناس، یکی از راهکارهای نسبی برای کاهش خطرات، استفاده از خود هوش مصنوعی برای رصد و مهار سوءاستفاده‌هاست؛ از طریق طراحی سامانه‌هایی که بتوانند الگوهای مشکوک، کلیدواژه‌ها و رفتارهای پرخطر را شناسایی کرده و هشدارهای زودهنگام صادر کنند. با این حال، او تاکید دارد که چنین راه‌حل‌هایی کامل نیست و نمی‌تواند به‌تنهایی مانع تمامی تهدیدها شود.

در پایان، مسعد بر مسئولیت مشترک دولت‌ها، شرکت‌های فناوری، شبکه‌های اجتماعی و جامعه مدنی تاکید می‌کند. از نگاه او، خلأهای قانونی، اولویت دادن به سودآوری و شتاب در توسعه فناوری، باعث شده است کنترل پیامدهای منفی هوش مصنوعی عقب‌تر از پیشرفت فنی آن حرکت کند. آینده امنیت جهانی، به میزان هماهنگی میان توسعه فناوری و ایجاد چارچوب‌های نظارتی موثر وابسته خواهد بود؛ هماهنگی‌ای که در صورت بی‌توجهی، می‌تواند هزینه‌های سنگینی به‌دنبال داشته باشد.

    نظرات کاربرانکپی متنکپی لینک