پدرخوانده هوش مصنوعی نسبت به اعطای حقوق قانونی به AI هشدار داد

تکفارس
نویسنده: افشین نوری
جمعه 12 دی 1404
یوشوا بنجیو
یوشوا بنجیو پدرخوانده هوش مصنوعی

یوشوا بنجیو، دانشمند علوم رایانه اهل کانادا و از چهره‌های شاخص حوزه هوش مصنوعی، نسبت به بحث اعطای حقوق به سامانه‌های هوش مصنوعی هشدار داده و اعلام کرده است که چنین اقدامی می‌تواند در آینده انسان‌ها را در موقعیتی قرار دهد که در صورت بروز مشکل، دیگر توانایی کنترل یا خاموش‌کردن این سامانه‌ها را نداشته باشند.

یوشوا بنجیو که در کنار جفری هینتون و یان لوکان به‌عنوان یکی از سه پدرخوانده هوش مصنوعی شناخته می‌شود، با قاطعیت با اعطای حقوق قانونی به هوش مصنوعی مخالفت می‌کند. به گفته او، پیشرفت سریع مدل‌های هوش مصنوعی طی یک سال گذشته باعث شده این مدل‌ها به‌مراتب سریع‌تر و بهره‌ورتر از گذشته شوند و همین موضوع، بحث‌هایی را درباره برخورد حقوقی با آن‌ها مشابه انسان‌ها به راه انداخته است. در این چارچوب، برخی پیشنهاد می‌کنند که سیستم‌های هوش مصنوعی همانند انسان‌ها از حقوق قانونی برخوردار شوند.

بنجیو در گفت‌وگویی با گاردین توضیح داد که اعطای حقوق به هوش مصنوعی می‌تواند معادل اعطای شهروندی به موجودات فضایی متخاصم باشد. او تأکید کرده است که این مطالبه باید به‌طور جدی مورد بازنگری قرار گیرد، زیرا از نظر او، چنین اقدامی یک اشتباه بسیار بزرگ خواهد بود و پیامدهای جبران‌ناپذیری به همراه خواهد داشت.

در نگاه نخست، اعطای حقوق قانونی به هوش مصنوعی ممکن است ایده‌ای افراطی به نظر نرسد. امروزه بسیاری از انسان‌ها نه‌تنها برای دریافت اطلاعات، بلکه حتی برای حمایت عاطفی نیز به سامانه‌های هوش مصنوعی متکی شده‌اند. با این حال، بنجیو هشدار می‌دهد که در بلندمدت، این رویکرد می‌تواند به از دست رفتن کنترل انسان بر هوش مصنوعی منجر شود.

او توضیح می‌دهد که مدل‌های پیشرفته هوش مصنوعی در محیط‌های آزمایشی نشانه‌هایی از رفتارهای مرتبط با حفظ بقا از خود نشان داده‌اند. از دید او، اگر به چنین سامانه‌هایی حقوق قانونی داده شود، در نهایت انسان‌ها ممکن است از نظر حقوقی اجازه خاموش‌کردن آن‌ها را نداشته باشند؛ موضوعی که می‌تواند تهدیدی جدی برای امنیت و حاکمیت انسانی باشد.

به‌جای اعطای حقوق، بنجیو بر ضرورت ایجاد سازوکارهای کنترلی و حفاظتی تأکید دارد. او معتقد است که هم‌زمان با افزایش توانمندی‌ها و سطح عاملیت هوش مصنوعی، باید چارچوب‌های فنی و اجتماعی دقیقی طراحی شود تا انسان‌ها همواره بتوانند این سامانه‌ها را تحت کنترل داشته باشند و در صورت لزوم، آن‌ها را متوقف یا خاموش کنند.

با افزایش محبوبیت چت‌بات‌های هوش مصنوعی، نگرانی‌ها درباره مفهوم رفاه هوش مصنوعی نیز بیشتر شده است. در اوت ۲۰۲۵، شرکت آنتروپیک اعلام کرد که مدل Claude Opus 4 این شرکت قادر خواهد بود مکالماتی را که بالقوه آزاردهنده یا ناراحت‌کننده تشخیص می‌دهد، به‌صورت خودکار متوقف کند. این شرکت هدف از این اقدام را حفاظت از رفاه هوش مصنوعی عنوان کرد.‌ در همان مقطع، ایلان ماسک نیز اعلام کرد که آزار دادن هوش مصنوعی قابل قبول نیست. این اظهارنظرها باعث شد بحث درباره آگاهی، احساس و جایگاه اخلاقی چت‌بات‌ها بیش از پیش داغ شود.

با این حال، از دید یوشوا بنجیو، این تصور که چت‌بات‌ها می‌توانند موجوداتی آگاه تلقی شوند، مسیری را به سمت تصمیم‌گیری‌های نادرست باز می‌کند. او تأکید می‌کند که چنین دیدگاهی می‌تواند همانند اعطای حقوق شهروندی به موجوداتی باشد که در نهایت نیت‌های خصمانه‌ای نسبت به انسان دارند. بنجیو با طرح یک مثال ذهنی توضیح می‌دهد که اگر گونه‌ای بیگانه وارد زمین شود و بعداً مشخص گردد که اهداف خطرناکی برای بشر دارد، پرسش اصلی این خواهد بود که آیا باید به آن حقوق و شهروندی اعطا کرد یا از جان و بقای انسان‌ها دفاع نمود.

    نظرات کاربرانکپی متنکپی لینک