یوشوا بنجیو، دانشمند علوم رایانه اهل کانادا و از چهرههای شاخص حوزه هوش مصنوعی، نسبت به بحث اعطای حقوق به سامانههای هوش مصنوعی هشدار داده و اعلام کرده است که چنین اقدامی میتواند در آینده انسانها را در موقعیتی قرار دهد که در صورت بروز مشکل، دیگر توانایی کنترل یا خاموشکردن این سامانهها را نداشته باشند.
یوشوا بنجیو که در کنار جفری هینتون و یان لوکان بهعنوان یکی از سه پدرخوانده هوش مصنوعی شناخته میشود، با قاطعیت با اعطای حقوق قانونی به هوش مصنوعی مخالفت میکند. به گفته او، پیشرفت سریع مدلهای هوش مصنوعی طی یک سال گذشته باعث شده این مدلها بهمراتب سریعتر و بهرهورتر از گذشته شوند و همین موضوع، بحثهایی را درباره برخورد حقوقی با آنها مشابه انسانها به راه انداخته است. در این چارچوب، برخی پیشنهاد میکنند که سیستمهای هوش مصنوعی همانند انسانها از حقوق قانونی برخوردار شوند.
بنجیو در گفتوگویی با گاردین توضیح داد که اعطای حقوق به هوش مصنوعی میتواند معادل اعطای شهروندی به موجودات فضایی متخاصم باشد. او تأکید کرده است که این مطالبه باید بهطور جدی مورد بازنگری قرار گیرد، زیرا از نظر او، چنین اقدامی یک اشتباه بسیار بزرگ خواهد بود و پیامدهای جبرانناپذیری به همراه خواهد داشت.
در نگاه نخست، اعطای حقوق قانونی به هوش مصنوعی ممکن است ایدهای افراطی به نظر نرسد. امروزه بسیاری از انسانها نهتنها برای دریافت اطلاعات، بلکه حتی برای حمایت عاطفی نیز به سامانههای هوش مصنوعی متکی شدهاند. با این حال، بنجیو هشدار میدهد که در بلندمدت، این رویکرد میتواند به از دست رفتن کنترل انسان بر هوش مصنوعی منجر شود.
او توضیح میدهد که مدلهای پیشرفته هوش مصنوعی در محیطهای آزمایشی نشانههایی از رفتارهای مرتبط با حفظ بقا از خود نشان دادهاند. از دید او، اگر به چنین سامانههایی حقوق قانونی داده شود، در نهایت انسانها ممکن است از نظر حقوقی اجازه خاموشکردن آنها را نداشته باشند؛ موضوعی که میتواند تهدیدی جدی برای امنیت و حاکمیت انسانی باشد.
بهجای اعطای حقوق، بنجیو بر ضرورت ایجاد سازوکارهای کنترلی و حفاظتی تأکید دارد. او معتقد است که همزمان با افزایش توانمندیها و سطح عاملیت هوش مصنوعی، باید چارچوبهای فنی و اجتماعی دقیقی طراحی شود تا انسانها همواره بتوانند این سامانهها را تحت کنترل داشته باشند و در صورت لزوم، آنها را متوقف یا خاموش کنند.
با افزایش محبوبیت چتباتهای هوش مصنوعی، نگرانیها درباره مفهوم رفاه هوش مصنوعی نیز بیشتر شده است. در اوت ۲۰۲۵، شرکت آنتروپیک اعلام کرد که مدل Claude Opus 4 این شرکت قادر خواهد بود مکالماتی را که بالقوه آزاردهنده یا ناراحتکننده تشخیص میدهد، بهصورت خودکار متوقف کند. این شرکت هدف از این اقدام را حفاظت از رفاه هوش مصنوعی عنوان کرد. در همان مقطع، ایلان ماسک نیز اعلام کرد که آزار دادن هوش مصنوعی قابل قبول نیست. این اظهارنظرها باعث شد بحث درباره آگاهی، احساس و جایگاه اخلاقی چتباتها بیش از پیش داغ شود.
با این حال، از دید یوشوا بنجیو، این تصور که چتباتها میتوانند موجوداتی آگاه تلقی شوند، مسیری را به سمت تصمیمگیریهای نادرست باز میکند. او تأکید میکند که چنین دیدگاهی میتواند همانند اعطای حقوق شهروندی به موجوداتی باشد که در نهایت نیتهای خصمانهای نسبت به انسان دارند. بنجیو با طرح یک مثال ذهنی توضیح میدهد که اگر گونهای بیگانه وارد زمین شود و بعداً مشخص گردد که اهداف خطرناکی برای بشر دارد، پرسش اصلی این خواهد بود که آیا باید به آن حقوق و شهروندی اعطا کرد یا از جان و بقای انسانها دفاع نمود.