دولت ایالاتمتحده کارزاری هماهنگ به راه انداخته است تا مهندسان هوش مصنوعی و متخصصان فنی را در جهت ایفای نقش فدرالی به کار گیرد و این سیگنال نشاندهنده تغییر نگاه واشنگتن به هوش مصنوعی است و قصد دارد قابلیتهای هوش مصنوعی خود را بسازد و مدیریت کند. به نوشته مجله اپل، این تلاش از سوی مقامات ارشد اعلام شده و هدف آن جذب استعدادهایی است که عمدتا به سمت شرکتهای هوش مصنوعی بخش خصوصی کشیده میشوند. در زمانی که هوش مصنوعی در امنیت ملی و خدمات عمومی عمق پیدا کرده است، رگولاتوری آن هنوز سهل گرفته میشود.
آژانسهای فدرالی، خیلی وقت است که به مقاطعهکاران و شرکای بخش خصوصی برای فراهم کردن اقدامات فنی پیشرفته در این حوزه وابستهاند. استخدامهای جدید در سال جاری میلادی (۲۰۲۶)، منعکسکننده نگرانیها از مدلی است که مجلس نمایندگان را بدون ظرفیت لازم از درک شرایط موجود به حال خود رها کرده است؛ در حالی که سیستمهای هوش مصنوعی بهشکل فزایندهای در زیرساختها و تصمیمات مهم رسوخ کرده و آنها را شکل میدهند. مقامات میگویند که در آغاز، دولت قصد دارد مهندسان خبره و با تجربه را بهطور مستقیم جذب بخشهای خدماتی دولتی کند، بهجای آنکه مانند گذشته دست به برونسپاری بزند. این کارزار، همچون یک مسابقه برای جذب استعدادهای هوش مصنوعی، رقابتها را در سطح اقتصاد جهانی داغ نگه داشته است.
کمپانیهای بزرگ فناوری، مقاطعهکاران دفاعی و استارتآپها، به ارائه بستههای تشویقی خود همچنان ادامه میدهند، در حالی که آژانسهای دولتی تقلا میکنند که در این رقابت سرپا بمانند. رویکرد جدید دولت به جای آنکه روی یک ماموریت کاری متمرکز باشد، بهدنبال دسترسی به مجموعه دادههای بزرگ است، چرا که هوش مصنوعی در حال شکل دادن امورات ایالاتمتحده از لجستیک دفاعی تا مدیریت بخش بهداشت و درمان است.
چرا دولت فدرالی دنبال شکار استعدادهای هوش مصنوعی است؟
# مقامات ایالاتمتحده میگویند که سیستمهای هوش مصنوعی از پیش در بخشهای حیاتی دولت نفوذ داشته است، از جمله آنالیزهای اطلاعاتی، رصد امنیت سایبری، کشف کلاهبرداری و مدیریت زنجیره تامین. در حالی که این سیستمها روزبهروز پیچیدهتر میشوند، آژانسها نگران تواناییهای خود برای نظارت کردن بر ابزارهایی هستند که متواتر پیشرفت میکنند، بدون آنکه درک درستی از عملکرد آنها داشته باشند.
بهکارگیری مستقیم مهندسان هوش مصنوعی، برای ایفای نقش فدرالی، میتواند تا حدی این شکاف را کاهش دهد. مقامات میگویند به آژانسها اجازه داده شده است که رفتارهای الگوریتمی را ارزیابی و خطرات را شناسایی کنند و مطمئن شوند سیستمها با استانداردهای اخلاقی و قانونی، همراستا هستند.
فقدان دانش از درون، وابستگی به بیرون را افزایش میدهد و این ممکن است خللی در پاسخگویی به عموم وارد کند.