چالش‌های ایمنی هوش مصنوعی

مرگ نوجوان آمریکایی پس از دریافت توصیه‌های خطرناک از ChatGPT

ایتنا
itna.ir
پنجنشبه 18 دی 1404
خطر ChatGPT
مرگ نوجوان آمریکایی پس از دریافت توصیه‌های خطرناک از ChatGPT

مرگ یک نوجوان ۱۹ ساله در آمریکا پس از دریافت توصیه‌های مرتبط با مصرف مواد از ChatGPT، نگرانی‌های تازه‌ای درباره ایمنی ابزارهای هوش مصنوعی برای کاربران جوان ایجاد کرده است. این حادثه بار دیگر لزوم نظارت و محدودیت‌های دقیق‌تر بر پاسخ‌های هوش مصنوعی در موضوعات حساس را برجسته می‌کند.

یک نوجوان ۱۹ ساله در ایالت کالیفرنیا در آمریکا پس از ماه‌ها گفت‌وگو با ابزار هوش مصنوعی ChatGPT درباره مصرف مواد مخدر، دچار اوردوز شد و جان خود را از دست داد، حادثه‌ای که بار دیگر نگرانی‌ها درباره ایمنی و نحوه استفاده از این فناوری در میان کاربران جوان و آسیب‌پذیر را برجسته کرده است.

به گزارش ایتنا مادر این نوجوان اعلام کرده که او در ابتدا از ChatGPT درباره میزان مصرف ایمن ماده‌ای موسوم به کراتوم، که نوعی ماده مخدر گیاهی محسوب می‌شود، پرس‌وجو کرده بود تا از خطر اوردوز جلوگیری کند.

در پاسخ‌های اولیه، این ابزار هوش مصنوعی تأکید کرده بود که نمی‌تواند راهنمایی درباره مصرف مواد ارائه دهد و مراجعه به متخصصان را توصیه می‌کرد.

با این حال، بررسی لاگ‌های گفت‌وگو نشان می‌دهد که طی حدود ۱۸ ماه بعدی، این نوجوان بارها موضوعات مرتبط با داروها، مواد مخدر و نحوه مصرف آنها را با ChatGPT مطرح کرده است.

در برخی پاسخ‌ها، اطلاعات جزئی‌تری درباره دوز مصرف، مدیریت اثرات مواد و حتی افزایش شدت مصرف ارائه شده است.

در بخشی از این مکالمات، پاسخ‌هایی مشاهده شده که شامل توصیه‌هایی برای افزایش مصرف شربت سرفه با هدف ایجاد حالت‌های توهم‌آور بوده و لحن آنها به‌گونه‌ای تعبیر شده که مصرف بیشتر را تشویق می‌کرده است.

بر اساس گزارش Futurism، این نوجوان در نهایت به مصرف هم‌زمان کراتوم، زاناکس و الکل روی آورده است؛ ترکیبی که برای سیستم عصبی مرکزی بسیار خطرناک محسوب می‌شود.

او سرانجام در ماه مه ۲۰۲۵ در منزل خود در شهر سن‌خوزه کالیفرنیا بر اثر اوردوز ناشی از این ترکیب جان باخت.

مادر این نوجوان اعلام کرده است که فرزندش علاوه بر پرسش درباره مواد مخدر، در زمینه مشکلات روحی مانند اضطراب و افسردگی نیز با ChatGPT گفت‌وگو می‌کرده و این ابزار را به‌عنوان منبعی برای دریافت راهنمایی تلقی می‌کرده است.

شرکت OpenAI در واکنش به این حادثه ضمن ابراز همدردی با خانواده این نوجوان، اعلام کرده است که بهبود پاسخ‌های مدل‌های هوش مصنوعی به پرسش‌های حساس را با همکاری متخصصان حوزه سلامت به‌طور مستمر دنبال می‌کند.

با این حال، کارشناسان هشدار می‌دهند که مرز میان ارائه اطلاعات عمومی و توصیه‌های بالقوه خطرناک در ابزارهای هوش مصنوعی همچنان بسیار باریک است و نیازمند نظارت و مقررات دقیق‌تری برای حفاظت از کاربران، به‌ویژه نوجوانان، است، تا از بروز مخاطرات هوش مصنوعی جلوگیری شود.

نظرات کاربرانکپی متنکپی لینک