مرگ یک نوجوان ۱۹ ساله در آمریکا پس از دریافت توصیههای مرتبط با مصرف مواد از ChatGPT، نگرانیهای تازهای درباره ایمنی ابزارهای هوش مصنوعی برای کاربران جوان ایجاد کرده است. این حادثه بار دیگر لزوم نظارت و محدودیتهای دقیقتر بر پاسخهای هوش مصنوعی در موضوعات حساس را برجسته میکند.
یک نوجوان ۱۹ ساله در ایالت کالیفرنیا در آمریکا پس از ماهها گفتوگو با ابزار هوش مصنوعی ChatGPT درباره مصرف مواد مخدر، دچار اوردوز شد و جان خود را از دست داد، حادثهای که بار دیگر نگرانیها درباره ایمنی و نحوه استفاده از این فناوری در میان کاربران جوان و آسیبپذیر را برجسته کرده است.
به گزارش ایتنا مادر این نوجوان اعلام کرده که او در ابتدا از ChatGPT درباره میزان مصرف ایمن مادهای موسوم به کراتوم، که نوعی ماده مخدر گیاهی محسوب میشود، پرسوجو کرده بود تا از خطر اوردوز جلوگیری کند.
در پاسخهای اولیه، این ابزار هوش مصنوعی تأکید کرده بود که نمیتواند راهنمایی درباره مصرف مواد ارائه دهد و مراجعه به متخصصان را توصیه میکرد.
با این حال، بررسی لاگهای گفتوگو نشان میدهد که طی حدود ۱۸ ماه بعدی، این نوجوان بارها موضوعات مرتبط با داروها، مواد مخدر و نحوه مصرف آنها را با ChatGPT مطرح کرده است.
در برخی پاسخها، اطلاعات جزئیتری درباره دوز مصرف، مدیریت اثرات مواد و حتی افزایش شدت مصرف ارائه شده است.
در بخشی از این مکالمات، پاسخهایی مشاهده شده که شامل توصیههایی برای افزایش مصرف شربت سرفه با هدف ایجاد حالتهای توهمآور بوده و لحن آنها بهگونهای تعبیر شده که مصرف بیشتر را تشویق میکرده است.
بر اساس گزارش Futurism، این نوجوان در نهایت به مصرف همزمان کراتوم، زاناکس و الکل روی آورده است؛ ترکیبی که برای سیستم عصبی مرکزی بسیار خطرناک محسوب میشود.
او سرانجام در ماه مه ۲۰۲۵ در منزل خود در شهر سنخوزه کالیفرنیا بر اثر اوردوز ناشی از این ترکیب جان باخت.
مادر این نوجوان اعلام کرده است که فرزندش علاوه بر پرسش درباره مواد مخدر، در زمینه مشکلات روحی مانند اضطراب و افسردگی نیز با ChatGPT گفتوگو میکرده و این ابزار را بهعنوان منبعی برای دریافت راهنمایی تلقی میکرده است.
شرکت OpenAI در واکنش به این حادثه ضمن ابراز همدردی با خانواده این نوجوان، اعلام کرده است که بهبود پاسخهای مدلهای هوش مصنوعی به پرسشهای حساس را با همکاری متخصصان حوزه سلامت بهطور مستمر دنبال میکند.
با این حال، کارشناسان هشدار میدهند که مرز میان ارائه اطلاعات عمومی و توصیههای بالقوه خطرناک در ابزارهای هوش مصنوعی همچنان بسیار باریک است و نیازمند نظارت و مقررات دقیقتری برای حفاظت از کاربران، بهویژه نوجوانان، است، تا از بروز مخاطرات هوش مصنوعی جلوگیری شود.