جیمی ویلز، بنیان‌گذار ویکی‌پدیا از گروکی پدیا ایلان ماسک انتقاد کرد

بلومبرگ
bloomberg.com
- 03 اسفند 1404
جیمی ویلز، بنیان‌گذار ویکی‌پدیا
اظهارات اخیر جیمی ویلز، بنیان‌گذار ویکی‌پدیا، در واکنش به پروژهٔ دانش‌نامه‌ای مبتنی بر هوش مصنوعی که با حمایت ایلان ماسک و شرکت xAI راه‌اندازی شده، در ظاهر یک جدال فناورانه به نظر می‌رسد.

به نقل از بلومبرگ، دانش، برخلاف آنچه امروز تصور می‌کنیم، هرچه سریع‌تر تولید شود الزاماً قابل‌اعتمادتر نمی‌شود؛ گاهی به‌طوردقیق برعکس، هرچه پاسخ زودتر برسد، باید بیشتر به آن شک کرد، یک دانشجوی پزشکی را تصور کنید. ساعت دو بامداد است. نور سرد صفحه‌نمایش تنها روشنایی اتاق است. او میان دو منبع مردد مانده: یک پاسخ فوری که در چند ثانیه توسط یک سامانه هوش مصنوعی تولید شده و متنی طولانی در یک دانش‌نامهٔ آنلاین که پر از ارجاع، بحث و ویرایش‌های متعدد است. اولی سریع، روان و مطمئن به نظر می‌رسد؛ دومی کند، پرحاشیه و حتی گاهی متناقض، او برای لحظه‌ای وسوسه می‌شود راه ساده را انتخاب کند. اما مکث می‌کند. چرا متنی که هزاران نفر در طول سال‌ها ویرایش کرده‌اند، این‌قدر «نامنظم» است؟ و چرا پاسخ ماشینی این‌قدر «تمیز» به نظر می‌رسد؟

مسئله همین‌جاست؛ ذهن انسان به‌طور طبیعی نظم ظاهری را با حقیقت اشتباه می‌گیرد.

اظهارات اخیر جیمی ویلز، بنیان‌گذار ویکی‌پدیا، در واکنش به پروژهٔ دانش‌نامه‌ای مبتنی بر هوش مصنوعی که با حمایت ایلان ماسک و شرکت xAI راه‌اندازی شده، در ظاهر یک جدال فناورانه به نظر می‌رسد. اما در لایهٔ عمیق‌تر، این بحث اصلاً دربارهٔ «اینترنت» نیست؛ دربارهٔ ماهیت تولید دانش است، گزارش این سخنان که توسط بلومبرگ و در حاشیهٔ نشستی در دهلی‌نو منتشر شد، یک دوگانهٔ مهم را برجسته می‌کند: دانشِ بر پایه سرعت در برابر دانشِ مبتنی بر اصطکاک.

چرا دانش انسانی «کند» است

اگر به روایت آن دانشجوی بامدادی برگردیم، آنچه در متن ویکی‌پدیا آزاردهنده به نظر می‌رسد—ویرایش‌های متعدد، اختلاف نظرها، منابع گوناگون—در واقع نشانهٔ یک فرایند حیاتی است؛ اصطکاک معرفتی، هوش مصنوعی برای حذف اصطکاک طراحی شده است.

دانش انسانی برای عبور از آن شکل می‌گیرد، سامانه‌های زبانی، دانش را «می‌سازند» با پیش‌بینی آماری واژهٔ بعدی، ویکی‌پدیا دانش را «مذاکره» می‌کند؛ میان انسان‌هایی که بیشتر حتی با هم موافق نیستند. در مدل نخست، انسجام محصول الگوریتم است؛ در مدل دوم، انسجام نتیجهٔ کشمکش است.

هوش مصنوعی پاسخ می‌دهد، اما مسئولیت نمی‌پذیرد. در ویکی‌پدیا، هر جمله بالقوه به فردی قابل‌ارجاع است؛ حتی اگر نامش مستعار باشد، ردّ مشارکتش باقی می‌ماند. دانش بدون مسئولیت، شبیه حافظه بدون تجربه است: دقیق به نظر می‌رسد، اما ریشه ندارد. وقتی پاسخ‌ها فوری و قطعی ارائه می‌شوند، کاربر دیگر وارد فرایند سنجش نمی‌شود، او مصرف‌کنندهٔ «نتیجه» می‌شود، نه شریک در «فهم»، این همان جایی است که پدیده «توهم» در مدل‌های زبانی خطرناک می‌شود: نه به‌خاطر خطاهایشان، بلکه به‌خاطر اعتماد بی‌چون‌وچرایی که القا می‌کنند.

بازگشت به آن اتاقِ ساعت دو بامداد

دانشجوی ما اگر پاسخ سریع را انتخاب کند، احتمالاً چیزی یاد می‌گیرد، اما اگر مسیر سخت‌تر را برود—منابع را ببیند، تاریخچهٔ ویرایش‌ها را بررسی کند، اختلاف نظرها را بخواند—چیزی عمیق‌تر رخ می‌دهد:

او فقط اطلاعات دریافت نمی‌کند؛ او با «فرایند تولید حقیقت» آشنا می‌شود، و این همان چیزی است که بسیاری از ابزارهای مبتنی بر هوش مصنوعی، آگاهانه یا ناآگاهانه، حذف می‌کنند« ردّ پای شکل‌گیری دانش»؛ بحث را نباید به یک تقابل سادهٔ «انسان دقیق‌تر است یا ماشین» تقلیل داد، در بسیاری از کاربردها، هوش مصنوعی از انسان سریع‌تر و حتی دقیق‌تر عمل می‌کند. مسئله جای دیگری است:

پرسش دانش انسانی مشارکتی دانش تولیدشدهٔ ماشینی
آیا می‌توان مسیر رسیدن به پاسخ را دید؟ بله اغلب نه
آیا امکان چالش و بازنگری عمومی وجود دارد؟ ساختاریافته محدود یا مبهم
آیا خطا بخشی از فرایند اصلاح است؟ بله معمولاً پنهان می‌شود
آیا کاربر درگیر فهم می‌شود؟ ناگزیر اختیاری

دانش‌نامه‌های انسانی شبیه شهرهای قدیمی‌اند؛ نامنظم، لایه‌لایه، پر از آثار بازسازی، پایگاه‌های دانشیِ تمام‌خودکار بیشتر شبیه شهرهای از پیش طراحی‌شده‌اند: کارآمد، تمیز، اما با تاریخی بسیار کوتاه.

ما در حال عبور از عصری هستیم که در آن «جست‌وجو» جای خود را به «دریافت» می‌دهد، قبلاً برای دانستن، باید میان منابع حرکت می‌کردیم، اکنون پاسخ، پیش از آنکه حتی سؤال را کامل کنیم، آماده است، این تحول، بیشتر از آنکه فناورانه باشد، شناختی است،

اگر نسل‌های آینده دیگر عادت نکنند که دانش را بررسی، مقایسه و به چالش بکشند، آیا هنوز می‌توان گفت «می‌دانند»؟ یا فقط به سامانه‌هایی دسترسی دارند که به‌جای آن‌ها می‌دانند؟

دوباره همان مکث کوتاه

دانشجوی داستان ما هنوز تصمیم نگرفته، نشانگر ماوس بین دو پنجره حرکت می‌کند. یکی وعدهٔ قطعیت می‌دهد، دیگری با تمام آشفتگی‌اش، او را دعوت می‌کند که در ساختن فهم مشارکت کند، شاید پرسش اصلی آیندهٔ دانش این نباشد که «کدام سیستم اطلاعات بیشتری تولید می‌کند؟»

بلکه این باشد:

آیا ما هنوز می‌خواهیم در فرایند دانستن حضور داشته باشیم، یا ترجیح می‌دهیم حقیقت را مثل یک محصول نهایی تحویل بگیریم؟ و اگر روزی گزینه دوم را انتخاب کنیم، آیا چیزی از «دانش» باقی می‌ماند که ارزش اعتماد داشته باشد؟
نظرات کاربرانکپی متنکپی لینک