به نقل از بلومبرگ، دانش، برخلاف آنچه امروز تصور میکنیم، هرچه سریعتر تولید شود الزاماً قابلاعتمادتر نمیشود؛ گاهی بهطوردقیق برعکس، هرچه پاسخ زودتر برسد، باید بیشتر به آن شک کرد، یک دانشجوی پزشکی را تصور کنید. ساعت دو بامداد است. نور سرد صفحهنمایش تنها روشنایی اتاق است. او میان دو منبع مردد مانده: یک پاسخ فوری که در چند ثانیه توسط یک سامانه هوش مصنوعی تولید شده و متنی طولانی در یک دانشنامهٔ آنلاین که پر از ارجاع، بحث و ویرایشهای متعدد است. اولی سریع، روان و مطمئن به نظر میرسد؛ دومی کند، پرحاشیه و حتی گاهی متناقض، او برای لحظهای وسوسه میشود راه ساده را انتخاب کند. اما مکث میکند. چرا متنی که هزاران نفر در طول سالها ویرایش کردهاند، اینقدر «نامنظم» است؟ و چرا پاسخ ماشینی اینقدر «تمیز» به نظر میرسد؟
مسئله همینجاست؛ ذهن انسان بهطور طبیعی نظم ظاهری را با حقیقت اشتباه میگیرد.
اظهارات اخیر جیمی ویلز، بنیانگذار ویکیپدیا، در واکنش به پروژهٔ دانشنامهای مبتنی بر هوش مصنوعی که با حمایت ایلان ماسک و شرکت xAI راهاندازی شده، در ظاهر یک جدال فناورانه به نظر میرسد. اما در لایهٔ عمیقتر، این بحث اصلاً دربارهٔ «اینترنت» نیست؛ دربارهٔ ماهیت تولید دانش است، گزارش این سخنان که توسط بلومبرگ و در حاشیهٔ نشستی در دهلینو منتشر شد، یک دوگانهٔ مهم را برجسته میکند: دانشِ بر پایه سرعت در برابر دانشِ مبتنی بر اصطکاک.
چرا دانش انسانی «کند» است
# اگر به روایت آن دانشجوی بامدادی برگردیم، آنچه در متن ویکیپدیا آزاردهنده به نظر میرسد—ویرایشهای متعدد، اختلاف نظرها، منابع گوناگون—در واقع نشانهٔ یک فرایند حیاتی است؛ اصطکاک معرفتی، هوش مصنوعی برای حذف اصطکاک طراحی شده است.
دانش انسانی برای عبور از آن شکل میگیرد، سامانههای زبانی، دانش را «میسازند» با پیشبینی آماری واژهٔ بعدی، ویکیپدیا دانش را «مذاکره» میکند؛ میان انسانهایی که بیشتر حتی با هم موافق نیستند. در مدل نخست، انسجام محصول الگوریتم است؛ در مدل دوم، انسجام نتیجهٔ کشمکش است.
هوش مصنوعی پاسخ میدهد، اما مسئولیت نمیپذیرد. در ویکیپدیا، هر جمله بالقوه به فردی قابلارجاع است؛ حتی اگر نامش مستعار باشد، ردّ مشارکتش باقی میماند. دانش بدون مسئولیت، شبیه حافظه بدون تجربه است: دقیق به نظر میرسد، اما ریشه ندارد. وقتی پاسخها فوری و قطعی ارائه میشوند، کاربر دیگر وارد فرایند سنجش نمیشود، او مصرفکنندهٔ «نتیجه» میشود، نه شریک در «فهم»، این همان جایی است که پدیده «توهم» در مدلهای زبانی خطرناک میشود: نه بهخاطر خطاهایشان، بلکه بهخاطر اعتماد بیچونوچرایی که القا میکنند.
بازگشت به آن اتاقِ ساعت دو بامداد
# دانشجوی ما اگر پاسخ سریع را انتخاب کند، احتمالاً چیزی یاد میگیرد، اما اگر مسیر سختتر را برود—منابع را ببیند، تاریخچهٔ ویرایشها را بررسی کند، اختلاف نظرها را بخواند—چیزی عمیقتر رخ میدهد:
او فقط اطلاعات دریافت نمیکند؛ او با «فرایند تولید حقیقت» آشنا میشود، و این همان چیزی است که بسیاری از ابزارهای مبتنی بر هوش مصنوعی، آگاهانه یا ناآگاهانه، حذف میکنند« ردّ پای شکلگیری دانش»؛ بحث را نباید به یک تقابل سادهٔ «انسان دقیقتر است یا ماشین» تقلیل داد، در بسیاری از کاربردها، هوش مصنوعی از انسان سریعتر و حتی دقیقتر عمل میکند. مسئله جای دیگری است:
پرسش |
دانش انسانی مشارکتی |
دانش تولیدشدهٔ ماشینی |
آیا میتوان مسیر رسیدن به پاسخ را دید؟ |
بله |
اغلب نه |
آیا امکان چالش و بازنگری عمومی وجود دارد؟ |
ساختاریافته |
محدود یا مبهم |
آیا خطا بخشی از فرایند اصلاح است؟ |
بله |
معمولاً پنهان میشود |
آیا کاربر درگیر فهم میشود؟ |
ناگزیر |
اختیاری |
دانشنامههای انسانی شبیه شهرهای قدیمیاند؛ نامنظم، لایهلایه، پر از آثار بازسازی، پایگاههای دانشیِ تمامخودکار بیشتر شبیه شهرهای از پیش طراحیشدهاند: کارآمد، تمیز، اما با تاریخی بسیار کوتاه.
ما در حال عبور از عصری هستیم که در آن «جستوجو» جای خود را به «دریافت» میدهد، قبلاً برای دانستن، باید میان منابع حرکت میکردیم، اکنون پاسخ، پیش از آنکه حتی سؤال را کامل کنیم، آماده است، این تحول، بیشتر از آنکه فناورانه باشد، شناختی است،
اگر نسلهای آینده دیگر عادت نکنند که دانش را بررسی، مقایسه و به چالش بکشند، آیا هنوز میتوان گفت «میدانند»؟ یا فقط به سامانههایی دسترسی دارند که بهجای آنها میدانند؟
دوباره همان مکث کوتاه
# دانشجوی داستان ما هنوز تصمیم نگرفته، نشانگر ماوس بین دو پنجره حرکت میکند. یکی وعدهٔ قطعیت میدهد، دیگری با تمام آشفتگیاش، او را دعوت میکند که در ساختن فهم مشارکت کند، شاید پرسش اصلی آیندهٔ دانش این نباشد که «کدام سیستم اطلاعات بیشتری تولید میکند؟»
بلکه این باشد:
آیا ما هنوز میخواهیم در فرایند دانستن حضور داشته باشیم، یا ترجیح میدهیم حقیقت را مثل یک محصول نهایی تحویل بگیریم؟ و اگر روزی گزینه دوم را انتخاب کنیم، آیا چیزی از «دانش» باقی میماند که ارزش اعتماد داشته باشد؟#