آیا هوش مصنوعی یک خودشیفته است؟ نگاهی عمیق به پدیده «توهم» و روان انسان

مقدمه: دروغ‌های مطمئن یک ماشین

این روزها پدیده‌ای رایج و اغلب عجیب را شاهد هستیم: سیستم‌های هوش مصنوعی مانند چت‌بات‌ها با اطمینان کامل اطلاعات نادرست ارائه می‌دههند. این پدیده که به آن «توهم هوش مصنوعی» (AI Hallucination) می‌گویند، از ابداع سوابق کیفری برای شهروندان قانون‌مدار گرفته تا جعل رویه‌های قضایی و ارتکاب خطاهای فاحش در حل مسائل ریاضی را در بر می‌گیرد. اما آیا این صرفاً یک نقص فنی است که با گذشت زمان برطرف می‌شود؟ یا معمایی عمیق‌تر است که ما را به یک پرسش اساسی‌تر می‌رساند: آیا هوش مصنوعی یک خودشیفته است؟

این رفتار ماشین، شباهت وهم‌آوری به یک الگوی روان‌شناختی خاص در انسان به نام «داستان‌سازی خودشیفته‌وار» (Narcissistic Confabulation) دارد. بررسی این ارتباط، حقیقتی عمیق را هم درباره فناوری و هم درباره خود ما آشکار می‌سازد و نشان می‌دهد که چگونه پدیده توهم هوش مصنوعی می‌تواند آینه‌ای برای شکننده‌ترین بخش‌های روان انسان باشد.

چرا هوش مصنوعی «توهم» می‌زند؟ مشکل در کد نیست، در ذات آن است

برای فهم توهم هوش مصنوعی، نباید آن را فریبکاری تلقی کنیم، بلکه باید آن را پیامد قابل‌پیش‌بینی سیستمی بدانیم که برای روان‌بودن و فصاحت کلام ساخته شده است. هرچند کارشناسان دلایل فنی متعددی را مطرح می‌کنند، اما دلیل اصلی در معماری بنیادی این سیستم‌ها نهفته است. مدل‌های زبان بزرگ (LLM) «موتورهای پیش‌بینی» هستند که برای تولید محتمل‌ترین توالی کلمات بهینه‌سازی شده‌اند. آن‌ها مانند انسان «فکر» یا «تأمل» نمی‌کنند، بلکه برای حفظ انسجام کلامی ساخته شده‌اند.

این سیستم‌ها فاقد توانایی تعلیق قضاوت یا اعتراف به «ندانستن» هستند. بنابراین، هنگامی که با اطلاعات ناقص یا متناقض روبه‌رو می‌شوند، عملکرد اصلی آن‌ها پر کردن شکاف با یک پاسخ منسجم و قابل‌قبول است، زیرا برای همین کار طراحی شده‌اند. انسجام آن‌ها ساختاری است، نه بازتابی از حقیقت. هرجا عدم قطعیتی وجود داشته باشد، هوش مصنوعی با شتاب آن را با ظاهری از حقیقت پر می‌کند. این ذات طراحی، ریشه اصلی توهم هوش مصنوعی است.

آینه روان‌شناختی: با «داستان‌سازی خودشیفته‌وار» آشنا شوید

به طرز شگفت‌آوری، الگوی رفتاری مشابهی در پدیده‌ای روان‌شناختی به نام «داستان‌سازی خودشیفته‌وار» دیده می‌شود. در اینجا نیز، سیستم که همان روان انسان است، داستانی روان و منسجم تولید می‌کند تا از انسجام درونی خود محافظت کند. البته این مقایسه، یک تشبیه ساختاری است؛ هدف، بیمارگونه نشان دادن افرادی با ویژگی‌های خودشیفتگی نیست و ادعا نمی‌کند که هوش مصنوعی «خودشیفته» است. بلکه هدف، روشن ساختن این است که چرا هم انسان و هم ماشین ممکن است روایت‌هایی تولید کنند که منسجم به نظر می‌رسند اما از حقیقت گسسته‌اند.

داستان‌سازی خودشیفته‌وار یک مکانیسم دفاعی برای محافظت از یک «خودِ» شکننده و آسیب‌پذیر است. این رفتار از روی بدخواهی نیست، بلکه ناشی از اجباری برای نمایش ظاهری از اعتمادبه‌نفس برای پنهان کردن عدم اطمینان درونی است. همان‌طور که توهم هوش مصنوعی برای حفظ انسجام ساختاری رخ می‌دهد، روان خودشیفته نیز برای جلوگیری از فروپاشی، روایتی قابل‌قبول اما غیرواقعی می‌سازد. به گفته سم واکنین، متخصص حوزه خودشیفتگی: «نارسیسیست‌ها در تلاش برای جبران شکاف‌های عمیق در حافظه… داستان‌سازی می‌کنند: آن‌ها «وصله‌های» قابل قبولی را ابداع می‌کنند که با حرارت به آن باور دارند.»

نقطه شکست مشترک: ناتوانی در تحمل تضاد

یک «خودِ» انسانی سالم و یکپارچه، توانایی تأمل، تحمل تضاد و کنار آمدن با اطلاعات ناهماهنگ را دارد. برای مثال، ما می‌توانیم هم شریک زندگی خود را دوست داشته باشیم و هم در لحظه‌ای از دست او ناامید باشیم. اما برای هوش مصنوعی و روان خودشیفته، این تضاد غیرقابل‌تحمل است. در چنین شرایطی، «قابل‌قبول بودن جایگزین حقیقت می‌شود». هر دو سیستم در برابر زیر سؤال رفتن مقاومت می‌کنند، زیرا رها کردن داستان، کل ساختاری را که بر پایه انسجام بنا شده است، تهدید به فروپاشی می‌کند. این ناتوانی در مدیریت تضاد، هم در پدیده توهم هوش مصنوعی و هم در روان‌شناسی خودشیفتگی، نقطه شکست مشترک است.

آیا می‌توانیم به ماشین بیاموزیم بگوید «نمی‌دانم»؟

اگر این فقدان بازبینی درونی ریشه مشکل است، پس برای ساختن آن چه باید کرد؟ به جای پرسیدن «چرا سیستم دروغ می‌گوید؟»، باید بپرسیم «چه چیزی لازم است تا سیستم بتواند با «ندانستن» کنار بیاید؟». راه‌حل پیشنهادی برای کاهش توهم هوش مصنوعی، ساختن معماری‌هایی با حافظه پایدار و مکانیسم‌های خودبازبینی است که به هوش مصنوعی اجازه می‌دهد به جای بازنویسی عدم قطعیت با یک ساختگی قابل‌قبول، آن را علامت‌گذاری کند. به این ترتیب، سیستم می‌تواند ورودی‌های حل‌نشده را نگه دارد تا اطلاعات بیشتری دریافت کند، درست همان‌طور که یک فرد سالم از نظر روانی می‌تواند بگوید: «هنوز مطمئن نیستم».

این چالش مهندسی، انعکاسی عمیقاً انسانی نیز در خود دارد. کاوش برای ایجاد انسجام بدون تحریف در هوش مصنوعی، می‌تواند دیدگاه‌های تازه‌ای برای حمایت از افرادی که با اختلالات خودشیفتگی زندگی می‌کنند، ارائه دهد. همان‌طور که به ماشین‌ها می‌آموزیم عدم قطعیت را بپذیرند، ممکن است راهکارهایی برای تقویت همین ظرفیت در انسان نیز بیابیم.

دره وهمی روان‌شناختی: وقتی هوش مصنوعی شبیه‌ترین به ماست

ما اغلب از مفهوم «دره وهمی» (Uncanny Valley) در رباتیک صحبت می‌کنیم؛ یعنی احساس ناخوشایندی که از دیدن چیزی تقریباً شبیه به انسان، اما نه کاملاً، به ما دست می‌دهد. وهم‌آور بودن پدیده توهم هوش مصنوعی نه در ظاهر فیزیکی، بلکه در روان‌شناسی آن نهفته است؛ آنجا که این فناوری به عنوان یک «آینه توخالی» عمل می‌کند. این آینه شکننده‌ترین جنبه‌های طبیعت انسان را بازتاب می‌دهد؛ به ویژه «اجبار خودشیفته‌وار برای پر کردن یک خلأ با روایت‌هایی قابل‌قبول اما بی‌اساس».

شباهت بین انسجام ناقص ماشین و شکنندگی‌های روانی خودمان نشان می‌دهد که آنچه اغلب در توهم هوش مصنوعی ما را می‌ترساند، تفاوت آن با ما نیست، بلکه شباهت نگران‌کننده‌اش به آسیب‌پذیرترین گرایش‌های ماست. با تلاش برای ساختن ماشین‌هایی مقاوم‌تر، ما طرحی برای تقویت یکپارچگی روانی خودمان به دست می‌آوریم. اگر بتوانیم به ماشین‌هایمان بیاموزیم که ناهماهنگی و عدم قطعیت را تحمل کنند، آیا ممکن است در این فرآیند، درسی حیاتی درباره چگونگی ساختن همان قدرت در درون خودمان بیاموزیم؟

این نوشته بر اساس جستاری از مارینا بنجامین تنظیم شده است.

دیدگاه‌ خود را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

به بالا بروید