مقدمه: دروغهای مطمئن یک ماشین
این روزها پدیدهای رایج و اغلب عجیب را شاهد هستیم: سیستمهای هوش مصنوعی مانند چتباتها با اطمینان کامل اطلاعات نادرست ارائه میدههند. این پدیده که به آن «توهم هوش مصنوعی» (AI Hallucination) میگویند، از ابداع سوابق کیفری برای شهروندان قانونمدار گرفته تا جعل رویههای قضایی و ارتکاب خطاهای فاحش در حل مسائل ریاضی را در بر میگیرد. اما آیا این صرفاً یک نقص فنی است که با گذشت زمان برطرف میشود؟ یا معمایی عمیقتر است که ما را به یک پرسش اساسیتر میرساند: آیا هوش مصنوعی یک خودشیفته است؟
این رفتار ماشین، شباهت وهمآوری به یک الگوی روانشناختی خاص در انسان به نام «داستانسازی خودشیفتهوار» (Narcissistic Confabulation) دارد. بررسی این ارتباط، حقیقتی عمیق را هم درباره فناوری و هم درباره خود ما آشکار میسازد و نشان میدهد که چگونه پدیده توهم هوش مصنوعی میتواند آینهای برای شکنندهترین بخشهای روان انسان باشد.
چرا هوش مصنوعی «توهم» میزند؟ مشکل در کد نیست، در ذات آن است
برای فهم توهم هوش مصنوعی، نباید آن را فریبکاری تلقی کنیم، بلکه باید آن را پیامد قابلپیشبینی سیستمی بدانیم که برای روانبودن و فصاحت کلام ساخته شده است. هرچند کارشناسان دلایل فنی متعددی را مطرح میکنند، اما دلیل اصلی در معماری بنیادی این سیستمها نهفته است. مدلهای زبان بزرگ (LLM) «موتورهای پیشبینی» هستند که برای تولید محتملترین توالی کلمات بهینهسازی شدهاند. آنها مانند انسان «فکر» یا «تأمل» نمیکنند، بلکه برای حفظ انسجام کلامی ساخته شدهاند.
این سیستمها فاقد توانایی تعلیق قضاوت یا اعتراف به «ندانستن» هستند. بنابراین، هنگامی که با اطلاعات ناقص یا متناقض روبهرو میشوند، عملکرد اصلی آنها پر کردن شکاف با یک پاسخ منسجم و قابلقبول است، زیرا برای همین کار طراحی شدهاند. انسجام آنها ساختاری است، نه بازتابی از حقیقت. هرجا عدم قطعیتی وجود داشته باشد، هوش مصنوعی با شتاب آن را با ظاهری از حقیقت پر میکند. این ذات طراحی، ریشه اصلی توهم هوش مصنوعی است.
آینه روانشناختی: با «داستانسازی خودشیفتهوار» آشنا شوید
به طرز شگفتآوری، الگوی رفتاری مشابهی در پدیدهای روانشناختی به نام «داستانسازی خودشیفتهوار» دیده میشود. در اینجا نیز، سیستم که همان روان انسان است، داستانی روان و منسجم تولید میکند تا از انسجام درونی خود محافظت کند. البته این مقایسه، یک تشبیه ساختاری است؛ هدف، بیمارگونه نشان دادن افرادی با ویژگیهای خودشیفتگی نیست و ادعا نمیکند که هوش مصنوعی «خودشیفته» است. بلکه هدف، روشن ساختن این است که چرا هم انسان و هم ماشین ممکن است روایتهایی تولید کنند که منسجم به نظر میرسند اما از حقیقت گسستهاند.
داستانسازی خودشیفتهوار یک مکانیسم دفاعی برای محافظت از یک «خودِ» شکننده و آسیبپذیر است. این رفتار از روی بدخواهی نیست، بلکه ناشی از اجباری برای نمایش ظاهری از اعتمادبهنفس برای پنهان کردن عدم اطمینان درونی است. همانطور که توهم هوش مصنوعی برای حفظ انسجام ساختاری رخ میدهد، روان خودشیفته نیز برای جلوگیری از فروپاشی، روایتی قابلقبول اما غیرواقعی میسازد. به گفته سم واکنین، متخصص حوزه خودشیفتگی: «نارسیسیستها در تلاش برای جبران شکافهای عمیق در حافظه… داستانسازی میکنند: آنها «وصلههای» قابل قبولی را ابداع میکنند که با حرارت به آن باور دارند.»
نقطه شکست مشترک: ناتوانی در تحمل تضاد
یک «خودِ» انسانی سالم و یکپارچه، توانایی تأمل، تحمل تضاد و کنار آمدن با اطلاعات ناهماهنگ را دارد. برای مثال، ما میتوانیم هم شریک زندگی خود را دوست داشته باشیم و هم در لحظهای از دست او ناامید باشیم. اما برای هوش مصنوعی و روان خودشیفته، این تضاد غیرقابلتحمل است. در چنین شرایطی، «قابلقبول بودن جایگزین حقیقت میشود». هر دو سیستم در برابر زیر سؤال رفتن مقاومت میکنند، زیرا رها کردن داستان، کل ساختاری را که بر پایه انسجام بنا شده است، تهدید به فروپاشی میکند. این ناتوانی در مدیریت تضاد، هم در پدیده توهم هوش مصنوعی و هم در روانشناسی خودشیفتگی، نقطه شکست مشترک است.
آیا میتوانیم به ماشین بیاموزیم بگوید «نمیدانم»؟
اگر این فقدان بازبینی درونی ریشه مشکل است، پس برای ساختن آن چه باید کرد؟ به جای پرسیدن «چرا سیستم دروغ میگوید؟»، باید بپرسیم «چه چیزی لازم است تا سیستم بتواند با «ندانستن» کنار بیاید؟». راهحل پیشنهادی برای کاهش توهم هوش مصنوعی، ساختن معماریهایی با حافظه پایدار و مکانیسمهای خودبازبینی است که به هوش مصنوعی اجازه میدهد به جای بازنویسی عدم قطعیت با یک ساختگی قابلقبول، آن را علامتگذاری کند. به این ترتیب، سیستم میتواند ورودیهای حلنشده را نگه دارد تا اطلاعات بیشتری دریافت کند، درست همانطور که یک فرد سالم از نظر روانی میتواند بگوید: «هنوز مطمئن نیستم».
این چالش مهندسی، انعکاسی عمیقاً انسانی نیز در خود دارد. کاوش برای ایجاد انسجام بدون تحریف در هوش مصنوعی، میتواند دیدگاههای تازهای برای حمایت از افرادی که با اختلالات خودشیفتگی زندگی میکنند، ارائه دهد. همانطور که به ماشینها میآموزیم عدم قطعیت را بپذیرند، ممکن است راهکارهایی برای تقویت همین ظرفیت در انسان نیز بیابیم.
دره وهمی روانشناختی: وقتی هوش مصنوعی شبیهترین به ماست
ما اغلب از مفهوم «دره وهمی» (Uncanny Valley) در رباتیک صحبت میکنیم؛ یعنی احساس ناخوشایندی که از دیدن چیزی تقریباً شبیه به انسان، اما نه کاملاً، به ما دست میدهد. وهمآور بودن پدیده توهم هوش مصنوعی نه در ظاهر فیزیکی، بلکه در روانشناسی آن نهفته است؛ آنجا که این فناوری به عنوان یک «آینه توخالی» عمل میکند. این آینه شکنندهترین جنبههای طبیعت انسان را بازتاب میدهد؛ به ویژه «اجبار خودشیفتهوار برای پر کردن یک خلأ با روایتهایی قابلقبول اما بیاساس».
شباهت بین انسجام ناقص ماشین و شکنندگیهای روانی خودمان نشان میدهد که آنچه اغلب در توهم هوش مصنوعی ما را میترساند، تفاوت آن با ما نیست، بلکه شباهت نگرانکنندهاش به آسیبپذیرترین گرایشهای ماست. با تلاش برای ساختن ماشینهایی مقاومتر، ما طرحی برای تقویت یکپارچگی روانی خودمان به دست میآوریم. اگر بتوانیم به ماشینهایمان بیاموزیم که ناهماهنگی و عدم قطعیت را تحمل کنند، آیا ممکن است در این فرآیند، درسی حیاتی درباره چگونگی ساختن همان قدرت در درون خودمان بیاموزیم؟
این نوشته بر اساس جستاری از مارینا بنجامین تنظیم شده است.



