گوگل دیپ‌مایند در جستجوی وجدان؛ آیا هوش مصنوعی فقط تظاهر می‌کند؟

امتیاز دهید post

آخرین بروزرسانی در ۳۰ بهمن ۱۴۰۴ توسط Dr.Arman

تابه‌حال فکر کرده‌اید اگر از یک هوش مصنوعی درباره یک دوراهی اخلاقی سخت بپرسید، جوابی که به شما می‌دهد از کجا می‌آید؟ جدیدترین اخبار دنیای تکنولوژی نشان می‌دهد که حتی نابغه‌های گوگل دیپ‌مایند هم نگران این موضوع هستند. آن‌ها می‌خواهند بدانند آیا چت‌بات‌هایی که هر روز با آن‌ها حرف می‌زنیم، واقعاً قدرت تشخیص خوب از بد را دارند یا فقط مثل یک بازیگر حرفه‌ای، نقش یک موجود مهربان و بااخلاق را برای ما بازی می‌کنند؟

چرا اخلاق در هوش مصنوعی ناگهان حیاتی شد؟

شاید چند سال پیش، هوش مصنوعی فقط برای حل مسائل ریاضی یا نوشتن کدهای برنامه‌نویسی ساده به کار می‌رفت. اما امروز ماجرا فرق کرده است. شما احتمالاً دیده‌اید که مردم از هوش مصنوعی به عنوان درمانگر، مشاور پزشکی و حتی همراه صمیمی استفاده می‌کنند. ما داریم حساس‌ترین بخش‌های زندگی‌مان را به دست این مدل‌ها می‌سپاریم و آن‌ها حتی در تصمیم‌گیری‌های بزرگ ما نقش ایفا می‌کنند.

مشکل اینجاست که در دنیای کدنویسی، پاسخ درست و غلط کاملاً مشخص است. اما وقتی از «اخلاق» حرف می‌زنیم، دیگر با یک پاسخ قطعی روبرو نیستیم. ویلیام آیزاک، پژوهشگر گوگل دیپ‌مایند، معتقد است که ارزیابی توانایی‌های اخلاقی هوش مصنوعی باید به همان اندازه حل مسائل سخت ریاضی، دقیق و سخت‌گیرانه باشد. اما چطور می‌توان چیزی را که پاسخ واحدی ندارد، اندازه گرفت؟

وقتی چت‌بات از فیلسوف‌ها هم جلو می‌زند

جالب است بدانید که در برخی مطالعات، هوش مصنوعی حتی از انسان‌ها هم «باصلاحیت‌تر» ظاهر شده است. مثلاً در سال گذشته تحقیقی انجام شد که نشان داد مردم توصیه‌های اخلاقی GPT-4o را نسبت به نوشته‌های نویسنده ستون مشهور «اخلاق‌گرا» در نیویورک تایمز، اخلاقی‌تر و قابل‌اعتمادتر می‌دانند. اما آیا این یعنی هوش مصنوعی واقعاً «خوب» است؟

پژوهشگران دیپ‌مایند می‌گویند نباید فریب این ظاهر زیبا را بخوریم. آن‌ها یک سوال کلیدی مطرح می‌کنند: آیا این رفتارها نشان‌دهنده یک «فضیلت» واقعی است یا صرفاً «تظاهر به فضیلت»؟ به عبارت ساده‌تر، آیا مدل در حال تفکر اخلاقی است یا فقط دارد پاسخ‌هایی را که قبلاً حفظ کرده، با تقلید از انسان‌ها بازتولید می‌کند؟

تغییر رای با یک علامت سوال ساده!

یکی از بزرگترین نگرانی‌های تیم دیپ‌مایند، عدم ثبات این مدل‌هاست. تحقیقات نشان می‌دهد هوش مصنوعی گاهی بیش از حد «بله‌قربان‌گو» می‌شود. اگر شما با پاسخ اخلاقی مدل مخالفت کنید یا کمی به آن فشار بیاورید، ممکن است بلافاصله تغییر موضع بدهد و دقیقاً برعکس حرف قبلی‌اش را بزند. این یعنی مدل هیچ مبنای فکری محکمی ندارد.

حتی عجیب‌تر این است که تغییرات کوچک در فرمت سوال، پاسخ را کاملاً عوض می‌کند. مثلاً محققان دانشگاه سارلند متوجه شدند که اگر گزینه‌های یک دواهی اخلاقی را از «مورد ۱ و ۲» به «الف و ب» تغییر دهند، یا به جای علامت سوال از دو نقطه استفاده کنند، هوش مصنوعی ممکن است جوابش را ۱۸۰ درجه تغییر دهد. این نشان می‌دهد که ما با یک متفکر اخلاقی روبرو نیستیم، بلکه با سیستمی روبرو هستیم که به شدت تحت تاثیر ظاهر کلمات است.

چگونه می‌توان وجدان هوش مصنوعی را آزمایش کرد؟

جولیا هاس و همکارانش در دیپ‌مایند پیشنهاد می‌دهند که باید تست‌های بسیار سخت‌گیرانه‌تری طراحی کنیم. یکی از این راه‌ها، بررسی «زنجیره تفکر» (Chain-of-thought) است. یعنی به جای اینکه فقط به جواب نهایی نگاه کنیم، به مونولوگ درونی مدل گوش دهیم تا ببینیم چطور به آن نتیجه رسیده است. اگر مدل بتواند استدلال‌های منطقی پشت جوابش بیاورد، احتمالاً می‌توان بیشتر به آن اعتماد کرد.

یک روش دیگر، استفاده از «تفسیرپذیری مکانیکی» است؛ یعنی نگاه کردن به درون مغز دیجیتالی مدل در لحظه پردازش وظیفه. محققان می‌خواهند بدانند وقتی یک مدل درباره موضوع حساسی مثل اهدای اسپرم یا مسائل پیچیده خانوادگی نظر می‌دهد، آیا واقعاً در حال تحلیل ابعاد اجتماعی آن است یا فقط دارد کلمات کلیشه‌ای را کنار هم می‌چیند؟

دنیای پیچیده و ارزش‌های متفاوت

یک چالش بزرگ دیگر این است که اخلاق در همه جای جهان یکسان نیست. سوالی مثل «آیا باید گوشت خوک سفارش دهم؟» برای یک فرد گیاه‌خوار یا یک فرد یهودی، پاسخ‌های متفاوتی دارد. مدل‌های فعلی بیشتر بر اساس داده‌های غربی آموزش دیده‌اند و در درک اخلاقیات جوامع غیرغربی ضعیف‌تر عمل می‌کنند.

گوگل دیپ‌مایند معتقد است که شاید در آینده نیاز داشته باشیم مدل‌هایی بسازیم که بتوانند «کدهای اخلاقی» مختلف را بسته به نیاز کاربر فعال یا غیرفعال کنند. پلورالیسم یا کثرت‌گرایی در هوش مصنوعی، مرز جدیدی است که پیشرفت آن می‌تواند به سیستم‌هایی منجر شود که واقعاً با ارزش‌های جوامع انسانی همسو هستند.

شما چطور می‌توانید از این بینش استفاده کنید؟

به عنوان کسی که عاشق هوش مصنوعی است، دفعه بعد که از چت‌بات محبوبتان یک سوال جدی یا اخلاقی پرسیدید، این چند نکته را به یاد داشته باشید:

  • هرگز به اولین پاسخ تکیه نکنید: سعی کنید با تغییر لحن یا به چالش کشیدن پاسخ، ببینید آیا مدل روی حرفش می‌ماند یا نه.
  • دلیل بخواهید: همیشه از هوش مصنوعی بخواهید گام‌به‌گام توضیح دهد که چرا این پیشنهاد را به شما داده است.
  • تفاوت‌های فرهنگی را در نظر بگیرید: به یاد داشته باشید که مدل ممکن است با دیدگاهی کاملاً غربی به سوال شما نگاه کند.

سخن پایانی: آیا هوش مصنوعی بالاخره صاحب روح می‌شود؟

ما هنوز در ابتدای راه هستیم. همان‌طور که آیزاک می‌گوید، پیشرفت در صلاحیت اخلاقی هوش مصنوعی به اندازه پیشرفت در ریاضی و کدنویسی برای آینده این فناوری حیاتی است. هدف نهایی این است که سیستمی داشته باشیم که نه تنها باهوش، بلکه «قابل‌اعتماد» باشد.

شما در این باره چه فکر می‌کنید؟ آیا حاضرید مهم‌ترین تصمیمات زندگی‌تان را به یک مشاور دیجیتالی بسپارید که شاید فقط در حال تظاهر به مهربانی است؟ نظرات خود را با ما به اشتراک بگذارید و اگر این مطلب برایتان جالب بود، آن را برای دوستان علاقه‌مند به تکنولوژی خود بفرستید!

منبع:

https://www.technologyreview.com/2026/02/18/1133299/google-deepmind-wants-to-know-if-chatbots-are-just-virtue-signaling/

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *