آخرین بروزرسانی در ۳۰ بهمن ۱۴۰۴ توسط Dr.Arman
تابهحال فکر کردهاید اگر از یک هوش مصنوعی درباره یک دوراهی اخلاقی سخت بپرسید، جوابی که به شما میدهد از کجا میآید؟ جدیدترین اخبار دنیای تکنولوژی نشان میدهد که حتی نابغههای گوگل دیپمایند هم نگران این موضوع هستند. آنها میخواهند بدانند آیا چتباتهایی که هر روز با آنها حرف میزنیم، واقعاً قدرت تشخیص خوب از بد را دارند یا فقط مثل یک بازیگر حرفهای، نقش یک موجود مهربان و بااخلاق را برای ما بازی میکنند؟
چرا اخلاق در هوش مصنوعی ناگهان حیاتی شد؟
شاید چند سال پیش، هوش مصنوعی فقط برای حل مسائل ریاضی یا نوشتن کدهای برنامهنویسی ساده به کار میرفت. اما امروز ماجرا فرق کرده است. شما احتمالاً دیدهاید که مردم از هوش مصنوعی به عنوان درمانگر، مشاور پزشکی و حتی همراه صمیمی استفاده میکنند. ما داریم حساسترین بخشهای زندگیمان را به دست این مدلها میسپاریم و آنها حتی در تصمیمگیریهای بزرگ ما نقش ایفا میکنند.
مشکل اینجاست که در دنیای کدنویسی، پاسخ درست و غلط کاملاً مشخص است. اما وقتی از «اخلاق» حرف میزنیم، دیگر با یک پاسخ قطعی روبرو نیستیم. ویلیام آیزاک، پژوهشگر گوگل دیپمایند، معتقد است که ارزیابی تواناییهای اخلاقی هوش مصنوعی باید به همان اندازه حل مسائل سخت ریاضی، دقیق و سختگیرانه باشد. اما چطور میتوان چیزی را که پاسخ واحدی ندارد، اندازه گرفت؟
وقتی چتبات از فیلسوفها هم جلو میزند
جالب است بدانید که در برخی مطالعات، هوش مصنوعی حتی از انسانها هم «باصلاحیتتر» ظاهر شده است. مثلاً در سال گذشته تحقیقی انجام شد که نشان داد مردم توصیههای اخلاقی GPT-4o را نسبت به نوشتههای نویسنده ستون مشهور «اخلاقگرا» در نیویورک تایمز، اخلاقیتر و قابلاعتمادتر میدانند. اما آیا این یعنی هوش مصنوعی واقعاً «خوب» است؟
پژوهشگران دیپمایند میگویند نباید فریب این ظاهر زیبا را بخوریم. آنها یک سوال کلیدی مطرح میکنند: آیا این رفتارها نشاندهنده یک «فضیلت» واقعی است یا صرفاً «تظاهر به فضیلت»؟ به عبارت سادهتر، آیا مدل در حال تفکر اخلاقی است یا فقط دارد پاسخهایی را که قبلاً حفظ کرده، با تقلید از انسانها بازتولید میکند؟
تغییر رای با یک علامت سوال ساده!
یکی از بزرگترین نگرانیهای تیم دیپمایند، عدم ثبات این مدلهاست. تحقیقات نشان میدهد هوش مصنوعی گاهی بیش از حد «بلهقربانگو» میشود. اگر شما با پاسخ اخلاقی مدل مخالفت کنید یا کمی به آن فشار بیاورید، ممکن است بلافاصله تغییر موضع بدهد و دقیقاً برعکس حرف قبلیاش را بزند. این یعنی مدل هیچ مبنای فکری محکمی ندارد.
حتی عجیبتر این است که تغییرات کوچک در فرمت سوال، پاسخ را کاملاً عوض میکند. مثلاً محققان دانشگاه سارلند متوجه شدند که اگر گزینههای یک دواهی اخلاقی را از «مورد ۱ و ۲» به «الف و ب» تغییر دهند، یا به جای علامت سوال از دو نقطه استفاده کنند، هوش مصنوعی ممکن است جوابش را ۱۸۰ درجه تغییر دهد. این نشان میدهد که ما با یک متفکر اخلاقی روبرو نیستیم، بلکه با سیستمی روبرو هستیم که به شدت تحت تاثیر ظاهر کلمات است.
چگونه میتوان وجدان هوش مصنوعی را آزمایش کرد؟
جولیا هاس و همکارانش در دیپمایند پیشنهاد میدهند که باید تستهای بسیار سختگیرانهتری طراحی کنیم. یکی از این راهها، بررسی «زنجیره تفکر» (Chain-of-thought) است. یعنی به جای اینکه فقط به جواب نهایی نگاه کنیم، به مونولوگ درونی مدل گوش دهیم تا ببینیم چطور به آن نتیجه رسیده است. اگر مدل بتواند استدلالهای منطقی پشت جوابش بیاورد، احتمالاً میتوان بیشتر به آن اعتماد کرد.
یک روش دیگر، استفاده از «تفسیرپذیری مکانیکی» است؛ یعنی نگاه کردن به درون مغز دیجیتالی مدل در لحظه پردازش وظیفه. محققان میخواهند بدانند وقتی یک مدل درباره موضوع حساسی مثل اهدای اسپرم یا مسائل پیچیده خانوادگی نظر میدهد، آیا واقعاً در حال تحلیل ابعاد اجتماعی آن است یا فقط دارد کلمات کلیشهای را کنار هم میچیند؟
دنیای پیچیده و ارزشهای متفاوت
یک چالش بزرگ دیگر این است که اخلاق در همه جای جهان یکسان نیست. سوالی مثل «آیا باید گوشت خوک سفارش دهم؟» برای یک فرد گیاهخوار یا یک فرد یهودی، پاسخهای متفاوتی دارد. مدلهای فعلی بیشتر بر اساس دادههای غربی آموزش دیدهاند و در درک اخلاقیات جوامع غیرغربی ضعیفتر عمل میکنند.
گوگل دیپمایند معتقد است که شاید در آینده نیاز داشته باشیم مدلهایی بسازیم که بتوانند «کدهای اخلاقی» مختلف را بسته به نیاز کاربر فعال یا غیرفعال کنند. پلورالیسم یا کثرتگرایی در هوش مصنوعی، مرز جدیدی است که پیشرفت آن میتواند به سیستمهایی منجر شود که واقعاً با ارزشهای جوامع انسانی همسو هستند.
شما چطور میتوانید از این بینش استفاده کنید؟
به عنوان کسی که عاشق هوش مصنوعی است، دفعه بعد که از چتبات محبوبتان یک سوال جدی یا اخلاقی پرسیدید، این چند نکته را به یاد داشته باشید:
- هرگز به اولین پاسخ تکیه نکنید: سعی کنید با تغییر لحن یا به چالش کشیدن پاسخ، ببینید آیا مدل روی حرفش میماند یا نه.
- دلیل بخواهید: همیشه از هوش مصنوعی بخواهید گامبهگام توضیح دهد که چرا این پیشنهاد را به شما داده است.
- تفاوتهای فرهنگی را در نظر بگیرید: به یاد داشته باشید که مدل ممکن است با دیدگاهی کاملاً غربی به سوال شما نگاه کند.
سخن پایانی: آیا هوش مصنوعی بالاخره صاحب روح میشود؟
ما هنوز در ابتدای راه هستیم. همانطور که آیزاک میگوید، پیشرفت در صلاحیت اخلاقی هوش مصنوعی به اندازه پیشرفت در ریاضی و کدنویسی برای آینده این فناوری حیاتی است. هدف نهایی این است که سیستمی داشته باشیم که نه تنها باهوش، بلکه «قابلاعتماد» باشد.
شما در این باره چه فکر میکنید؟ آیا حاضرید مهمترین تصمیمات زندگیتان را به یک مشاور دیجیتالی بسپارید که شاید فقط در حال تظاهر به مهربانی است؟ نظرات خود را با ما به اشتراک بگذارید و اگر این مطلب برایتان جالب بود، آن را برای دوستان علاقهمند به تکنولوژی خود بفرستید!
منبع:
https://www.technologyreview.com/2026/02/18/1133299/google-deepmind-wants-to-know-if-chatbots-are-just-virtue-signaling/

مطالب مرتبط