آخرین بروزرسانی در ۲۵ آذر ۱۴۰۴ توسط Dr.Arman
تصور کنید دانشمندان به شما بگویند که یک سیارک چهار مایلی در سال ۲۰۶۷ به زمین برخورد خواهد کرد. آیا پاسخ شما این خواهد بود: «در سال ۲۰۶۶ دوباره به من یادآوری کن تا در موردش فکر کنیم»؟ این دقیقاً استدلالی است که «بدبینان هوش مصنوعی» یا همان «AI Doomers» برای هشدار در مورد خطرات هوش مصنوعی عمومی (AGI) به کار میبرند. آنها میگویند منتظر ماندن برای لحظه آخر، یک اشتباه مرگبار است.
چرا بحث هوش مصنوعی عمومی همین حالا داغ است؟
در شش ماه گذشته، باد به کام مخالفان این نگرش وزیده است. انتشار GPT-5 که با انتظارات افسانهای همراه بود، برای بسیاری یک ناامیدی به حساب آمد. صحبت از «حباب هوش مصنوعی» همهجا شنیده میشود و سیاستمدارانی مانند دیوید ساکس، مشاور هوش مصنوعی دولت ترامپ، با اعلام اینکه «روایت بدبینان اشتباه بود»، به دنبال تغییر مسیر سیاستگذاری هستند. این لحظه، یک نقطه عطف حیاتی است: آیا این شکستهای کوتاهمدت به معنای بیخطر بودن مسیر است، یا صرفاً فرصتی است برای تنفس و آمادهسازی بهتر؟ پاسخ به این سؤال، آینده فناوری و شاید سرنوشت انسان را شکل خواهد داد.
بدبینان هوش مصنوعی: نه نادیده گرفته، بلکه مصممتر
برخلاف تصور عموم، مصاحبه با بیش از ۲۰ تن از برجستهترین چهرههای حوزه ایمنی هوش مصنوعی – از جفری هینتون و یوشوا بنجیو، برندگان جایزه تورینگ، تا هلن تونر، عضو سابق هیئت مدیره اپنایآی – نشان میدهد که آنها نه تنها دلسرد نشدهاند، بلکه بیش از پیش بر مواضع خود پافشاری میکنند. آنها معتقدند هوش مصنوعی عمومی صرفاً یک امکان نیست، بلکه احتمالاً در راه است و اگر بدون کنترل توسعه یابد، میتواند یک ریسک وجودی برای بشریت ایجاد کند.
نکته جالب اینجاست که بسیاری از آنها از اینکه زمان بیشتری در اختیار دارند، احساس راحتی میکنند. جفری لادیش، محقق هوش مصنوعی، با آهی از آرامش میگوید: «خدا را شکر وقت بیشتری داریم.» اما این آرامش با نگرانی عمیقی همراه است. دانیل کوکوتاجلو، نویسنده اصلی سناریوی هشداردهنده «هوش مصنوعی ۲۰۲۷»، وضعیت کنونی سیاستگذاری را «در حال بدتر شدن» میداند و اظهارات سیاستمداران مخالف را «دیوانهوار و/یا غیرصادقانه» خطاب میکند.
سوءتفاهم بزرگ: مسئله فوریت نیست، بلکه آمادگی است
یکی از بزرگترین اشتباهات در درک این گروه، تمرکز بر زمانبندیهای کوتاهمدت است. استوارت راسل، استاد دانشگاه برکلی و نویسنده کتاب «Human Compatible»، به وضوح توضیح میدهد: «مورد ایمنی در مورد فوریت نیست. در مورد این است که ما هنوز راهحلی برای مسئله کنترل نداریم.» آنها به جای اینکه بگویند «فردا همه چیز تمام میشود»، هشدار میدهند که ما حتی برای یک خطر با احتمال کم اما عواقب فاجعهبار نیز آماده نیستیم.
یوشوا بنجیو این را به تغییرات آبوهوایی تشبیه میکند: «مثل تغییر اقلیم است. میتوانیم سرمان را زیر برف بکنیم و امیدوار باشیم که همه چیز خوب پیش میرود، اما این راه حل مشکل نیست.» او اعتراف میکند که حتی خودش نیز سالها نسبت به خطرات کور بود: «انسان است. شما از کارتان هیجانزده هستید و میخواهید جنبههای خوب آن را ببینید. این ما را کمی در توجه نکردن به چیزهای بدی که ممکن است رخ دهد، متعصب میکند.»
درس GPT-5: هیجان زودگذر، پیشرفت مستمر
بسیاری از کارشناسان معتقدند ناامیدی از GPT-5 بیشتر یک حواسپرتی است تا یک روشنگری. بنجیو خاطرنشان میکند که اگر به دادههای علمی نگاه کنید، GPT-5 دقیقاً در جایی است که انتظار میرود مدلها در آن نقطه زمانی باشند. پیشرفت در حوزههای خاصی مانند ریاضیات و کدنویسی کاملاً مشهود است. مشکل اینجاست که پیشرفت برای کاربر عادی کمتر «قابل خواندن» شده است. وقتی از GPT-4 و GPT-5 بپرسید «آسمان چرا آبی است؟»، هر دو پاسخ درست و مشابهی میدهند. تفاوت در حل مسائل پیچیده علمی است که از چشم عموم پنهان میماند.
خطری که اعتبار را تهدید میکند: پسرک گریان گرگ
هلن تونر، که خود از درونیترین حلقههای اپنایآی آمده، نگرانی جالبی را مطرح میکند. او میترسد که برخی برآوردهای تهاجمی و کوتاهمدت درباره زمانبندی هوش مصنوعی عمومی، جامعه ایمنی هوش مصنوعی را در معرض یک «لحظه پسرک گریان گرگ» قرار دهد. اگر پیشبینیهای مربوط به سال ۲۰۲۷ محقق نشود، مردم خواهند گفت: «به این آدمهای احمق نگاه کنید. دیگر هرگز نباید به حرف آنها گوش دهید.» تونر هشدار میدهد که این پاسخ از نظر فکری صادقانه نیست، اما میترسد ضربه بزرگی به اعتبار این حوزه وارد کند.
قدم بعدی شما چیست؟ از مصرفکننده منفعل به مشارکتکننده فعال تبدیل شوید
اگر شما، به عنوان یک علاقهمند به هوش مصنوعی، این هشدارها را جدی میگیرید، تنها تماشاگر نباشید. اول، سعی کنید فراتر از تیترهای خبری بروید. گزارشهای عمیقتری مانند «AI 2027» را بخوانید تا درک بهتری از سناریوهای محتمل پیدا کنید. دوم، در بحثهای عمومی شرکت کنید. وقتی دوستی میگوید «همه این حرفها درباره خطر هوش مصنوعی اغراق است»، با او در مورد تفاوت بین «فوریت» و «آمادگی» صحبت کنید. از مثال سیارک استفاده کنید. سوم، از توسعه اخلاقمحور هوش مصنوعی حمایت کنید. به پروژهها و سازمانهای تحقیقاتی غیرانتفاعی که بر روی ایمنی و کنترل هوش مصنوعی کار میکنند (مانند Mila یا مراکز دانشگاهی) توجه نشان دهید.
نتیجهگیری: زمان تنفس، نه زمان بیعملی
وضعیت کنونی برای بدبینان هوش مصنوعی مانند یک تشخیص جدید از طرف پزشک است: بیماری جدی است، اما شاید زمان بیشتری برای یافتن درمان داشته باشیم. این یک «فرصت» است، نه یک «تضمین امنیت». همانطور که جفری هینتون، پدرش خوانده یادگیری عمیق، میگوید: «هیچ چیز اجتنابناپذیر نیست. ما هرگز قبلاً اینجا نبودهایم. هر کس که مطمئن باشد میداند چه اتفاقی خواهد افتاد، از نظر من مسخره به نظر میرسد.» اما او و همفکرانش بر این باورند که بر اساس شواهد، توسعه یک ابرهوش در دو دهه آینده بسیار محتمل است. سؤال این نیست که «آیا میآید؟»، بلکه این است: «وقتی آمد، آیا ما آمادهایم؟» پاسخ فعلی، با وجود تمام هیاهوها و ناامیدیهای اخیر، هنوز هم منفی است. این هشدار، فارغ از برچسب «بدبین»، دعوتی است برای بیداری جمعی قبل از آنکه مجبور شویم بهای سنگینی بپردازیم.
منبع:
https://www.technologyreview.com/2025/12/15/1129171/the-ai-doomers-feel-undeterred/

مطالب مرتبط