آیا هوش مصنوعی عمومی واقعاً تهدیدی برای بشریت است؟ پاسخ کارشناسان

5/5 - (1 امتیاز)

آخرین بروزرسانی در ۲۵ آذر ۱۴۰۴ توسط Dr.Arman

تصور کنید دانشمندان به شما بگویند که یک سیارک چهار مایلی در سال ۲۰۶۷ به زمین برخورد خواهد کرد. آیا پاسخ شما این خواهد بود: «در سال ۲۰۶۶ دوباره به من یادآوری کن تا در موردش فکر کنیم»؟ این دقیقاً استدلالی است که «بدبینان هوش مصنوعی» یا همان «AI Doomers» برای هشدار در مورد خطرات هوش مصنوعی عمومی (AGI) به کار می‌برند. آنها می‌گویند منتظر ماندن برای لحظه آخر، یک اشتباه مرگبار است.

چرا بحث هوش مصنوعی عمومی همین حالا داغ است؟

در شش ماه گذشته، باد به کام مخالفان این نگرش وزیده است. انتشار GPT-5 که با انتظارات افسانه‌ای همراه بود، برای بسیاری یک ناامیدی به حساب آمد. صحبت از «حباب هوش مصنوعی» همه‌جا شنیده می‌شود و سیاستمدارانی مانند دیوید ساکس، مشاور هوش مصنوعی دولت ترامپ، با اعلام اینکه «روایت بدبینان اشتباه بود»، به دنبال تغییر مسیر سیاست‌گذاری هستند. این لحظه، یک نقطه عطف حیاتی است: آیا این شکست‌های کوتاه‌مدت به معنای بی‌خطر بودن مسیر است، یا صرفاً فرصتی است برای تنفس و آماده‌سازی بهتر؟ پاسخ به این سؤال، آینده فناوری و شاید سرنوشت انسان را شکل خواهد داد.

بدبینان هوش مصنوعی: نه نادیده گرفته، بلکه مصمم‌تر

برخلاف تصور عموم، مصاحبه با بیش از ۲۰ تن از برجسته‌ترین چهره‌های حوزه ایمنی هوش مصنوعی – از جفری هینتون و یوشوا بنجیو، برندگان جایزه تورینگ، تا هلن تونر، عضو سابق هیئت مدیره اپن‌ای‌آی – نشان می‌دهد که آنها نه تنها دلسرد نشده‌اند، بلکه بیش از پیش بر مواضع خود پافشاری می‌کنند. آنها معتقدند هوش مصنوعی عمومی صرفاً یک امکان نیست، بلکه احتمالاً در راه است و اگر بدون کنترل توسعه یابد، می‌تواند یک ریسک وجودی برای بشریت ایجاد کند.

نکته جالب اینجاست که بسیاری از آنها از اینکه زمان بیشتری در اختیار دارند، احساس راحتی می‌کنند. جفری لادیش، محقق هوش مصنوعی، با آهی از آرامش می‌گوید: «خدا را شکر وقت بیشتری داریم.» اما این آرامش با نگرانی عمیقی همراه است. دانیل کوکوتاجلو، نویسنده اصلی سناریوی هشداردهنده «هوش مصنوعی ۲۰۲۷»، وضعیت کنونی سیاست‌گذاری را «در حال بدتر شدن» می‌داند و اظهارات سیاستمداران مخالف را «دیوانه‌وار و/یا غیرصادقانه» خطاب می‌کند.

سوءتفاهم بزرگ: مسئله فوریت نیست، بلکه آمادگی است

یکی از بزرگترین اشتباهات در درک این گروه، تمرکز بر زمان‌بندی‌های کوتاه‌مدت است. استوارت راسل، استاد دانشگاه برکلی و نویسنده کتاب «Human Compatible»، به وضوح توضیح می‌دهد: «مورد ایمنی در مورد فوریت نیست. در مورد این است که ما هنوز راه‌حلی برای مسئله کنترل نداریم.» آنها به جای اینکه بگویند «فردا همه چیز تمام می‌شود»، هشدار می‌دهند که ما حتی برای یک خطر با احتمال کم اما عواقب فاجعه‌بار نیز آماده نیستیم.

یوشوا بنجیو این را به تغییرات آب‌وهوایی تشبیه می‌کند: «مثل تغییر اقلیم است. می‌توانیم سرمان را زیر برف بکنیم و امیدوار باشیم که همه چیز خوب پیش می‌رود، اما این راه حل مشکل نیست.» او اعتراف می‌کند که حتی خودش نیز سال‌ها نسبت به خطرات کور بود: «انسان است. شما از کارتان هیجان‌زده هستید و می‌خواهید جنبه‌های خوب آن را ببینید. این ما را کمی در توجه نکردن به چیزهای بدی که ممکن است رخ دهد، متعصب می‌کند.»

درس GPT-5: هیجان زودگذر، پیشرفت مستمر

بسیاری از کارشناسان معتقدند ناامیدی از GPT-5 بیشتر یک حواس‌پرتی است تا یک روشن‌گری. بنجیو خاطرنشان می‌کند که اگر به داده‌های علمی نگاه کنید، GPT-5 دقیقاً در جایی است که انتظار می‌رود مدل‌ها در آن نقطه زمانی باشند. پیشرفت در حوزه‌های خاصی مانند ریاضیات و کدنویسی کاملاً مشهود است. مشکل اینجاست که پیشرفت برای کاربر عادی کمتر «قابل خواندن» شده است. وقتی از GPT-4 و GPT-5 بپرسید «آسمان چرا آبی است؟»، هر دو پاسخ درست و مشابهی می‌دهند. تفاوت در حل مسائل پیچیده علمی است که از چشم عموم پنهان می‌ماند.

خطری که اعتبار را تهدید می‌کند: پسرک گریان گرگ

هلن تونر، که خود از درونی‌ترین حلقه‌های اپن‌ای‌آی آمده، نگرانی جالبی را مطرح می‌کند. او می‌ترسد که برخی برآوردهای تهاجمی و کوتاه‌مدت درباره زمان‌بندی هوش مصنوعی عمومی، جامعه ایمنی هوش مصنوعی را در معرض یک «لحظه پسرک گریان گرگ» قرار دهد. اگر پیش‌بینی‌های مربوط به سال ۲۰۲۷ محقق نشود، مردم خواهند گفت: «به این آدم‌های احمق نگاه کنید. دیگر هرگز نباید به حرف آنها گوش دهید.» تونر هشدار می‌دهد که این پاسخ از نظر فکری صادقانه نیست، اما می‌ترسد ضربه بزرگی به اعتبار این حوزه وارد کند.

قدم بعدی شما چیست؟ از مصرف‌کننده منفعل به مشارکت‌کننده فعال تبدیل شوید

اگر شما، به عنوان یک علاقه‌مند به هوش مصنوعی، این هشدارها را جدی می‌گیرید، تنها تماشاگر نباشید. اول، سعی کنید فراتر از تیترهای خبری بروید. گزارش‌های عمیق‌تری مانند «AI 2027» را بخوانید تا درک بهتری از سناریوهای محتمل پیدا کنید. دوم، در بحث‌های عمومی شرکت کنید. وقتی دوستی می‌گوید «همه این حرف‌ها درباره خطر هوش مصنوعی اغراق است»، با او در مورد تفاوت بین «فوریت» و «آمادگی» صحبت کنید. از مثال سیارک استفاده کنید. سوم، از توسعه اخلاق‌محور هوش مصنوعی حمایت کنید. به پروژه‌ها و سازمان‌های تحقیقاتی غیرانتفاعی که بر روی ایمنی و کنترل هوش مصنوعی کار می‌کنند (مانند Mila یا مراکز دانشگاهی) توجه نشان دهید.

نتیجه‌گیری: زمان تنفس، نه زمان بی‌عملی

وضعیت کنونی برای بدبینان هوش مصنوعی مانند یک تشخیص جدید از طرف پزشک است: بیماری جدی است، اما شاید زمان بیشتری برای یافتن درمان داشته باشیم. این یک «فرصت» است، نه یک «تضمین امنیت». همانطور که جفری هینتون، پدرش خوانده یادگیری عمیق، می‌گوید: «هیچ چیز اجتناب‌ناپذیر نیست. ما هرگز قبلاً اینجا نبوده‌ایم. هر کس که مطمئن باشد می‌داند چه اتفاقی خواهد افتاد، از نظر من مسخره به نظر می‌رسد.» اما او و همفکرانش بر این باورند که بر اساس شواهد، توسعه یک ابرهوش در دو دهه آینده بسیار محتمل است. سؤال این نیست که «آیا می‌آید؟»، بلکه این است: «وقتی آمد، آیا ما آماده‌ایم؟» پاسخ فعلی، با وجود تمام هیاهوها و ناامیدی‌های اخیر، هنوز هم منفی است. این هشدار، فارغ از برچسب «بدبین»، دعوتی است برای بیداری جمعی قبل از آنکه مجبور شویم بهای سنگینی بپردازیم.

منبع:

https://www.technologyreview.com/2025/12/15/1129171/the-ai-doomers-feel-undeterred/

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *