هوش مصنوعی یا شعبده‌بازی دیجیتال؟ پشت‌پرده جنجال ریاضی GPT-5

5/5 - (1 امتیاز)

آخرین بروزرسانی در ۳ دی ۱۴۰۴ توسط Dr.Arman

دمیس هاسابیس، مرد شماره یک گوگل دی‌مایند، فقط سه کلمه برای آن نوشت: «این خجالت‌آور است.» اما چه چیزی باعث شد یکی از بزرگ‌ترین چهره‌های دنیای تکنولوژی و اخبار هوش مصنوعی این‌قدر تند واکنش نشان دهد؟ در دنیایی که هیاهوی شبکه‌های اجتماعی بر واقعیت‌های علمی سایه انداخته، گاهی مرز بین یک کشف انقلابی و یک جستجوی ساده در اینترنت آن‌قدر باریک می‌شود که حتی دانشمندان تراز اول را هم به اشتباه می‌اندازد.

چرا این بحث همین حالا برای شما اهمیت دارد؟

اگر شما هم مثل من هر روز صبح با ولع اخبار هوش مصنوعی را دنبال می‌کنید، احتمالاً حس کرده‌اید که هر هفته یک «انقلاب بزرگ» رخ می‌دهد. اما حقیقت این است که ما در میانه یک جنگ روانی و تبلیغاتی بزرگ هستیم. شرکت‌های هوش مصنوعی برای جذب سرمایه و جلب توجه، مرزهای اخلاق علمی را جابه‌جا می‌کنند. درک تفاوت بین «هوش واقعی» و «شعبده‌بازی با داده‌ها» مهارتی است که امروز هر علاقه‌مند به تکنولوژی باید آن را بیاموزد تا در سیل ادعاهای پوچ غرق نشود.

ماجرای یک «بوق و کرنای» اشتباه در توییتر

داستان از یک پست هیجان‌زده شروع شد. سباستین بوبک، پژوهشگر OpenAI، در شبکه اجتماعی ایکس (توییتر سابق) اعلام کرد که مدل جدید آن‌ها، یعنی GPT-5، موفق شده ۱۰ مسئله حل‌نشده در ریاضیات را حل کند. او با غرور نوشت: «شتاب علمی به کمک هوش مصنوعی رسماً آغاز شد.» این خبر مثل بمب در انجمن‌های علمی صدا کرد، اما طولی نکشید که سوزن واقعیت، بادکنک این ادعا را ترکاند.

مسائل مورد بحث، معماهای مشهور «اردوش» بودند؛ صدها پازل ریاضی که پل اردوش، ریاضی‌دان بزرگ قرن بیستم، از خود به جا گذاشته است. توماس بلوم، ریاضی‌دانی که مسئولیت نگهداری از لیست این مسائل را بر عهده دارد، بلافاصله وارد میدان شد. او توضیح داد که GPT-5 در واقع هیچ مسئله جدیدی را «حل» نکرده است؛ بلکه فقط در اعماق وب گشته و راه‌حل‌هایی را پیدا کرده که قبلاً توسط انسان‌ها نوشته شده بودند، اما هنوز در لیست بلوم ثبت نشده بودند.

وقتی جستجو با کشف اشتباه گرفته می‌شود

این یک درس بزرگ برای همه ماست. پیدا کردن اطلاعاتی که در گوشه‌ای از اینترنت خاک می‌خورند (حتی اگر بسیار سخت و پیچیده باشد) با «خلاقیت» و «کشف فرمول‌های جدید» تفاوت بنیادی دارد. GPT-5 احتمالاً کل مقالات ریاضی جهان را بلعیده است، کاری که هیچ انسانی قادر به انجامش نیست. اما این به معنای درک عمیق ریاضیات نیست؛ این یعنی داشتن یک حافظه بصری فوق‌العاده و یک موتور جستجوی بسیار دقیق.

نکته طنز ماجرا اینجاست که خودِ این توانایی جستجو در مقالات عظیم ریاضی، به خودی خود یک ابزار شگفت‌انگیز است. اما هایپ و جوزدگی باعث شد این ویژگی ارزشمند زیر سایه یک ادعای دروغین پنهان شود. در واقع، طرفداران افراطی هوش مصنوعی آن‌قدر تشنه شنیدن کلمه «کشف» هستند که به «جستجوی هوشمندانه» راضی نمی‌شوند.

سایه سنگین شبکه‌های اجتماعی بر متد علمی

چرا دانشمندان بزرگی مثل بوبک چنین اشتباهات ناشیانه‌ای مرتکب می‌شوند؟ پاسخ ساده است: ترس از عقب ماندن. در پلتفرمی مثل ایکس، جایی که سم آلتمن، یان لکان و گری مارکوس هر روز با هم دوئل می‌کنند، دقت فدای سرعت می‌شود. فرانسوا چارتون، پژوهشگر هوش مصنوعی، می‌گوید: «همه در حال ارتباط برقرار کردن هستند چون هیچ‌کس نمی‌خواهد جا بماند.»

در این محیط، ادعاهای بزرگ و جنجالی بسیار بهتر از گزارش‌های سرد و دقیق علمی دیده می‌شوند. این فضا باعث شده که حتی محققان جدی هم گاهی مانند اینفلوئنسرها رفتار کنند. وقتی یک مدل هوش مصنوعی سوالی را حل می‌کند که برای یک دانشجوی مقطع کارشناسی طراحی شده، شبکه‌های اجتماعی آن را با «لحظه آلفاگو» (شکست قهرمان جهان توسط هوش مصنوعی) مقایسه می‌کنند، در حالی که ریاضی‌دانان به این بزرگ‌نمایی‌ها فقط لبخند می‌زنند.

واقعیت در آزمایشگاه‌ها، نه در توییت‌ها

در حالی که ریاضی‌دانان در توییتر مشغول دعوا بودند، دو تحقیق جدی دیگر منتشر شد که نشان می‌داد هوش مصنوعی در حوزه‌های حساس مثل پزشکی و حقوق هنوز لنگ می‌زند. محققان دریافتند که اگرچه LLMها در تشخیص برخی بیماری‌ها خوب عمل می‌کنند، اما وقتی نوبت به پیشنهاد «درمان» می‌رسد، به شدت غیرقابل اعتماد هستند. در حوزه حقوق هم این مدل‌ها توصیه‌هایی متناقض و گاه کاملاً غلط ارائه می‌دهند.

اینجاست که باید از خودمان بپرسیم: آیا حاضریم بر اساس ادعای یک دانشمند در توییتر، جان یا مال خود را به هوش مصنوعی بسپاریم؟ شواهد علمی نشان می‌دهند که ما هنوز با آن نقطه فاصله زیادی داریم. بار اثبات ادعا بر عهده سازندگان این مدل‌هاست و تا اینجا، آن‌ها در ارائه مدرک علمی محکم برای «هوش واقعی» شکست خورده‌اند.

چگونه در عصر هوش مصنوعی، یک مخاطب هوشمند باشیم؟

برای اینکه فریب ادعاهای رنگارنگ را نخورید، چند گام عملی وجود دارد که باید در نظر بگیرید. اول اینکه همیشه به دنبال منابع مستقل بگردید. اگر شرکتی مثل OpenAI ادعایی کرد، منتظر بمانید تا جامعه علمی مستقل (کسانی که ذینفع نیستند) آن را تایید کنند.

دوم، تفاوت بین «عملکرد» و «درک» را بشناسید. هوش مصنوعی می‌تواند یک متن زیبا بنویسد بدون اینکه بداند معنی کلماتی که به کار برده چیست. در مورد ریاضیات هم همین‌طور است؛ حل کردن یک مسئله تکراری با استفاده از الگوهای قبلی، به معنای نبوغ ریاضی نیست.

سوم، به یاد داشته باشید که سرعت رشد AI واقعی است، اما مسیر آن خطی و همیشه رو به جلو نیست. همان‌طور که در انتهای داستان دیدیم، استارتاپ‌های کوچکی مثل AxiomProver واقعاً توانستند مسائل جدیدی را حل کنند. این یعنی پیشرفت در حال رخ دادن است، اما نه همیشه با آن سر و صدایی که در شبکه‌های اجتماعی می‌شنویم.

جمع‌بندی: علم صبر می‌طلبد، نه لایک

ماجرای GPT-5 و مسائل ریاضی اردوش، درس بزرگی برای همه ما بود. هوش مصنوعی ابزاری خارق‌العاده است که می‌تواند به کشف‌های بزرگ منجر شود، اما به شرطی که اجازه دهیم علم مسیر طبیعی خود را طی کند. علم واقعی در آزمایشگاه‌ها و با بررسی‌های دقیق ساخته می‌شود، نه با توییت‌های هیجان‌زده نیمه‌شب.

دفعه بعد که خبری درباره «شکستن مرزهای هوش انسانی» شنیدید، یک نفس عمیق بکشید و به دنبال نظر متخصصان منتقد بگردید. هوش مصنوعی قرار نیست جای خلاقیت ما را بگیرد، اما قطعاً می‌تواند ابزاری باشد برای کسانی که بلدند بین حقیقت و هیاهو تمایز قائل شوند. شما جزو کدام دسته هستید؟

منبع:

https://www.technologyreview.com/2025/12/23/1130393/how-social-media-encourages-the-worst-of-ai-boosterism/

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *