آخرین بروزرسانی در ۳ دی ۱۴۰۴ توسط Dr.Arman
دمیس هاسابیس، مرد شماره یک گوگل دیمایند، فقط سه کلمه برای آن نوشت: «این خجالتآور است.» اما چه چیزی باعث شد یکی از بزرگترین چهرههای دنیای تکنولوژی و اخبار هوش مصنوعی اینقدر تند واکنش نشان دهد؟ در دنیایی که هیاهوی شبکههای اجتماعی بر واقعیتهای علمی سایه انداخته، گاهی مرز بین یک کشف انقلابی و یک جستجوی ساده در اینترنت آنقدر باریک میشود که حتی دانشمندان تراز اول را هم به اشتباه میاندازد.
چرا این بحث همین حالا برای شما اهمیت دارد؟
اگر شما هم مثل من هر روز صبح با ولع اخبار هوش مصنوعی را دنبال میکنید، احتمالاً حس کردهاید که هر هفته یک «انقلاب بزرگ» رخ میدهد. اما حقیقت این است که ما در میانه یک جنگ روانی و تبلیغاتی بزرگ هستیم. شرکتهای هوش مصنوعی برای جذب سرمایه و جلب توجه، مرزهای اخلاق علمی را جابهجا میکنند. درک تفاوت بین «هوش واقعی» و «شعبدهبازی با دادهها» مهارتی است که امروز هر علاقهمند به تکنولوژی باید آن را بیاموزد تا در سیل ادعاهای پوچ غرق نشود.
ماجرای یک «بوق و کرنای» اشتباه در توییتر
داستان از یک پست هیجانزده شروع شد. سباستین بوبک، پژوهشگر OpenAI، در شبکه اجتماعی ایکس (توییتر سابق) اعلام کرد که مدل جدید آنها، یعنی GPT-5، موفق شده ۱۰ مسئله حلنشده در ریاضیات را حل کند. او با غرور نوشت: «شتاب علمی به کمک هوش مصنوعی رسماً آغاز شد.» این خبر مثل بمب در انجمنهای علمی صدا کرد، اما طولی نکشید که سوزن واقعیت، بادکنک این ادعا را ترکاند.
مسائل مورد بحث، معماهای مشهور «اردوش» بودند؛ صدها پازل ریاضی که پل اردوش، ریاضیدان بزرگ قرن بیستم، از خود به جا گذاشته است. توماس بلوم، ریاضیدانی که مسئولیت نگهداری از لیست این مسائل را بر عهده دارد، بلافاصله وارد میدان شد. او توضیح داد که GPT-5 در واقع هیچ مسئله جدیدی را «حل» نکرده است؛ بلکه فقط در اعماق وب گشته و راهحلهایی را پیدا کرده که قبلاً توسط انسانها نوشته شده بودند، اما هنوز در لیست بلوم ثبت نشده بودند.
وقتی جستجو با کشف اشتباه گرفته میشود
این یک درس بزرگ برای همه ماست. پیدا کردن اطلاعاتی که در گوشهای از اینترنت خاک میخورند (حتی اگر بسیار سخت و پیچیده باشد) با «خلاقیت» و «کشف فرمولهای جدید» تفاوت بنیادی دارد. GPT-5 احتمالاً کل مقالات ریاضی جهان را بلعیده است، کاری که هیچ انسانی قادر به انجامش نیست. اما این به معنای درک عمیق ریاضیات نیست؛ این یعنی داشتن یک حافظه بصری فوقالعاده و یک موتور جستجوی بسیار دقیق.
نکته طنز ماجرا اینجاست که خودِ این توانایی جستجو در مقالات عظیم ریاضی، به خودی خود یک ابزار شگفتانگیز است. اما هایپ و جوزدگی باعث شد این ویژگی ارزشمند زیر سایه یک ادعای دروغین پنهان شود. در واقع، طرفداران افراطی هوش مصنوعی آنقدر تشنه شنیدن کلمه «کشف» هستند که به «جستجوی هوشمندانه» راضی نمیشوند.
سایه سنگین شبکههای اجتماعی بر متد علمی
چرا دانشمندان بزرگی مثل بوبک چنین اشتباهات ناشیانهای مرتکب میشوند؟ پاسخ ساده است: ترس از عقب ماندن. در پلتفرمی مثل ایکس، جایی که سم آلتمن، یان لکان و گری مارکوس هر روز با هم دوئل میکنند، دقت فدای سرعت میشود. فرانسوا چارتون، پژوهشگر هوش مصنوعی، میگوید: «همه در حال ارتباط برقرار کردن هستند چون هیچکس نمیخواهد جا بماند.»
در این محیط، ادعاهای بزرگ و جنجالی بسیار بهتر از گزارشهای سرد و دقیق علمی دیده میشوند. این فضا باعث شده که حتی محققان جدی هم گاهی مانند اینفلوئنسرها رفتار کنند. وقتی یک مدل هوش مصنوعی سوالی را حل میکند که برای یک دانشجوی مقطع کارشناسی طراحی شده، شبکههای اجتماعی آن را با «لحظه آلفاگو» (شکست قهرمان جهان توسط هوش مصنوعی) مقایسه میکنند، در حالی که ریاضیدانان به این بزرگنماییها فقط لبخند میزنند.
واقعیت در آزمایشگاهها، نه در توییتها
در حالی که ریاضیدانان در توییتر مشغول دعوا بودند، دو تحقیق جدی دیگر منتشر شد که نشان میداد هوش مصنوعی در حوزههای حساس مثل پزشکی و حقوق هنوز لنگ میزند. محققان دریافتند که اگرچه LLMها در تشخیص برخی بیماریها خوب عمل میکنند، اما وقتی نوبت به پیشنهاد «درمان» میرسد، به شدت غیرقابل اعتماد هستند. در حوزه حقوق هم این مدلها توصیههایی متناقض و گاه کاملاً غلط ارائه میدهند.
اینجاست که باید از خودمان بپرسیم: آیا حاضریم بر اساس ادعای یک دانشمند در توییتر، جان یا مال خود را به هوش مصنوعی بسپاریم؟ شواهد علمی نشان میدهند که ما هنوز با آن نقطه فاصله زیادی داریم. بار اثبات ادعا بر عهده سازندگان این مدلهاست و تا اینجا، آنها در ارائه مدرک علمی محکم برای «هوش واقعی» شکست خوردهاند.
چگونه در عصر هوش مصنوعی، یک مخاطب هوشمند باشیم؟
برای اینکه فریب ادعاهای رنگارنگ را نخورید، چند گام عملی وجود دارد که باید در نظر بگیرید. اول اینکه همیشه به دنبال منابع مستقل بگردید. اگر شرکتی مثل OpenAI ادعایی کرد، منتظر بمانید تا جامعه علمی مستقل (کسانی که ذینفع نیستند) آن را تایید کنند.
دوم، تفاوت بین «عملکرد» و «درک» را بشناسید. هوش مصنوعی میتواند یک متن زیبا بنویسد بدون اینکه بداند معنی کلماتی که به کار برده چیست. در مورد ریاضیات هم همینطور است؛ حل کردن یک مسئله تکراری با استفاده از الگوهای قبلی، به معنای نبوغ ریاضی نیست.
سوم، به یاد داشته باشید که سرعت رشد AI واقعی است، اما مسیر آن خطی و همیشه رو به جلو نیست. همانطور که در انتهای داستان دیدیم، استارتاپهای کوچکی مثل AxiomProver واقعاً توانستند مسائل جدیدی را حل کنند. این یعنی پیشرفت در حال رخ دادن است، اما نه همیشه با آن سر و صدایی که در شبکههای اجتماعی میشنویم.
جمعبندی: علم صبر میطلبد، نه لایک
ماجرای GPT-5 و مسائل ریاضی اردوش، درس بزرگی برای همه ما بود. هوش مصنوعی ابزاری خارقالعاده است که میتواند به کشفهای بزرگ منجر شود، اما به شرطی که اجازه دهیم علم مسیر طبیعی خود را طی کند. علم واقعی در آزمایشگاهها و با بررسیهای دقیق ساخته میشود، نه با توییتهای هیجانزده نیمهشب.
دفعه بعد که خبری درباره «شکستن مرزهای هوش انسانی» شنیدید، یک نفس عمیق بکشید و به دنبال نظر متخصصان منتقد بگردید. هوش مصنوعی قرار نیست جای خلاقیت ما را بگیرد، اما قطعاً میتواند ابزاری باشد برای کسانی که بلدند بین حقیقت و هیاهو تمایز قائل شوند. شما جزو کدام دسته هستید؟
منبع:
https://www.technologyreview.com/2025/12/23/1130393/how-social-media-encourages-the-worst-of-ai-boosterism/

مطالب مرتبط