فریب بزرگ در ردیت؛ چطور هوش مصنوعی یک خبرنگار خبره را تا مرز سقوط برد؟

5/5 - (1 امتیاز)

آخرین بروزرسانی در ۱۷ دی ۱۴۰۴ توسط Dr.Arman

آیا تا به حال شده پستی را در فضای مجازی بخوانید و با تمام وجود احساس کنید که حقیقت محض است؟ در دنیای اخبار داغ امروز، مرز بین واقعیت و خیال چنان باریک شده که حتی حرفه‌ای‌ترین خبرنگاران هم گاهی در دام می‌افتند. چند روز پیش، یک داستان ویروسی در ردیت (Reddit) لرزه بر اندام پلتفرم‌های تحویل غذا انداخت، اما حقیقتی که پشت آن نهفته بود، از خودِ ادعاها هم ترسناک‌تر است: تمام آن ماجرا، از الف تا ی، ساخته و پرداخته هوش مصنوعی بود.

چرا این موضوع دقیقاً همین حالا اهمیت دارد؟

ما در دورانی زندگی می‌کنیم که اعتماد، گران‌بهاترین ارز دیجیتال است. وقتی می‌بینید پستی ۸۷ هزار لایک می‌گیرد و در پلتفرم X بیش از ۳۶ میلیون بار دیده می‌شود، مغز شما به طور خودکار به آن برچسب «معتبر» می‌زند. اما این حادثه نشان داد که هوش مصنوعی مولد دیگر فقط ابزاری برای ساختن عکس‌های خنده‌دار یا نوشتن تکالیف مدرسه نیست؛ این تکنولوژی حالا به سلاحی برای جعل واقعیت و فریب افکار عمومی در مقیاس میلیونی تبدیل شده است.

شاید بپرسید که چرا من و شما باید نگران باشیم؟ پاسخ ساده است: اگر یک خبرنگار تکنولوژی با سال‌ها تجربه نتواند در نگاه اول تفاوت بین یک مدرک شرکتی واقعی و یک خروجی چت‌جی‌پی‌تی را تشخیص دهد، پس هیچ‌کدام از ما در امان نیستیم. این داستان نه درباره همبرگر و پیک موتوری، بلکه درباره آینده‌ای است که در آن حقیقت به یک کالای نایاب تبدیل می‌شود.

شروع یک جنجال؛ افشاگری که وجود نداشت

همه چیز با یک پست پرسوز و گداز شروع شد. کاربری ادعا می‌کرد که کارمند سابق یکی از بزرگترین اپلیکیشن‌های تحویل غذا است و حالا، در حالی که در کتابخانه عمومی نشسته و از وای‌فای رایگان استفاده می‌کند تا ردیابی نشود، می‌خواهد تشت رسوایی شرکت را از بام بیندازد. او از «الگوریتم‌های ظالمانه» و «دزدی سیستماتیک انعام رانندگان» می‌گفت.

داستان او به قدری با جزئیات و احساسی نوشته شده بود که هر کسی را تحت تأثیر قرار می‌داد. او می‌گفت شرکت از خلأهای قانونی استفاده می‌کند تا دستمزد رانندگان را به نفع خود مصادره کند. جالب اینجاست که چون قبلاً شرکت‌هایی مثل DoorDash بابت مسائل مشابه جریمه شده بودند، ذهن مخاطب آمادگی کامل داشت تا این دروغ جدید را هم به عنوان یک حقیقت مطلق بپذیرد.

وقتی اسناد ۱۸ صفحه‌ای هم دروغ می‌گویند

کیسی نیوتن، خبرنگار مشهور حوزه تکنولوژی، تصمیم گرفت این موضوع را پیگیری کند. او با افشاگر در پیام‌رسان سیگنال تماس گرفت. فرد ناشناس عکسی از کارت پرسنلی خود و یک سند فنی ۱۸ صفحه‌ای را به عنوان مدرک فرستاد. این سند شامل نمودارها، اصطلاحات پیچیده مارکتینگ و مفهومی به نام «امتیاز ناامیدی» (Desperation Score) بود؛ سیستمی که ادعا می‌کرد میزان نیاز مالی راننده را می‌سنجد تا کمترین دستمزد ممکن را به او پیشنهاد دهد!

نیوتن می‌گوید: «در تمام دوران کاری‌ام تا به این لحظه، چنین سندی کاملاً معتبر به نظر می‌رسید. چون چه کسی وقت می‌گذارد ۱۸ صفحه سند فنی دقیق فقط برای سر کار گذاشتن یک خبرنگار بنویسد؟» اما پاسخ در سال ۲۰۲۴ ساده است: هوش مصنوعی. ابزارهای LLM می‌توانند در عرض چند ثانیه سندی بنویسند که نوشتنش برای یک انسان هفته‌ها زمان می‌برد.

هوش مصنوعی علیه هوش مصنوعی: چطور مچِ دروغگو باز شد؟

در نهایت، چیزی که این افشاگر قلابی را لو داد، نه اشتباه کلامی بود و نه تناقض در داستان؛ بلکه یک امضای دیجیتال مخفی بود. نیوتن برای بررسی عکس کارت پرسنلی از هوش مصنوعی Gemini گوگل کمک گرفت. گوگل از تکنولوژی به نام SynthID استفاده می‌کند که یک واترمارک نامرئی روی تصاویر ساخته شده توسط AI قرار می‌دهد. این واترمارک حتی با بریدن عکس یا تغییر کنتراست هم از بین نمی‌رود.

اینجاست که پارادوکس عجیب دنیای مدرن شکل می‌گیرد. ما برای تشخیص دروغ‌های یک هوش مصنوعی، مجبوریم به هوش مصنوعی دیگری پناه ببریم. این یعنی ما وارد یک مسابقه تسلیحاتی دیجیتال شده‌ایم که در آن ابزارهای تولید محتوا و ابزارهای تشخیص محتوا مدام در حال تلاش برای شکست دادن یکدیگر هستند.

تجارت کثیف «محتوای بی‌ارزش» یا AI Slop

شاید فکر کنید این فقط یک شوخی بی‌مزه بوده است، اما قضیه عمیق‌تر است. مکس اسپرو، مؤسس Pangram Labs، می‌گوید شرکت‌هایی وجود دارند که میلیون‌ها دلار درآمد دارند تا «تعامل ارگانیک» در ردیت ایجاد کنند. آن‌ها از هوش مصنوعی استفاده می‌کنند تا پست‌هایی بسازند که ویروسی شوند، نام یک برند را تخریب کنند یا برعکس، محبوبیت کاذبی برای آن بخرند.

این اصطلاحاً «AI Slop» یا محتوای بی‌ارزش ماشینی است که اینترنت را غرق کرده است. مشکل اینجاست که حتی اگر پستی بعد از ۴۸ ساعت لو برود که جعلی است، در آن مدت میلیون‌ها نفر آن را دیده‌اند و باور کرده‌اند. ذهن انسان به سختی اطلاعات غلطی را که قبلاً پذیرفته، اصلاح می‌کند. این یعنی سمِ اطلاعاتی قبلاً وارد رگ‌های جامعه شده است.

چطور در عصر فریب، کارآگاه خودمان باشیم؟

شما به عنوان کسی که عاشق دنیای هوش مصنوعی هستید، باید فراتر از یک کاربر عادی به قضایا نگاه کنید. اولین قدم این است که بدانید «احساسی بودن» یک مطلب، لزوماً به معنای «واقعی بودن» آن نیست. هوش مصنوعی در تقلید احساسات انسانی، خشم و مظلوم‌نمایی استاد شده است. هرگاه متنی را خواندید که بیش از حد با پیش‌فرض‌های ذهنی شما همخوانی داشت، کمی درنگ کنید.

دومین راهکار، استفاده از ابزارهای بررسی است. اگرچه ابزارهایی مثل Pangram یا کدهای شناسایی گوگل همیشه ۱۰۰ درصد دقیق نیستند، اما می‌توانند نشانه‌های اولیه جعل را به شما نشان دهند. به دنبال جزئیات خیلی ریز در عکس‌ها باشید؛ هوش مصنوعی هنوز در کشیدن جزئیات بسیار کوچک یا متن‌های داخل عکس گاهی دچار لغزش می‌شود، هرچند این پنجره هم در حال بسته شدن است.

آینده‌ای که باید برای آن آماده شویم

داستان ردیت یک زنگ خطر جدی بود. جالب است بدانید وقتی سردبیر این خبر را شنید، فکر کرد نویسنده درباره یک هوش مصنوعی دیگر حرف می‌زند؛ چون در همان آخر هفته، بیش از یک «کلاهبرداری ویروسی هوش مصنوعی» در ردیت در جریان بود! این یعنی ما با یک موج طرف هستیم، نه یک اتفاق تصادفی.

در پایان، باید به یاد داشته باشیم که هوش مصنوعی آینه‌ای از داده‌های ماست. او یاد گرفته است که ما چه چیزی را دوست داریم باور کنیم و همان را به خورد ما می‌دهد. برای اینکه در این اقیانوس غرق نشویم، باید تفکر انتقادی را به قوی‌ترین ابزار خود تبدیل کنیم. دفعه بعد که یک افشاگری تکان‌دهنده دیدید، از خودتان بپرسید: آیا این حقیقت است یا فقط یک الگوریتم هوشمند است که می‌داند چطور رگ خواب مرا پیدا کند؟

شما در این باره چه فکر می‌کنید؟ آیا تا به حال شده مطلبی را باور کنید و بعداً بفهمید ساخته هوش مصنوعی بوده؟ تجربیات خود را در کامنت‌ها با ما به اشتراک بگذارید تا با هم یاد بگیریم چطور در این دنیای جدید هوشمندانه زندگی کنیم.

منبع:

A viral Reddit post alleging fraud from a food delivery app turned out to be AI-generated

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *