آخرین بروزرسانی در ۱۷ دی ۱۴۰۴ توسط Dr.Arman
آیا تا به حال شده پستی را در فضای مجازی بخوانید و با تمام وجود احساس کنید که حقیقت محض است؟ در دنیای اخبار داغ امروز، مرز بین واقعیت و خیال چنان باریک شده که حتی حرفهایترین خبرنگاران هم گاهی در دام میافتند. چند روز پیش، یک داستان ویروسی در ردیت (Reddit) لرزه بر اندام پلتفرمهای تحویل غذا انداخت، اما حقیقتی که پشت آن نهفته بود، از خودِ ادعاها هم ترسناکتر است: تمام آن ماجرا، از الف تا ی، ساخته و پرداخته هوش مصنوعی بود.
چرا این موضوع دقیقاً همین حالا اهمیت دارد؟
ما در دورانی زندگی میکنیم که اعتماد، گرانبهاترین ارز دیجیتال است. وقتی میبینید پستی ۸۷ هزار لایک میگیرد و در پلتفرم X بیش از ۳۶ میلیون بار دیده میشود، مغز شما به طور خودکار به آن برچسب «معتبر» میزند. اما این حادثه نشان داد که هوش مصنوعی مولد دیگر فقط ابزاری برای ساختن عکسهای خندهدار یا نوشتن تکالیف مدرسه نیست؛ این تکنولوژی حالا به سلاحی برای جعل واقعیت و فریب افکار عمومی در مقیاس میلیونی تبدیل شده است.
شاید بپرسید که چرا من و شما باید نگران باشیم؟ پاسخ ساده است: اگر یک خبرنگار تکنولوژی با سالها تجربه نتواند در نگاه اول تفاوت بین یک مدرک شرکتی واقعی و یک خروجی چتجیپیتی را تشخیص دهد، پس هیچکدام از ما در امان نیستیم. این داستان نه درباره همبرگر و پیک موتوری، بلکه درباره آیندهای است که در آن حقیقت به یک کالای نایاب تبدیل میشود.
شروع یک جنجال؛ افشاگری که وجود نداشت
همه چیز با یک پست پرسوز و گداز شروع شد. کاربری ادعا میکرد که کارمند سابق یکی از بزرگترین اپلیکیشنهای تحویل غذا است و حالا، در حالی که در کتابخانه عمومی نشسته و از وایفای رایگان استفاده میکند تا ردیابی نشود، میخواهد تشت رسوایی شرکت را از بام بیندازد. او از «الگوریتمهای ظالمانه» و «دزدی سیستماتیک انعام رانندگان» میگفت.
داستان او به قدری با جزئیات و احساسی نوشته شده بود که هر کسی را تحت تأثیر قرار میداد. او میگفت شرکت از خلأهای قانونی استفاده میکند تا دستمزد رانندگان را به نفع خود مصادره کند. جالب اینجاست که چون قبلاً شرکتهایی مثل DoorDash بابت مسائل مشابه جریمه شده بودند، ذهن مخاطب آمادگی کامل داشت تا این دروغ جدید را هم به عنوان یک حقیقت مطلق بپذیرد.
وقتی اسناد ۱۸ صفحهای هم دروغ میگویند
کیسی نیوتن، خبرنگار مشهور حوزه تکنولوژی، تصمیم گرفت این موضوع را پیگیری کند. او با افشاگر در پیامرسان سیگنال تماس گرفت. فرد ناشناس عکسی از کارت پرسنلی خود و یک سند فنی ۱۸ صفحهای را به عنوان مدرک فرستاد. این سند شامل نمودارها، اصطلاحات پیچیده مارکتینگ و مفهومی به نام «امتیاز ناامیدی» (Desperation Score) بود؛ سیستمی که ادعا میکرد میزان نیاز مالی راننده را میسنجد تا کمترین دستمزد ممکن را به او پیشنهاد دهد!
نیوتن میگوید: «در تمام دوران کاریام تا به این لحظه، چنین سندی کاملاً معتبر به نظر میرسید. چون چه کسی وقت میگذارد ۱۸ صفحه سند فنی دقیق فقط برای سر کار گذاشتن یک خبرنگار بنویسد؟» اما پاسخ در سال ۲۰۲۴ ساده است: هوش مصنوعی. ابزارهای LLM میتوانند در عرض چند ثانیه سندی بنویسند که نوشتنش برای یک انسان هفتهها زمان میبرد.
هوش مصنوعی علیه هوش مصنوعی: چطور مچِ دروغگو باز شد؟
در نهایت، چیزی که این افشاگر قلابی را لو داد، نه اشتباه کلامی بود و نه تناقض در داستان؛ بلکه یک امضای دیجیتال مخفی بود. نیوتن برای بررسی عکس کارت پرسنلی از هوش مصنوعی Gemini گوگل کمک گرفت. گوگل از تکنولوژی به نام SynthID استفاده میکند که یک واترمارک نامرئی روی تصاویر ساخته شده توسط AI قرار میدهد. این واترمارک حتی با بریدن عکس یا تغییر کنتراست هم از بین نمیرود.
اینجاست که پارادوکس عجیب دنیای مدرن شکل میگیرد. ما برای تشخیص دروغهای یک هوش مصنوعی، مجبوریم به هوش مصنوعی دیگری پناه ببریم. این یعنی ما وارد یک مسابقه تسلیحاتی دیجیتال شدهایم که در آن ابزارهای تولید محتوا و ابزارهای تشخیص محتوا مدام در حال تلاش برای شکست دادن یکدیگر هستند.
تجارت کثیف «محتوای بیارزش» یا AI Slop
شاید فکر کنید این فقط یک شوخی بیمزه بوده است، اما قضیه عمیقتر است. مکس اسپرو، مؤسس Pangram Labs، میگوید شرکتهایی وجود دارند که میلیونها دلار درآمد دارند تا «تعامل ارگانیک» در ردیت ایجاد کنند. آنها از هوش مصنوعی استفاده میکنند تا پستهایی بسازند که ویروسی شوند، نام یک برند را تخریب کنند یا برعکس، محبوبیت کاذبی برای آن بخرند.
این اصطلاحاً «AI Slop» یا محتوای بیارزش ماشینی است که اینترنت را غرق کرده است. مشکل اینجاست که حتی اگر پستی بعد از ۴۸ ساعت لو برود که جعلی است، در آن مدت میلیونها نفر آن را دیدهاند و باور کردهاند. ذهن انسان به سختی اطلاعات غلطی را که قبلاً پذیرفته، اصلاح میکند. این یعنی سمِ اطلاعاتی قبلاً وارد رگهای جامعه شده است.
چطور در عصر فریب، کارآگاه خودمان باشیم؟
شما به عنوان کسی که عاشق دنیای هوش مصنوعی هستید، باید فراتر از یک کاربر عادی به قضایا نگاه کنید. اولین قدم این است که بدانید «احساسی بودن» یک مطلب، لزوماً به معنای «واقعی بودن» آن نیست. هوش مصنوعی در تقلید احساسات انسانی، خشم و مظلومنمایی استاد شده است. هرگاه متنی را خواندید که بیش از حد با پیشفرضهای ذهنی شما همخوانی داشت، کمی درنگ کنید.
دومین راهکار، استفاده از ابزارهای بررسی است. اگرچه ابزارهایی مثل Pangram یا کدهای شناسایی گوگل همیشه ۱۰۰ درصد دقیق نیستند، اما میتوانند نشانههای اولیه جعل را به شما نشان دهند. به دنبال جزئیات خیلی ریز در عکسها باشید؛ هوش مصنوعی هنوز در کشیدن جزئیات بسیار کوچک یا متنهای داخل عکس گاهی دچار لغزش میشود، هرچند این پنجره هم در حال بسته شدن است.
آیندهای که باید برای آن آماده شویم
داستان ردیت یک زنگ خطر جدی بود. جالب است بدانید وقتی سردبیر این خبر را شنید، فکر کرد نویسنده درباره یک هوش مصنوعی دیگر حرف میزند؛ چون در همان آخر هفته، بیش از یک «کلاهبرداری ویروسی هوش مصنوعی» در ردیت در جریان بود! این یعنی ما با یک موج طرف هستیم، نه یک اتفاق تصادفی.
در پایان، باید به یاد داشته باشیم که هوش مصنوعی آینهای از دادههای ماست. او یاد گرفته است که ما چه چیزی را دوست داریم باور کنیم و همان را به خورد ما میدهد. برای اینکه در این اقیانوس غرق نشویم، باید تفکر انتقادی را به قویترین ابزار خود تبدیل کنیم. دفعه بعد که یک افشاگری تکاندهنده دیدید، از خودتان بپرسید: آیا این حقیقت است یا فقط یک الگوریتم هوشمند است که میداند چطور رگ خواب مرا پیدا کند؟
شما در این باره چه فکر میکنید؟ آیا تا به حال شده مطلبی را باور کنید و بعداً بفهمید ساخته هوش مصنوعی بوده؟ تجربیات خود را در کامنتها با ما به اشتراک بگذارید تا با هم یاد بگیریم چطور در این دنیای جدید هوشمندانه زندگی کنیم.
منبع:
A viral Reddit post alleging fraud from a food delivery app turned out to be AI-generated

مطالب مرتبط