آخرین بروزرسانی در ۱۵ آذر ۱۴۰۴ توسط Dr.Arman
تصور کنید یک هوش مصنوعی به تمام تماسهای تلفنی و ویدیویی شما با عزیزانتان گوش میدهد، نه فقط برای ضبط، بلکه برای پیشبینی جرمی که شاید در آینده مرتکب شوید. این سناریوی یک فیلم علمی-تخیلی نیست، بلکه جدیدترین اخبار دنیای فناوری است که همین حالا در زندانهای آمریکا در حال آزمایش است و بحثهای داغی را به راه انداخته.
چرا این موضوع همین حالا اهمیت دارد؟
این دیگر یک ایده تئوریک نیست. یک شرکت مخابراتی بزرگ به نام Securus Technologies، که تماسهای زندانیان را مدیریت میکند، یک مدل هوش مصنوعی قدرتمند را با استفاده از میلیونها ساعت مکالمه ضبطشده زندانیان آموزش داده است. هدف؟ شناسایی و پیشبینی جرایم قبل از وقوع. این اتفاق مرزهای بین امنیت و حریم خصوصی را جابجا میکند و سوالات مهمی را مطرح میسازد: آیا فناوری تا این حد باید در زندگی ما نفوذ کند؟ و چه کسی هزینه این نظارت پیشرفته را پرداخت میکند؟ پاسخ این سوال آخر، شما را شگفتزده خواهد کرد.
نگاهی عمیق به هوش مصنوعیِ کارآگاه
قلب این سیستم، یک مدل زبان بزرگ (LLM) است که با یک «گنجینه» واقعی از دادهها تغذیه شده. کوین الدر، رئیس Securus، میگوید آنها برای ساخت یکی از این مدلها، از دادههای هفت سال تماس زندانیان در ایالت تگزاس استفاده کردهاند. این حجم عظیم از دادههای انسانی—شامل خصوصیترین مکالمات، درددلها، و برنامهریزیها—به ماشین یاد میدهد الگوهای مشکوک را شناسایی کند.
سیستم به این صورت کار میکند: هوش مصنوعی به طور زنده به تماسهای تلفنی، تصویری، پیامکها و ایمیلهای زندانیان گوش میدهد. اگر چیزی مشکوک، مانند کلمات کلیدی مرتبط با قاچاق، فعالیتهای گروهی یا خشونت را تشخیص دهد، آن بخش از مکالمه را برای بازبینی توسط یک مامور انسانی پرچمگذاری میکند. سپس این اطلاعات به دست بازرسان زندان میرسد تا اقدامات لازم را انجام دهند. شرکت ادعا میکند این سیستم به جلوگیری از جرایمی مثل قاچاق انسان و مواد مخدر کمک کرده، اما هنوز هیچ پرونده مشخصی که موفقیت آن را *مستقیماً* توسط این AI ثابت کند، ارائه نکرده است.
رضایت اجباری: وقتی چارهای جز شنود شدن ندارید
شاید بگویید زندانیان میدانند که مکالماتشان ضبط میشود. این درست است، اما یک تفاوت بزرگ وجود دارد. به گفته بیانکا تایلک، مدیر یک گروه حامی حقوق زندانیان، این «رضایت اجباری» است. زندانیان برای صحبت با خانواده و عزیزانشان هیچ راه دیگری ندارند. آنها مجبورند از این سیستم استفاده کنند و حالا، بدون اینکه بدانند، دادههایشان برای آموزش یک هوش مصنوعی ناظر به کار گرفته میشود. تایلک نکته تکاندهندهتری را اضافه میکند: «نه تنها برای استفاده از دادههایشان به آنها پولی پرداخت نمیشود، بلکه آنها در حین جمعآوری این دادهها، برای هر دقیقه مکالمه پول هم پرداخت میکنند.»
هزینه امنیت بر دوش چه کسی است؟
اینجا داستان پیچیدهتر میشود. در سال ۲۰۲۴، کمیسیون ارتباطات فدرال آمریکا (FCC) قانونی را تصویب کرد که شرکتها را از انداختن هزینههای نظارتی (مانند ضبط و شنود مکالمات) بر دوش زندانیان و خانوادههایشان منع میکرد. این یک پیروزی بزرگ برای حامیان حقوق زندانیان بود. اما این پیروزی دوام نیاورد. شرکت Securus و کلانترها لابی کردند و استدلال کردند که بدون این درآمد، نمیتوانند امنیت را تامین کنند.
در یک چرخش غافلگیرکننده، FCC نه تنها آن قانون را به تعویق انداخت، بلکه قوانین جدیدی وضع کرد که به شرکتهایی مانند Securus اجازه میدهد هزینههای امنیتی—از جمله ساخت و توسعه ابزارهای هوش مصنوعی—را دوباره از زندانیان دریافت کنند. این یعنی خانوادهای که برای صحبت با عزیز در بند خود تلاش میکند، حالا ناخواسته هزینه ساخت سیستمی را میپردازد که مکالماتشان را برای یافتن جرم تحلیل میکند. این تصمیم آنقدر بحثبرانگیز بود که یکی از کمیسرهای FCC در مخالفت با آن نوشت: «نیروهای انتظامی باید هزینه امنیت را بپردازند، نه خانوادههای افراد زندانی.»
وقتی فناوری از قانون پیشی میگیرد
مدافعان حقوق مدنی، مانند ACLU، هشدار میدهند که این فناوری یک سیستم نظارتی تهاجمی را تقویت میکند که قانون هنوز برای آن حد و مرزی تعیین نکرده است. کورین کندریک از ACLU میپرسد: «آیا قرار است با نظارت بر هر کلمه و فکر افراد زندانی، جلوی جرم را قبل از وقوع بگیریم؟» این یک سوال اساسی در عصر هوش مصنوعی است. ما در حال ساخت ابزارهایی هستیم که میتوانند کارهایی فراتر از تصورات گذشته انجام دهند، اما قوانین ما هنوز برای کنترل قدرت آنها آماده نیستند.
نتیجهگیری: بهای واقعی امنیت چیست؟
ما با یک دوراهی اخلاقی بزرگ روبرو هستیم. از یک سو، میل به جامعهای امنتر و جلوگیری از جرم، هدفی قابل درک است. از سوی دیگر، استفاده از خصوصیترین مکالمات افراد، آن هم با هزینه خودشان، برای آموزش یک هوش مصنوعی ناظر، نگرانیهای عمیقی در مورد حریم خصوصی و عدالت ایجاد میکند. داستانی که از زندانهای آمریکا شروع شده، میتواند آینده نظارت در همه جا باشد. این ما هستیم که باید تصمیم بگیریم مرز بین امنیت و آزادی کجاست و آیا حاضریم برای رسیدن به یکی، دیگری را فدا کنیم؟
منبع:
https://www.technologyreview.com/2025/12/01/1128591/an-ai-model-trained-on-prison-phone-calls-is-now-being-used-to-surveil-inmates/

مطالب مرتبط