راز هوش مصنوعی Securus در پیش‌بینی و جلوگیری از جرایم

راز هوش مصنوعی Securus ai-7.ir 00
4.7/5 - (3 امتیاز)

آخرین بروزرسانی در ۱۵ آذر ۱۴۰۴ توسط Dr.Arman

تصور کنید یک هوش مصنوعی به تمام تماس‌های تلفنی و ویدیویی شما با عزیزانتان گوش می‌دهد، نه فقط برای ضبط، بلکه برای پیش‌بینی جرمی که شاید در آینده مرتکب شوید. این سناریوی یک فیلم علمی-تخیلی نیست، بلکه جدیدترین اخبار دنیای فناوری است که همین حالا در زندان‌های آمریکا در حال آزمایش است و بحث‌های داغی را به راه انداخته.

چرا این موضوع همین حالا اهمیت دارد؟

این دیگر یک ایده تئوریک نیست. یک شرکت مخابراتی بزرگ به نام Securus Technologies، که تماس‌های زندانیان را مدیریت می‌کند، یک مدل هوش مصنوعی قدرتمند را با استفاده از میلیون‌ها ساعت مکالمه ضبط‌شده زندانیان آموزش داده است. هدف؟ شناسایی و پیش‌بینی جرایم قبل از وقوع. این اتفاق مرزهای بین امنیت و حریم خصوصی را جابجا می‌کند و سوالات مهمی را مطرح می‌سازد: آیا فناوری تا این حد باید در زندگی ما نفوذ کند؟ و چه کسی هزینه این نظارت پیشرفته را پرداخت می‌کند؟ پاسخ این سوال آخر، شما را شگفت‌زده خواهد کرد.

نگاهی عمیق به هوش مصنوعیِ کارآگاه

قلب این سیستم، یک مدل زبان بزرگ (LLM) است که با یک «گنجینه» واقعی از داده‌ها تغذیه شده. کوین الدر، رئیس Securus، می‌گوید آن‌ها برای ساخت یکی از این مدل‌ها، از داده‌های هفت سال تماس زندانیان در ایالت تگزاس استفاده کرده‌اند. این حجم عظیم از داده‌های انسانی—شامل خصوصی‌ترین مکالمات، درددل‌ها، و برنامه‌ریزی‌ها—به ماشین یاد می‌دهد الگوهای مشکوک را شناسایی کند.

سیستم به این صورت کار می‌کند: هوش مصنوعی به طور زنده به تماس‌های تلفنی، تصویری، پیامک‌ها و ایمیل‌های زندانیان گوش می‌دهد. اگر چیزی مشکوک، مانند کلمات کلیدی مرتبط با قاچاق، فعالیت‌های گروهی یا خشونت را تشخیص دهد، آن بخش از مکالمه را برای بازبینی توسط یک مامور انسانی پرچم‌گذاری می‌کند. سپس این اطلاعات به دست بازرسان زندان می‌رسد تا اقدامات لازم را انجام دهند. شرکت ادعا می‌کند این سیستم به جلوگیری از جرایمی مثل قاچاق انسان و مواد مخدر کمک کرده، اما هنوز هیچ پرونده مشخصی که موفقیت آن را *مستقیماً* توسط این AI ثابت کند، ارائه نکرده است.

رضایت اجباری: وقتی چاره‌ای جز شنود شدن ندارید

شاید بگویید زندانیان می‌دانند که مکالماتشان ضبط می‌شود. این درست است، اما یک تفاوت بزرگ وجود دارد. به گفته بیانکا تایلک، مدیر یک گروه حامی حقوق زندانیان، این «رضایت اجباری» است. زندانیان برای صحبت با خانواده و عزیزانشان هیچ راه دیگری ندارند. آن‌ها مجبورند از این سیستم استفاده کنند و حالا، بدون اینکه بدانند، داده‌هایشان برای آموزش یک هوش مصنوعی ناظر به کار گرفته می‌شود. تایلک نکته تکان‌دهنده‌تری را اضافه می‌کند: «نه تنها برای استفاده از داده‌هایشان به آن‌ها پولی پرداخت نمی‌شود، بلکه آن‌ها در حین جمع‌آوری این داده‌ها، برای هر دقیقه مکالمه پول هم پرداخت می‌کنند.»

هزینه امنیت بر دوش چه کسی است؟

اینجا داستان پیچیده‌تر می‌شود. در سال ۲۰۲۴، کمیسیون ارتباطات فدرال آمریکا (FCC) قانونی را تصویب کرد که شرکت‌ها را از انداختن هزینه‌های نظارتی (مانند ضبط و شنود مکالمات) بر دوش زندانیان و خانواده‌هایشان منع می‌کرد. این یک پیروزی بزرگ برای حامیان حقوق زندانیان بود. اما این پیروزی دوام نیاورد. شرکت Securus و کلانترها لابی کردند و استدلال کردند که بدون این درآمد، نمی‌توانند امنیت را تامین کنند.

در یک چرخش غافلگیرکننده، FCC نه تنها آن قانون را به تعویق انداخت، بلکه قوانین جدیدی وضع کرد که به شرکت‌هایی مانند Securus اجازه می‌دهد هزینه‌های امنیتی—از جمله ساخت و توسعه ابزارهای هوش مصنوعی—را دوباره از زندانیان دریافت کنند. این یعنی خانواده‌ای که برای صحبت با عزیز در بند خود تلاش می‌کند، حالا ناخواسته هزینه ساخت سیستمی را می‌پردازد که مکالماتشان را برای یافتن جرم تحلیل می‌کند. این تصمیم آنقدر بحث‌برانگیز بود که یکی از کمیسرهای FCC در مخالفت با آن نوشت: «نیروهای انتظامی باید هزینه امنیت را بپردازند، نه خانواده‌های افراد زندانی.»

وقتی فناوری از قانون پیشی می‌گیرد

مدافعان حقوق مدنی، مانند ACLU، هشدار می‌دهند که این فناوری یک سیستم نظارتی تهاجمی را تقویت می‌کند که قانون هنوز برای آن حد و مرزی تعیین نکرده است. کورین کندریک از ACLU می‌پرسد: «آیا قرار است با نظارت بر هر کلمه و فکر افراد زندانی، جلوی جرم را قبل از وقوع بگیریم؟» این یک سوال اساسی در عصر هوش مصنوعی است. ما در حال ساخت ابزارهایی هستیم که می‌توانند کارهایی فراتر از تصورات گذشته انجام دهند، اما قوانین ما هنوز برای کنترل قدرت آن‌ها آماده نیستند.

نتیجه‌گیری: بهای واقعی امنیت چیست؟

ما با یک دوراهی اخلاقی بزرگ روبرو هستیم. از یک سو، میل به جامعه‌ای امن‌تر و جلوگیری از جرم، هدفی قابل درک است. از سوی دیگر، استفاده از خصوصی‌ترین مکالمات افراد، آن هم با هزینه خودشان، برای آموزش یک هوش مصنوعی ناظر، نگرانی‌های عمیقی در مورد حریم خصوصی و عدالت ایجاد می‌کند. داستانی که از زندان‌های آمریکا شروع شده، می‌تواند آینده نظارت در همه جا باشد. این ما هستیم که باید تصمیم بگیریم مرز بین امنیت و آزادی کجاست و آیا حاضریم برای رسیدن به یکی، دیگری را فدا کنیم؟

منبع:

https://www.technologyreview.com/2025/12/01/1128591/an-ai-model-trained-on-prison-phone-calls-is-now-being-used-to-surveil-inmates/

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *