آخرین بروزرسانی در ۷ اسفند ۱۴۰۴ توسط Dr.Arman
تصور کنید در یک اتاق کنفرانس سرد و رسمی در قلب واشنگتن نشستهاید؛ جایی که قدرت نظامی با پیشرفتهترین کدهای برنامهنویسی جهان شاخبهشاخ شده است. در میان «اخبار داغ» این روزها، هیچ داستانی به اندازه نبرد تنبهتن شرکت آنتروپیک و پنتاگون نمیتواند آینده تکنولوژی و امنیت را به ما نشان دهد. این فقط یک اختلاف تجاری ساده نیست؛ این شروع یک بازی «مرگ و زندگی» است که در آن یا کدهای هوش مصنوعی تسلیم میشوند، یا ارتش آمریکا باید به دنبال راههای خطرناکتری برود.
ضربالاجل جمعه؛ وقتی زمان به ضرر تکنولوژی حرکت میکند
اگر شما هم از عاشقان هوش مصنوعی هستید، احتمالاً نام آنتروپیک را به عنوان شرکتی میشناسید که روی «ایمنی» وسواس دارد. اما حالا این وسواس، آنها را در لبه یک پرتگاه قرار داده است. طبق گزارشهای رسیده، پنتاگون تا عصر جمعه به این شرکت فرصت داده تا یا دسترسی نامحدود مدلهایش را در اختیار ارتش قرار دهد، یا با عواقب سنگینی روبرو شود.
داستان از یک جلسه پرتنشن در صبح سهشنبه شروع شد. پیت هگست، وزیر دفاع آمریکا، روبروی داریو آمودی، مدیرعامل آنتروپیک نشست و یک پیام شفاف به او داد: یا با ما همکاری میکنی، یا تو را به عنوان یک «خطر برای زنجیره تأمین» معرفی میکنیم. این برچسب معمولاً برای دشمنان خارجی استفاده میشود، اما حالا قرار است علیه یکی از پیشروترین شرکتهای آمریکایی به کار برود.
قانون تولید دفاعی؛ میراث جنگ در دنیای کدها
شاید بپرسید دولت چطور میتواند یک شرکت خصوصی را مجبور به کاری کند؟ پاسخ در «قانون تولید دفاعی» یا همان DPA نهفته است. این قانون به رئیسجمهور اجازه میدهد شرکتها را مجبور کند تا نیازهای دفاعی ملی را در اولویت قرار دهند. یادتان هست در دوران کرونا چطور جنرال موتورز مجبور به ساخت ونتیلاتور شد؟ حالا پنتاگون میخواهد همین کار را با هوش مصنوعی انجام دهد.
استفاده از این قانون در بحث هوش مصنوعی، یک تغییر مسیر بزرگ و کمی ترسناک است. اگر دولت بتواند به خاطر اختلافات سیاسی یا امنیتی، یک شرکت را مجبور به تغییر کدهایش کند، مرز بین بخش خصوصی و دولتی به کلی از بین میرود. این یعنی دولت میگوید: «اگر با ما نیستی، پس اجازه تجارت هم نداری.»
چرا آنتروپیک نمیخواهد «بله» بگوید؟
شما به عنوان کسی که دنیای AI را دنبال میکنید، میدانید که آنتروپیک همیشه ادعا کرده تکنولوژیاش نباید برای نظارت جمعی یا سلاحهای خودکار استفاده شود. آنها روی این اصول ایستادهاند و به نظر نمیرسد بخواهند به این سادگی عقبنشینی کنند. آنها معتقدند هوش مصنوعی باید حد و مرز داشته باشد، اما پنتاگون نظر دیگری دارد.
مقامات پنتاگون معتقدند که قوانین ارتش و محدودیتهای قانون اساسی باید بر تکنولوژی حاکم باشد، نه سیاستهای استفاده از یک پیمانکار خصوصی. این یک بنبست اخلاقی و حقوقی است. از یک طرف شرکتی را داریم که نگران سوءاستفاده از ساختهاش است و از طرف دیگر ارتشی که معتقد است برای امنیت ملی به هر ابزاری نیاز دارد.
نبرد ایدئولوژیک؛ وقتی هوش مصنوعی «ووک» نامیده میشود
ماجرا وقتی پیچیدهتر میشود که پای سیاست به میان میآید. افرادی مثل دیوید ساکس، که به عنوان تزار هوش مصنوعی شناخته میشود، علناً از سیاستهای ایمنی آنتروپیک انتقاد کرده و آنها را «ووک» (Woke) یا بیش از حد محافظهکارانه خواندهاند. این یعنی بحث از امنیت ملی به یک میدان جنگ ایدئولوژیک تبدیل شده است.
دین بال، یکی از تحلیلگران ارشد حوزه AI، معتقد است این برخورد تهاجمی میتواند اعتبار آمریکا را به عنوان یک مرکز تجاری پایدار تخریب کند. او میگوید هر سرمایهگذار عاقلی با دیدن این وضعیت فکر میکند که دیگر آمریکا جای امن و پیشبینیپذیری برای کسبوکار نیست. این دقیقاً حمله به هسته اصلی چیزی است که آمریکا را به قطب تکنولوژی جهان تبدیل کرده بود.
ریسک تکفروشندهای؛ چرا پنتاگون تا این حد عصبی است؟
یک نکته جالب که شاید کمتر به آن توجه شده، این است که پنتاگون در حال حاضر هیچ گزینه جایگزینی ندارد. آنتروپیک تنها آزمایشگاه هوش مصنوعی پیشرو است که در حال حاضر دسترسی طبقهبندی شده به وزارت دفاع دارد. این یعنی پنتاگون در یک وضعیت «تکفروشندهای» گیر افتاده است و این برای یک ارتش بزرگ، یک کابوس امنیتی است.
اگر آنتروپیک فردا قراردادش را لغو کند، پنتاگون عملاً فلج میشود. اگرچه گزارشهایی از توافق با xAI برای استفاده از «گروک» در سیستمهای طبقهبندی شده شنیده میشود، اما این چیزی نیست که یکشبه جایگزین شود. این نبودِ جایگزین، توضیح میدهد که چرا پنتاگون اینقدر تهاجمی و با عجله رفتار میکند.
آیندهای که در دست کدهای اخلاقی است
برای شما که عاشق دنیای هوش مصنوعی هستید، این اتفاقات یک درس بزرگ دارد: تکنولوژی دیگر فقط در مورد سرعت پردازش یا دقت مدلها نیست. امروز، سیاست، اخلاق و امنیت ملی به شدت با کدها گره خوردهاند. تصمیمی که آنتروپیک در ساعات آینده میگیرد، میتواند مسیر کل صنعت AI را تغییر دهد.
آیا ما شاهد تولد عصری خواهیم بود که در آن شرکتهای تکنولوژی در برابر قدرتهای نظامی میایستند؟ یا اینکه در نهایت، «قانون تولید دفاعی» همه را مجبور به اطاعت خواهد کرد؟ این یک بازی شطرنج واقعی است که مهرههای آن از جنس هوش مصنوعی هستند.
نتیجهگیری: چه درسی از این نبرد میگیریم؟
نبرد آنتروپیک و پنتاگون به ما نشان داد که هوش مصنوعی چقدر قدرتمند شده است؛ آنقدر قدرتمند که میتواند کل ساختار قانونی یک ابرقدرت را به چالش بکشد. این داستان به ما یادآوری میکند که ایمنی هوش مصنوعی فقط یک بحث فانتزی در کنفرانسها نیست، بلکه یک موضوع حیاتی در امنیت ملی است.
شما در مورد این موضوع چه فکر میکنید؟ آیا آنتروپیک باید برای حفظ امنیت ملی از اصول خود کوتاه بیاید، یا اینکه ایستادگی آنها میتواند الگویی برای دیگر شرکتهای AI باشد؟ نظرات خود را با ما در میان بگذارید و این بحث را دنبال کنید، چون جمعهای که در پیش است، میتواند تاریخساز باشد.
منبع:

مطالب مرتبط