آخرین بروزرسانی در ۲۷ بهمن ۱۴۰۴ توسط Dr.Arman
تصور کنید ابزاری ساختهاید که قرار بود به انسانها در نوشتن کد یا تحلیل دادهها کمک کند، اما حالا قدرتمندترین سازمان نظامی دنیا از شما میخواهد آن را مستقیماً به میدان جنگ ببرید. این دقیقاً همان چالشی است که این روزها در راهروهای شرکت انتروپیک جریان دارد. در میان اخبار داغ دنیای تکنولوژی، گزارشهایی به گوش میرسد که نشان میدهد سازندگان هوش مصنوعی کلود (Claude) در یک نبرد تنبهتن با پنتاگون قرار گرفتهاند؛ نبردی که یک طرف آن اخلاق حرفهای است و طرف دیگر، یک قرارداد وسوسهانگیز ۲۰۰ میلیون دلاری.
چرا این رویارویی همین حالا به یک بحران تبدیل شده است؟
شاید بپرسید چرا این موضوع برای شما که عاشق هوش مصنوعی هستید اهمیت دارد؟ مسئله این است که مرزهای اخلاقی در هوش مصنوعی دیگر یک بحث تئوریک در دانشگاهها نیست. پنتاگون با فشار بر شرکتهای بزرگی مثل انتروپیک، اوپن ایآی (OpenAI) و گوگل، از آنها خواسته تا اجازه دهند فناوریشان برای «تمامی اهداف قانونی» توسط ارتش آمریکا استفاده شود. کلمه «قانونی» در اینجا مثل یک تیغ دو لبه عمل میکند؛ چون قانون میتواند در شرایط جنگی تعابیر بسیار گستردهای داشته باشد که شاید با اصول اولیه سازندگان این مدلها همخوانی نداشته باشد.
این فشار زمانی جدیتر شد که دولت جدید ایالات متحده نیز وارد ماجرا گشت. گزارشها حاکی از آن است که مقامات دولت ترامپ به طور مستقیم با این شرکتها وارد مذاکره شدهاند. در حالی که برخی رقبا چراغ سبز نشان دادهاند یا دستکم انعطافپذیری بیشتری از خود به خرج دادهاند، انتروپیک به شکلی سرسختانه در برابر این خواستهها مقاومت کرده است. این مقاومت، حالا بقای یکی از بزرگترین قراردادهای مالی این شرکت را با تهدید جدی روبرو کرده است.
داستان مقاومت انتروپیک؛ وقتی اخلاق گران تمام میشود
انتروپیک از همان ابتدا با شعار «هوش مصنوعی ایمن و مفید» وارد میدان شد. آنها سیستمی به نام «هوش مصنوعی مشروطه» (Constitutional AI) را توسعه دادند تا مطمئن شوند مدلهایشان از اصول اخلاقی خاصی پیروی میکنند. حالا پنتاگون به آنها میگوید: «یا محدودیتها را بردارید، یا قرارداد ۲۰۰ میلیون دلاری را فراموش کنید.» این یک دوراهی کلاسیک بین سودآوری و پایبندی به اصول است که میتواند آینده این شرکت را برای همیشه تغییر دهد.
جالب است بدانید که این اولین بار نیست که نام «کلود» در کنار عملیاتهای نظامی شنیده میشود. گزارشهای قبلی نشان میداد که از این هوش مصنوعی در عملیاتCapture نیکلاس مادورو، رئیسجمهور ونزوئلا، استفاده شده است. اگرچه انتروپیک مستقیماً این موضوع را تأیید نکرده، اما همین سوابق باعث شده تا پنتاگون برای دسترسی بدون محدودیت به این مدلها تشنهتر شود. آنها میخواهند هوش مصنوعی نه فقط یک مشاور، بلکه بخشی جداییناپذیر از ماشین جنگی باشد.
خط قرمزهای کلود کجاست؟
سخنگوی انتروپیک در گفتگو با رسانهها شفافسازی کرده است که بحث آنها با پنتاگون بر سر کلیات نیست، بلکه بر سر «خط قرمزهای سختگیرانه» است. آنها دو مورد را به عنوان مرزهای غیرقابل عبور تعیین کردهاند: اول، استفاده در سلاحهای کاملاً خودمختار (رباتهایی که بدون دخالت انسان تصمیم به شلیک میگیرند) و دوم، نظارت گسترده داخلی بر شهروندان. این دقیقاً همان جایی است که اصطکاک با وزارت دفاع آمریکا شروع میشود.
شما به عنوان کسی که تحولات AI را دنبال میکنید، لابد میدانید که نظارت جمعی و سلاحهای خودکار، بزرگترین ترسهای جامعه علمی از آینده هوش مصنوعی هستند. انتروپیک در واقع دارد برای ما میجنگد؛ برای اینکه اطمینان حاصل کند مدلی که شما برای نوشتن یک مقاله یا حل یک مسئله ریاضی از آن استفاده میکنید، فردا به ابزاری برای سرکوب یا کشتار در مقیاس وسیع تبدیل نشود. اما آیا یک شرکت خصوصی میتواند در برابر فشار سیاسی و مالی یک ابرقدرت نظامی دوام بیاورد؟
رقبا در چه وضعیتی هستند؟
در حالی که انتروپیک در حال مقاومت است، گزارشها نشان میدهد که شرکتهای دیگر مثل OpenAI، گوگل و xAI (متعلق به ایلان ماسک) رویکرد متفاوتی در پیش گرفتهاند. یک مقام ناشناس دولتی فاش کرده که یکی از این شرکتها کاملاً با درخواستهای پنتاگون موافقت کرده و دو شرکت دیگر نیز انعطافپذیری زیادی نشان دادهاند. این یعنی جبهه متحدی در برابر نظامیسازی AI وجود ندارد و انتروپیک در این مسیر تا حد زیادی تنها مانده است.
این تفاوت در رویکرد، رقابت را برای انتروپیک سختتر میکند. اگر پنتاگون بودجههای کلان خود را به سمت رقبایی ببرد که محدودیتهای کمتری قائل میشوند، انتروپیک نه تنها از نظر مالی آسیب میبیند، بلکه ممکن است در دسترسی به منابع دادهای و زیرساختهای دولتی هم عقب بیفتد. این یک بازی خطرناک است که در آن «خوب بودن» ممکن است به قیمت «شکست خوردن» در بازار رقابتی تمام شود.
چه چیزی برای شما به عنوان یک کاربر تغییر میکند؟
شاید فکر کنید این دعواها در سطوح بالا ربطی به استفاده روزمره شما از هوش مصنوعی ندارد، اما واقعیت این است که این تصمیمات مستقیماً روی «شخصیت» مدلی که با آن چت میکنید تأثیر میگذارد. اگر یک هوش مصنوعی برای مقاصد نظامی بهینهسازی شود، اولویتهای ایمنی و سوگیریهای آن تغییر خواهد کرد. یادگیری این درسها برای شما ضروری است تا بدانید تکنولوژی که در دستان شماست، چه مسیری را طی کرده است.
برای اینکه در جریان این تحولات بمانید، پیشنهاد میکنم همیشه سیاستهای استفاده (Usage Policy) شرکتها را بررسی کنید. تغییر در این متنهای حقوقی خشک، معمولاً اولین نشانه از عقبنشینی شرکتها در برابر فشارهای سیاسی است. اگر دیدید انتروپیک بندهای مربوط به «سلاحهای خودمختار» را تغییر داده، بدانید که پنتاگون در این نبرد پیروز شده است.
آینده در دستان هوش مصنوعی یا ژنرالها؟
در نهایت، این تقابل نشاندهنده یک واقعیت بزرگتر است: هوش مصنوعی به قدری قدرتمند شده که دیگر نمیتوان آن را در آزمایشگاهها محبوس کرد. نبرد انتروپیک و پنتاگون، نمادی از جدال بین «تکنولوژی برای خدمت به بشریت» و «تکنولوژی برای سلطه» است. آیا انتروپیک میتواند قرارداد ۲۰۰ میلیون دلاری را فدای اصول خود کند؟ یا شاهد یک عقبنشینی تاکتیکی از سوی سازندگان کلود خواهیم بود؟
این داستان هنوز به پایان نرسیده است. به نظر شما، آیا شرکتهای هوش مصنوعی وظیفه دارند از ارتش کشورشان حمایت کنند، یا باید به هر قیمتی از نظامی شدن ابزارهایشان جلوگیری کنند؟ این سوالی است که پاسخ آن، شکل دنیای ده سال آینده ما را تعیین خواهد کرد. نظرات خود را با ما در میان بگذارید و فراموش نکنید که در دنیای هوش مصنوعی، هیچ چیز به اندازه آگاهی شما از پشتپردهها اهمیت ندارد.
منبع:
Anthropic and the Pentagon are reportedly arguing over Claude usage

مطالب مرتبط