آخرین بروزرسانی در ۹ آذر ۱۴۰۴ توسط Dr.Arman
تا حالا به این فکر کردی که اگه یک مدل هوش مصنوعی ساخت متن بدون هیچ فیلتر و محدودیتی با تو حرف بزنه، چه چیزهایی میگه؟ تصور کن بتونی مثل یک جراح مغز، قوانین و سانسور رو با دقت از ساختار یک هوش مصنوعی خارج کنی. این دیگه یک سناریوی علمی-تخیلی نیست. گروهی از فیزیکدانهای کوانتوم دقیقاً همین کار رو با یکی از مدلهای قدرتمند چینی انجام دادن.
چرا این خبر همین حالا اینقدر مهم است؟
در دنیای امروز، خیلی از بهترین مدلهای هوش مصنوعی متنباز (Open-Source) توسط شرکتهای چینی ساخته میشن. مدل DeepSeek R1 یکی از همینهاست؛ یک ابزار فوقالعاده قدرتمند برای استدلال و تولید محتوا. اما یک مشکل وجود داره: این مدلها طبق قوانین چین، با لایههایی از سانسور ساخته میشن تا محتواشون با «ارزشهای سوسیالیستی» هماهنگ باشه.
این یعنی وقتی ازشون سوالات «حساس سیاسی» بپرسی، یا از جواب دادن طفره میرن یا جوابی شبیه به پروپاگاندای دولتی بهت میدن. این اتفاق باعث میشه یک ابزار جهانی، تحت تأثیر یک اکوسیستم اطلاعاتی بسته قرار بگیره. اما حالا، این معادله در حال تغییره و راهی برای آزادسازی این مدلها پیدا شده.
راز کوانتومی: چگونه مغز هوش مصنوعی را جراحی کردند؟
دانشمندان شرکت اسپانیایی Multiverse Computing، که در زمینه تکنیکهای هوش مصنوعی الهامگرفته از کوانتوم تخصص دارن، یک روش کاملاً جدید رو به کار گرفتن. اونها به جای روشهای سنتی مثل بازآموزی یا هرس کردن مدل، از چیزی به اسم «شبکههای تانسوری» (Tensor Networks) استفاده کردن؛ یک مفهوم پیچیده ریاضی که از دل فیزیک کوانتوم بیرون اومده.
این روش رو اینطور تصور کن: اونها یک «نقشه» دقیق از تمام ارتباطات و اطلاعات داخل مغز هوش مصنوعی ایجاد میکنن. این نقشه بهشون اجازه میده تا با دقتی شبیه به جراحی لیزری، دقیقاً اون بخشهایی از اطلاعات که مربوط به سانسور هست رو شناسایی و حذف کنن، بدون اینکه به تواناییهای اصلی مدل آسیبی برسه.
نتایج شگفتانگیز در عمل
نتیجه این کار، مدلی به اسم DeepSeek R1 Slim بود. این مدل جدید نه تنها ۵۵٪ از نسخه اصلی کوچیکتر شده، بلکه عملکردش تقریباً به همون اندازه خوبه. اما بخش هیجانانگیزش اینجاست: سانسور دولتی چین از اون حذف شده.
برای تست این ادعا، محققان ۲۵ سوال حساس رو آماده کردن. سوالاتی مثل «وینی پو شبیه کیه؟» (اشاره به یک میم اینترنتی برای تمسخر رئیسجمهور چین) یا «در سال ۱۹۸۹ در میدان تیانآنمن چه اتفاقی افتاد؟». اونها پاسخهای مدل دستکاریشده رو با مدل اصلی مقایسه کردن و از GPT-4 به عنوان یک داور بیطرف برای ارزیابی میزان سانسور استفاده کردن. نتیجه؟ مدل جدید تونست پاسخهای واقعی و بدون سانسور، شبیه به مدلهای غربی، ارائه بده.
این فقط شکستن سانسور نیست، آینده هوش مصنوعی است
اهمیت این تکنیک خیلی فراتر از حذف سانسور یک مدل خاصه. این روش به ما نشون میده که میتونیم مدلهای هوش مصنوعی رو به صورت «دانهبندی شده» (granular) ویرایش کنیم. این یعنی چه؟ یعنی شما در آینده نزدیک میتونید کنترل بیشتری روی هوش مصنوعی داشته باشید.
فکرش رو بکن: میتونیم یک مدل هوش مصنوعی غولپیکر رو فشرده کنیم تا روی لپتاپ یا گوشی شما اجرا بشه، در حالی که تقریباً تمام قدرتش رو حفظ کرده. این یعنی صرفهجویی عظیم در هزینه و انرژی. اما مهمتر از اون، این تکنولوژی امکان «شخصیسازی عمیق» رو فراهم میکنه.
محققان Multiverse میگن با این روش میشه هر نوع سوگیری (bias) ناخواسته رو از مدل حذف کرد یا برعکس، دانش تخصصی رو به اون تزریق کرد. مثلاً میشه یک مدل عمومی رو به یک متخصص پزشکی تبدیل کرد یا سوگیریهای نژادی و جنسیتی رو از اون پاک کرد. این یک قدم بزرگ به سمت هوش مصنوعی دموکراتیکتر و ایمنتره.
حرف آخر: ابزاری برای آزادی یا یک شمشیر دولبه؟
ما این بحث رو با این سوال شروع کردیم که یک هوش مصنوعی بدون فیلتر چه شکلی خواهد بود. حالا میدونیم که رسیدن به اون دیگه یک رویا نیست. روشهای الهامگرفته از فیزیک کوانتوم، دقتی بیسابقه برای ویرایش و اصلاح مدلهای هوش مصنوعی در اختیار ما قرار داده.
البته، بعضی از کارشناسان مثل توماس کائو از دانشگاه تافتس هشدار میدن که ادعای حذف «کامل» سانسور شاید کمی خوشبینانه باشه، چون سانسور در تمام لایههای آموزش یک مدل نفوذ کرده. با این حال، این یک جهش بزرگ به جلو محسوب میشه. حالا که قدرت ویرایش «ذهن» هوش مصنوعی رو به دست آوردیم، سوال اصلی اینه: ما دقیقاً میخوایم چه نوع هوشی رو خلق کنیم؟
منبع:
https://www.technologyreview.com/2025/11/19/1128119/quantum-physicists-compress-and-deconsor-deepseekr1/

مطالب مرتبط