تعریف و مفهوم تکنیک پرامپت نویسی Chain-of-Thought Prompting

Chain-of-Thought Prompting ai-7.ir
5/5 - (2 امتیاز)

آخرین بروزرسانی در ۲۶ تیر ۱۴۰۳ توسط Dr.Arman

روش پرامپت نویسی Chain-of-Thought Prompting، یک روش جدید و جذاب است که به مدل‌های زبان بزرگ کمک می‌کند تا توانایی‌های استدلالی پیچیده خود را بهبود بخشند. این روش بر پایه ایده‌ای ساده ولی کارآمد استوار است: تولید یک زنجیره‌ای از گام‌های واسطه‌ای منطقی که منجر به رسیدن به پاسخ نهایی می‌شود.

تصور کنید که قرار است یک مسئله پیچیده ریاضی را حل کنید. اولین کاری که انجام می‌دهید این است که مسئله را به چندین گام کوچک‌تر و ساده‌تر تقسیم می‌کنید. به عنوان مثال، اگر مسئله‌ای شامل چندین عملیات ریاضی باشد، شما ابتدا هر یک از این عملیات را به ترتیب انجام می‌دهید تا در نهایت به جواب برسید. این دقیقاً همان چیزی است که Chain-of-Thought Prompting برای مدل‌های زبان بزرگ انجام می‌دهد.

ایده اصلی

ایده اصلی Chain-of-Thought Prompting این است که به مدل‌های زبان آموزش دهد تا به جای پاسخ دادن به یک پرسش به صورت مستقیم، ابتدا مجموعه‌ای از گام‌های واسطه‌ای منطقی را تولید کنند. این گام‌ها به مدل کمک می‌کنند تا به صورت مرحله به مرحله به پاسخ نهایی برسد. این روش باعث می‌شود که مدل بتواند مسائل پیچیده را به صورت دقیق‌تر و کارآمدتر حل کند.

هدف اصلی

هدف اصلی از استفاده از تکنیک پرامپت نویسی Chain-of-Thought Prompting، بهبود توانایی استدلال مدل‌های زبان بزرگ است. این مدل‌ها، مانند GPT و PaLM، توانایی بسیار خوبی در درک و تولید زبان طبیعی دارند، اما وقتی نوبت به حل مسائل پیچیده می‌رسد، نیاز به راهنمایی بیشتری دارند. Chain-of-Thought Prompting  با فراهم کردن یک راهنمای گام به گام، به این مدل‌ها کمک می‌کند تا بتوانند مسائل پیچیده را به صورت منطقی و سازمان‌یافته حل کنند.

در تکنیک “Chain-of-Thought Prompting” در پرامپت نویسی، دستور یا پرامپت، مدل‌های زبان را به ارائه توضیحات مرحله به مرحله برای رسیدن به پاسخ نهایی تشویق می‌کند. به عبارتی بهتر:

از مدل (LLM) می‌خواهیم که بلند بلند فکر کند!

مثال‌های کاربردی

مسئله ریاضی:

پرسش: “جان یک پیتزا دارد که به هشت قسمت مساوی تقسیم شده است. جان سه قسمت می‌خورد و دوستش دو قسمت. چند قسمت باقی می‌ماند؟ دلایل خود را مرحله به مرحله توضیح دهید.”

پاسخ: “ابتدا تعداد کل قسمت‌ها را محاسبه می‌کنیم (۸). سپس تعداد قسمت‌های خورده شده (۳+۲=۵) را از کل کم می‌کنیم (۸-۵=۳). بنابراین، ۳ قسمت باقی می‌ماند.”

Chain-of-Thought Prompting
مثال
 ai-7.ir

مسئله علمی:

پرسش: “آلیس یک لیوان آب را در شب که دما زیر صفر بود بیرون گذاشت. صبح روز بعد لیوان ترک خورد. چرا لیوان ترک خورد؟ توضیحات خود را مرحله به مرحله بیان کنید.”

پاسخ: “آب در دمای زیر صفر یخ می‌زند و حجم آن افزایش می‌یابد. این افزایش حجم باعث فشار به دیواره‌های لیوان می‌شود و در نهایت لیوان ترک می‌خورد.”

منطق:

پرسش: “اگر همه گل‌های رز، گل هستند و بعضی از گل‌ها سریع پژمرده می‌شوند، آیا می‌توان نتیجه گرفت که برخی از رزها سریع پژمرده می‌شوند؟ دلایل خود را مرحله به مرحله بیان کنید.”

پاسخ: “ابتدا بررسی می‌کنیم که همه گل‌های رز، گل هستند. سپس بررسی می‌کنیم که برخی از گل‌ها سریع پژمرده می‌شوند. اما از آنجا که نمی‌دانیم این گل‌ها رز هستند یا نه، نمی‌توان نتیجه گرفت که برخی رزها سریع پژمرده می‌شوند.”

مسئله شمارش:

پرسش: “در یک کلاس، به ازای هر سه صندلی قرمز، دو صندلی آبی وجود دارد. اگر در کل ۳۰ صندلی در کلاس وجود داشته باشد، چند صندلی آبی وجود دارد؟ دلایل خود را مرحله به مرحله بیان کنید.”

پاسخ: “ابتدا نسبت صندلی‌های قرمز به آبی را مشخص می‌کنیم (۳:۲). سپس تعداد مجموعه‌های این نسبت را در کل صندلی‌ها محاسبه می‌کنیم (۳۰/(۳+۲)=۶). در نهایت تعداد صندلی‌های آبی را محاسبه می‌کنیم (۶*۲=۱۲). بنابراین، ۱۲ صندلی آبی وجود دارد.”

نتیجه‌گیری

تکنیک پرامپت نویسی Chain-of-Thought Prompting، روشی موثر برای بهبود توانایی استدلالی مدل‌های زبان بزرگ است. با استفاده از این روش پرامپت نویسی، مدل‌ها می‌توانند مسائل پیچیده را به صورت گام به گام حل کنند و به نتایج دقیق‌تری دست یابند. این روش نشان‌دهنده پیشرفتی مهم در زمینه پردازش زبان طبیعی و کاربردهای آن در حل مسائل پیچیده است.

 

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *