آخرین بروزرسانی در ۲۶ تیر ۱۴۰۳ توسط Dr.Arman
روش پرامپت نویسی Chain-of-Thought Prompting، یک روش جدید و جذاب است که به مدلهای زبان بزرگ کمک میکند تا تواناییهای استدلالی پیچیده خود را بهبود بخشند. این روش بر پایه ایدهای ساده ولی کارآمد استوار است: تولید یک زنجیرهای از گامهای واسطهای منطقی که منجر به رسیدن به پاسخ نهایی میشود.
تصور کنید که قرار است یک مسئله پیچیده ریاضی را حل کنید. اولین کاری که انجام میدهید این است که مسئله را به چندین گام کوچکتر و سادهتر تقسیم میکنید. به عنوان مثال، اگر مسئلهای شامل چندین عملیات ریاضی باشد، شما ابتدا هر یک از این عملیات را به ترتیب انجام میدهید تا در نهایت به جواب برسید. این دقیقاً همان چیزی است که Chain-of-Thought Prompting برای مدلهای زبان بزرگ انجام میدهد.
ایده اصلی
ایده اصلی Chain-of-Thought Prompting این است که به مدلهای زبان آموزش دهد تا به جای پاسخ دادن به یک پرسش به صورت مستقیم، ابتدا مجموعهای از گامهای واسطهای منطقی را تولید کنند. این گامها به مدل کمک میکنند تا به صورت مرحله به مرحله به پاسخ نهایی برسد. این روش باعث میشود که مدل بتواند مسائل پیچیده را به صورت دقیقتر و کارآمدتر حل کند.
هدف اصلی
هدف اصلی از استفاده از تکنیک پرامپت نویسی Chain-of-Thought Prompting، بهبود توانایی استدلال مدلهای زبان بزرگ است. این مدلها، مانند GPT و PaLM، توانایی بسیار خوبی در درک و تولید زبان طبیعی دارند، اما وقتی نوبت به حل مسائل پیچیده میرسد، نیاز به راهنمایی بیشتری دارند. Chain-of-Thought Prompting با فراهم کردن یک راهنمای گام به گام، به این مدلها کمک میکند تا بتوانند مسائل پیچیده را به صورت منطقی و سازمانیافته حل کنند.
در تکنیک “Chain-of-Thought Prompting” در پرامپت نویسی، دستور یا پرامپت، مدلهای زبان را به ارائه توضیحات مرحله به مرحله برای رسیدن به پاسخ نهایی تشویق میکند. به عبارتی بهتر:
از مدل (LLM) میخواهیم که بلند بلند فکر کند!
مثالهای کاربردی
مسئله ریاضی:
پرسش: “جان یک پیتزا دارد که به هشت قسمت مساوی تقسیم شده است. جان سه قسمت میخورد و دوستش دو قسمت. چند قسمت باقی میماند؟ دلایل خود را مرحله به مرحله توضیح دهید.”
پاسخ: “ابتدا تعداد کل قسمتها را محاسبه میکنیم (۸). سپس تعداد قسمتهای خورده شده (۳+۲=۵) را از کل کم میکنیم (۸-۵=۳). بنابراین، ۳ قسمت باقی میماند.”
مسئله علمی:
پرسش: “آلیس یک لیوان آب را در شب که دما زیر صفر بود بیرون گذاشت. صبح روز بعد لیوان ترک خورد. چرا لیوان ترک خورد؟ توضیحات خود را مرحله به مرحله بیان کنید.”
پاسخ: “آب در دمای زیر صفر یخ میزند و حجم آن افزایش مییابد. این افزایش حجم باعث فشار به دیوارههای لیوان میشود و در نهایت لیوان ترک میخورد.”
منطق:
پرسش: “اگر همه گلهای رز، گل هستند و بعضی از گلها سریع پژمرده میشوند، آیا میتوان نتیجه گرفت که برخی از رزها سریع پژمرده میشوند؟ دلایل خود را مرحله به مرحله بیان کنید.”
پاسخ: “ابتدا بررسی میکنیم که همه گلهای رز، گل هستند. سپس بررسی میکنیم که برخی از گلها سریع پژمرده میشوند. اما از آنجا که نمیدانیم این گلها رز هستند یا نه، نمیتوان نتیجه گرفت که برخی رزها سریع پژمرده میشوند.”
مسئله شمارش:
پرسش: “در یک کلاس، به ازای هر سه صندلی قرمز، دو صندلی آبی وجود دارد. اگر در کل ۳۰ صندلی در کلاس وجود داشته باشد، چند صندلی آبی وجود دارد؟ دلایل خود را مرحله به مرحله بیان کنید.”
پاسخ: “ابتدا نسبت صندلیهای قرمز به آبی را مشخص میکنیم (۳:۲). سپس تعداد مجموعههای این نسبت را در کل صندلیها محاسبه میکنیم (۳۰/(۳+۲)=۶). در نهایت تعداد صندلیهای آبی را محاسبه میکنیم (۶*۲=۱۲). بنابراین، ۱۲ صندلی آبی وجود دارد.”
نتیجهگیری
تکنیک پرامپت نویسی Chain-of-Thought Prompting، روشی موثر برای بهبود توانایی استدلالی مدلهای زبان بزرگ است. با استفاده از این روش پرامپت نویسی، مدلها میتوانند مسائل پیچیده را به صورت گام به گام حل کنند و به نتایج دقیقتری دست یابند. این روش نشاندهنده پیشرفتی مهم در زمینه پردازش زبان طبیعی و کاربردهای آن در حل مسائل پیچیده است.


مطالب مرتبط