بریم برای ماه دوم؟
2. فوریه: روش فاین-تیونینگ DoRA
اگه تجربه فاین-تیون کردن مدلهای زبانی بزرگ (LLM) رو داشته باشید، احتمالاً با LoRA آشنا هستید. LoRA مخفف عبارت Low-Rank Adaptation هست. این تکنیک به شما امکان میده که یک LLM رو فقط با حجم کمی از پارامترهای قابل آموزش، فاین-تیون کنید. DoRA هم توسعهیافته همین LoRA هست که در فوریه 2024 ارائه شده و راشکا اون رو به عنوان مقاله ماه انتخاب کرده.
سباستین راشکا میگه:
به طور کلی، انتظار دارم که LoRA و روشهای مشابه همچنان محبوب باقی بمونن. به عنوان مثال، اپل اخیرا در مقالهاش با عنوان Apple Intelligence Foundation Language Models اشاره کرده که از LoRA برای فاین-تیون LLM-هاشون روی دستگاههای خودشون استفاده میکنن. این کار به اونها اجازه میده که مدلها رو برای وظایف خاص، بهینهسازی کنن و در عین حال منابع محاسباتی محدود دستگاههای همراه رو هم در نظر بگیرن.
یادآوری: قبلا یک مقاله از متا با عنوان MobileLLM در این کانال معرفی کرده بودم که میگفتن چقدر از سختافزار یک موبایل رو میشه برای LLM استفاده کرد و چه محدودیتهایی وجود داره. همچنین، یک وبلاگ جامع درباره همین MobileLLM نوشتم.
یک متنی درباره LoRA و DoRA نوشتم، ولی طولانی بود. تصمیم گرفتم، اینجا نذارم و توی وبلاگ منتشر کنیم.