TG Telegram Group & Channel
PyTorch Howsam | United States America (US)
Create: Update:

بریم برای ماه دوم؟

2. فوریه: روش فاین-تیونینگ DoRA

اگه تجربه فاین-تیون کردن مدل‌های زبانی بزرگ (LLM) رو داشته باشید، احتمالاً با LoRA آشنا هستید. LoRA مخفف عبارت Low-Rank Adaptation هست. این تکنیک به شما امکان میده که یک LLM رو فقط با حجم کمی از پارامترهای قابل آموزش، فاین-تیون کنید. DoRA هم توسعه‌یافته همین LoRA هست که در فوریه 2024 ارائه شده و راشکا اون رو به عنوان مقاله ماه انتخاب کرده.

سباستین راشکا میگه:

به طور کلی، انتظار دارم که LoRA و روش‌های مشابه همچنان محبوب باقی بمونن. به عنوان مثال، اپل اخیرا در مقاله‌اش با عنوان Apple Intelligence Foundation Language Models اشاره کرده که از LoRA برای فاین-تیون LLM-هاشون روی دستگاه‌های خودشون استفاده می‌کنن. این کار به اون‌ها اجازه میده که مدل‌ها رو برای وظایف خاص، بهینه‌سازی کنن و در عین حال منابع محاسباتی محدود دستگاه‌های همراه رو هم در نظر بگیرن.


یادآوری: قبلا یک مقاله از متا با عنوان MobileLLM در این کانال معرفی کرده بودم که میگفتن چقدر از سخت‌افزار یک موبایل رو میشه برای LLM استفاده کرد و چه محدودیت‌هایی وجود داره. همچنین، یک وبلاگ جامع درباره همین MobileLLM نوشتم.

یک متنی درباره LoRA و DoRA نوشتم، ولی طولانی بود. تصمیم گرفتم، اینجا نذارم و توی وبلاگ منتشر کنیم.🫰

PyTorch Howsam
2️⃣0️⃣2️⃣5️⃣🎆 سباستین راشکا یک وبلاگ درباره مقالات تحقیقاتی برجسته در سال 2024 نوشته. اولش گفته که انقدر حجم کارهای تحقیقاتی ارزشمند سال 2024 زیاد هست که باید کتاب نوشت! به همین خاطر، تصمیم گرفته، هر ماه از سال 2024 رو به یک کار ارزشمند اختصاص بده. فعلا،…
بریم برای ماه دوم؟

2. فوریه: روش فاین-تیونینگ DoRA

اگه تجربه فاین-تیون کردن مدل‌های زبانی بزرگ (LLM) رو داشته باشید، احتمالاً با LoRA آشنا هستید. LoRA مخفف عبارت Low-Rank Adaptation هست. این تکنیک به شما امکان میده که یک LLM رو فقط با حجم کمی از پارامترهای قابل آموزش، فاین-تیون کنید. DoRA هم توسعه‌یافته همین LoRA هست که در فوریه 2024 ارائه شده و راشکا اون رو به عنوان مقاله ماه انتخاب کرده.

سباستین راشکا میگه:
به طور کلی، انتظار دارم که LoRA و روش‌های مشابه همچنان محبوب باقی بمونن. به عنوان مثال، اپل اخیرا در مقاله‌اش با عنوان Apple Intelligence Foundation Language Models اشاره کرده که از LoRA برای فاین-تیون LLM-هاشون روی دستگاه‌های خودشون استفاده می‌کنن. این کار به اون‌ها اجازه میده که مدل‌ها رو برای وظایف خاص، بهینه‌سازی کنن و در عین حال منابع محاسباتی محدود دستگاه‌های همراه رو هم در نظر بگیرن.


یادآوری: قبلا یک مقاله از متا با عنوان MobileLLM در این کانال معرفی کرده بودم که میگفتن چقدر از سخت‌افزار یک موبایل رو میشه برای LLM استفاده کرد و چه محدودیت‌هایی وجود داره. همچنین، یک وبلاگ جامع درباره همین MobileLLM نوشتم.

یک متنی درباره LoRA و DoRA نوشتم، ولی طولانی بود. تصمیم گرفتم، اینجا نذارم و توی وبلاگ منتشر کنیم.🫰
Please open Telegram to view this post
VIEW IN TELEGRAM


>>Click here to continue<<

PyTorch Howsam






Share with your best friend
VIEW MORE

United States America Popular Telegram Group (US)