Create: Update:
قابل توجه دوستانی که میخوان بدونن تحقیقات در زمینه AI و LLM ها به چه سمتی خواهد رفت. سعی کردم یه لیست خلاصه بنویسم که درکشم ساده باشه.
واسه شروع کار میتونی در مورد هر یک از اصطلاحاتی که استفاده شده تحقیق کنی
1- همسوسازی مدلها با انسان (Alignment)
یکی از چالشهای بزرگ اینه که مدلهای زبانی رو طوری تنظیم کنیم که نه فقط جواب بدن، بلکه همجهت با ارزشهای انسانی و منطقی باشن. کلی تحقیق داره انجام میشه روی روشهایی مثل
RLHF
(یادگیری تقویتی با بازخورد انسانی) و تکنیکهایی برای کاهش هذیانگویی (hallucination
) توی جوابها وهنوزم جای کار داره 2- حافظه و بازیابی اطلاعات (Memory-Augmented & RAG)
مدلهای فعلی بعد از یه تعداد مشخصی از توکنها، حافظهشون میپره! تحقیقات جدید داره روی این کار میکنه که چطور LLMها حافظه طولانیمدت داشته باشن و اطلاعات بیرونی رو سریع بازیابی کنن، مثلاً با تکنیک
RAG
(ترکیب بازیابی و تولید) که به مدل کمک میکنه بدون نیاز به آموزش دوباره، اطلاعات دقیقتری بده.3- بهینهسازی آموزش و استنتاج (Efficient Training & Inference)
الان مدلهای زبانی خیلی سنگینن و هزینه پردازشیشون بالاست. روشهایی مثل
Sparse Models
و Mixture of Experts (MoE)
و LoRA
دارن راههایی پیدا میکنن که مدلها هم سریعتر بشن، هم سبکتر، بدون اینکه کیفیت جوابها افت کنه.4- هوش مصنوعی نمادین و استدلال منطقی (Neurosymbolic AI & Logical Reasoning)
الان LLMها بیشتر بر اساس آمار و الگوها جواب میدن و منطق واقعی رو درست درک نمیکنن. یکی از حوزههای داغ اینه که چطور میشه روشهای هوش مصنوعی نمادین (که با قوانین و منطق سر و کار دارن) رو با شبکههای عصبی ترکیب کرد تا مدلها استدلال قویتری داشته باشن و بتونن مسائل پیچیده رو حل کنن. این بخش از مهمترین قسمت های آینده دار هوش مصنوعی هست که
Reasoning
و به صورت عمومی بهش System2
میگن میدونی که چرا System2 میگن؟)@silicon_brain I از هوش مصنوعی عقب نمانید
>>Click here to continue<<
Silicon Brain | جامعه هوش مصنوعی