TG Telegram Group Link
Channel: PyTorch Howsam
Back to Bottom
تیمی از توسعه‌دهندگان AI Hugging Face، از جمله توماس وُلف، ادعا می‌کنند که نسخه‌ای open از ابزار تحقیقاتی OpenAI را ساخته‌اند.

پروژه Open Deep Research از تیم Hugging Face
شامل یک مدل هوش مصنوعی (مدل o1 از OpenAI) و Agentic Framework است که به مدل کمک می‌کند تا تحلیل‌های خود را برنامه‌ریزی کند و از ابزارهایی مانند موتورهای جستجو استفاده کند.
مدل o1 یک مدل اختصاصی و غیررایگان است، اما تیم Hugging Face می‌گوید که عملکرد بهتری نسبت به مدل‌های باز مانند DeepSeek R1 دارد.

طبق گفته‌های تیم توسعه، Open Deep Research می‌تواند به‌طور خودکار در وب جستجو کند، صفحات را اسکرول کند، فایل‌ها را تغییر دهد و حتی داده‌ها را پردازش و محاسبات انجام دهد.

در معیار GAIA (بنچمارک برای General AI Assistants)، Open Deep Research امتیاز 54٪ کسب کرده است.
در مقایسه، ابزار تحقیق عمیق OpenAI امتیاز 67.36٪ دارد.
Please open Telegram to view this post
VIEW IN TELEGRAM
آقای Sebastian Raschka بلاگ پستی درباره Reasoning در LLM-ها نوشته. در ادامه خلاصه‌ای از این پست رو آوردم. هرچند پیشنهاد میشه که پست کامل خونده بشه. لینک


قبل از DeepSeek-R1، تقویت توانایی استدلال (Reasoning) در مدل‌ها معمولا مبتنی بر فاین‌تیون باناظر و یادگیری تقویتی (SFT+RL) بود. به این شکل که بعد از مرحله Pretrain، مدل‌ها ابتدا با یادگیری باناظر و سپس با یادگیری تقویتی آموزش داده میشدن تا قابلیت استدلال بهبود پیدا کند.

با اومدن DeepSeek-R1، روش‌های کارآمد دیگه‌ای هم برای افزایش توانایی استدلال در مدل‌ها معرفی شد:
* روش فقط یادگیری تقویتی (Pure RL)
* روش فقط یادگیری باناظر (Pure SFT)

در روش Pure RL، مدل DeepSeek-R1-Zero توسعه داده شد. در این روش، به جای استفاده از فیدبک انسانی، دو Reward به نام‌های Accuracy و Format تعریف شدن. برای مثال، در پرامپت‌ها و سوال‌های کدنویسی، Accuracy Reward بر اساس تست‌کیس‌ها و کامپایلر LeetCode تعیین میشه. یعنی مدل کد تولید میکنه، کامپایلر بررسی کرده و بر اساس صحت خروجی، به مدل فیدبک میده. 👏

این روش Pure RL باعث شد که مدل بدون نیاز به فیدبک انسانی توانایی استدلالش ارتقا پیدا کنه؛ یک دستاورد کلیدی که احتمالا در ماه‌های آینده بیشتر در موردش خواهیم شنید. تصویر بالا نشون میده DeepSeek-R1-Zero که فقط با RL آموزش دیده، چگونه یک مسئله ریاضی رو حل میکنه.

روش دوم، فقط یادگیری باناظر (SFT) هست. دیپ‌سیک یک‌ سری مدل کوچک‌تر بر پایه Llama 3 و Qwen 2.5 رو با SFT آموزش داد و جالب اینکه حتی این مدل‌ها هم تنها با SFT قابلیت استدلال پیدا کردند.

البته، وقتی مدل‌های کوچک رو با روش Pure RL آموزش دادن، عملکرد چندان جالبی نداشتن. این نشون میده که مدل‌های بزرگ‌تر (مثل DeepSeek-V3) می‌تونن با Pure RL قابلیت استدلال پیدا کنند، در حالی که مدل‌های کوچک‌تر بیشتر با Pure SFT به این توانایی می‌رسن.
Please open Telegram to view this post
VIEW IN TELEGRAM
اولین کنفرانس فناوری مستقل در سوریه پس از ۵ دهه

این کنفرانس دو روزه با عنوان SYNC 25 توسط گروهی از سوری‌های مقیم سیلیکون ولی سازمان‌دهی شد و شامل کارگاه‌ها و بحث‌هایی در مورد هوش مصنوعی و امنیت داده بود. هدف این برنامه، ایجاد ارتباط میان سیلیکون ولی و اکوسیستم فناوری نوظهور سوریه بود.

گروه برگزارکننده SYNC 25، که شامل کارآفرینان و سرمایه‌گذاران سوری‌تبار از سیلیکون ولی است، قصد دارد در پنج سال آینده ۲۵,۰۰۰ شغل جدید در بخش فناوری سوریه ایجاد کند.
مدل Zonos-v0.1 یک مدل پیشرفته تبدیل متن به گفتار (TTS) open-weight است که بر روی بیش از ۲۰۰ هزار ساعت گفتار چندزبانه متنوع آموزش دیده و کیفیتی هم‌تراز یا حتی بالاتر از برترین ارائه‌دهندگان TTS ارائه می‌دهد.

قادر است گفتاری بسیار طبیعی را از ورودی متنی تولید کند، به‌ویژه زمانی که یک کد صدای گوینده یا پیشوند صوتی ارائه شود.
همچنین، با دریافت تنها چند ثانیه نمونه صوتی، می‌تواند شبیه‌سازی صدای افراد را با دقت بالا انجام دهد.

این مدل امکان کنترل دقیق بر ویژگی‌های صوتی از جمله سرعت گفتار، تغییرات زیر و بمی صدا، کیفیت صوت و احساسات (مانند شادی، ترس، غم و عصبانیت) را فراهم می‌کند.

خروجی صوتی این مدل به‌طور پیش‌فرض با کیفیت ۴۴ کیلوهرتز تولید می‌شود.

کمپانی Zyphra یک کمپانی هوش مصنوعی مستقر در Palo Alto کالیفرنیا است.
که در حال توسعه MaiaOS یک سیستم عامل چندحالته (Multimodal Agent System) برای کسب‌وکارها که تحقیقات پیشرفته ای در زمینه معماری‌های نسل جدید شبکه‌های عصبی، حافظه بلندمدت و یادگیری تقویتی می کنند، می باشد.

Github : Zonos-v0

Playground : Zonos
داشتم یک پروژه ای رو بررسی میکردم به نام "جبیر"
نوشته :

Available Models :
Jabir 400B
Jabir 400B Online
J1
Choqok, 1 billion parameters.
Hormoz, 8 Billion parameters (Mann-E)

طبق ApiDocs برای استفاده از API باید به این صورت استفاده کرد:
completion = client.chat.completions.create(
model = "jabir-400b",
messages = [
{
"role": "user",
"content": "who are you?"
}
]
)


برای تست فنی و امنیت و... به رسم گل یا پوچ 👊🏻🫲🏻
گفتم یه خالی بازیمون نشه ؟ بشه ! 🙊

از PostMan به این آدرس :
https://openai.jabirproject.org/v1/chat/completions


دیتارو با ساختار ساده و بدون مقدار ارسال کردم 😈 ( حالت raw )
{
"model" : "",
"messages" : [
{"role" : "","content" : ""}
]
}


نتیجه ...؟
PyTorch Howsam
داشتم یک پروژه ای رو بررسی میکردم به نام "جبیر" نوشته : Available Models : Jabir 400B Jabir 400B Online J1 Choqok, 1 billion parameters. Hormoz, 8 Billion parameters (Mann-E) طبق ApiDocs برای استفاده از API باید به این صورت استفاده کرد: completion = cli…
اینکه ارور هندلینگ رو هواست، به کنار!

نکته جالب تر این هست که پرامپت و ... به Pollinations ارسال میشه !
یعنی به این آدرس :

https://text.pollinations.ai/openai/chat/completions
PyTorch Howsam
اینکه ارور هندلینگ رو هواست، به کنار! نکته جالب تر این هست که پرامپت و ... به Pollinations ارسال میشه ! یعنی به این آدرس : https://text.pollinations.ai/openai/chat/completions
و در تست بعدی، حتی اگر هم به این صورت ارسال بشه

{
"model" : "jabir-400b-online",
"messages" : [
{"role" : "","content" : ""},
{"role" : "","content" : ""}
]
}


بازم به ارور جدیدی یعنی [ KeyError: 'choices' ] میخورید.

یعنی حتی ساده ترین موارد هم چک و بررسی نشده در این پروژه!
به عبارتی در پروژه ی Jabir مهم نیست که شما چه مدلی رو انتخاب میکنید!
چون پرامپت های شما به جای دیگری ارسال میشه!
برای امیرمحمد خالقی غمگینم. 💔
در سراسر جهان، نوزادان از یک روش مشترک برای برقراری ارتباط استفاده می‌کنند:
گریه کردن.

اما اگر راهی وجود داشت که گریه‌های نوزاد را به مدلی زبانی تبدیل کند که هوش مصنوعی بتواند آن را درک کند؟
این دقیقاً همان چیزی است که Senthil Komar، توسعه‌دهنده نرم‌افزار، در تلاش برای انجام آن است.
همراه او باشید تا ببینید چگونه با استفاده از Vertex AI Studio، Gemini و سایر ابزارهای هوش مصنوعی گوگل، برنامه‌ای با Flutter نوشته و توسعه می‌دهد که گریه‌های نوزاد را پردازش، تحلیل و سپس به راه‌حل‌های قابل اجرا برای والدین دسته‌بندی می‌کند.

#Flutter #Gemini #VertexAIStudio

Youtube : Translating baby sounds using Google AI
مدل جدید xAI به نام Grok 3 منتشر شد!

امتیاز 1400 ELO در LMArena و رتبه 1
دقت 52٪ در AIME 24 – (و 96٪ با استدلال!)
دقت 75٪ در GPQA – (و 85٪ با استدلال)
دقت 57٪ در LiveCodeBench – (و 80٪ با استدلال)

همچنین در مسابقه جدید ریاضی AIME 2025 با 93٪ امتیاز از مدل o3-mini-high پیشی گرفت!

مشاهده ارائه در X
The AI CUDA Engineer:
Agentic CUDA Kernel Discovery, Optimization and Composition

مهندس CUDA مبتنی بر هوش مصنوعی قادر است کرنل‌های CUDA با بهره‌وری بالا تولید کند و سرعت اجرای عملیات یادگیری ماشین در PyTorch را ۱۰ تا ۱۰۰ برابر افزایش دهد. این سیستم کرنل‌های CUDA بسیار بهینه‌تری نسبت به کرنل‌های رایج تولیدی در صنعت ارائه می‌دهد.
چند ساعتی از انتشار (با محدودیت زمانی) Grok-3 میگذره

مسئله پریمیوم Strobogrammatic Number III لیت کد رو بهش دادم و تست کردم
چیزی که chatgpt حل کرد ، همون بار اول مسئله و ساختار حل مسئله رو درک کرد و توی کلاس Solution ، بدون خطا ، درست و بهینه حل کرد.
اما Grok زد به جاده خاکی و ساختار مسئله رو درست متوجه نشد مثل DeepSeek
در ادامه ی چت با Grok و DeepSeek ساختار اولیه کلاس مسئله رو ارسال کردم :
class Solution:
def strobogrammaticInRange(self, low: str, high: str) -> int:


این بار Grok ساختار مسئله رو شناخت ، اما اشتباه حل کرد.
از طرفی DeepSeek هم ساختار رو فهمید و هم بهینه حل کرد.
PyTorch Howsam
دو روزی از Qwen2.5-Max مدل جدید علی بابا میگذره یه تستی از قابلیت هاش گرفتم میشه از نظر مقایسه فنی در کنار claude گذاشت. ازش خواستم : (پرامپت) create a frontend for a modern note taking app (miro). make it so that you can add sticky notes. ایجاد رابط کاربری…
هفته های گذشته این پرامپت رو با Qwen تست کرده بودم ک خروجی قابل قبولی داشت.

create a frontend for a modern note taking app (miro).
make it so that you can add sticky notes.

اینبار با Grok تست کردم:
یک نکته اینکه از نظر فنی، خود پلتفرم هنوز کار داره و قابلیت اجرای لایو رو نداره و همچنین ارسال فایل.
نکته ی بعدی در این تست، تولید کد، بسیار افتضاح بود در حد GPT 3.5 میشه قبول کرد.

بیشتر به نظر میاد آمارها Fake باشه!
Trae - Adaptive AI IDE that helps you ship faster 🤟🏻

- Be the first to try Trae and enjoy the completely "Free 💰" option among powerful AI coding tools now.

What is Trae?
Trae is an adaptive AI IDE that transforms how you work, collaborating with you to run faster.

Collaboration = You & Trae 🔥

Builder :
Chat to build a project faster

Multimodality :
Upload images to clarify requirements

Context :
Get better results with full context

Autocomplete :
Boost efficiency with smart completion

Product-Hunt
مهندسی، ... ! ... ! ...
فراتر از یک رشته دانشگاهی، بلکه یک طرز فکر است.
طرز فکری که به دنبال حل مشکلات، بهبود شرایط و ساختن آینده‌ای بهتر است.
در روز مهندس، باید قدردان تمامی متخصصانی باشیم که با تعهد و خلاقیت، دنیا را به جای بهتری تبدیل می‌کنند.
این مسیر شاید چالش‌برانگیز باشد، اما برای کسانی که عاشق نوآوری و خلق راه‌حل‌های جدید هستند، هیچ لذتی بالاتر از این نیست که تأثیر کارشان را در دنیای واقعی ببینند.

مهندسان هوش مصنوعی، با طراحی الگوریتم‌های هوشمند، ماشین‌ها را قادر می‌سازند که همانند انسان بیاموزند، تصمیم بگیرند و به طور مستقل عمل کنند.
امروزه این فناوری در پزشکی، خودروهای خودران، پردازش زبان طبیعی و بسیاری از صنایع دیگر تحول‌آفرین بوده است.

تحلیل‌گران داده با بررسی حجم عظیمی از اطلاعات، الگوهای پنهان را کشف می‌کنند و مسیر تصمیم‌گیری‌های استراتژیک را هموار می‌سازند.
آن‌ها معماران دنیای مبتنی بر داده هستند که با پیش‌بینی روندها، به کسب‌وکارها و سازمان‌ها در اتخاذ بهترین تصمیمات کمک می‌کنند.

ولی بیاید روراست باشیم 🤠
این مسیر آسون نیست. کلی شب‌بیداری، کلی دیباگ کردن، کلی کلنجار رفتن با کدهایی که معلوم نیست چرا اجرا نمی‌شن!
اما اون لحظه‌ای که بالاخره یه مشکل رو حل می‌کنی، اون حس پیروزی، یه چیزی تو مایه‌های فتح قله اورسته 😄
همینه که مهندسی رو خاص می‌کنه؛ چالش، هیجان، خلاقیت و ساختن آینده!

پس، امروز به خودتون افتخار کنید 💪🏻
شما فقط مهندس نیستید، شما آینده‌سازید 😍
دنیا به شما نیاز داره، به ایده‌هاتون، به کدهاتون، به هوشتون!

روزتون مبارک، قهرمان‌های دیجیتالی ❤️
"گاد" منتشر کرد 🤠 (گروه آموزشی دیپسیک)

آزمایشگاه DeepSeek AI، که توسط High-Flyer حمایت می‌شود، FlashMLA را معرفی کرده است.

یک هستهٔ رمزگشایی فوق سریع که برای پردازنده‌های گرافیکی Hopper بهینه‌سازی شده است.
این فناوری که برای توالی‌های با طول متغیر طراحی شده، سرعت حافظه ۳۰۰۰ گیگابایت بر ثانیه و توان پردازشی ۵۸۰ ترافلاپس را روی پردازنده‌های H800 ارائه می‌دهد. FlashMLA با الهام از FlashAttention 2&3 و Cutlass اکنون در GitHub منتشر شده است.

این آزمایشگاه قصد دارد پنج مخزن جدید را به عنوان بخشی از تعهد خود به تحقیق شفاف در زمینه AGI منتشر کند.
تیم DeepSeek تاکنون ۱۴ مدل متن‌باز را در Hugging Face عرضه کرده است، که عملکرد پیشرفتهٔ هوش مصنوعی را با هزینه‌ای به‌مراتب کمتر از رقبا ارائه می‌دهند.

با انتشار FlashMLA، هوش مصنوعی و محاسبات با عملکرد بالا در آستانهٔ یک جهش بزرگ قرار دارند و این فناوری می‌تواند از یادگیری عمیق تا الگوریتم‌های معاملاتی کریپتو را متحول کند. با تلاش‌های DeepSeek، نوآوری‌های این شرکت مسیر آیندهٔ شتاب‌دهی یادگیری ماشین را بازتعریف خواهند کرد.

Github : FlashMLA
🔥 معرفی Claude Code در مدل جدید Claude 3.7 Sonnet

تیم توسعه دهنده Claude :
ما Claude 3.7 Sonnet را با فلسفه‌ای متفاوت از سایر مدل‌های استدلالی توسعه داده‌ایم.
این رویکرد تجربه‌ای روان‌تر و کارآمدتر برای کاربران ایجاد می‌کند.

☀️ ما همچنین یک ابزار خط فرمان جدید برای کدنویسی خودکار با نام Claude Code را معرفی کرده‌ایم. Claude Code به‌عنوان یک پیش‌نمایش تحقیقاتی محدود در دسترس است.

☀️ دو مدل در یک مدل:
این مدل هم یک LLM معمولی است و هم یک مدل استدلالی. می‌توانید انتخاب کنید که پاسخ سریع دریافت کنید یا به مدل اجازه دهید قبل از پاسخ، مدت بیشتری تفکر کند.
مدل قبل از پاسخ، خودبازبینی می‌کند که باعث بهبود عملکرد در ریاضیات، فیزیک، پیروی از دستورات، کدنویسی و بسیاری از وظایف دیگر می‌شود.

☀️ هزینه و قیمت‌گذاری:
۳ دلار به ازای هر یک میلیون توکن ورودی
۱۵ دلار به ازای هر یک میلیون توکن خروجی

Youtube:
- Introducing Claude Code
- Claude 3.7 Sonnet with extended thinking
HTML Embed Code:
2025/07/01 02:01:46
Back to Top