Channel: PyTorch Howsam
تیمی از توسعهدهندگان AI Hugging Face، از جمله توماس وُلف، ادعا میکنند که نسخهای open از ابزار تحقیقاتی OpenAI را ساختهاند.
پروژه Open Deep Research از تیم Hugging Face
شامل یک مدل هوش مصنوعی (مدل o1 از OpenAI) و Agentic Framework است که به مدل کمک میکند تا تحلیلهای خود را برنامهریزی کند و از ابزارهایی مانند موتورهای جستجو استفاده کند.
مدل o1 یک مدل اختصاصی و غیررایگان است، اما تیم Hugging Face میگوید که عملکرد بهتری نسبت به مدلهای باز مانند DeepSeek R1 دارد.
طبق گفتههای تیم توسعه، Open Deep Research میتواند بهطور خودکار در وب جستجو کند، صفحات را اسکرول کند، فایلها را تغییر دهد و حتی دادهها را پردازش و محاسبات انجام دهد.
در معیار GAIA (بنچمارک برای General AI Assistants)، Open Deep Research امتیاز 54٪ کسب کرده است.
در مقایسه، ابزار تحقیق عمیق OpenAI امتیاز 67.36٪ دارد.
پروژه Open Deep Research از تیم Hugging Face
شامل یک مدل هوش مصنوعی (مدل o1 از OpenAI) و Agentic Framework است که به مدل کمک میکند تا تحلیلهای خود را برنامهریزی کند و از ابزارهایی مانند موتورهای جستجو استفاده کند.
مدل o1 یک مدل اختصاصی و غیررایگان است، اما تیم Hugging Face میگوید که عملکرد بهتری نسبت به مدلهای باز مانند DeepSeek R1 دارد.
طبق گفتههای تیم توسعه، Open Deep Research میتواند بهطور خودکار در وب جستجو کند، صفحات را اسکرول کند، فایلها را تغییر دهد و حتی دادهها را پردازش و محاسبات انجام دهد.
در معیار GAIA (بنچمارک برای General AI Assistants)، Open Deep Research امتیاز 54٪ کسب کرده است.
در مقایسه، ابزار تحقیق عمیق OpenAI امتیاز 67.36٪ دارد.
آقای Sebastian Raschka بلاگ پستی درباره Reasoning در LLM-ها نوشته. در ادامه خلاصهای از این پست رو آوردم. هرچند پیشنهاد میشه که پست کامل خونده بشه. لینک
قبل از DeepSeek-R1، تقویت توانایی استدلال (Reasoning) در مدلها معمولا مبتنی بر فاینتیون باناظر و یادگیری تقویتی (SFT+RL) بود. به این شکل که بعد از مرحله Pretrain، مدلها ابتدا با یادگیری باناظر و سپس با یادگیری تقویتی آموزش داده میشدن تا قابلیت استدلال بهبود پیدا کند.
با اومدن DeepSeek-R1، روشهای کارآمد دیگهای هم برای افزایش توانایی استدلال در مدلها معرفی شد:
* روش فقط یادگیری تقویتی (Pure RL)
* روش فقط یادگیری باناظر (Pure SFT)
در روش Pure RL، مدل DeepSeek-R1-Zero توسعه داده شد. در این روش، به جای استفاده از فیدبک انسانی، دو Reward به نامهای Accuracy و Format تعریف شدن. برای مثال، در پرامپتها و سوالهای کدنویسی، Accuracy Reward بر اساس تستکیسها و کامپایلر LeetCode تعیین میشه. یعنی مدل کد تولید میکنه، کامپایلر بررسی کرده و بر اساس صحت خروجی، به مدل فیدبک میده.👏
این روش Pure RL باعث شد که مدل بدون نیاز به فیدبک انسانی توانایی استدلالش ارتقا پیدا کنه؛ یک دستاورد کلیدی که احتمالا در ماههای آینده بیشتر در موردش خواهیم شنید. تصویر بالا نشون میده DeepSeek-R1-Zero که فقط با RL آموزش دیده، چگونه یک مسئله ریاضی رو حل میکنه.
روش دوم، فقط یادگیری باناظر (SFT) هست. دیپسیک یک سری مدل کوچکتر بر پایه Llama 3 و Qwen 2.5 رو با SFT آموزش داد و جالب اینکه حتی این مدلها هم تنها با SFT قابلیت استدلال پیدا کردند.
البته، وقتی مدلهای کوچک رو با روش Pure RL آموزش دادن، عملکرد چندان جالبی نداشتن. این نشون میده که مدلهای بزرگتر (مثل DeepSeek-V3) میتونن با Pure RL قابلیت استدلال پیدا کنند، در حالی که مدلهای کوچکتر بیشتر با Pure SFT به این توانایی میرسن.
قبل از DeepSeek-R1، تقویت توانایی استدلال (Reasoning) در مدلها معمولا مبتنی بر فاینتیون باناظر و یادگیری تقویتی (SFT+RL) بود. به این شکل که بعد از مرحله Pretrain، مدلها ابتدا با یادگیری باناظر و سپس با یادگیری تقویتی آموزش داده میشدن تا قابلیت استدلال بهبود پیدا کند.
با اومدن DeepSeek-R1، روشهای کارآمد دیگهای هم برای افزایش توانایی استدلال در مدلها معرفی شد:
* روش فقط یادگیری تقویتی (Pure RL)
* روش فقط یادگیری باناظر (Pure SFT)
در روش Pure RL، مدل DeepSeek-R1-Zero توسعه داده شد. در این روش، به جای استفاده از فیدبک انسانی، دو Reward به نامهای Accuracy و Format تعریف شدن. برای مثال، در پرامپتها و سوالهای کدنویسی، Accuracy Reward بر اساس تستکیسها و کامپایلر LeetCode تعیین میشه. یعنی مدل کد تولید میکنه، کامپایلر بررسی کرده و بر اساس صحت خروجی، به مدل فیدبک میده.
این روش Pure RL باعث شد که مدل بدون نیاز به فیدبک انسانی توانایی استدلالش ارتقا پیدا کنه؛ یک دستاورد کلیدی که احتمالا در ماههای آینده بیشتر در موردش خواهیم شنید. تصویر بالا نشون میده DeepSeek-R1-Zero که فقط با RL آموزش دیده، چگونه یک مسئله ریاضی رو حل میکنه.
روش دوم، فقط یادگیری باناظر (SFT) هست. دیپسیک یک سری مدل کوچکتر بر پایه Llama 3 و Qwen 2.5 رو با SFT آموزش داد و جالب اینکه حتی این مدلها هم تنها با SFT قابلیت استدلال پیدا کردند.
البته، وقتی مدلهای کوچک رو با روش Pure RL آموزش دادن، عملکرد چندان جالبی نداشتن. این نشون میده که مدلهای بزرگتر (مثل DeepSeek-V3) میتونن با Pure RL قابلیت استدلال پیدا کنند، در حالی که مدلهای کوچکتر بیشتر با Pure SFT به این توانایی میرسن.
Please open Telegram to view this post
VIEW IN TELEGRAM
اولین کنفرانس فناوری مستقل در سوریه پس از ۵ دهه
این کنفرانس دو روزه با عنوان SYNC 25 توسط گروهی از سوریهای مقیم سیلیکون ولی سازماندهی شد و شامل کارگاهها و بحثهایی در مورد هوش مصنوعی و امنیت داده بود. هدف این برنامه، ایجاد ارتباط میان سیلیکون ولی و اکوسیستم فناوری نوظهور سوریه بود.
گروه برگزارکننده SYNC 25، که شامل کارآفرینان و سرمایهگذاران سوریتبار از سیلیکون ولی است، قصد دارد در پنج سال آینده ۲۵,۰۰۰ شغل جدید در بخش فناوری سوریه ایجاد کند.
این کنفرانس دو روزه با عنوان SYNC 25 توسط گروهی از سوریهای مقیم سیلیکون ولی سازماندهی شد و شامل کارگاهها و بحثهایی در مورد هوش مصنوعی و امنیت داده بود. هدف این برنامه، ایجاد ارتباط میان سیلیکون ولی و اکوسیستم فناوری نوظهور سوریه بود.
گروه برگزارکننده SYNC 25، که شامل کارآفرینان و سرمایهگذاران سوریتبار از سیلیکون ولی است، قصد دارد در پنج سال آینده ۲۵,۰۰۰ شغل جدید در بخش فناوری سوریه ایجاد کند.
مدل Zonos-v0.1 یک مدل پیشرفته تبدیل متن به گفتار (TTS) open-weight است که بر روی بیش از ۲۰۰ هزار ساعت گفتار چندزبانه متنوع آموزش دیده و کیفیتی همتراز یا حتی بالاتر از برترین ارائهدهندگان TTS ارائه میدهد.
قادر است گفتاری بسیار طبیعی را از ورودی متنی تولید کند، بهویژه زمانی که یک کد صدای گوینده یا پیشوند صوتی ارائه شود.
همچنین، با دریافت تنها چند ثانیه نمونه صوتی، میتواند شبیهسازی صدای افراد را با دقت بالا انجام دهد.
این مدل امکان کنترل دقیق بر ویژگیهای صوتی از جمله سرعت گفتار، تغییرات زیر و بمی صدا، کیفیت صوت و احساسات (مانند شادی، ترس، غم و عصبانیت) را فراهم میکند.
خروجی صوتی این مدل بهطور پیشفرض با کیفیت ۴۴ کیلوهرتز تولید میشود.
کمپانی Zyphra یک کمپانی هوش مصنوعی مستقر در Palo Alto کالیفرنیا است.
که در حال توسعه MaiaOS یک سیستم عامل چندحالته (Multimodal Agent System) برای کسبوکارها که تحقیقات پیشرفته ای در زمینه معماریهای نسل جدید شبکههای عصبی، حافظه بلندمدت و یادگیری تقویتی می کنند، می باشد.
Github : Zonos-v0
Playground : Zonos
قادر است گفتاری بسیار طبیعی را از ورودی متنی تولید کند، بهویژه زمانی که یک کد صدای گوینده یا پیشوند صوتی ارائه شود.
همچنین، با دریافت تنها چند ثانیه نمونه صوتی، میتواند شبیهسازی صدای افراد را با دقت بالا انجام دهد.
این مدل امکان کنترل دقیق بر ویژگیهای صوتی از جمله سرعت گفتار، تغییرات زیر و بمی صدا، کیفیت صوت و احساسات (مانند شادی، ترس، غم و عصبانیت) را فراهم میکند.
خروجی صوتی این مدل بهطور پیشفرض با کیفیت ۴۴ کیلوهرتز تولید میشود.
کمپانی Zyphra یک کمپانی هوش مصنوعی مستقر در Palo Alto کالیفرنیا است.
که در حال توسعه MaiaOS یک سیستم عامل چندحالته (Multimodal Agent System) برای کسبوکارها که تحقیقات پیشرفته ای در زمینه معماریهای نسل جدید شبکههای عصبی، حافظه بلندمدت و یادگیری تقویتی می کنند، می باشد.
Github : Zonos-v0
Playground : Zonos
داشتم یک پروژه ای رو بررسی میکردم به نام "جبیر"
نوشته :
Available Models :
Jabir 400B
Jabir 400B Online
J1
Choqok, 1 billion parameters.
Hormoz, 8 Billion parameters (Mann-E)
طبق ApiDocs برای استفاده از API باید به این صورت استفاده کرد:
برای تست فنی و امنیت و... به رسم گل یا پوچ 👊🏻🫲🏻
گفتم یه خالی بازیمون نشه ؟ بشه ! 🙊
از PostMan به این آدرس :
دیتارو با ساختار ساده و بدون مقدار ارسال کردم 😈 ( حالت raw )
نتیجه ...؟
نوشته :
Available Models :
Jabir 400B
Jabir 400B Online
J1
Choqok, 1 billion parameters.
Hormoz, 8 Billion parameters (Mann-E)
طبق ApiDocs برای استفاده از API باید به این صورت استفاده کرد:
completion = client.chat.completions.create(
model = "jabir-400b",
messages = [
{
"role": "user",
"content": "who are you?"
}
]
)
برای تست فنی و امنیت و... به رسم گل یا پوچ 👊🏻🫲🏻
گفتم یه خالی بازیمون نشه ؟ بشه ! 🙊
از PostMan به این آدرس :
https://openai.jabirproject.org/v1/chat/completions
دیتارو با ساختار ساده و بدون مقدار ارسال کردم 😈 ( حالت raw )
{
"model" : "",
"messages" : [
{"role" : "","content" : ""}
]
}
نتیجه ...؟
PyTorch Howsam
داشتم یک پروژه ای رو بررسی میکردم به نام "جبیر" نوشته : Available Models : Jabir 400B Jabir 400B Online J1 Choqok, 1 billion parameters. Hormoz, 8 Billion parameters (Mann-E) طبق ApiDocs برای استفاده از API باید به این صورت استفاده کرد: completion = cli…
اینکه ارور هندلینگ رو هواست، به کنار!
نکته جالب تر این هست که پرامپت و ... به Pollinations ارسال میشه !
یعنی به این آدرس :
نکته جالب تر این هست که پرامپت و ... به Pollinations ارسال میشه !
یعنی به این آدرس :
https://text.pollinations.ai/openai/chat/completions
PyTorch Howsam
اینکه ارور هندلینگ رو هواست، به کنار! نکته جالب تر این هست که پرامپت و ... به Pollinations ارسال میشه ! یعنی به این آدرس : https://text.pollinations.ai/openai/chat/completions
و در تست بعدی، حتی اگر هم به این صورت ارسال بشه
بازم به ارور جدیدی یعنی [ KeyError: 'choices' ] میخورید.
یعنی حتی ساده ترین موارد هم چک و بررسی نشده در این پروژه!
به عبارتی در پروژه ی Jabir مهم نیست که شما چه مدلی رو انتخاب میکنید!
چون پرامپت های شما به جای دیگری ارسال میشه!
{
"model" : "jabir-400b-online",
"messages" : [
{"role" : "","content" : ""},
{"role" : "","content" : ""}
]
}
بازم به ارور جدیدی یعنی [ KeyError: 'choices' ] میخورید.
یعنی حتی ساده ترین موارد هم چک و بررسی نشده در این پروژه!
به عبارتی در پروژه ی Jabir مهم نیست که شما چه مدلی رو انتخاب میکنید!
چون پرامپت های شما به جای دیگری ارسال میشه!
در سراسر جهان، نوزادان از یک روش مشترک برای برقراری ارتباط استفاده میکنند:
گریه کردن.
اما اگر راهی وجود داشت که گریههای نوزاد را به مدلی زبانی تبدیل کند که هوش مصنوعی بتواند آن را درک کند؟
این دقیقاً همان چیزی است که Senthil Komar، توسعهدهنده نرمافزار، در تلاش برای انجام آن است.
همراه او باشید تا ببینید چگونه با استفاده از Vertex AI Studio، Gemini و سایر ابزارهای هوش مصنوعی گوگل، برنامهای با Flutter نوشته و توسعه میدهد که گریههای نوزاد را پردازش، تحلیل و سپس به راهحلهای قابل اجرا برای والدین دستهبندی میکند.
#Flutter #Gemini #VertexAIStudio
Youtube : Translating baby sounds using Google AI
گریه کردن.
اما اگر راهی وجود داشت که گریههای نوزاد را به مدلی زبانی تبدیل کند که هوش مصنوعی بتواند آن را درک کند؟
این دقیقاً همان چیزی است که Senthil Komar، توسعهدهنده نرمافزار، در تلاش برای انجام آن است.
همراه او باشید تا ببینید چگونه با استفاده از Vertex AI Studio، Gemini و سایر ابزارهای هوش مصنوعی گوگل، برنامهای با Flutter نوشته و توسعه میدهد که گریههای نوزاد را پردازش، تحلیل و سپس به راهحلهای قابل اجرا برای والدین دستهبندی میکند.
#Flutter #Gemini #VertexAIStudio
Youtube : Translating baby sounds using Google AI
مدل جدید xAI به نام Grok 3 منتشر شد!
امتیاز 1400 ELO در LMArena و رتبه 1
دقت 52٪ در AIME 24 – (و 96٪ با استدلال!)
دقت 75٪ در GPQA – (و 85٪ با استدلال)
دقت 57٪ در LiveCodeBench – (و 80٪ با استدلال)
همچنین در مسابقه جدید ریاضی AIME 2025 با 93٪ امتیاز از مدل o3-mini-high پیشی گرفت!
مشاهده ارائه در X
امتیاز 1400 ELO در LMArena و رتبه 1
دقت 52٪ در AIME 24 – (و 96٪ با استدلال!)
دقت 75٪ در GPQA – (و 85٪ با استدلال)
دقت 57٪ در LiveCodeBench – (و 80٪ با استدلال)
همچنین در مسابقه جدید ریاضی AIME 2025 با 93٪ امتیاز از مدل o3-mini-high پیشی گرفت!
مشاهده ارائه در X
PyTorch Howsam
مدل جدید xAI به نام Grok 3 منتشر شد! امتیاز 1400 ELO در LMArena و رتبه 1 دقت 52٪ در AIME 24 – (و 96٪ با استدلال!) دقت 75٪ در GPQA – (و 85٪ با استدلال) دقت 57٪ در LiveCodeBench – (و 80٪ با استدلال) همچنین در مسابقه جدید ریاضی AIME 2025 با 93٪ امتیاز از…
برادر Kyle Kabasares داره ب صورت لایو تست میکنه
موارد مربوط به ریاضی و فیزیک و تصویر و...
https://www.youtube.com/watch?v=aAujFhXqrBw
موارد مربوط به ریاضی و فیزیک و تصویر و...
https://www.youtube.com/watch?v=aAujFhXqrBw
The AI CUDA Engineer:
Agentic CUDA Kernel Discovery, Optimization and Composition
مهندس CUDA مبتنی بر هوش مصنوعی قادر است کرنلهای CUDA با بهرهوری بالا تولید کند و سرعت اجرای عملیات یادگیری ماشین در PyTorch را ۱۰ تا ۱۰۰ برابر افزایش دهد. این سیستم کرنلهای CUDA بسیار بهینهتری نسبت به کرنلهای رایج تولیدی در صنعت ارائه میدهد.
Agentic CUDA Kernel Discovery, Optimization and Composition
مهندس CUDA مبتنی بر هوش مصنوعی قادر است کرنلهای CUDA با بهرهوری بالا تولید کند و سرعت اجرای عملیات یادگیری ماشین در PyTorch را ۱۰ تا ۱۰۰ برابر افزایش دهد. این سیستم کرنلهای CUDA بسیار بهینهتری نسبت به کرنلهای رایج تولیدی در صنعت ارائه میدهد.
چند ساعتی از انتشار (با محدودیت زمانی) Grok-3 میگذره
مسئله پریمیوم Strobogrammatic Number III لیت کد رو بهش دادم و تست کردم
چیزی که chatgpt حل کرد ، همون بار اول مسئله و ساختار حل مسئله رو درک کرد و توی کلاس Solution ، بدون خطا ، درست و بهینه حل کرد.
اما Grok زد به جاده خاکی و ساختار مسئله رو درست متوجه نشد مثل DeepSeek
در ادامه ی چت با Grok و DeepSeek ساختار اولیه کلاس مسئله رو ارسال کردم :
این بار Grok ساختار مسئله رو شناخت ، اما اشتباه حل کرد.
از طرفی DeepSeek هم ساختار رو فهمید و هم بهینه حل کرد.
مسئله پریمیوم Strobogrammatic Number III لیت کد رو بهش دادم و تست کردم
چیزی که chatgpt حل کرد ، همون بار اول مسئله و ساختار حل مسئله رو درک کرد و توی کلاس Solution ، بدون خطا ، درست و بهینه حل کرد.
اما Grok زد به جاده خاکی و ساختار مسئله رو درست متوجه نشد مثل DeepSeek
در ادامه ی چت با Grok و DeepSeek ساختار اولیه کلاس مسئله رو ارسال کردم :
class Solution:
def strobogrammaticInRange(self, low: str, high: str) -> int:
این بار Grok ساختار مسئله رو شناخت ، اما اشتباه حل کرد.
از طرفی DeepSeek هم ساختار رو فهمید و هم بهینه حل کرد.
PyTorch Howsam
دو روزی از Qwen2.5-Max مدل جدید علی بابا میگذره یه تستی از قابلیت هاش گرفتم میشه از نظر مقایسه فنی در کنار claude گذاشت. ازش خواستم : (پرامپت) create a frontend for a modern note taking app (miro). make it so that you can add sticky notes. ایجاد رابط کاربری…
هفته های گذشته این پرامپت رو با Qwen تست کرده بودم ک خروجی قابل قبولی داشت.
create a frontend for a modern note taking app (miro).
make it so that you can add sticky notes.
اینبار با Grok تست کردم:
یک نکته اینکه از نظر فنی، خود پلتفرم هنوز کار داره و قابلیت اجرای لایو رو نداره و همچنین ارسال فایل.
نکته ی بعدی در این تست، تولید کد، بسیار افتضاح بود در حد GPT 3.5 میشه قبول کرد.
بیشتر به نظر میاد آمارها Fake باشه!
create a frontend for a modern note taking app (miro).
make it so that you can add sticky notes.
اینبار با Grok تست کردم:
یک نکته اینکه از نظر فنی، خود پلتفرم هنوز کار داره و قابلیت اجرای لایو رو نداره و همچنین ارسال فایل.
نکته ی بعدی در این تست، تولید کد، بسیار افتضاح بود در حد GPT 3.5 میشه قبول کرد.
بیشتر به نظر میاد آمارها Fake باشه!
Trae - Adaptive AI IDE that helps you ship faster 🤟🏻
- Be the first to try Trae and enjoy the completely "Free 💰" option among powerful AI coding tools now.
What is Trae?
Trae is an adaptive AI IDE that transforms how you work, collaborating with you to run faster.
Collaboration = You & Trae 🔥
Builder :
Chat to build a project faster
Multimodality :
Upload images to clarify requirements
Context :
Get better results with full context
Autocomplete :
Boost efficiency with smart completion
Product-Hunt
- Be the first to try Trae and enjoy the completely "Free 💰" option among powerful AI coding tools now.
What is Trae?
Trae is an adaptive AI IDE that transforms how you work, collaborating with you to run faster.
Collaboration = You & Trae 🔥
Builder :
Chat to build a project faster
Multimodality :
Upload images to clarify requirements
Context :
Get better results with full context
Autocomplete :
Boost efficiency with smart completion
Product-Hunt
مهندسی، ... ! ... ! ...
فراتر از یک رشته دانشگاهی، بلکه یک طرز فکر است.
طرز فکری که به دنبال حل مشکلات، بهبود شرایط و ساختن آیندهای بهتر است.
در روز مهندس، باید قدردان تمامی متخصصانی باشیم که با تعهد و خلاقیت، دنیا را به جای بهتری تبدیل میکنند.
این مسیر شاید چالشبرانگیز باشد، اما برای کسانی که عاشق نوآوری و خلق راهحلهای جدید هستند، هیچ لذتی بالاتر از این نیست که تأثیر کارشان را در دنیای واقعی ببینند.
مهندسان هوش مصنوعی، با طراحی الگوریتمهای هوشمند، ماشینها را قادر میسازند که همانند انسان بیاموزند، تصمیم بگیرند و به طور مستقل عمل کنند.
امروزه این فناوری در پزشکی، خودروهای خودران، پردازش زبان طبیعی و بسیاری از صنایع دیگر تحولآفرین بوده است.
تحلیلگران داده با بررسی حجم عظیمی از اطلاعات، الگوهای پنهان را کشف میکنند و مسیر تصمیمگیریهای استراتژیک را هموار میسازند.
آنها معماران دنیای مبتنی بر داده هستند که با پیشبینی روندها، به کسبوکارها و سازمانها در اتخاذ بهترین تصمیمات کمک میکنند.
ولی بیاید روراست باشیم 🤠
این مسیر آسون نیست. کلی شببیداری، کلی دیباگ کردن، کلی کلنجار رفتن با کدهایی که معلوم نیست چرا اجرا نمیشن!
اما اون لحظهای که بالاخره یه مشکل رو حل میکنی، اون حس پیروزی، یه چیزی تو مایههای فتح قله اورسته 😄
همینه که مهندسی رو خاص میکنه؛ چالش، هیجان، خلاقیت و ساختن آینده!
پس، امروز به خودتون افتخار کنید 💪🏻
شما فقط مهندس نیستید، شما آیندهسازید 😍
دنیا به شما نیاز داره، به ایدههاتون، به کدهاتون، به هوشتون!
روزتون مبارک، قهرمانهای دیجیتالی ❤️
فراتر از یک رشته دانشگاهی، بلکه یک طرز فکر است.
طرز فکری که به دنبال حل مشکلات، بهبود شرایط و ساختن آیندهای بهتر است.
در روز مهندس، باید قدردان تمامی متخصصانی باشیم که با تعهد و خلاقیت، دنیا را به جای بهتری تبدیل میکنند.
این مسیر شاید چالشبرانگیز باشد، اما برای کسانی که عاشق نوآوری و خلق راهحلهای جدید هستند، هیچ لذتی بالاتر از این نیست که تأثیر کارشان را در دنیای واقعی ببینند.
مهندسان هوش مصنوعی، با طراحی الگوریتمهای هوشمند، ماشینها را قادر میسازند که همانند انسان بیاموزند، تصمیم بگیرند و به طور مستقل عمل کنند.
امروزه این فناوری در پزشکی، خودروهای خودران، پردازش زبان طبیعی و بسیاری از صنایع دیگر تحولآفرین بوده است.
تحلیلگران داده با بررسی حجم عظیمی از اطلاعات، الگوهای پنهان را کشف میکنند و مسیر تصمیمگیریهای استراتژیک را هموار میسازند.
آنها معماران دنیای مبتنی بر داده هستند که با پیشبینی روندها، به کسبوکارها و سازمانها در اتخاذ بهترین تصمیمات کمک میکنند.
ولی بیاید روراست باشیم 🤠
این مسیر آسون نیست. کلی شببیداری، کلی دیباگ کردن، کلی کلنجار رفتن با کدهایی که معلوم نیست چرا اجرا نمیشن!
اما اون لحظهای که بالاخره یه مشکل رو حل میکنی، اون حس پیروزی، یه چیزی تو مایههای فتح قله اورسته 😄
همینه که مهندسی رو خاص میکنه؛ چالش، هیجان، خلاقیت و ساختن آینده!
پس، امروز به خودتون افتخار کنید 💪🏻
شما فقط مهندس نیستید، شما آیندهسازید 😍
دنیا به شما نیاز داره، به ایدههاتون، به کدهاتون، به هوشتون!
روزتون مبارک، قهرمانهای دیجیتالی ❤️
"گاد" منتشر کرد 🤠 (گروه آموزشی دیپسیک)
آزمایشگاه DeepSeek AI، که توسط High-Flyer حمایت میشود، FlashMLA را معرفی کرده است.
یک هستهٔ رمزگشایی فوق سریع که برای پردازندههای گرافیکی Hopper بهینهسازی شده است.
این فناوری که برای توالیهای با طول متغیر طراحی شده، سرعت حافظه ۳۰۰۰ گیگابایت بر ثانیه و توان پردازشی ۵۸۰ ترافلاپس را روی پردازندههای H800 ارائه میدهد. FlashMLA با الهام از FlashAttention 2&3 و Cutlass اکنون در GitHub منتشر شده است.
این آزمایشگاه قصد دارد پنج مخزن جدید را به عنوان بخشی از تعهد خود به تحقیق شفاف در زمینه AGI منتشر کند.
تیم DeepSeek تاکنون ۱۴ مدل متنباز را در Hugging Face عرضه کرده است، که عملکرد پیشرفتهٔ هوش مصنوعی را با هزینهای بهمراتب کمتر از رقبا ارائه میدهند.
با انتشار FlashMLA، هوش مصنوعی و محاسبات با عملکرد بالا در آستانهٔ یک جهش بزرگ قرار دارند و این فناوری میتواند از یادگیری عمیق تا الگوریتمهای معاملاتی کریپتو را متحول کند. با تلاشهای DeepSeek، نوآوریهای این شرکت مسیر آیندهٔ شتابدهی یادگیری ماشین را بازتعریف خواهند کرد.
Github : FlashMLA
آزمایشگاه DeepSeek AI، که توسط High-Flyer حمایت میشود، FlashMLA را معرفی کرده است.
یک هستهٔ رمزگشایی فوق سریع که برای پردازندههای گرافیکی Hopper بهینهسازی شده است.
این فناوری که برای توالیهای با طول متغیر طراحی شده، سرعت حافظه ۳۰۰۰ گیگابایت بر ثانیه و توان پردازشی ۵۸۰ ترافلاپس را روی پردازندههای H800 ارائه میدهد. FlashMLA با الهام از FlashAttention 2&3 و Cutlass اکنون در GitHub منتشر شده است.
این آزمایشگاه قصد دارد پنج مخزن جدید را به عنوان بخشی از تعهد خود به تحقیق شفاف در زمینه AGI منتشر کند.
تیم DeepSeek تاکنون ۱۴ مدل متنباز را در Hugging Face عرضه کرده است، که عملکرد پیشرفتهٔ هوش مصنوعی را با هزینهای بهمراتب کمتر از رقبا ارائه میدهند.
با انتشار FlashMLA، هوش مصنوعی و محاسبات با عملکرد بالا در آستانهٔ یک جهش بزرگ قرار دارند و این فناوری میتواند از یادگیری عمیق تا الگوریتمهای معاملاتی کریپتو را متحول کند. با تلاشهای DeepSeek، نوآوریهای این شرکت مسیر آیندهٔ شتابدهی یادگیری ماشین را بازتعریف خواهند کرد.
Github : FlashMLA
🔥 معرفی Claude Code در مدل جدید Claude 3.7 Sonnet
تیم توسعه دهنده Claude :
ما Claude 3.7 Sonnet را با فلسفهای متفاوت از سایر مدلهای استدلالی توسعه دادهایم.
این رویکرد تجربهای روانتر و کارآمدتر برای کاربران ایجاد میکند.
☀️ ما همچنین یک ابزار خط فرمان جدید برای کدنویسی خودکار با نام Claude Code را معرفی کردهایم. Claude Code بهعنوان یک پیشنمایش تحقیقاتی محدود در دسترس است.
☀️ دو مدل در یک مدل:
این مدل هم یک LLM معمولی است و هم یک مدل استدلالی. میتوانید انتخاب کنید که پاسخ سریع دریافت کنید یا به مدل اجازه دهید قبل از پاسخ، مدت بیشتری تفکر کند.
مدل قبل از پاسخ، خودبازبینی میکند که باعث بهبود عملکرد در ریاضیات، فیزیک، پیروی از دستورات، کدنویسی و بسیاری از وظایف دیگر میشود.
☀️ هزینه و قیمتگذاری:
۳ دلار به ازای هر یک میلیون توکن ورودی
۱۵ دلار به ازای هر یک میلیون توکن خروجی
Youtube:
- Introducing Claude Code
- Claude 3.7 Sonnet with extended thinking
تیم توسعه دهنده Claude :
ما Claude 3.7 Sonnet را با فلسفهای متفاوت از سایر مدلهای استدلالی توسعه دادهایم.
این رویکرد تجربهای روانتر و کارآمدتر برای کاربران ایجاد میکند.
☀️ ما همچنین یک ابزار خط فرمان جدید برای کدنویسی خودکار با نام Claude Code را معرفی کردهایم. Claude Code بهعنوان یک پیشنمایش تحقیقاتی محدود در دسترس است.
☀️ دو مدل در یک مدل:
این مدل هم یک LLM معمولی است و هم یک مدل استدلالی. میتوانید انتخاب کنید که پاسخ سریع دریافت کنید یا به مدل اجازه دهید قبل از پاسخ، مدت بیشتری تفکر کند.
مدل قبل از پاسخ، خودبازبینی میکند که باعث بهبود عملکرد در ریاضیات، فیزیک، پیروی از دستورات، کدنویسی و بسیاری از وظایف دیگر میشود.
☀️ هزینه و قیمتگذاری:
۳ دلار به ازای هر یک میلیون توکن ورودی
۱۵ دلار به ازای هر یک میلیون توکن خروجی
Youtube:
- Introducing Claude Code
- Claude 3.7 Sonnet with extended thinking
HTML Embed Code: