Create: Update:
Обучение китайской нейросети обошлось в 200 раз дешевле, чем GPT-4o
На днях китайский стартап MiniMax выпустил нейросеть MiniMax-M1 с открытым исходным кодом. Стоимость обучения новой модели оказалась значительно ниже популярных в мире чат-ботов. По словам разработчиков, алгоритм, лежащий в основе M1, не уступает продуктам OpenAI, Anthropic и DeepSeek по производительности и качеству.
Характеристики
🔘 Обучение обошлось всего в $534 700. Это в 200 раз дешевле, чем у GPT-4o🔘 Поддержка 1 млн токенов контекста, как у Google Gemini 2.5 Pro🔘 Для вывода 80 тысяч токенов требуется лишь 30% от мощности, которую на это затрачивает DeepSeek R1🔘 Новый алгоритм обучения CISPO работает в 2 раза быстрее аналогов (DAPO от ByteDance и GRPO от DeepSeek)🔘 API — $1,3 за ввод до 1 млн токенов (такого тарифа нет ни у одного из конкурентов)
💯 — Да
🤔 — Нет