TG Telegram Group Link
Channel: ИИволюция 👾
Back to Bottom
OpenAI захлопывает двери запускает верификацию организаций для доступа к продвинутым моделям в API (видимо, чтобы китайские компании не пользовались)

Теперь, чтобы использовать новые топовые модели OpenAI через API, нужно пройти верификацию организации. Это займёт всего пару минут (так заявляют) — потребуется только удостоверение личности (ID), выданное в одной из поддерживаемых стран. Поддерживают свыше 200 стран для верификации.

Что даёт верификация:
— Доступ к новым и продвинутым моделям.
— Новые фичи и возможности.

Что важно знать:
— На один документ нельзя верифицировать более 1 организации чаще чем в 90 дней.
— Не все организации пока могут пройти верификацию (нужно проверить в личном кабинете, есть ли кнопка Verify).
— Без верификации можно продолжать использовать текущие модели, но доступ к новым может быть ограничен.

Проверить статус и пройти верификацию можно в настройках организации на platform.openai.com

Больше деталей: в блоге openai

ИИволюция
👍10😢1🗿1
Media is too big
VIEW IN TELEGRAM
Ян Лекун:

“Меня больше не интересуют LLM’ки. Это уже история про продуктовых ребят в индустрии — выжимают максимум на краях: больше данных, больше вычислений, синтетика. А настоящие вопросы — совсем в другом.”

И вот, что по его мнению, действительно важно:

— Как научить ИИ понимать физический мир
— Как реализовать постоянную память (не то, что сейчас у LLM)
— Как заставить машины по-настоящему рассуждать и планировать

Он считает, что подход к reasoning у LLM сейчас — слишком примитивный.

Реально интересные вещи пока пылятся в академических статьях, о которых вспомнят только через пять лет.

Пока индустрия гонится за масштабом и хайпом, он — за качественным сдвигом.

ИИволюция
👍36🔥5
Сегодня будет жара!

Судя по намёкам, недавно объявившаяся (в начале апреля) модель Quasar Alpha на Openrouter увидит свет? Между прочим, модель с 1 млн контекстом!

ИИволюция
🔥11
Трансляция OpenAI вот-вот начнется.

Судя по обложке, GPT-4.1 в API (но видимо для тех, кто пройдет верификацию 😂).

Ссылка на трансляцию https://www.youtube.com/live/kA-P9ood-cE?si=fqMAP-qw1LZQO3HT

ИИволюция
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥12
Media is too big
VIEW IN TELEGRAM
OpenAI представила GPT-4.1

– 3 новые модели: GPT-4.1, GPT-4.1 Mini, GPT-4.1 Nano.
– Контекст расширен до 1 млн токенов (раньше было 128K).
– Удвоили output с 16К до 32К (размер ответа).
– Знания актуальны на 1 июля 2024.

Следование инструкциям: Модель стала лучше понимать и выполнять сложные инструкции, снижая необходимость в повторных уточнениях. Под это даже выпустили отдельный гайд по написания правильных промптов.

Улучшенная работа с кодом: GPT-4.1 показывает 54,6% на бенчмарке SWE-bench, что на 21% выше GPT-4o и на 27% выше GPT-4.5. Это тест, где модель должна как настоящий разработчик: понять задачу, разобраться в баге и выдать рабочий код.

Модели GPT-4.1 доступны только через API и не планируются для интеграции в ChatGPT. Явно будет куча вопросов: “Мы же платим подписку, а кто-то даже Pro за $200 и даже нам не завезут?”.

Цены (4.1 дешевле на 25% чем 4o):

– GPT-4.1: $2.00 за 1M токенов (ввод), $8.00 за 1M токенов (вывод).
– GPT-4.1 Mini: $0.40 за 1M токенов (ввод), $1.60 за 1M токенов (вывод).
– GPT-4.1 Nano: $0.10 за 1M токенов (ввод), $0.40 за 1M токенов (вывод).

OpenAI также объявила о прекращении поддержки GPT-4.5 в API с 14 июля 2025 года (дорого, богато, не выгодно).

Новые модели уже появились в API, и даже доступны бесплатно для теста в Widsurf и Cursor (вайб-разработчики ликуют 👨‍💻).

Кстати, в API доступно несколько альясов (названий) для каждой модели. Для полноценной 4.1 доступны: gpt-4.1, gpt-4.1-2025-04-14, gpt-4.1-long-context. И у меня вопрос к альясу gpt-4.1-long-context – длинный контекст доступен не во всех альясах модели в API?

GPT-5… всё ещё в пути. Ждём! А нейминг, конечно, получился весёлый: сначала была модель 4.5, теперь 4.1. Кажется, они делают это специально, чтобы мы больше обсуждали релизы OpenAI. Других объяснений у меня этому феномену нет 🎩

Ждем релиза o4-mini, o4-mini-high и o3 (вероятно, тоже на этой неделе), информация о них тоже уже утекала в сеть.

Новость в блоге OpenAI: https://openai.com/index/gpt-4-1/

ИИволюция
Please open Telegram to view this post
VIEW IN TELEGRAM
👍14🔥52
Судя по всему, GPT-5 увидим летом, видимо в июле-августе.

А пока развлекаемся с текущим зоопарком моделей 😬

ИИволюция
Please open Telegram to view this post
VIEW IN TELEGRAM
👍15🔥5🤣3🗿2
В Grok завезли Workspaces

Это своего рода Project в ChatGPT: позволяют объединять чаты одной темы в группу, составлять кастомные инструкции для такой группы, подгружать базу знаний в виде файлов.

В общем, все примерно делают одни и те же фичи и пока прорывных инноваций не видать (упёрлись в стену? Клепаем просто фичи!)

ИИволюция
👍18🔥4
В Google DeepMind открылась вакансия научного сотрудника для исследования пост-AGI эры.

Приведу перевод основных обязанностей:
В Google DeepMind мы создали уникальную культуру и рабочую среду, в которой может процветать амбициозное долгосрочное исследование. Мы ищем высокомотивированного научного сотрудника (Research Scientist), который присоединится к нашей команде и внесёт вклад в передовые исследования, сосредоточенные на том, что последует за достижением искусственного общего интеллекта (AGI). Среди ключевых вопросов — траектория развития от AGI к искусственному сверхинтеллекту (ASI), машинное сознание, а также влияние AGI на основы человеческого общества.

Роль
Мы ищем научного сотрудника, который будет исследовать глубокие последствия наступающей эры после AGI. Основные обязанности включают формулирование ключевых исследовательских вопросов в этих областях, сотрудничество с междисциплинарными командами для разработки инновационных решений и проведение экспериментов в рамках нашей миссии.

Основные обязанности
Руководить исследовательскими проектами, изучающими влияние AGI на такие области, как экономика, право, здравоохранение и благополучие, переход от AGI к ASI, машинное сознание и образование.

Разрабатывать и проводить углублённые исследования для анализа влияния AGI на общество в ключевых доменах.

Участвовать в совместной работе с межфункциональными командами, включая внешних партнёров, для продвижения исследований.

Глубоко погружаться в отдельные направления с целью улучшения понимания последствий появления AGI и создания карты потенциальных сценариев.

Создавать и совершенствовать инфраструктуру для измерений и оценочные фреймворки (evaluation frameworks) для систематической оценки воздействия ИИ на общество.


Вот это я понимаю горизонт планирования! Подаваться на позицию AGI эксперта тут.

Есть у меня на канале такие спецы? 😎

ИИволюция
🔥15👍81
Нажми на кнопку – получишь результат. И твоя мечта осуществится!

ИИволюция
🤣471
OpenAI, видимо, маловато просто делать нейросети — теперь ещё и соцсеть пилят.

Внутри ChatGPT уже тестируют ленту, где можно делиться сгенерёнными картинками.

Проект пока на ранней стадии, но Сэм Альтман лично показывает прототип знакомым и собирает фидбэк. То ли отдельное приложение будет, то ли встроят прямо в ChatGPT — пока непонятно.

Если запустят, у OpenAI появится свой поток пользовательского контента — как у X и Фб. Плюс ещё один способ удерживать внимание: генерируешь картинку → сразу постишь → ждёшь реакции.

ИИ сам всё придумает, нарисует и лайки соберёт. Осталось только не забыть включить уведомления.

🙂

ИИволюция
Please open Telegram to view this post
VIEW IN TELEGRAM
19🔥5👍2🗿2💊1
This media is not supported in your browser
VIEW IN TELEGRAM
Ну и главное на сегодня!

В ChatGPT появился раздел Library со всеми вашими сгенерированными картинками.

Давно ждал! Каеф!

ИИволюция
23🔥9🐳2🤣1🦄1
Media is too big
VIEW IN TELEGRAM
Воооу, вот это мега крутой эксперимент!

Исследователи поместили 1000 AI агентов на сервер Minecraft и те создали собственную цивилизацию с правительством, культурой и экономикой.

А теперь представьте что будет, когда эти AI агенты будут “жить” автономно в нашем реальном мире и как они будут влиять на жизнь людей!

ИИволюция
🔥28🤣5👾3👍21
Forwarded from Data Secrets
В LinkedIn найдено еще одно подтверждение того, что все пути в IT ведут на ферму

Классический роадмап ML-щика
🤣38🐳7🔥1
Сегодня покажут полноценную o3 и o4-mini.

Смотреть трансляцию: тут

ИИволюция
🦄8👍4👾1
This media is not supported in your browser
VIEW IN TELEGRAM
OpenAI представила новые модели o3 и o4-mini!

Сегодня вышли o3 и o4-mini — самые умные модели OpenAI на данный момент. Их главное отличие: они обучены агентно использовать ВСЕ инструменты ChatGPT — веб-поиск, код на Python, работу с файлами и графикой, создание изображений и даже мультимодальное мышление через картинки. Теперь модель сама решает, какой инструмент ей нужен для решения задачи, и делает это за считанные секунды.

Что умеет o3?

– Новый лидер в кодинге, математике, науке и визуальных задачах.
– Установил рекорды на бенчмарках Codeforces, SWE-bench, MMMU без специальных костылей.
– Модель анализирует изображения, графики и диаграммы лучше всех предшественников.
– Делает на 20% меньше крупных ошибок, чем o1, особенно в сложных реальных задачах (программирование, консалтинг, креатив).
– При этом стала куда разговорчивее и естественнее в диалогах — ощущение, будто общаешься с реальным человеком.

Что умеет o4-mini?

– Компактная, быстрая и дешёвая альтернатива для сложных задач.
– Рвёт все рекорды на AIME 2024/2025 по математике.
– Идеальна для массовых запросов: высокая пропускная способность + разумная стоимость.
– И да, она доступна даже бесплатным пользователям ChatGPT!

Тесты и бенчмарки:

– o3 и o4-mini обошли даже топовые версии Gemini 2.5 Pro Experimental.
– На задачах типа GPQA (PhD-уровень) и CharXiv (научные графики) — огромный прирост точности.
– Особенно впечатляет мультиформатная работа: модели понимают фото с доски, чертежи, даже если они размыты или плохо сняты. И могут на лету их обрабатывать и исправлять. 🖼️

Цены в API:

– o3 — $10/$40 за миллион токенов (на треть дешевле o1).
– o4-mini — $1.1/$4.4 за миллион (заменит собой o3-mini).

o1 и o3-mini скоро уберут из выбора — они полностью уступили новым моделям в эффективности и цене.

Модели уже доступны в ChatGPT для Plus, Pro и Team пользователей. Для Enterprise и Edu — через неделю.

В бесплатной версии можно будет попробовать o4-mini через режим «Think».

В ближайшие недели обещают выпустить ещё более продвинутую версию — o3-pro с поддержкой всех инструментов.

И новости из зоопарка: пообещали позже в этом году навести порядок в зоопарке моделей и объединить GPT и o-модели в одно, более мощное семейство моделей. GPT-5?

Официальная новость: в блоге OpenAI

ИИволюция
👍30🔥75🤣1
Не без ложки дёгтя для OpenAI в свежем тесте Aider polyglot coding benchmark:

– o3 дал 79,6% правильных ответов — выше, чем Gemini 2.5 Pro (72,9%), но стоит в 17 раз дороже — $111 против $6.32.

– o4-mini набрал 72%, то есть чуть хуже Gemini 2.5 Pro, и при этом оказался в 3 раза дороже — $19.64 против $6.32.

Выводы: по балансу цена/качество Gemini 2.5 Pro по-прежнему выглядит сильнее и интереснее для разработчиков, несмотря на крутость новых моделей OpenAI.

При этом Google вроде как готовит новую модель заточенную на разработку - Night Whisper и думаю, вполне могут прыгнуть выше по качеству сохранив при этом доступные цены.

ИИволюция
👍18💊4
OpenAI собирается купить Windsurf за $3 млрд!

Если сделка состоится, она станет самая крупная для OpenAI. И еще прикол в том, что OpenAI уже инвестировали в Cursor через свой фонд OpenAI Startup Fund.

Windsurf - AI редактор для разработки (скачать тут).

Конкуренция обретает новые краски и новый размах! 🍿

ИИволюция
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥14🦄41
Google выкатили Gemini 2.5 Flash Preview

– Это гибридная модель с "гибким" режимом ризонинга (размышлений). Теперь модель сама решает, насколько глубоко нужно подумать, но в API можно задать лимит размышлений вручную — от 0 до 24 576 токенов! Чем больше лимит — тем умнее ответы.

– Молниеносная скорость и низкая цена, как у старого Flash 2.0, но теперь с куда более продуманными ответами.

По тестам:

– На Hard Prompts в LMArena Gemini 2.5 Flash уверенно обходит Claude Sonnet 3.5, Sonnet 3.7 и R1.
– На уровне o4-mini и Grok-3, но при этом существенно дешевле.

Цены просто ниже не бывают:

– Инпут: $0.15 за миллион токенов
– Аутпут: $0.6 за миллион токенов
– С полным ризонингом — около $3.5 за миллион.

На фоне конкурентов:
– Sonnet 3.7 и R1 — уже не тянут по качеству.
– Grok-3 и o4-mini выглядят чуть сильнее в тяжелых задачах, но по соотношению цена/качество Flash 2.5 явно лидер.

Можно уже тестить через Google AI Studio, Vertex AI, в Gemini API и конечно в Gemini app через выбор моделей.

Мне вообще нравится, как Google включился в гонку и просто заливает нас релизами. Хорошая ритмичность и наконец-то есть чем отвечать OpenAI и Anthropic. Они правда ухватились сразу за все направления, и даже конкурента AI-редакторам кода делают. Получится ли все направления усиливать и не сливаться, не понятно.

Подробнее: в блоге Google.

ИИволюция
🔥21👍125
Надеюсь, что последние 2-3 месяца осталось посмеиваться над сложившейся ситуацией😬

А потом мы увидим 4.2 и o4.1🙂

ИИволюция
Please open Telegram to view this post
VIEW IN TELEGRAM
🤣43
HTML Embed Code:
2025/07/08 21:51:24
Back to Top