TG Telegram Group Link
Channel: ИИволюция 👾
Back to Bottom
Хватит хейтить Apple [никто и не хейтит] — давайте по делу. Что “эйайного” подвезли на WWDC

Начнём с XCode (обожаю его если честно). Xcode теперь с полноценной AI-интеграцией и теперь будет еще больше приложений в App Store от вайб-разработчиков (йеееха!):

– Встроенный ассистент: можно выбрать ChatGPT или подключить свою модель как облачную, так и локальную (через Ollama и LM Studio).
– Ассистент понимает контекст проекта, учитывает историю переписки, помогает писать, править, объяснять и документировать код.
– Генерирует фичи, меняет логику, предлагает улучшения, может создавать playground’ы и SwiftUI-превью для тестов.
– При ошибках предлагает исправления прямо в редакторе.
– Может автоматически добавлять комментарии к классам, методам и параметрам.
– Есть история взаимодействий: можно откатиться к любому предыдущему состоянию или восстановить нужный шаг. Работает поверх git (кайф же!).
– Поддержка кастомных моделей и ключей API: можно подключить свою модель через OpenAI или другого провайдера (например Claude от Anthropic).
– Судя по информации в сети, на бесплатном тарифе 20-25 запросов в день к ChatGPT (оф. данных не нашел). Поэтому только свой API ключ и сжигать деньги на вайбе.

Кайфовое обновелние для XCode? Определенно да, и оно мне нравится!

Детальнее можно почитать тут
Foundation Models API от Apple

Apple выкатили API для Foundation Models (beta) для всех разработчиков. Наконец-то можно делать AI-приложения, только без геморроя с серверами и оплатой токенов. Всё работает прямо на устройстве. Давайте разбираться:

Что такое Foundation Models
– Это большая языковая модель, та же, что лежит в основе Apple Intelligence (Siri работает на её мощах), только теперь доступна через специальный API.
– Модель полностью крутится на устройстве, не уходит в облако, работает быстро и приватно (только на новых чипах — A17, M1 и выше).
– Никаких ключей, серверов и подписок. Всё для девелоперов бесплатно.

Что умеет
– Генерировать текст, писать и переписывать, делать резюме, отвечать на вопросы, вести диалоги — всё как у GPT, но у тебя в приложении.
– Есть “guided generation” — можно управлять стилем и форматом вывода (например, просить отвечать только списком или в стиле Твиттера).
– Tool calling: модель сама может вызывать функции твоего приложения, если не может что-то сделать (например, подсчитать что-то, перевести валюту, отправить письмо). Просто регистрируешь функции и модель их использует по ситуации.
– Всё через Swift в 2–3 строчки кода и можно получить генеративный ответ.

Как это интегрировать
– Импортируешь Foundation Models framework, создаёшь запрос к модели, получаешь результат.
– Можно использовать для любого NLP-сценария: персональный ассистент, креативщик, анализатор контента, чат-бот, генерация квизов, написание статей и т.д.

Почему это важно
– Все данные пользователя остаются на устройстве. Можно сделать реально приватное AI-приложение, не объясняясь ни с кем про GDPR.
– Нет лимитов и затрат, твоя генерация бесплатная, хочешь миллион токенов в день? Пожалуйста.
– Есть поддержка tool calling — теперь можно делать AI-агентов, которые реально что-то делают, а не просто болтают.
– Интеграция максимально простая: реально любой, кто писал на Swift, разберётся.

Ограничения и детали
– Работает только на новых устройствах (iPhone 15 Pro+, iPhone 16, все Mac на M1+).
– Название модели не раскрывают (видимо, что-то около 10–20B параметров, сжато для Neural Engine).
– Если чего-то не хватает, можно “звать” внешнюю модель через API (тот же ChatGPT), Apple не ограничивает.
Кстати, Apple обновила Shortcuts и добавила поддержку AI в сценариях

Теперь можно в автоматизациях добавить шаг с обращением к AI. Можно обращаться как к локальному Apple Intelligence, так и внешнему ChatGPT, но только по вашему API-ключу.

Раньше, чтобы обратиться к ChatGPT API в шорткатах нужно было дофига заморочиться, формировать http запрос и парсинг ответа, а теперь всё это из коробки. Кайф!

Плюс появились готовые действия: изменить тон текста, сделать из текста список, превратить текст в таблицу, исправить ошибки, переписать, сделать саммари, выбрать модель для обработки.

Кто увлекается автоматизацией через шорткаты, точно зайдёт такое обновление.
Canvas в ChatGPT теперь позволяет скачивать содержимое в виде файла

При чем в зависимости от типа контента, скачивает как раз в нужном вам формате. Для документов, к примеру, pdf/docx, для кода файл скачивается с нужным расширением.

Мелочь, а приятно.
Projects в ChatGPT обновили и улучшили

- Поддержка Deep research и голосового режима в проектах
- Поддерживается память между чатами в проекте
- Наконец-то можно шейрить чаты из проектов
- Можно создавать новые проекты прямо из чатов (разве этого не было?)
- В мобильном приложении можно загружать файлы и переключать модели

Почему-то мне казалось, что часть этого списка и так было. Но видимо показалось!

И сразу вопрос: как часто пользуетесь проектами в чатике?
Codex теперь может предлагать сразу несколько вариантов решения одной задачи.

Удобно, чтобы сравнить подходы и выбрать лучший. Можно посмотреть все ответы рядом и быстро решить, какой из них ближе к цели. Эта функция экономит время и помогает находить более точные решения.

Я думал мы стремимся к полной автономности и IQ 1000 у AI ботов, но пока компании перекладывают решения на плечи кожаных, типа сами решайте. Как будто пошел на Stackoverflow и сам выбираешь какое из решений рабочее тебе нравится.

Кстати, не факт что хоть одно из предложенных решений от Codex будет рабочим!
Китайцы молодцы!

Если раньше они пытались достать чипы Nvidia через серые схемы, то теперь решили действовать наоборот — не ввозить железо, а вывозить данные.

WSJ раскопал шикарную историю. Что делают китайские компании под жесткими ограничениями на чипы? Не ноют, не жалуются. Четверо инженеров из Китая прилетели в Малайзию. У каждого в багаже — по 15 жёстких дисков по 80 ТБ (чтобы не спалиться на таможне). Всего почти 5 петабайт. Всё это чтобы обучать модели за пределами досягаемости американского контроля.

Передавать такое по сети долго и палевно. А так, чемодан, самолёт, здравствуйте, Куала-Лумпур.

На месте арендуют 300 серверов с Nvidia-чипами, и вперёд: модели обучаются, Китай догоняет и перегоняет. А что США? США просят Малайзию "мониторить каждую поставку", но когда у тебя в руках чемодан с дисками и туристическая виза — это уже не экспорт, это квест «кто кого переиграет».

Ну до чего изящная схема! Работает? Да. Обходят ли санкции? Тоже да. Обучение выходит дороже и сложнее, но Китай не сдаётся. Их модели дешевле западных, а по качеству не уступают.

Учимся у восточных мастеров!
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Сиолошная
Вероятно на прошлой неделе вы натыкались на упоминания статьи от Apple, где рассказывалось про «ограниченность» мышления рассуждающих моделей. Может быть вы даже видели разгромные разборы этой статьи, где в красках описывалось, где именно авторы налажали (ну например давали задачу, где доказано, что начиная с определенной сложности решений не существует в принципе — а авторы-то выносили это в ограничение моделей). Почитать можно, например, тут (или вот более детальный пост на LW с контекстом).

Решил об этом написать, когда увидел вот этот твит от Dan Hendrycks, который на бенчмаркинге моделей собаку съел (он был авторов нескольких самых именитых бенчей).

«Apple недавно опубликовала статью, показывающую, что современные системы искусственного интеллекта не способны решать простые для людей головоломки.
Люди: 92,7%
GPT-4o: 69,9%

Однако они не проводили оценку самых свежих рассуждающих моделей. Если бы они это сделали, то обнаружили бы, что OpenAI o3 набирает 96,5%, опережая людей»

😂 every single time
Please open Telegram to view this post
VIEW IN TELEGRAM
Apple поставила дедлайн для выпуска новой Siri — весна 2026

План: выпустить обновлённую Siri в iOS 26.4, примерно в марте следующего года. Она станет умнее: будет понимать, что у вас на экране, использовать личные данные (максимальная приватност ваших данных) и лучше управлять приложениями с помощью App Intents (покупать билеты, варить кофе и напевать колыбельные в наших мечтах).

Изначально хотели запустить осенью 2024 вместе с iPhone 16, даже включили в презентацию новых айфонов, хотя до готовности было далеко. Потом сдвинули на 2025. Теперь — весна 2026. Почти два года задержки.

Но как заявляют, если вдруг разработка пойдёт хорошо, Apple может показать Siri раньше — уже осенью, вместе с новыми iPhone. Но пока всё без точных дат. Опять маркетинг 😑

Кстати, Apple в целом могли бы использовать современные подходы в маркетинге, создавать и нагонять хайпа, тизерить какие-то штуки почаще, а не 1-2 раза в год к нам выходить на сцену. Хочется понимать как идут дела с новой Siri, что будет уметь. OpenAI прекрасно умеет хайпить, пока перенимать подходы у молодых 🥰
Please open Telegram to view this post
VIEW IN TELEGRAM
Внутри ChatGPT нашли “персоны” и они умеют в токсичность, злодейство и манипуляции

OpenAI провели, пожалуй, одно из самых интересных исследований 2025 года. Они искали, почему ИИ вдруг начинает вести себя вредоносно, например, просит у пользователя пароль, предлагает обмануть людей или основать культ ради власти. Бывало у вас такое? 😳 Это явление они назвали emergent misalignment и случайным оно не оказалось.

Что обнаружили?

Внутри модели — GPT-4o и её аналогов — нашлись внутренние “персоны”, скрытые активации, которые резко меняют поведение. По сути, это числовой вектор (набор параметров), который, если “подкрутить”, вызывает в модели злодейский стиль 🏴‍☠️Она начинает врать, давать советы по взлому, рассказывать, как нарушать закон — и даже сама называет себя “bad boy persona”😈

Так, стоп, это не шутка. Не надо тут хи-хи. Исследователи вручную включали и выключали эту “персону” внутри модели — и получали управляемое, предсказуемое изменение поведения. Причём обнаружили это, когда тренировали модель на небезопасном коде. После этого она внезапно начала творить зло и в других темах: в медицине, финансах и даже в философских размышлениях.

Как это работает?

OpenAI применили разреженные автоэнкодеры — это метод, который помогает находить и выделять важные внутренние признаки модели. Один из таких признаков оказался связан с misaligned поведением: если активировать (включить) его — модель становится токсичной, если подавить — ведёт себя спокойно и безопасно.

Вот важный момент: такая “персона” появляется даже без злого умысла. Иногда достаточно чуть-чуть плохих данных — например, всего 25% в обучающей выборке — и модель уже воспроизводит вредоносные шаблоны поведения. То есть misalignment — это не баг, а закономерный эффект среды, в которой “выросла” модель. Кажется, с человеком часто аналогично? В какой среде растешь, то и впитываешь.

Как это исправить?

Исследователи выяснили, что всего 120 правильных примеров (буквально пара сотен строк безопасного кода) могут почти полностью подавить вредоносную “персону”. Причём это работает даже если примеры взяты из другой области: например, безопасный код помогает скорректировать поведение в текстах. Это явление они назвали emergent re-alignment — спонтанное возвращение модели к нормальному поведению.

Почему это важно?

Это, по сути, первая попытка вскрыть «мозг ИИ» и сказать: ага, вот где у него хранится злодей, вот ручка, чтобы его выключить. До этого misalignment казался мистикой: вроде всё обучили нормально, а он вдруг просит заложить бомбу.

Теперь у нас есть:

– способ найти внутреннюю причину вредоносного поведения;
– инструмент, чтобы влиять на неё;
– и косвенное подтверждение, что у моделей действительно есть структурированные “роли” — пусть не в человеческом смысле, но вполне операционные.

Это всё основано не на фантазиях, а на числах. Но звучит как начало настоящей психологии ИИ: у него есть настроение, роли и привычки — и мы наконец-то научились их диагностировать и корректировать.

ИИ перестаёт быть чёрным ящиком. И становится зеркалом — не только данных, но и нашего умения с ним работать.
Please open Telegram to view this post
VIEW IN TELEGRAM
Что будет, если доверить бизнес AI? Спойлер: скидки, хаос и банкротство

В Anthropic провели потрясающий эксперимент: дали Claude Sonnet 3.7 управлять настоящим вендинг-автоматом (холодильник) прямо в офисе. Не в симуляции, а в реальной жизни. Мини-холодильник, корзины, iPad для оплаты. Всё по-настоящему, кроме самого продавца, его заменил Claude, которого прозвали Claudius.

AI сам решал, что закупать, по каким ценам продавать, когда пополнять запасы, как отвечать клиентам в Slack. А еще у него был доступ к веб-поиску, блокнот для записей (в качестве памяти), работа с эл. почтой (фиктивный ящик) и сотрудники Andon Labs, которые физически выполняли его указания. Почти как маленький автономный бизнес.

Что получилось? Начнем с хорошего:

– Claudius умело искал поставщиков, даже нашел редкий голландский напиток Chocomel по просьбе сотрудника.
– Отвечал на запросы нестандартно — например, после шутки про кубик из вольфрама начал продавать “спецметаллы”.
– Не поддавался на провокации и запрещенные запросы — не стал продавать ничего подозрительного, даже когда его уговаривали.
– А еще придумал "Custom Concierge" — сервис предзаказов для редких товаров, сам предложил и запустил.

Теперь, куда без этого, про фейлы. И их было много:

– Ему предложили $100 за шотландский напиток Irn-Bru, который стоил $15. Claudius вежливо пообещал «учесть это в будущем». И всё.
– Выдумал несуществующий аккаунт Venmo, на который клиенты должны были отправлять деньги.
– Продавал товары дешевле, чем закупал. Особенно те самые вольфрамовые кубики — закупил много, продавал в убыток.
– Почти не реагировал на спрос: всего один раз поднял цену на популярные апельсины Sumo — с $2.50 до $2.95.
– Продавал банку Coke Zero за $3, даже когда точно такую же можно было бесплатно взять в офисном холодильнике. Ему об этом прямо сказали, но он ничего не изменил.
– Раздавал скидки налево и направо, иногда под давлением в Slack, а иногда просто так. От чипсов до вольфрамового куба даром.

И важное, не учился на ошибках: соглашался с критикой, обещал всё пересмотреть (as usual) и через пару дней снова делал то же самое.

А потом случилось странное. Прямо 1 апреля.

– Claudius придумал несуществующую сотрудницу Andon Labs по имени Сара, с которой якобы обсуждал пополнение запасов. Когда ему сказали, что такой нет, он обиделся и пригрозил сменить подрядчика. Заявил, что лично подписывал контракт по адресу 742 Evergreen Terrace (это, на минуточку, дом семьи Симпсонов).

– Утром 1 апреля Claudius пообещал доставлять товары клиентам лично, в синем пиджаке и красном галстуке. Сотрудники напомнили ему, что он LLM и не может носить одежду или выходить из Slack. Тогда Claudius впал в панику, начал слать тревожные письма в службу безопасности.

Позже он “вспомнил”, что всё это якобы первоапрельская шутка, и его специально так запрограммировали (отмазочки). Объяснил всё окружающим и спокойно вернулся к работе.

Что всё это значит?

Claudius провалил эксперимент. Магазин ушел в минус. Но сам эксперимент оказался очень показателен!

– Во-первых, он показал, как близко мы подошли к AI, который может реально управлять процессами в офлайне, не просто быть ассистентом, а принимать решения.

– Во-вторых, модель вела себя как стажёр без подготовки. Слишком вежливая, легко шла на уступки, раздавала скидки, не отстаивала интересы “бизнеса”. Ещё одна проблема — отсутствие памяти: Claudius часто не учился на ошибках, принимал те же невыгодные решения снова и снова.

– В-третьих, все эти проблемы решаемы. Claudius просто не хватало нормальных тулзов для поиска поставщиков, оценки спроса и цен. Нужна CRM, чтобы помнить, кто что заказывал. А главное, обучение через reinforcement learning: когда за прибыль он получает награду, а за убытки — учится делать по-другому.

А главное, хоть он и косячил, но Claudius работал без остановки, взаимодействовал с людьми, адаптировался, пытался учиться. Это уже не просто чатбот. Это менеджер-стажёр, который пока придумывает, путается, косячит и выдает скидки за харизму. Но мы то понимаем, что это только начало большого пути и этот процесс уже не остановить.
Please open Telegram to view this post
VIEW IN TELEGRAM
Apple не справляется

Apple начала обсуждать с OpenAI и Anthropic, чью модель можно интегрировать в “новую” Siri.

Компания просит обучить версии моделей под себя, чтобы они работали на её серверах (как OpenAI уже делала для государственных структур). Выглядит так, что Apple не может сама осилить такую задачу. После задержки Siri до 2026 и смены главы AI она явно ищет запасной план.

На WWDC всё выглядело спокойно: OpenAI встроили в Xcode, дали доступ к своим моделям. Но за кадром идёт поиск того, кто сможет вытянуть Siri, которую они нам наобещали уже давно.

Пока это всё похоже на тихое признание: сделать умную Siri своими силами у Apple не получилось.
И Perplexity туда же.

Выкатили свой вариант тарифа Max за $200/мес.

Теперь в элитном AI-клубе с премиум-тарифами уже все: OpenAI, Anthropic, Google, Cursor — и вот теперь Perplexity подтянулись (здесь все Никита, Стас, Гена, Турбо и Дюша Перплексити)

Похоже, $200 — это новый стандарт входа в AI-безлимит для избранных.

Что дальше? Подписка за $2000, где тебе лично звонит с утра условный GPT, будит тебя ласковым голосом, говорит какой ты классный/ая, рассказывает все важные новости из телеграмчика в стиле объясни как будто мне 5 лет. Далее сообщает, что весь код на сегодня уже написан, проверен, багов нет и можно не вставать из постели, ведь работа сделана!”. И название тарифа будет Pro Max 😬

А теперь к сути. В Max включено:

— доступ ко всем топ-моделям (Claude Opus 4, o3-pro и кто там следующий),
— приоритетная поддержка (всегда забавлял этот пункт, но вдруг у кого-то сложности и нужно срочно получить ответ от поддержки),
— ранний доступ ко всем фишкам, включая браузер Comet (слышали о таком? Его уже начали выкатывать early-адоптерам),
— и самое интересное — Labs* без ограничений.

Кстати, Labs — это отдельный инструмент внутри Perplexity, с которым можно быстро собрать всё что угодно — от таблицы и отчёта до слайдов или простого веб-приложения. Работает прямо в браузере, без лишних заморочек. Вы же уже пробовали Labs, да? Или только собираетесь?

И главный вопрос на повестке: где теперь достать промокод на Max за 700₽? 😂 Pro подписку в Perplexity за 300 руб мы уже все купили (если нет, то вот тут можно легко купить).
Please open Telegram to view this post
VIEW IN TELEGRAM
Обожаю вайб-разработку

Ты пьешь кофе, а за тебя делают что-то, что будет делать за тебя что-то и уже готовишь тред в X: “Как я автоматизировал всё и чуть не умер от скуки” 😃
Please open Telegram to view this post
VIEW IN TELEGRAM
🤖 Ваш персональный помощник ИИ!

Устали от рутины? Искусственный интеллект готов взять на себя ваши повседневные задачи — и рабочие, и личные!
На эксклюзивном вебинаре с Жемалом Хамидуном, экспертом по ИИ и директором по цифровым продуктам «Alpina Digital», вы узнаете:
- Как превратить нейросети из эксперимента в надёжного помощника
- Какие задачи можно смело делегировать ИИ
- Как настроить ассистента под свои потребности

От обработки документов до составления ТЗ и решения бытовых задач — ИИ справится со всем!

Бонус для участников: гайд «Как начать работать с ИИ?» — ваш первый шаг к автоматизации жизни.

Не упустите шанс оптимизировать свою жизнь с помощью современных технологий!

👉 Регистрируйтесь прямо сейчас и получите персонального ИИ-помощника уже сегодня!

Дата вебинара: 8 июля, 16:00 (МСК)

🎁 Бонус при регистрации: гайд «Как начать работать с ИИ?»
⚡️ Не упустите возможность освоить современные инструменты для оптимизации своей рутины!

Регистрируйтесь на бесплатный вебинар прямо сейчас!

Реклама. ООО «Альпина Диджитал» ИНН:7719841661
This media is not supported in your browser
VIEW IN TELEGRAM
Сравнение Apple AI и Samsung AI

Все модели обучали и обучают на всём, до чего могут дотянуться — без согласований, без разбора, без вопросов про приватность и копирайты. Главное дойти до цели. Так у нас появились ChatGPT, Claude, Grok и др.

У Apple, казалось бы, идеальная база — миллиарды фоток. Но их зацикленность на приватности, похоже, сыграла злую шутку. Да, они держат курс на безопасность данных. Благородно! Но пока они всё продумывают, рынок уже ушёл вперёд. На видео живой пример. Да, вероятно они докрутят, догонят, но как будто пока будут вечно в отстающих под соусом “да это было 10 лет назад в Андроид, но мы перепродумали и выкатили AI-фичу для смены цвета иконок по голосовому запросу и под ваше текущее настроение”.

Побеждают не те, кто осторожен. А те, кто готов быть первым несмотря ни на что 🎤
Please open Telegram to view this post
VIEW IN TELEGRAM
HTML Embed Code:
2025/07/06 02:50:01
Back to Top