TG Telegram Group Link
Channel: Kantor.AI
Back to Bottom
Выступал на прошлой неделе в Вышке, а точнее поотвечал на сцене на вопросы Жене Соколову и студентам ВШЭ.

На фото мы с Женей Соколовым даем студентам автографы на видеокарте «чтобы лучше обучала» 😂 Никогда бы не подумал, что доживу до этого

Кстати некоторые вопросы из зала были довольно каверзные, так что я получил огромное удовольствие, пока давал ответ :)

Например, мой любимый вопрос: надо ли идти в компании, запускающие много новых направлений, ведь не все они взлетят, деньги будут потрачены, и потом придется резать косты (вместе с вашей вакансией). На сцене я дал один очевидный ответ, что ваша карьера зависит от ваших усилий, талантов и находчивости больше, чем от планов компании, потому что даже в период кризисов все равно есть люди, которые добиваются роста области ответственности и доходов. Кроме того, рассуждение «ой я такой хороший работал в компании, но продукт не взлетел» содержит очевидный пробел в логике. Ну работайте так, чтобы у продукта было больше шансов взлететь. Не все зависит от вас, но и самоустраняться так, что вы хорошо все делаете сами по себе, а продукт не летит сам по себе, не надо. Кроме того, менеджмент все же разделяет работу технических специалистов и руководителей, и если есть вера в то, что вы как раз были молодец и все делали классно, вас просто с руками оторвут в другой продукт компании.

Уже после мероприятия я понял, что у меня был пример на эту тему прямо на сцене, который я не догадался привести. Мы с Женей Соколовым были в Яндексе коллегами и работали в Yandex Data Factory, но когда YDF был близок к закрытию, прекрасно возглавили Data Science в Яндекс.Такси (я) и в тогда еще Яндекс.Дзене (Женя). Понадобилось ли нам самим найти себе применение в компании? Конечно да, нужно было пообщаться, узнать где что есть, договориться о переходе. Но никто нас никуда не уволил, всем было чем заняться, работы было вагон.
На поиск нужных каналов в Telegram может уйти очень много времени, поэтому ловите очередную папку каналов, на этот раз про ИИ:

https://hottg.com/addlist/pqfkNeFjRnU5NDFi

Особенно мне нравятся ребята Tips AI - там не про внутрянку ИИ (этого мне итак в жизни хватает), а посты про очередные нейросетевые сервисы, которые могут ускорить выполнение ваших задач

Ну и, конечно, куда без Саши Dealer.AI :)
Подкаст про технологии ИИ

Многие из вас в курсе, что я в этом году публикую второй сезон подкаста ТехТок, и этот сезон посвящен технологиям искусственного интеллекта. Цель - рассказать про важные для современного мира технологии на более широкую аудиторию, чем те, кто уже работает в AI. До сих пор подкаст был доступен только на YouTube, а теперь появился канал и на VK Видео, чтобы вы могли скинуть подкаст вашим родственникам и друзьям не из IT :)

VKвидео: https://vkvideo.ru/@kantortechtalk

YouTube: www.youtube.com/@KantorTechTalk

‼️Обязательно подписывайтесь и следите за новыми выпусками! В этом сезоне их будет еще шесть.

🎬Также вышел тизер подкаста с нашим следующим гостем, которого я уже несколько раз упоминал в канале за последнее время - с Александром Абрамовым :) Тема выпуска: большие языковые модели
Please open Telegram to view this post
VIEW IN TELEGRAM
Если вы хотите узнать о том, что происходит в сфере IT-менеджмента, как на самом деле создают продукты и прокачивают команды, то загляните на канал «Кем я хочу стать, когда вырасту».

Автор канал с 10+ опытом тимлидства в IT в формате заметок честно делится наблюдениями, успехами и провалами:
- о работающих методах мотивации команд
- стоит ли стремиться в руководители на самом деле
- почему на рынок выходит так много слабых продуктов

Реклама. ИП Миронова Надежда Олеговна, ИНН: 772985604739 erid:2VtzqvK2rLg
Media is too big
VIEW IN TELEGRAM
🔥Подкаст про большие языковые модели с Сашей Абрамовым

Опубликовал полную версию подкаста с Dealer.AI

YouTube: https://youtu.be/3ra-zgi-dIM
VKвидео: https://vkvideo.ru/video-228552366_456239026?list=ln-1rG35Aicro6zMIMOIK

Саша не только в значительной степени приложил руку к Сберовским LLM и GenAI, но и очень хорошо рассказывает. К просмотру строго обязательно :)
Please open Telegram to view this post
VIEW IN TELEGRAM
Как я учился ML

В новом ролике на канале MLinside рассказал, как я учился машинному обучению и что могу посоветовать тем, кто хочет научиться ML сейчас.

Меньше 15 минут видео (а на х1.5 даже 10 минут), и вы узнаете, хорошо ли идти за ML в университет, какие университетские курсы самые классные, а также в чем плюсы и минусы самообразования и коммерческих курсов :)
Кратко по сути: компании нанимают супер-дорогих технарей не для того, чтобы их календарь превращали в зебру, после которой ничего толкового сделано не будет. Если вы менеджер, и у вас есть опция поставить разрабу или DSу две встречи подряд либо две встречи с интервалом в час - выбирайте пожалуйста первое, иначе вы будете просто сжигать деньги бизнеса напрасно только потому что вы тупой 🫶🏼
Манагерский кейс
Как-то встречаю в курилке пару тех лидов и они дружно жалуются что не могут ничего делать руками – в их продукты командировали каналью-скрама и все время встречи отнимают. А сколько встреч в день в среднем? – ну две-три. Пинаю скрама чтобы обсчитала (и объясняю методологию – включать во время встречи еще полчаса после нее на то, чтобы врубиться что происходит) – бодро докладывает что встречи занимают только (!) 9-10% рабочего времени.
Примерный календарь слева

Пришлось проводить работу с PO, CPO, Scrum и прочими на тему что если между встречами час – то ничего закодить не успеешь и для человека, работающего головой а не только лишь ртом (то есть того кто учит модели и пишет код) такой календарь превращается в тот что справа.

И я таки тоже потратил полчаса чтобы объяснить как быть – до обеда дать людям спокойно кодить (0 встреч), после обеда – встречи. Или наоборот , главное чтобы минимум 4 часа подряд было на работу каждый день
Мораль: от перемены мест слагаемых сумма меняется еще как. И особенности психики человека игнорировать нельзя.
Ну что же, теперь есть легитимный повод красить все презентации в «согревающий коричневый оттенок»

Кстати, впервые с тем, чтобы презентации красили в цвет года Pantone и перерисовывали под современные дизайн-тренды (то неоновые цвета, то матовое стекло, то еще что-нибудь, каждый год новое) я встретился, когда ко мне в команду пришел сотрудник, ранее клепавший со своим отделом прототипы всяких AI штук в очень крупной компании. Когда KPI это количество успешно проведенных демонстраций и докладов председателю правления, форма порой становится важнее содержания, и подаче уделяется очень много внимания. Не могу сказать, что осуждаю - какой KPI, такое и исполнение.

Так что если у вас тоже есть KPI на количество успешных отсветов фейсом перед руководством - согревающий коричневый в этом году точно к вашим услугам.
‼️Интервью с руководителем Школы Анализа Данных Яндекса

🎤Опубликовали в YouTube канале интервью с Лешей Толстиковым. Много говорим об образовании, ШАДе и алгоритмах (нужны или не нужны, почему), ну и конечно же обсудили, как складывался карьерный трек самого Леши :)
#квиз
Что-то давно у нас не было квизов :) Задавайте свои ответы!
Ну что же, в последнем квизе, конечно, правильный ответ был [3], но раз он не зашел аудитории, вот вам вопрос поинтереснее.

Предыстория:
студент анализировал тексты классическими методами. В частности, строил признаковые описания на основе частот слов. После отображения выборки в пространство двух главных компонент студент получил такую замысловатую картинку. Глядя на нее, научрук сразу посоветовал не писать свои костыли, а пользоваться готовыми реализациями из библиотек, а также сразу сказал, где у студента ошибка.

Вопрос:
где у студента была ошибка?

Вопрос "со звездочкой": как может объясняться резкий перепад в графике рядом с 1200 по горизонтальной оси?

Пишите ваши версии в комментариях :)
Итак, ответ на вопросы успешно найден в комментариях. Т.к. на картинке датасет выстроился почти в непрерывную кривую, разность между координатами соседних текстов оказалась всегда маленькой. Это значит, что и в исходных признаках при переходе от текста к тексту признаки изменялись лишь чуть-чуть.

Очевидный способ достижения этого результата - забыть обнулять счетчики частот слов, что и сделал студент, о чем и догадался научрук. Пассаж про изучение библиотек был, конечно же, о том, что в sklearn есть готовые текстовые векторизации, которые можно взять из коробки и не накосячить таким образом. Тот факт, что студент забыл обнулять счетчики, проверяется легко: достаточно посмотреть на матрицу признаков, ведь к последнему тексту нулей уже, конечно же, не осталось.

Почему же возникали разрывы? Из-за плохой предобработки текстов были тексты с большим количеством всяких спецсимволов и слов, которые давали очень большой прирост к криво выделенным токенам. В частности, картина из предыдущего поста - это еще после фильтрации части таких спецтекстов. Без фильтрации получалась та, которую вы видите в прикрепленных к посту
HTML Embed Code:
2025/07/05 03:25:04
Back to Top