TG Telegram Group Link
Channel: MLinside - школа ML
Back to Bottom
📌 Ответы на вопросы с собеседований

1️⃣ В чём разница между следующими методами ансамблирования моделей: стэкинг и бустинг?
Бэггинг (bagging) обучает много моделей независимо друг от друга на разных подвыборках и усредняет результат — он снижает дисперсию (variance), не сильно влияя на смещение (bias).

Бустинг (boosting) обучает модели последовательно, каждая исправляет ошибки предыдущих — он снижаетсмещение (bias), но может увеличить дисперсию, особенно если переобучиться.


2️⃣ В каких случаях увеличение количества данных для обучения не поможет избежать переобучения?
Увеличение количества данных не поможет избежать переобучения, если модель слишком сложная для решаемой задачи — тогда она всё равно может подгонять шум в данных. Также, если новые данные не добавляют разнообразия (например, они из той же выборки и не покрывают новые случаи), переобучение сохранится. Кроме того, если данные остаются с теми же ошибками, увеличение объёма не решит проблему.


3️⃣ Что такое прунинг деревьев? Зачем он нужен, и какие виды есть?
Прунинг (обрезка) деревьев — это удаление лишних ветвей дерева, чтобы уменьшить переобучение и улучшить обобщающую способность модели.

Он нужен, потому что полностью выросшее дерево может подгоняться под шум и детали обучающей выборки.

Виды прунинга:

- Pre-pruning (ранняя остановка) — остановка роста дерева при достижении условий (например, макс. глубина, мин. число объектов в узле).
- Post-pruning (пост-обрезка) — сначала строится полное дерево, потом лишние ветви удаляются на основе кросс-валидации или прироста качества.

〰️〰️〰️〰️〰️〰️〰️〰️〰️〰️
Автор: Александр Дубейковский, специалист по ML, ex-Yandex

#собеседование
Please open Telegram to view this post
VIEW IN TELEGRAM
‼️Не упустите шанс — вебинар уже завтра!

Завтра, 28 мая в 19:00 (МСК), мы проведём mock-собеседование на Junior ML специалиста — уникальная возможность увидеть, как проходят настоящие собеседования, получить ценные инсайты и проверить свою готовность.

Собеседование будет вести Виктор Кантор — основатель MLinside, эксперт по Big Data и AI, бывший Chief Data Officer МТС и Chief Data Scientist Яндекс.Такси.

В качестве кандидата выступит Илья Кустов, выпускник первого потока курса «База ML» и инженер в госучреждении.

Регистрируйтесь сейчас и готовьтесь к настоящим собеседованиям с уверенностью!

🔗 Ссылка на регистрацию
Please open Telegram to view this post
VIEW IN TELEGRAM
🎉 Сегодня и завтра мы на Aha!25 — одной из крупнейших технических конференций по ML, AI, аналитике и продакт-менеджменту!

📍 Если вы тоже на Aha! — приходите знакомиться! У нас уютная зона (да, та самая с зеленым диваном), можно пообщаться про карьеру, обучение и узнать, как использовать ML, чтобы расти в профессии и приносить больше ценности бизнесу. А также поесть мандарины 🤫

📸 На фото — наш стенд. Заходите!
This media is not supported in your browser
VIEW IN TELEGRAM
🔥 Продолжаем рубрику “Вопросы с собеседований”!

Сегодня снова делимся вопросами, которые могут встретиться во время интервью на ML-позиции.

💬 Пишите свои ответы в комментариях, а наши ответы мы опубликуем в среду!

📌 Вопросы:

1️⃣ Как устроено/строится дерево решений?
2️⃣ Как оценить важность признаков?
3️⃣ Почему F1 метрика берёт именно среднее гармоническое от precision и recall, а не среднее, или среднее геометрическое к примеру?

📌Все прошлые вопросы в нашем канале ищите по хештегу #собеседование
Please open Telegram to view this post
VIEW IN TELEGRAM
📌 Ответы на вопросы с собеседований

1️⃣ Как устроено/строится дерево решений?
Дерево решений строится рекурсивно: на каждом шаге оно выбирает признак и порог, по которому лучше всего разделить данные, чтобы максимизировать "чистоту" разбиения (например, по информации, джини или снижению дисперсии).

Затем данные делятся на две части, и для каждой строятся поддеревья. Этот процесс продолжается до достижения заданной глубины, минимального количества объектов в узле или до тех пор, пока все объекты в узле не будут одного класса (для классификации).


2️⃣ Как оценить важность признаков?
Оценить важность признаков можно по-разному: в деревьях — по снижению импьюрити или permute importance, в линейных моделях — по коэффициентам. Но наиболее универсальный и надёжный метод — SHAP: он основан на теории игр, учитывает все взаимодействия, даёт как локальные, так и глобальные оценки и работает с любыми моделями. Лучше комбинировать несколько подходов для полноты картины.


3️⃣ Почему F1 метрика берёт именно среднее гармоническое от precision и recall, а не среднее, или среднее геометрическое к примеру?
F1 использует гармоническое среднее, потому что оно весьма строго наказывает дисбаланс между precision и recall: высокое значение возможно только если оба велики. Гармоническое среднее сильнее наказывает за перекос точности и полноты чем арифметическое или геометрическое средние, доказывается через неравенство Коши.


〰️〰️〰️〰️〰️〰️〰️〰️〰️
Автор: Александр Дубейковский, специалист по ML, ex-Yandex

#собеседование
Please open Telegram to view this post
VIEW IN TELEGRAM
Media is too big
VIEW IN TELEGRAM
🔥 На YouTube-канале MLinside вышли интервью с Валерием Бабушкиным — одним из самых узнаваемых экспертов в сфере ML и Data Science, Senior Director по Data & AI в BP (British Petroleum), автором книги Machine Learning System Design и Kaggle Competitions Grandmaster’ом.

Обсудили:
Чем отличается работа в российских и зарубежных компаниях — и что стало неожиданным при переходе.
Как устроен бигтех изнутри и какие у него плюсы и минусы.
Что выбрать: стартап или корпорацию? И в чём разница для DS-специалиста.
Какие качества и подходы действительно важны для роста в ML/DS.
Советы молодым специалистам: с чего начать и как продолжать расти.

👉 Смотреть первую часть
👉 Смотреть вторую часть
🚀 Как работает градиентный спуск и почему он так важен?

🎯 1. Что такое функция потерь и зачем она нужна?
Когда мы обучаем модель (например, нейросеть), она делает предсказания. Чтобы понять, насколько они точные, мы используем функцию потерь, которая показывает, насколько сильно модель ошибается. Наша цель — минимизировать эту ошибку.

🤔 2. Почему напрямую найти минимум сложно?
Функция потерь зависит от множества параметров модели (весов). Эту функцию потерь можно нарисовать на многомерном графике, тогда у нас получится гиперплоскость, с количеством координат равным количеству параметров модели. Найти самую низкую точку (минимум) на этой гиперплоскости вычислительно тяжёлая задача.

🔍 3. Что такое антиградиент?
Антиградиент в точке гиперплоскости — это вектор, противоположный градиенту, указывающий направление наибыстрейшего убывания функции потерь.

⬇️ 4. Как работает градиентный спуск?
Градиентный спуск — это метод, который шаг за шагом движется в сторону антиградиента. Каждый шаг — это обновление параметров модели (наших координат для графика функции потерь), которое приближает нас к минимуму функции потерь. Новые значения координат дают нам новые значения весов.

⚡️ 5. Почему шаг обучения (learning rate) важен?
Если шаг слишком большой — мы можем «перепрыгнуть» минимум. Если слишком маленький — обучение будет очень медленным.

🚀 6. Почему градиентный спуск важен?
Градиентный спуск обеспечивает стабильное движение к оптимальным решениям и делает обучение масштабируемым и управляемым. С его помощью тренируют все современные глубокие нейросети, и даже базовые модели МЛ.

〰️〰️〰️〰️〰️〰️〰️〰️〰️〰️
Автор: Александр Дубейковский, специалист по ML, ex-Yandex
Please open Telegram to view this post
VIEW IN TELEGRAM
🤖📚 Что такое RAG (Retrieval-Augmented Generation) и как он улучшает генерацию текста?

RAG — это гибрид двух моделей:
1️⃣ Retriever (Поисковая модель) — сначала берёт твой запрос и быстро ищет релевантные документы или фрагменты текста в большой базе данных. Для этого обычно используют векторное представление текста (эмбеддинги) и алгоритмы поиска по ним (например, FAISS).
2️⃣ Generator (Генеративная модель) — получает найденные тексты и вместе с исходным запросом генерирует ответ. В основе обычно лежит трансформер, например GPT или BART.

Зачем нужен RAG?
Большие языковые модели (LLM) вроде GPT-4 знают много, но:
- они не знают актуальной информации (после даты обучения)
- могут галлюцинировать (придумывать факты)
- не всегда надёжны в критичных задачах (здравоохранение, финансы, право)
RAG решает это: он не «вспоминает» ответ из памяти, а ищет реальные документы, а потом формирует ответ на их основе.
По сути RAG просто улучшает ваш prompt-запрос в LLM качественным и полноценным контекстом (если в базе есть нужные документы и удалось их найти).

Пример использования:
🔸 В чатботах, которые отвечают на вопросы по технической документации — вместо «угадывания» бот сначала ищет в документации нужный кусок, а потом уже объясняет.
🔸 В корпоративных базах данных — находит все нужные статьи по нужным темам, которые так тяжело найти, а потом даёт структурированный скомпонованный ответ по любому запросу, хоть даже зачастую статьи дублируют друг друга.
🚀 Например ответы чат-бота на госуслугах можно улучшить с помощью RAG, чтобы чат-бот не только выводил названия нужных страниц сервиса, но и давал интерпретацию для чего именно лучше подходит каждая из страниц.

〰️〰️〰️〰️〰️〰️〰️〰️〰️
Автор: Александр Дубейковский, специалист по ML, ex-Yandex
Please open Telegram to view this post
VIEW IN TELEGRAM
Готовы для нового квиза?🥳

Время проверить знания!

Начинаем 👀 🧠
Как называется процесс преобразования текстовых данных в числовой вид?
Anonymous Quiz
3%
PCA
56%
Векторизация
40%
Токенизация
2%
Градиентный спуск
Какой метод обучает ансамбль слабых моделей для повышения точности?
Anonymous Quiz
4%
Регрессия
7%
PCA
86%
Бустинг
4%
Оверфиттинг
Какой алгоритм обучения строит нелинейные разделяющие поверхности с помощью Kernel Trick?
Anonymous Quiz
6%
Логистическая регрессия
75%
Support Vector Machine (SVM)
3%
Линейная регрессия
17%
k-means
🤖 Парадокс ИИ: все боятся, что он всех заменит — но спрос на тех, кто умеет с ним работать, только растет!

По данным hh.ru, за последние 10 лет количество вакансий, связанных с анализом данных и ML, в России выросло почти в 30 раз. За последние 4 года — в 2,5 раза.

И это не просто стартапы — это банки, ритейл, телеком, логистика. Им нужны те, кто умеет работать с данными, строить модели и решать задачи бизнеса.

💼 ML-инженеры — среди самых высокооплачиваемых специалистов! Зарплаты Senior-специалистов в крупных компаниях доходят до 500–600 тыс. рублей в месяц.

⚡️ Главное — начать уже сейчас!

🧠 Если вы хотите войти в ML и подготовиться к первым собеседованиям на позицию Junior — не пропустите старт нашего курса «База ML».
Не пропустите видео-отзывы наших выпускников!

Если вы задумываетесь о входе в ML, но не уверены, с чего начать — послушайте тех, кто уже прошел этот путь с нами.

🗣 Артур Табиев — раньше работал аналитиком данных, но столкнулся с задачей прогнозирования продаж, где понадобились уже не просто цифры, а модели. Тогда он понял, что без технической базы в ML не обойтись.
Что его привлекло в MLinside? — сильный практический опыт преподавателей и внятная структура курса. Сейчас Артур точно знает: он хочет перейти из аналитики в машинное обучение.

🗣 Виктор Пономарёв — BI-аналитик в Сбере, в прошлом системный аналитик. Начал интересоваться ML после внутреннего воркшопа на работе. До курса учился сам, но рассказал, что самообучение — это вакуум: сложно понять, где ты, и что делаешь не так.
В MLinside он нашел не только грамотную подачу от профессионалов, но и поддержку менторов, адекватную нагрузку (от 2 до 10 часов в неделю), и главное — ощущение, что он движется в нужном направлении.

Всем советуем смотреть видео-отзывы на наш курс «База ML» — это честный взгляд изнутри от тех, кто уже начал свой переход в ML.

А вы готовы сделать шаг?
Вопросы с собеседований

Продолжаем нашу регулярную рубрику и помогаем подготовиться к собеседованию по ML.

Наши ответы на вопросы опубликуем в понедельник, а сейчас ждем ваших ответов в комментариях!

Вопросы:

1️⃣ Как обучается случайный лес?
2️⃣ Как модель CatBoost обрабатывает категориальные фичи?
3️⃣ Почему у линейной регрессии функция потерь именно квадратичная, а не кубическая, с четвертой или пятой степенью?

#собеседование
Ответы на вопросы с собеседований

1️⃣ Как обучается случайный лес?
Случайный лес обучается как ансамбль решающих деревьев, каждый из которых строится на бутстрап-выборке (рандомизированный сабсет обучающей выборки) с рандомным подмножеством признаков на каждом сплите. Это снижает корреляцию между деревьями и уменьшает дисперсию модели. Финальное предсказание — усреднение (регрессия) или голосование (классификация).


2️⃣ Как модель CatBoost обрабатывает категориальные фичи?
CatBoost обрабатывает категориальные фичи без явного one-hot или label encoding — он использует целевое кодирование с упорядоченными статистиками: для каждого объекта категория кодируется средним таргетом, рассчитанным на предыдущих примерах в случайной перестановке. Это снижает утечку таргета (target leakage) и переобучение. Также CatBoost автоматически генерирует комбинации категорий, улучшая захват взаимодействий.


3️⃣ Почему у линейной регрессии функция потерь именно квадратичная, а не кубическая, с четвертой или пятой степенью?
Квадратичная функция потерь у линейной регрессии выбрана за её гладкость, выпуклость и дифференцируемость, что гарантирует единственное оптимальное решение и удобство численной оптимизации (градиентный спуск, нормальное уравнение). Более высокие степени усложняют ландшафт функции, делают её менее устойчивой к выбросам и затрудняют обучение, без весомых преимуществ в стабильности или интерпретируемости. Кубическая функция при том ещё и несимметрична, что создаёт проблемы в работе с ошибками разного знака.

〰️〰️〰️〰️〰️〰️〰️〰️〰️
Автор: Александр Дубейковский, специалист по ML, ex-Yandex

#собеседование
Please open Telegram to view this post
VIEW IN TELEGRAM
Media is too big
VIEW IN TELEGRAM
На YouTube-канале MLinside вышло интервью с Татьяной Савельевой — лидером рейтинга Forbes «30 до 30» в категории «Наука и технологии» (2022), предпринимателем, создателем сервисов InfluAI и Flatsharing community, экс-CEO Yandex SupportAI и соосновательницей EVA AI.

Обсудили:
🔹Карьерный путь от МФТИ до работы в Сбере, Яндексе и стартапах
🔹Как осознать, что готов(а) к предпринимательству — и запустить свой продукт
🔹Что на самом деле делает CEO в крупной технологической компании
🔹Как трижды стать CEO до 30 лет и при этом справляться с синдромом самозванца
🔹 Советы начинающим в AI: как расти, не бояться перемен и добиваться повышения

Откровенный и вдохновляющий разговор о росте, выборе пути, стартапах и технологиях. Обязательно к просмотру всем, кто хочет расти в ML/AI и строить свой бизнес.
Не волнуйтесь, мы не выбираем между YouTube и Telegram — мы оставляем оба. А у вас отличный шанс повлиять на то, какие темы мы раскроем дальше!

MLinside — школа ML. Кроме создания курсов с нацеленным погружением в сферу мы публикуем образовательные материалы в наши соцсети.

Теперь у вас есть возможность влиять на наш контент — и в телеграм-канале, и на ютубе.

Что разобрать? Какие темы раскрыть? Что интересует и давно хотелось спросить, но было некому?

📌 Мы открыли форму, в которой вы можете предложить свои идеи:
— для постов в Telegram
— и для видео на YouTube

🔗 Оставить идею

Мы внимательно читаем каждое предложение и превращаем ваши идеи в контент, который помогает расти и развиваться!
Заметки — где сегодня применяется ML?

Отвечаем на один из самых частых запросов от нашей аудитории — делаем посты по вашим темам 💬

Вот лишь малая, основная часть сфер, где машинное обучение уже используется каждый день:
▪️ Рекомендательные системы — в маркетплейсах, стримингах и соцсетях
▪️ Кредитный скоринг и антифрод — в банках и финтехе
▪️ Оптимизация логистики — в доставке, ритейле, транспорте
▪️ Чат-боты и голосовые помощники — в поддержке и HR
▪️ Персонализированный маркетинг — сегментация и прогноз отклика
▪️ Компьютерное зрение — в ритейле, медицине, безопасности
▪️ Диагностика заболеваний — на основе изображений и медицинских данных
▪️ Динамическое ценообразование — в авиабилетах, e-commerce и такси
▪️ Генеративные модели — от текстов и картинок до кода и стратегий

ML проникает в десятки индустрий. И если вы планируете входить в эту сферу — важно понимать, где именно можно применить свои навыки.

Кстати, этот пост — по теме, предложенной подписчиками.
Если у вас тоже есть идея, о чем нам стоит написать или снять видео — вот форма для предложений:
🔗 Оставить свою тему

А ещё — совсем скоро мы анонсируем старт третьего потока курса “База ML”. Если вы только начинаете путь в ML и хотите уверенно подготовиться к своему первому собеседованию — не пропустите начало курса!
Для предзаписи на курс заполните анкету и мы с вами свяжемся.
HTML Embed Code:
2025/06/30 23:25:15
Back to Top