TG Telegram Group Link
Channel: MLinside - школа ML
Back to Bottom
🤖 🔮 Как ИИ изменит мир к 2027 году?

Будущее искусственного интеллекта уже не кажется таким далеким, как мы думали. Искусственный интеллект спасет нас или приведет к нашему краху? Будет ли развитие ИИ спасением или угрозой? — Эти вопросы ставит перед собой новый отчет AI 2027, созданный исследовательским проектом AI Futures Project.

👤 Кто стоит за этим проектом?
Дэниэль Кокотайло, исполнительный директор AI Futures Project, бывший сотрудник OpenAI. Он решился представить свою версию того, что будет с ИИ в будущем. В 2021 году Дэниэль Кокотайло попытался предсказать будущее ИИ, и многие из его прогнозов уже сбылись.

Отчет AI 2027, который основан на существующих исследованиях и экспертных оценках, дает нам картину того, что может случиться, если ИИ продолжит развиваться такими темпами.

Важные моменты из отчета:
🚀 Конец 2025 года: ИИ станет настолько мощным, что системы будут способны адаптироваться к новым задачам и работать на автопилоте. Это откроет новые возможности, но и создаст риски, связанные с потерей контроля.
🌍 Конец 2026 года: Китай начнет использовать ИИ-агентов для ускорения развития и проникновения на международные рынки. Это приведет к глобальной гонке за лидерство в области ИИ, где каждая страна будет бороться за технологическое превосходство.
💼 2027 год: Массовая автоматизация труда и увольнения — последствия ИИ для рабочего рынка. Рост экономики будет неравномерным: если одни страны и компании будут процветать, то другие окажутся на обочине.
⚠️ Конец 2027 года: В конце концов, мир столкнется с угрозой или примет решение замедлить развитие ИИ и усилить контроль за безопасностью. Это будет момент истины — когда человечество должно будет решить, как двигаться дальше.

🤔 Как вы считаете, насколько реалистичен прогноз, представленный в отчете AI 2027? Возможно ли, что ИИ действительно достигнет такого уровня развития уже в ближайшие несколько лет? И стоит ли нам беспокоиться?
💬 Внимание, опрос!

В последние месяцы вопросы о том, как ИИ будет влиять на профессии в области машинного обучения и анализа данных, становятся всё более актуальными.

Мы решили узнать ваше мнение! Поделитесь, как вы считаете — заменит ли ИИ специалистов в этих областях в ближайшие годы?

Давайте разберемся, что думает большинство! 🧐
Заменит ли ИИ в ближайшие 5 лет дата сайентистов и ML-инженеров?
Anonymous Poll
10%
Да, полностью заменит
35%
Нет, люди всегда будут нужны
55%
Частично, задачи будут делиться
🔥 Задачи с собеседований

Собеседование на ML-специалиста часто включает не только вопросы по алгоритмам и теории, но и глубокое понимание Python. А знание тонкостей языка может решить исход интервью!

Сегодня предлагаем вам разобрать задачи с реальных интервью. Наши ответы опубликуем в понедельник, а пока — проверьте себя и оставьте свои ответы в комментариях!

📌 Вопросы:

1️⃣В чём различие операторов “==” и “is” в Python? Что вернёт следующий код?
list_A = [1, 2, 3]
list_B = [1, 2, 3]
sample_A = None
sample_B = None

print(list_A == list_B)
print(list_A is list_B)
print(sample_A == sample_B)
print(sample_A is sample_B)


2️⃣Дополнительная задача повышенной сложности по знанию Python - что вернёт этот код и почему?
 A = 13
B = 13
print(A == B)
print(A is B)


#собеседование
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥 Ответы на задачи с собеседований

1️⃣В чём различие операторов == и is в Python? + Ответ на код

Ответ: True False True True

Оператор == сравнивает значения объектов, а оператор is проверяет, ссылаются ли переменные на один и тот же объект в памяти. Так как в Python None - это синглтон-объект, то есть в Python существует лишь один единственный None, то сколько бы мы не создавали переменных с этим значением, они все будут ссылаться на один объект в памяти, потому код "sample_A is sample_B" вернёт True


2️⃣Что вернёт код A = 13 B = 13 print(A == B) print (A is B), почему?

Ответ: True True

Потому что Python всегда хранит целые числа от -5 до 256 в памяти. Создавая объект с такими значениями вы будете ссылаться на уже выделенное место в памяти для данного значения. Потому в нашем примере A is B вернёт True. Если А и B оба будут равны 257, то A is B вернёт False. Это было сделано в Python для оптимизации работы языка, чтобы не выделять память на очень часто используемые значения при работе кода.

〰️〰️〰️〰️〰️〰️〰️〰️〰️〰️
Автор: Александр Дубейковский, специалист по ML, ex-Yandex

#собеседование
Please open Telegram to view this post
VIEW IN TELEGRAM
29–30 мая в Москве пройдет Aha!25 — одна из крупнейших технических конференций года для специалистов в области машинного обучения, аналитики и product-менеджмента!

Что вас ждет:
🟢Более 1200 участников — коллег, партнеров и потенциальных работодателей
🟢16 тематических потоков и 80+ докладов
🟢Выступления топ-экспертов из ведущих компаний: Яндекс, Авито, OZON, Альфа-Банк, Т-Банк и другие
🟢Выступления представителей научного сообщества из ИТМО, РЭШ, Центрального университета.
🟢Разбор реальных бизнес-кейсов и панельные дискуссии

Темы конференции:
🔵Интеграция LLM, ML и AI в цифровые сервисы
🔵Современные подходы к A/B-тестированию
🔵Оцифровка пользовательского опыта
🔵Машинное обучение в управлении продуктом
🔵Математическое мышление и поведенческая экономика

В мероприятии примет участие и команда MLinside: наш основатель Виктор Кантор выступит с докладом о задачах, за которые готовы и будут платить на рынке AI. 

Билеты можно приобрести на официальном сайте конференции. При использовании промокода MLINSIDEскидка 20% на все виды билетов!
Please open Telegram to view this post
VIEW IN TELEGRAM
🔁 Проблема Feedback loop в рекомендательных системах - Почему алгоритм может зациклиться и начать показывать тебе одно и то же?

Ты смотришь видос на YouTube → YouTube понял, что тебе понравилось → показывает похожие → ты снова смотришь → алгоритм думает что тебе это и надо показывать → И так по кругу.

🤖 Тем самым модель не может предложить что-то кардинально новое и усиливает уже существующие паттерны.

🎯 Какие бизнес-метрики
страдают из-за feedback loop:

1️⃣ Diversity (падает разнообразие контента) → падает интерес → снижается вовлечённость. Конкретные метрики - content diversity score, entropy of recommended items

2️⃣ User Retention (падает удержание пользователей) → пользователи не делают повторных визитов. Конкретные метрики - day 7 / day 30 retention, churn rate, MAU/DAU

3️⃣ Cold Start Problem усиливается - новым пользователям и новым продуктам тяжело попасть в рекомендации, теряется прибыль. Конкретные метрики - % новых категорий/товаров показанных пользователям в первые X дней, время до первого показа нового товара

🧠 Что с этим делают в индустрии? Решения, применяемые в YouTube, TikTok и Netflix:

1️⃣ Exploration/Exploitation trade-off - периодически рекомендуют что-то случайное/редкое, чтобы собрать новую информацию.
2️⃣ Policy-based ML - обучение моделей на основе reinforcment learning, оптимизируем не просто на клик/не клик, а на получение “награды” пользователем, которая повлияет на долгосрочные метрики и спровоцирует желаемое поведение пользователей.
3️⃣ Re-ranking с diversity penalty - после получения топ-N кандидатов, применяется переранжировка, которая штрафует за однотипность (например, если все видео с одного канала).

Вопрос для читателей - 🔍 Как в оффлайне заметить feedback loop? Пишите ваш ответ в комментариях👇

〰️〰️〰️〰️〰️〰️〰️〰️〰️〰️
Автор: Александр Дубейковский, специалист по ML, ex-Yandex
Please open Telegram to view this post
VIEW IN TELEGRAM
📱 Как YouTube решает, что тебе показать? —Рекомендательные системы в бизнесе

Задача рекомендаций занимает важное место как в YouTube, так в Яндекс.Музыке, на Wildberries, и даже в Яндекс.Такси. А решается она именно с помощью машинного обучения.

Рекомендательные системы являются одной из самых широких сфер применения ML. Как вы думаете - почему так? Ответы ждём в комментариях. 👇

Специфика бизнес-задачи - огромный объем данных о пользователях и контенте, множество критериев от лайков до геолокации, необходимость работать быстро в реальном времени.

Метрики качества - CTR (кликабельность), Watch Time, User Retention (возвращение пользователя), Engagement (вовлечённость - лайки, комменты и тд), Diversity (разнообразие рекомендаций).

Способы ML решений:
🔹Коллаборативная фильтрация — анализируют поведение похожих пользователей и рекомендуют, что понравилось им.Пример моделей: Matrix Factorization (ALS, SVD).
🔹Контентный анализ — изучают характеристики айтема (теги, заголовки, описание) и подбирают похожие. Пример моделей: TF-IDF, BERT, Мультимодальные модели.
🔹Более сложные - гибридные модели, модель обученные на последовательностях, модели с онлайн-обновлением.

Потенциальные сложности, которые нужно решить разработчику ML:
1️⃣ Холодный старт — как рекомендовать, если нет данных о новом пользователе или новом видео?
2️⃣ Обработка огромных данных в реальном времени — миллионы пользователей, миллионы видео и постоянные обновления.
3️⃣ Баланс между новизной и релевантностью — не показывать только популярное, но и давать шанс новым видео.
4️⃣ Избежание фильтров пузырей — чтобы не ограничивать пользователя только одним типом контента.
5️⃣ Этичные вопросы — не усиливать токсичный или вредный контент.
〰️〰️〰️〰️〰️〰️〰️〰️〰️〰️
Автор: Александр Дубейковский, специалист по ML, ex-Yandex
Please open Telegram to view this post
VIEW IN TELEGRAM
Вопросы и задача с собеседований 🔥

В очередной раз подготовили для вас несколько вопросов и задачу, которые могут встретиться на интервью!

💬 Наши ответы опубликуем в пятницу, а сейчас ждём ваших ответов в комментариях!

📌 Вопросы и задача:

1️⃣ Как оценить переобучение без тестовой выборки?

2️⃣ Как быть, если у модели высокий precision, но низкий recall, а заказчик хочет наоборот — максимум охвата, даже ценой ложных срабатываний?

3️⃣ Задача — чему будет равен ROC-AUC для следующих данных и предсказаний? Посчитать руками!

Истинная метка:
1 0 1 1 0
Предсказание модели - метка:
1 1 1 0 0
Предсказание модели - число:
0.9 0.8 0.7 0.4 0.3


#собеседование
📌 Ответы на вопросы и задачу с собеседований

1️⃣ Как оценить переобучение без тестовой выборки?
1. С помощью кросс-валидации - если метрики сильно меняются между фолдами, то скорее всего мы переобучились.
2. По разнице между значениями метрик и лосс-функции на train и validation датасетах. Ошибка на validation сильно больше чем на train, значит есть переобучение. Если на train ошибка тоже большая, значит недообучение.
3. Посмотреть насколько “уверенно” предсказывает наша модель - большие значения могут свидетельствовать о переобучении.


2️⃣ Как быть, если у модели высокий precision, но низкий recall, а заказчик хочет наоборот — максимум охвата, даже ценой ложных срабатываний?
Главное — понимать, какая цена у ложноположительных и ложноотрицательных ошибок в задаче, в зависимости от этого мы можем делать трейдофф между precision и recall-ом следующими способами:

1. Самоё лёгкое решение - понизить порог классификации, допустим раньше объект с предсказанием модели 0.5 и выше определялся как положительный класс, а теперь сделать порог 0.3, а не 0.5. Выбрать новый порог можно построив PR-кривую.
2. Решения посложнее - изменить функцию потерь, чтобы сильнее наказывать пропущенные положительные примеры, в современных моделях градиентного бустинга (CatBoost, XGBoost) можно придать больший вес классу гиперпараметром. Сделать больше сэмплов положительного класса, даже с помощью oversampling-а (используя SMOTE, sklearn, data augmentations)
3. Ещё более сложный, но работающий вариант - сделать ансамбль моделей, где одна будет ловить всё, что может быть положительным классом


3️⃣ Чему будет равен ROC-AUC для следующих данных и предсказаний?
Истинная метка:
1 0 1 1 0
Предсказание модели - метка:
1 1 1 0 0
Предсказание модели - число:
0.9 0.8 0.7 0.4 0.3

Ответ - 0.667. Как легко посчитать - мини-гайд от Дьяконова
〰️〰️〰️〰️〰️〰️〰️〰️〰️
Автор: Александр Дубейковский, специалист по ML, ex-Yandex

#собеседование
Please open Telegram to view this post
VIEW IN TELEGRAM
📣 Уже совсем скоро стартует Aha!25 — одна из крупнейших технических конференций по ML, AI, аналитике и продакт-менеджменту!

📍Когда: 29–30 мая
📍Где: Москва, кластер «Ломоносов» (МГУ)

Что вас ждет:
🔹 1200+ участников
🔹 80+ докладов
🔹 16 тематических потоков
🔹 Спикеры из Яндекса, Авито, OZON, Альфа-Банка, Т-Банка и других
🔹 Дополнительный онлайн-день 22 мая

🔥 Мы — партнеры конференции, помогли в организации секции по ML, в рамках которой вас ждет выступления на темы классических бизнес-задач, решённых с помощью ML, AI-предпринимательства и генеративного ИИ.

🎤 Кроме того, 29 мая основатель нашей школы и эксперт по Big Data & AI Виктор Кантор выступит с докладом и расскажет, какие задачи в AI действительно ценятся рынком — и за что готовы платить.

🎟 Билеты — на официальном сайте конференции
💥 Промокод MLINSIDE даст скидку 20% на скидка на онлайн- и офлайн-билеты!
💬Прошли демо-курс «База ML» на Stepik? Поделитесь впечатлениями!

В декабре мы открыли доступ к демо-версии нашего курса «База ML» на платформе Stepik, чтобы каждый мог оценить подачу материала, подход преподавателей и структуру обучения.

Если вы уже прошли демо-курс, нам важно узнать:
🔵Что было особенно полезно?
🔵Какие темы зашли лучше всего?
🔵Насколько удобно было проходить материалы?

📌 Будем признательны за ваш отзыв прямо на Stepik. Это поможет другим студентам принять решение, а нам продолжать улучшать курс и развивать культуру качественного обучения.

Демо-курс — это возможность познакомиться с ML на практике и оценить формат обучения в MLinside.

Если вы еще не проходили наш демо-курс — самое время начать!

👉 Ссылка на курс

Спасибо, что развиваетесь вместе с MLinside! Ваш отзыв поможет нам расти и становится еще лучше 🌟
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
▶️ На нашем YouTube-канале вышло интервью с Константином Чукреевым — Growth Product Lead в Manychat, ранее работал в Яндекс Лавке, где за короткий срок прошел путь от ML-разработчика до продакт менеджера уровня Middle+.

Константин рассказывает:
▪️ Как он переходил из аналитики и ML в продакт-менеджмент.
▪️ Какие задачи решал в Яндексе и Manychat.
▪️ Какие навыки нужны продактам и ML-специалистам для развития.
▪️Советы молодым специалистам по Data Science и ML
▪️ Будущее чатботов с ИИ и перспективы AI через 5–10 лет.
▪️ Как делать карьерный переход и кому стоит идти в продакт-менеджмент

🎯 Интервью для тех, кто хочет развиваться на стыке ML, аналитики и продукта.

🔥Спойлер: если вы хотите курс от MLinside и Константина специально для продакт-менеджеров — обязательно посмотрите это интервью!

👉 Смотреть здесь
Please open Telegram to view this post
VIEW IN TELEGRAM
Готовы проверить свои знания? ⚡️

Сегодня в нашем канале — новый квиз! Вопросы лёгкого уровня помогут освежить знания или узнать что-то новое.

Не пропустите, начнём совсем скоро! 👀 🧠

💥 СПОЙЛЕР: Если вы готовитесь к собеседованию на джуна в ML или просто хотите узнать, как это устроено изнутри — ждите отличную новость, которая совсем скоро появится в нашем канале!
Какой метод используется для автоматического подбора гиперпараметров модели?
Anonymous Quiz
17%
Градиентный спуск
78%
Grid Search или Random Search
2%
Линейная регрессия
3%
Преобразование признаков
Знакомая ситуация? 😅

Ожидания от модели — небесные, качество данных — под землей.

👇 Поделитесь в комментариях под мемом, какие самые странные вещи вы видели в датасетах.

#мемнедели
⚠️Приглашаем на наш вебинар!

У нас отличная новость — совсем скоро мы проведем mock-собеседование на позицию junior ML специалиста! У вас будет возможность задавать вопросы в ходе вебинара, проверить свои знания и готовность пройти собеседование или просто узнать о том, как проходят такие интервью и какие вопросы задают.

🗓️ Когда: 28 мая (среда), 19:00 (МСК)

Собеседование будет вести Виктор Кантор — основатель MLinside, эксперт по Big Data и AI, бывший Chief Data Officer МТС и Chief Data Scientist Яндекс.Такси

В роли кандидата — Илья Кустов, выпускник первого потока курса «База ML» и инженер в государственном учреждении. Илья решил сменить направление, потому что верит, что искусственный интеллект — это будущее человечества. Его привлекает работа с аналитической обработкой данных и точными науками, а также желание развиваться и расти в новой для себя сфере.

📚 Вебинар покажет, каких результатов можно добиться после обучения на курсе «База ML» и насколько он помогает подготовиться к реальным собеседованиям.

🔗 Регистрируйтесь по ссылке
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥Вопросы с собеседований

Мы снова подготовили для вас вопросы, которые часто встречаются на собеседованиях по ML 📚

Ответы мы опубликуем в понедельник, а пока ждем ваши варианты в комментариях! 💬

📌 Вопросы:

1️⃣ В чём разница между методами ансамблирования моделей: бэггинг и бустинг?
2️⃣ В каких случаях увеличение количества данных для обучения не поможет избежать переобучения?
3️⃣ Что такое прунинг деревьев? Зачем он нужен, и какие виды существуют?

#собеседование
HTML Embed Code:
2025/07/03 01:44:33
Back to Top