Channel: Максим Котёнков - SEO для бизнеса
Выскажу непопулярное мнение по поводу SEO и LLM поиска. Ключевое тут это все же, что в фразе "LLM поиск" есть слово поиск.
В американском Google появилась новая вкладка в поиске https://labs.google/ (в одном ряду с поиском по картинкам и видео). Это новый шаг в сторону ухода от 10 синих ссылок. На фоне этого пошла волна очередной смерти SEO.
Моё мнение по этому поводу:
LLM будут выводить вам результаты своих поисковых алгоритмов. Под которые нужно оптимизировать сайт. Инфопоиск заточенный под рекламу точно мертв, и слава Богу. Но возникает проблема источников свежей информации для LLM. Им как-то придётся всё же делиться или трафиком, или доходом от частоты показа сайтов в их результатах ответов. Останется блогинг и крупные издания.
Но коммерческий поиск останется и станет распределенным. Вместо оптимизации под Google и Яндекс будет оптимизация кучки LLM поисковиков.
Основные факторы ранжирования в AI поисковиках — это релевантность контента запросу и авторитет бренда. А эти штуки не берутся из воздуха. Нужно также понимать, что ищет аудитория, какая информация с наших коммерческих страниц выводится в ответ, как сделать так, чтобы выводился наш сайт, а не сайт конкурента.
Например, люди не перестанут искать юристов. Но будут это делать в GPT и более длинно, типа: "Найди и сравни 30 юристов по семейному праву, которые подойдут под мою задачу .....". И вот перед SEO стоит задачка попасть в эти 30 юристов, которых GPT отберет из 10 000.
Чтобы это понять, мы начнем проводить анализы, смотреть, что он берет, какие фрагменты, сайты. Если это агрегаторы, то регистрироваться в них. Если это личные сайты, то изучать, по каким критериям он их выбрал, и внедрять их на наши сайты.
Классическое SEO постепенно умрет, но оно переродится в поисковый маркетинг под AI алгоритмы. А это даже интереснее.
LLM коммерческий поиск — это слишком лакомый кусочек, чтобы отдать его просто на откуп случаю.
Важная идея, что в любом случае появляется маркетинговый канал, в который сеошникам будет очень легко войти и не остаться без работы. Остальное — это уже нюансы.
В американском Google появилась новая вкладка в поиске https://labs.google/ (в одном ряду с поиском по картинкам и видео). Это новый шаг в сторону ухода от 10 синих ссылок. На фоне этого пошла волна очередной смерти SEO.
Моё мнение по этому поводу:
LLM будут выводить вам результаты своих поисковых алгоритмов. Под которые нужно оптимизировать сайт. Инфопоиск заточенный под рекламу точно мертв, и слава Богу. Но возникает проблема источников свежей информации для LLM. Им как-то придётся всё же делиться или трафиком, или доходом от частоты показа сайтов в их результатах ответов. Останется блогинг и крупные издания.
Но коммерческий поиск останется и станет распределенным. Вместо оптимизации под Google и Яндекс будет оптимизация кучки LLM поисковиков.
Основные факторы ранжирования в AI поисковиках — это релевантность контента запросу и авторитет бренда. А эти штуки не берутся из воздуха. Нужно также понимать, что ищет аудитория, какая информация с наших коммерческих страниц выводится в ответ, как сделать так, чтобы выводился наш сайт, а не сайт конкурента.
Например, люди не перестанут искать юристов. Но будут это делать в GPT и более длинно, типа: "Найди и сравни 30 юристов по семейному праву, которые подойдут под мою задачу .....". И вот перед SEO стоит задачка попасть в эти 30 юристов, которых GPT отберет из 10 000.
Чтобы это понять, мы начнем проводить анализы, смотреть, что он берет, какие фрагменты, сайты. Если это агрегаторы, то регистрироваться в них. Если это личные сайты, то изучать, по каким критериям он их выбрал, и внедрять их на наши сайты.
Классическое SEO постепенно умрет, но оно переродится в поисковый маркетинг под AI алгоритмы. А это даже интереснее.
LLM коммерческий поиск — это слишком лакомый кусочек, чтобы отдать его просто на откуп случаю.
Важная идея, что в любом случае появляется маркетинговый канал, в который сеошникам будет очень легко войти и не остаться без работы. Остальное — это уже нюансы.
Please open Telegram to view this post
VIEW IN TELEGRAM
Media is too big
VIEW IN TELEGRAM
Быстрая визуализация архитектуры или схемы перелинковки сайта в Draw.io с помощью ИИ
Недавно мне было лень визуализировать схему перелинковки сайта. Если попросить это сделать ИИ, он напишет код на Python, сгенерирует схему и выдаст картинку, которую потом будет сложно (или невозможно) отредактировать и полноценно использовать. Genspark тоже может выдать интересный результат, но его также будет не отредактировать.
Немного подумав, я нашёл решение: использовать XML-схемы и Draw.io (app.diagrams.net). Это бесплатный инструмент (или сервис) для создания диаграмм и блок-схем, в который можно быстро импортировать XML-схему, сгенерированную ИИ.
Сам промпт довольно большой, поэтому я оставлю его в комментариях.
Остальное я показал на видео. Работает очень просто.
P.S. Забыл сжать видео перед отправкой. В комментах сжатый вариант.
Недавно мне было лень визуализировать схему перелинковки сайта. Если попросить это сделать ИИ, он напишет код на Python, сгенерирует схему и выдаст картинку, которую потом будет сложно (или невозможно) отредактировать и полноценно использовать. Genspark тоже может выдать интересный результат, но его также будет не отредактировать.
Немного подумав, я нашёл решение: использовать XML-схемы и Draw.io (app.diagrams.net). Это бесплатный инструмент (или сервис) для создания диаграмм и блок-схем, в который можно быстро импортировать XML-схему, сгенерированную ИИ.
Сам промпт довольно большой, поэтому я оставлю его в комментариях.
Остальное я показал на видео. Работает очень просто.
P.S. Забыл сжать видео перед отправкой. В комментах сжатый вариант.
Please open Telegram to view this post
VIEW IN TELEGRAM
Как не влететь на штрафы от РКН после 30 мая: чек-лист и генератор ТЗ
С 30 мая ужесточается законодательство о хранении и использовании персональных данных (в т.ч. числе и куки). И обязательно всем нужно подать уведомление в РКН. Штрафы до 300к. Суммарно можно поймать штрафов на миллионы. Плюс большой риск потребительского терроризма.
Навайбкодил вот такой занимательный чек-лист с генератором ТЗ-шки https://gemini.google.com/share/7245334530f4
+ Видео инструкция к нему с пояснением пунктов и функционала https://disk.yandex.ru/i/m_o_zPgQ4wV2BQ
Чек-лист решает несколько задач:
✅ В легкой форме донести, что нужно проверять и как.
✅ Сформировать ТЗ для клиента, что нужно сделать на его сайте, чтобы не получить штрафы и показать, какие это штрафы.
✅ Показать пример формы и подвала сайта, который все это учитывает.
Я потратил на это половину рабочего дня. Сам-то я разобрался быстро, но проблема в том, чтобы в простой форме донести до SEO-специалиста и клиента, зачем это проверять, как это проверять, как это внедрять и что будет, если не внедрить.
Делал чисто для команды, но решил поделиться на канале, так как тема серьезная и штрафы очень большие.
ТЗ выдается в формате MarkDown. Поэтому пришлось навайбкодить перевод из MarkDown в Word формат https://gemini.google.com/share/60924bb69738
С 30 мая ужесточается законодательство о хранении и использовании персональных данных (в т.ч. числе и куки). И обязательно всем нужно подать уведомление в РКН. Штрафы до 300к. Суммарно можно поймать штрафов на миллионы. Плюс большой риск потребительского терроризма.
Навайбкодил вот такой занимательный чек-лист с генератором ТЗ-шки https://gemini.google.com/share/7245334530f4
+ Видео инструкция к нему с пояснением пунктов и функционала https://disk.yandex.ru/i/m_o_zPgQ4wV2BQ
Чек-лист решает несколько задач:
Я потратил на это половину рабочего дня. Сам-то я разобрался быстро, но проблема в том, чтобы в простой форме донести до SEO-специалиста и клиента, зачем это проверять, как это проверять, как это внедрять и что будет, если не внедрить.
Делал чисто для команды, но решил поделиться на канале, так как тема серьезная и штрафы очень большие.
ТЗ выдается в формате MarkDown. Поэтому пришлось навайбкодить перевод из MarkDown в Word формат https://gemini.google.com/share/60924bb69738
Please open Telegram to view this post
VIEW IN TELEGRAM
Код генератора ТЗ.txt
42.4 KB
Код чек-листа про РКН если чек-лист не запускается по ссылке https://gemini.google.com/share/7245334530f4
Можете переписать этот код в Канвас Gemini (его там можно редактировать). Работать с ним и дорабатывать под себя.
Инструкция: закиньте код в диалог и попросите переписать его в Канвас. Обязательно нажмите это https://skr.sh/sVi0RrZGCrt
Можете переписать этот код в Канвас Gemini (его там можно редактировать). Работать с ним и дорабатывать под себя.
Инструкция: закиньте код в диалог и попросите переписать его в Канвас. Обязательно нажмите это https://skr.sh/sVi0RrZGCrt
Текстовый чек-лист для проверки соответствия сайта требованиям РКН https://docs.google.com/document/d/1nU3Uee6W7mt5gD8enwAj67W5IYcrBIwA7AO_qGQQG3c/edit?tab=t.0
Об AI-детекции, в частности на Text.ru: как она вообще работает и стоит ли ей доверять?
Мне пришлось докопаться до сути AI-детекторов и их принципов работы. Ожидается, что они производят какие-то свои расчеты.
Но в большинстве своем, они делают запрос к ИИ с промптом вроде: «Вот текст пользователя, оцени поабзацно на признаки генерации ИИ по следующим критериям; абзацы, не прошедшие AI-детекцию, выдели тегом <em>». А потом на сервере считают, сколько фрагментов ИИ выделил тегом, и выводят процент.
Это очень хорошо иллюстрирует новость о том, что ИИ признал Декларацию независимости США текстом, написанным языковой моделью: https://hottg.com/NeuralShit/6492. Почему? Потому что в LLM заложили промпт, согласно которому, если текст написан слишком гладко, то его писал ИИ.
Мой любимый пример
Посмотрите на скриншот, прикреплённый к посту. Абсолютно одинаковые тексты, но один я скопировал из LLM без разметки, а другой — с разметкой. А если передать тот же текст в формате JSON (скрин: https://skr.sh/sVrNf6XG85d), то он уже на 65% определяется как текст, написанный ИИ.
Почему это произошло? Потому что в промпт, который анализирует текст, не добавлены исключения из правил.
LLM не глупа. Ход её логики следующий:
— Я вижу характерную для LLM разметку. Но это Markdown-разметка, которую могут использовать и люди. Значит, здесь будет 30% вероятность того, что это текст от ИИ. О, а это Json. Люди редко его используют. Значит это написала ИИ с вероятностью 60%.
Стоит ли использовать?
Да, но... Наша цель — не добиться «чистого» от ИИ текста по мнению какого-то сервиса, а создать более-менее качественный, человечный текст, который понравится людям, что будут его читать. И здесь на помощь приходят AI-детекторы.
Например, в Text.ru, похоже, встроен действительно хороший промпт для определения «человечности» текста. Его можно использовать для того, чтобы собрать правила для генерации текстов. Как, спросите вы, их можно собрать, если он не даёт рекомендаций, а только подсвечивает проблемные места красным?
Я показал это в лекции из закрытого клуба, которую открыл для общего доступа: https://my.seomeat.ru/library/eWR6_Z3Dk0idamdiNNSBAw/O0eG9mhztkiHwwULVNJaDA
Из этого урока вы узнаете, как обходить любой детектор, если это вам важно, а, самое главное, научитесь «очеловечивать» тексты. Там не рыба, там удочка.
Мне пришлось докопаться до сути AI-детекторов и их принципов работы. Ожидается, что они производят какие-то свои расчеты.
Но в большинстве своем, они делают запрос к ИИ с промптом вроде: «Вот текст пользователя, оцени поабзацно на признаки генерации ИИ по следующим критериям; абзацы, не прошедшие AI-детекцию, выдели тегом <em>». А потом на сервере считают, сколько фрагментов ИИ выделил тегом, и выводят процент.
Это очень хорошо иллюстрирует новость о том, что ИИ признал Декларацию независимости США текстом, написанным языковой моделью: https://hottg.com/NeuralShit/6492. Почему? Потому что в LLM заложили промпт, согласно которому, если текст написан слишком гладко, то его писал ИИ.
Мой любимый пример
Посмотрите на скриншот, прикреплённый к посту. Абсолютно одинаковые тексты, но один я скопировал из LLM без разметки, а другой — с разметкой. А если передать тот же текст в формате JSON (скрин: https://skr.sh/sVrNf6XG85d), то он уже на 65% определяется как текст, написанный ИИ.
Почему это произошло? Потому что в промпт, который анализирует текст, не добавлены исключения из правил.
LLM не глупа. Ход её логики следующий:
— Я вижу характерную для LLM разметку. Но это Markdown-разметка, которую могут использовать и люди. Значит, здесь будет 30% вероятность того, что это текст от ИИ. О, а это Json. Люди редко его используют. Значит это написала ИИ с вероятностью 60%.
Стоит ли использовать?
Да, но... Наша цель — не добиться «чистого» от ИИ текста по мнению какого-то сервиса, а создать более-менее качественный, человечный текст, который понравится людям, что будут его читать. И здесь на помощь приходят AI-детекторы.
Например, в Text.ru, похоже, встроен действительно хороший промпт для определения «человечности» текста. Его можно использовать для того, чтобы собрать правила для генерации текстов. Как, спросите вы, их можно собрать, если он не даёт рекомендаций, а только подсвечивает проблемные места красным?
Я показал это в лекции из закрытого клуба, которую открыл для общего доступа: https://my.seomeat.ru/library/eWR6_Z3Dk0idamdiNNSBAw/O0eG9mhztkiHwwULVNJaDA
Из этого урока вы узнаете, как обходить любой детектор, если это вам важно, а, самое главное, научитесь «очеловечивать» тексты. Там не рыба, там удочка.
Я только что разработал структуру сайта на основе 761 группы запросов за один промт и без потерь
Год назад ИИ путался 100 строках, сегодня разложил 761 за одну попытку. Я сам удивился, но скрин не врёт — делюсь подробностями.
Что было на входе
▪️ 761 группа запросов с показателями частоты.
▪️ Цель — разнести эти группы по разделам и рубрикам так, чтобы ничего не потерять.
Чем пользовался
aistudio.google.com — это облачная «песочница» от Google, где можно запускать ИИ-модели бесплатно.
Шаги алгоритма
▪️ АИ получает список названий групп.
▪️ Определяет нишу сайта.
▪️ Создаёт базовую таксономию — простыми словами, «каркас»: разделы → категории → рубрики.
▪️ Уточняет детали, фильтрует дубли и раскладывает каждую группу на своё место.
▪️ На выходе я получаю готовую структуру в Markdown или CSV плюс аналитику.
Четвёртый уровень вложенности на скрине оказался лишним — трёх хватает с головой.
В ахренении ли я? Да!
Год назад ИИ путался и делал кашу.
Два месяца назад мне требовалось три итерации; теперь обновлённый Gemini справился за одну.
По времени это 5 минут. Любые ручные манипуляции с таким объемом запросов будут в рамках от 2 часов.
Для скептиков
Если вы всё ещё думаете, что ИИ — это попугай, повторяющий за человеком, удачи!
Хотите «рыбу», а не удочку?
Промт получился, конечно, солидный на 10к символов. Если вы изучаете промт инжиниринг, то повторить алгоримт несложно.
Но для тех кому нужна не удочка, а рыба, то приглашаю в свой закрытый клуб, где я все выкладываю не скрывая деталей. Обзор текущего содержимого, контент план на июнь, планы развития, формат оплаты описаны тут https://hottg.com/closedchannelkotenkov/14
Год назад ИИ путался 100 строках, сегодня разложил 761 за одну попытку. Я сам удивился, но скрин не врёт — делюсь подробностями.
Что было на входе
Чем пользовался
aistudio.google.com — это облачная «песочница» от Google, где можно запускать ИИ-модели бесплатно.
Шаги алгоритма
Четвёртый уровень вложенности на скрине оказался лишним — трёх хватает с головой.
В ахренении ли я? Да!
Год назад ИИ путался и делал кашу.
Два месяца назад мне требовалось три итерации; теперь обновлённый Gemini справился за одну.
По времени это 5 минут. Любые ручные манипуляции с таким объемом запросов будут в рамках от 2 часов.
Для скептиков
Если вы всё ещё думаете, что ИИ — это попугай, повторяющий за человеком, удачи!
Хотите «рыбу», а не удочку?
Промт получился, конечно, солидный на 10к символов. Если вы изучаете промт инжиниринг, то повторить алгоримт несложно.
Но для тех кому нужна не удочка, а рыба, то приглашаю в свой закрытый клуб, где я все выкладываю не скрывая деталей. Обзор текущего содержимого, контент план на июнь, планы развития, формат оплаты описаны тут https://hottg.com/closedchannelkotenkov/14
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from AI для людей
Как получить консультацию по AI бесплатно и без регистрации
Теперь можно делиться своими папками в NotebookLM — и я сразу выкладываю свою.
Там всё, что нужно, чтобы начать работать с ИИ уверенно: от азов до продвинутых промтов.
https://notebooklm.google.com/notebook/0081c6fa-7fdd-473e-9a87-dd6b879195c7
Как пользоваться:
1. Можете спросить, как AI может помочь в вашей профессии, учебе, жизни. И попросить привести примеры решения задач.
2. Попросите его выписать актуальные правила для промт инжениринга.
3. Попросите написать методичку на уровне языка подростка и с большим количеством примеров.
Вам не надо читать эти методички! Взаимодействуйте с чатом, который будет вытаскивать ответы на ваши вопросы из них за вас.
Теперь можно делиться своими папками в NotebookLM — и я сразу выкладываю свою.
Там всё, что нужно, чтобы начать работать с ИИ уверенно: от азов до продвинутых промтов.
https://notebooklm.google.com/notebook/0081c6fa-7fdd-473e-9a87-dd6b879195c7
Как пользоваться:
1. Можете спросить, как AI может помочь в вашей профессии, учебе, жизни. И попросить привести примеры решения задач.
2. Попросите его выписать актуальные правила для промт инжениринга.
3. Попросите написать методичку на уровне языка подростка и с большим количеством примеров.
Вам не надо читать эти методички! Взаимодействуйте с чатом, который будет вытаскивать ответы на ваши вопросы из них за вас.
Я научил AI продавать лучше себя (серьезно)
Я сделал неожиданную даже для себя вещь и сократил время на разработку коммерческого предложения (КП) с 3-4 до 1-2 часов.
Теперь стандартное КП занимает у меня 1 час, а то, над которым нужно серьезно подумать, — 2 часа. Раньше на это уходило минимум 3.
При этом выросло и качество оформления и наполнения.
Задача: с помощью AI связывать входящую аналитику, идеи и наши условия работы в персонализированные КП.
Я терпеть не могу КП в формате «аудит сайта + цена». Поэтому всегда готовлю индивидуальные предложения.
Цель: упростить себе жизнь, перестав описывать КП текстом, и сконцентрироваться только на аналитике и планировании.
Короче говоря, я - мозг, а AI - руки для описания и оформления.
Как это работает
Я написал промт, включающий две роли:
▪️ Роль «безумного» продавца. Он получает входные данные, инструкцию по составлению КП, условия работы и на основе всего этого должен подготовить связное коммерческое предложение для клиента.
▪️ Роль «придирчивого» клиента. Он получает КП от продавца и вносит свои правки.
▪️ Продавец получает правки и дорабатывает КП.
Этот цикл повторяется до тех пор, пока клиент не согласится купить услугу.
И это оказалось крайне эффективно! Мое лицо в этот момент будет в комментариях.
Инструменты
Отлично справляющиеся модели: Gemini 2.5 Pro, ChatGPT o3.
Результаты
Конверсия в продажу сохранилась на прежнем уровне, а время сэкономлено.
Промт
Делюсь с вами промтом продавца в открытой базе уроков: https://my.seomeat.ru/library/eWR6_Z3Dk0idamdiNNSBAw/-f4w13gL80uyyRGoEeLWLA
⭐️ Полный цикл разработки КП с AI от сбора информации до финального оформления, который позволил мне добиться поставленной цели, доступен по подписке в закрытом клубе (цена 3500 действует до конца июня, дальше будет 5к). Канал с анонсами https://hottg.com/closedchannelkotenkov.
Этот метод уже позволил одному из участников поднять чек на 20 000 рублей (отзыв).
Я сделал неожиданную даже для себя вещь и сократил время на разработку коммерческого предложения (КП) с 3-4 до 1-2 часов.
Теперь стандартное КП занимает у меня 1 час, а то, над которым нужно серьезно подумать, — 2 часа. Раньше на это уходило минимум 3.
При этом выросло и качество оформления и наполнения.
Задача: с помощью AI связывать входящую аналитику, идеи и наши условия работы в персонализированные КП.
Я терпеть не могу КП в формате «аудит сайта + цена». Поэтому всегда готовлю индивидуальные предложения.
Цель: упростить себе жизнь, перестав описывать КП текстом, и сконцентрироваться только на аналитике и планировании.
Короче говоря, я - мозг, а AI - руки для описания и оформления.
Как это работает
Я написал промт, включающий две роли:
Этот цикл повторяется до тех пор, пока клиент не согласится купить услугу.
И это оказалось крайне эффективно! Мое лицо в этот момент будет в комментариях.
Инструменты
Отлично справляющиеся модели: Gemini 2.5 Pro, ChatGPT o3.
Результаты
Конверсия в продажу сохранилась на прежнем уровне, а время сэкономлено.
Промт
Делюсь с вами промтом продавца в открытой базе уроков: https://my.seomeat.ru/library/eWR6_Z3Dk0idamdiNNSBAw/-f4w13gL80uyyRGoEeLWLA
Этот метод уже позволил одному из участников поднять чек на 20 000 рублей (отзыв).
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Проверка контента вашего сайта под AI поисковики
Цикл: Оптимизация сайта под генеративный поиск (SGE и GEO)
Начните анализировать то, как популярные генеративные поисковики формируют ответы на основе вашего сайта и какой контент они считают наиболее важным. Это поможет убедиться, что они «вытягивают» именно ту информацию, которая действительно важна.
Кейс: На скриншоте пример проверки сайта по продаже металлопроката. AI распознаёт в карточке товара две цены (без скидки и по скидке) и выбирает первую. Однако правильной должна быть вторая.
Аналогичная ошибка наблюдается и в Яндекс Нейро (поиск Алисы) пример будет в комментариях. И нейроответ там может выводиться по запросам "сколько стоит арматура такая-то", где мы заведомо проигрывает из-за ошибки чтения нашего контента AI и вывода цены без скидки.
Как править
В отличие от классического поиска, генеративные системы позволяют задать уточняющие вопросы и получить решение проблемы, а значит, есть возможность выявить и исправить такие ошибки. Возможных причин может быть вагон и так же куча способ исправить. В комментах приложу пример рекомендации по исправлению ошибки с 2 ценами.
Но основная причина это верстка страницы.
Если у вас сайт на JS, то делайте проверку обязательно.
Цикл: Оптимизация сайта под генеративный поиск (SGE и GEO)
Начните анализировать то, как популярные генеративные поисковики формируют ответы на основе вашего сайта и какой контент они считают наиболее важным. Это поможет убедиться, что они «вытягивают» именно ту информацию, которая действительно важна.
Кейс: На скриншоте пример проверки сайта по продаже металлопроката. AI распознаёт в карточке товара две цены (без скидки и по скидке) и выбирает первую. Однако правильной должна быть вторая.
Аналогичная ошибка наблюдается и в Яндекс Нейро (поиск Алисы) пример будет в комментариях. И нейроответ там может выводиться по запросам "сколько стоит арматура такая-то", где мы заведомо проигрывает из-за ошибки чтения нашего контента AI и вывода цены без скидки.
Как править
В отличие от классического поиска, генеративные системы позволяют задать уточняющие вопросы и получить решение проблемы, а значит, есть возможность выявить и исправить такие ошибки. Возможных причин может быть вагон и так же куча способ исправить. В комментах приложу пример рекомендации по исправлению ошибки с 2 ценами.
Но основная причина это верстка страницы.
Если у вас сайт на JS, то делайте проверку обязательно.
Please open Telegram to view this post
VIEW IN TELEGRAM
Валидация HTML-кода, как делать правильно по моему мнению.
Цикл: Оптимизация сайта под генеративный поиск (SGE и GEO)
Прежде чем начать говорить про семантическую верстку и теги <article>, <nav>, <aside>, нужно разобраться с валидацией HTML-кода.
Одно из самых дебильных, что может сделать SEO-шник — это зайти на validator.w3.org, сделать валидацию и скинуть ее разработчику со словами «на, правь». Второе по дебильности — это просканировать сайт Лабрикой и скинуть весь пункт с 1 млн ошибок валидации. Третье это когда скидывают ошибки валидации для Тильды. Четвертое это когда ошибки валидации выносят в ТОП приоритет для пустого сайта без контента и так далее, ну вы поняли, потому-что в Лабрике это критическая проблема.
Я прям чувствую, как разработчики сгорают на таких задачах и начинают ненавидеть сеошников. Напишите в комментах, если вы разработчик и замучались плеваться от таких правок.
Я не знаю, как с этим бороться полностью, и в команде всегда бью по рукам за такие задачи. Но они всегда пробиваются. Обращаюсь к представителям Labrika (Лабрика) если вы мониторите соц. сети, умоляю, уберите валидацию HTML кода из критических багов или как-то распределите их. Даже лучше в отдельный пункт убрать "Ошибки валидации" и там сделать приоритеты от критических, до неважных. Там всегда есть и будет миллион ошибок.
Это серьезно портит сводку отчета. Видишь 1245 ошибки критические на сайте. Заходишь, там 1243 ошибки валидации и 2 битые картинки.
Хватит крика души!
Как сделать ТЗ на правку валидации нормально?
Нужно править только те пункты, что будут мешать машине правильно понимать код вашего сайта и смысл находящегося на ней. Т.е. нарушать правила семантической верстки.
Но зачем разбираться в этом самому, если у нас есть AI?
Шаг 1. Берем выгрузку из validator.w3.org и код вашей страницы. Закидываете это все в вашу любимую AI. И просите выделить ошибки, которые мешают нормальному семантическому чтению страницы.
Шаг 2. Просим составить ТЗ для разработчика с примером неправильного кода и как должно быть правильно. Мы дали код нашего сайта, поэтому AI напишет не абстрактное ТЗ, а под ваш конкретный пример.
Вуаля, разработчики будут вам руки целовать за такую постановку. Даже если баг нельзя пофиксить. Вам будут говорить: "Вот до тебя у нас был Вася. Он скинул просто список. А в тебе мы видим совершенно другое отношение к работе." Вы станете примером для детей. Вас будут звать выступать на конференции.
Цикл: Оптимизация сайта под генеративный поиск (SGE и GEO)
Прежде чем начать говорить про семантическую верстку и теги <article>, <nav>, <aside>, нужно разобраться с валидацией HTML-кода.
Одно из самых дебильных, что может сделать SEO-шник — это зайти на validator.w3.org, сделать валидацию и скинуть ее разработчику со словами «на, правь». Второе по дебильности — это просканировать сайт Лабрикой и скинуть весь пункт с 1 млн ошибок валидации. Третье это когда скидывают ошибки валидации для Тильды. Четвертое это когда ошибки валидации выносят в ТОП приоритет для пустого сайта без контента и так далее, ну вы поняли, потому-что в Лабрике это критическая проблема.
Я прям чувствую, как разработчики сгорают на таких задачах и начинают ненавидеть сеошников. Напишите в комментах, если вы разработчик и замучались плеваться от таких правок.
Я не знаю, как с этим бороться полностью, и в команде всегда бью по рукам за такие задачи. Но они всегда пробиваются. Обращаюсь к представителям Labrika (Лабрика) если вы мониторите соц. сети, умоляю, уберите валидацию HTML кода из критических багов или как-то распределите их. Даже лучше в отдельный пункт убрать "Ошибки валидации" и там сделать приоритеты от критических, до неважных. Там всегда есть и будет миллион ошибок.
Это серьезно портит сводку отчета. Видишь 1245 ошибки критические на сайте. Заходишь, там 1243 ошибки валидации и 2 битые картинки.
Хватит крика души!
Как сделать ТЗ на правку валидации нормально?
Нужно править только те пункты, что будут мешать машине правильно понимать код вашего сайта и смысл находящегося на ней. Т.е. нарушать правила семантической верстки.
Но зачем разбираться в этом самому, если у нас есть AI?
Шаг 1. Берем выгрузку из validator.w3.org и код вашей страницы. Закидываете это все в вашу любимую AI. И просите выделить ошибки, которые мешают нормальному семантическому чтению страницы.
Шаг 2. Просим составить ТЗ для разработчика с примером неправильного кода и как должно быть правильно. Мы дали код нашего сайта, поэтому AI напишет не абстрактное ТЗ, а под ваш конкретный пример.
Вуаля, разработчики будут вам руки целовать за такую постановку. Даже если баг нельзя пофиксить. Вам будут говорить: "Вот до тебя у нас был Вася. Он скинул просто список. А в тебе мы видим совершенно другое отношение к работе." Вы станете примером для детей. Вас будут звать выступать на конференции.
Бот для анализа фидов Яндекс Товаров на GPT
Сижу пишу чек-лист на аудит Яндекс Товаров и понимаю, что куча рутины, которую никто сам проверять не будет. В промт это тоже не уместишь. Решение - GPT бот с системным промтом на 8к символов + приложенная вся справка Яндекс Товаров.
https://chatgpt.com/g/g-685cee3e022c8191a72720eaeec90b3d-audit-fida-i-magazina-v-iandeks-tovary
Сценарий 1. Анализ фида
Напишите проблему "фид не показывается в поиске", "мало показов фида" + файл фида или копия фрагмента кода если фид слишком большой.
Сценарий 2. Консультант
Попросите бота провести консультацию по принципу продвижения в Яндекс Товарах.
Закиньте в бота фид, скрины вашего магазина с Яндекс Товаров, отзывы и так далее.
Сценарий 3. Гибрид
Сначала загружаем фид и делаем аудит. Потом даем скрины из магазина, товарной выдачи, где вы хотите конкурировать, объединенных карточек. И просите провести общую консультацию, как вам начать показываться больше и собирать больше кликов.
Наслаждайтесь реальными рекомендациями по конкретно вашему фиду. Это позволит написать вам подробное ТЗ на исправление с примерами по конкурентному сайту, что ускорит правку -> рост органики по товарам.
P.S. Это не отменяет, что справку нужно читать и писать в поддержку если есть проблемы с показами.
Сижу пишу чек-лист на аудит Яндекс Товаров и понимаю, что куча рутины, которую никто сам проверять не будет. В промт это тоже не уместишь. Решение - GPT бот с системным промтом на 8к символов + приложенная вся справка Яндекс Товаров.
https://chatgpt.com/g/g-685cee3e022c8191a72720eaeec90b3d-audit-fida-i-magazina-v-iandeks-tovary
Сценарий 1. Анализ фида
Напишите проблему "фид не показывается в поиске", "мало показов фида" + файл фида или копия фрагмента кода если фид слишком большой.
Сценарий 2. Консультант
Попросите бота провести консультацию по принципу продвижения в Яндекс Товарах.
Закиньте в бота фид, скрины вашего магазина с Яндекс Товаров, отзывы и так далее.
Сценарий 3. Гибрид
Сначала загружаем фид и делаем аудит. Потом даем скрины из магазина, товарной выдачи, где вы хотите конкурировать, объединенных карточек. И просите провести общую консультацию, как вам начать показываться больше и собирать больше кликов.
Наслаждайтесь реальными рекомендациями по конкретно вашему фиду. Это позволит написать вам подробное ТЗ на исправление с примерами по конкурентному сайту, что ускорит правку -> рост органики по товарам.
P.S. Это не отменяет, что справку нужно читать и писать в поддержку если есть проблемы с показами.
HTML Embed Code: