Поисковая оптимизация сайта: ищем дубли страниц

Поисковая оптимизация сайта: ищем дубли страниц
Поисковая оптимизация сайта: ищем дубли страниц

Одна из самых распространённых проблем при работе с сайтом с точки зрения поисковой оптимизации — это выявление и удаление дублей страниц и других ненужных документов. Этому и будет посвящён этот вебинар. Мы научимся работать со «Статистикой обхода» и архивами загруженных страниц, которые помогают находить дубли и служебные страницы. Также составим robots.txt для документов такого типа.
Другие вебинары из серии есть в программе: https://academy.yandex.ru/events/webmasters/msk-2017/

10 комментариев

  1. Я страницы для печати запретил мегатегом "name="robots" content="noindex,nofollow"". Или лучше через robots.txt это сделать?

  2. Что за туманное выражение "робот решает сам"? У него что, мозг есть? Он же принимает решения на основе написанных для него алгоритмов. И написали их спецаилисты Яндекса. Или его вам инопланетяне подогнали без инструкции. Детсад какой то про робота.

  3. Подскажите пожалуйста, если основная масса дублей имеет статус "Неканоническая" , как с ними работать?
    Спасибо

  4. А почему на какой-то странный канал залили? Нет официального канала Яндекса?
    И еще таймкоды было бы удобно писать в описании либо первым комментом.

  5. Видео про яндекс на сервисе гугла, ЛОЛ 🙂 Если что, у гегл поиска только первые три ссылки рекламные — весь остальной поиск — органический. У яндекса, проплаченной выдачей может быть даже 56я ссылка в поиске. Расходимся

  6. Один добрый человек подсказал, как смотреть подобное видео с увеличенной скоростью. Как же я ему благодарен!

  7. Это был отличный вебинар! Спасибо.
    Особенно объяснение про дубли страниц пагинации. Наконец все уложилось в уме по полочкам.

  8. А подскажите пожалуйста, если при поиске дублированных страниц в Яндекс Вебмастере при сортировке, нет слова Дубль — это значит что дублей нет?

Оставить комментарий

Ваш e-mail не будет опубликован. Обязательные поля помечены *