Изначально данная функция в Яндекс.Вебмастере создавалась дабы вы могли подтвердить, что ваша статья является первоисточником и ускорить ее индексацию. Каждый раз перед публикацией нужно было загружать тексты в специальную форму в панели вебмастера. И, не смотря на то, что это всегда вызывало ряд вопросов, я уже даже как-то привык к данной процедуре. Однако буквально несколько недель назад оригинальные тексты в Яндексе убрали. Что и как делать сейчас – об этом читайте ниже.
Всегда после обновления старых текстов блога я делаю повторную переиндексацию страниц сайта в ручном режиме. Это позволяет максимально быстро предоставить поисковикам актуальную исправленную версию веб-страницы, не дожидаясь появления поискового робота. Для выполнения задачи можно использовать специальные функции панелей вебмастеров Яндекс и Google. В последней недавно поменялся принцип работы и интерфейс, поэтому решил дополнить первоначальную версию статьи.
Изначально думал написать простой и легкий «пост выходного дня» об одной интересной штуке, которую недавно заметил в Google Search Console. Оказывается сейчас в панелях вебмастеров Яндекс и Google имеется автоматическая проверка ошибок в XML картах сайта. Раньше, помнится, для подобных целей использовались специальные сервисы, но теперь все стало гораздо проще.
В статье найдете не только описание ошибок, которые с их помощью можно отслеживать, я также решил дополнительно рассказать о том как добавить файл Sitemap в Яндекс Вебмастер и Google Search Console.
Недавно для одного сайта я добавил файл Sitemap в Яндекс.Вебмастер, а через некоторое время получил уведомление о найденных там ошибках. Если честно, слегка удивился такому заявлению, так как использовал проверенный и один из лучших плагинов в данной сфере — WordPress SEO by Yoast. Однако сервис Яндекса настаивал на своем:
При клике по этим 442 ошибкам я попал на страницу с результатами анализа, но вместо ошибок там почему-то отображались лишь предупреждения, которых оказалось еще и значительно меньше.
Недавно столкнулся с вопросом отображения списка (листинга) файлов блога на FTP через браузер. Вопрос немного неоднозначный, поэтому решил собрать по нему разную информацию и заодно опубликовать пост. В частности расскажу о том, как можно закрыть просмотр списка файлов через htaccess. Для примера взят WordPress блог, хотя все это справедливо для любой другой CMS и обычных сайтов.
Итак, допустим у вас установлен плагин Simple Tags, и, если вы вдруг решите зайти по ссылке http://ваш_сайт/wp-content/plugins/simple-tags то, скорее всего, увидите там следующую картинку:
В браузере отобразится листинг с FTP, где показаны все файлы, что находятся в конкретном каталоге.
Сервис Яндекс Вебмастер хорошо знаком всем, кто не первый год работает онлайн, будь то блоггер или оптимизатор. В нем можно глянуть результаты индексации своего сайта, проверить правила robots.txt, подключить нужный sitemap и т.п. Недавно разработчики запустили новую версию данной панели инструментов под адресу beta.webmaster.yandex.ru. Да, проект пока находится в бете, но там уже появилась парочка интересных нововведений. В общем, решил посмотреть что изменилось, и заодно поделиться с вами наблюдениями.
В интернете по одному и тому же направлению деятельности, будь то анализ или отслеживание позиций сайтов, автоматическая закупка ссылок и т.п., как правило, работает парочка разных сервисов. Кто-то запускается первым, другой копирует успешную идею, третий также хочет получить долю рынка, но через год закрывается. Все меняется. Сегодня расскажу о двух новых проектах для вебмастеров, которые…
Прошло больше года, и оба последних проекта все еще нормально работают. Правда активность немного немного поутихла, например, в IndexGator количество пользователей выросло в 5 раз, хотя задач в онлайне стало меньше.
Для начала немного предыстории. Был у меня небольшой сайт на 20-30 страниц, который я создавал в рамках обучения по сателлитам. Развитием его особо не занимался, но тексты там были уникальные, дизайн вполне нормальный, а ссылки не продавались. Тем не менее фильтр АГС-40 оказался к нему беспощадным:) Оно, в принципе, логично, пользы от того сайта для…
Недавно на Серче активно обсуждался массовый вылет сайтов из индекса, который впоследствии оказался новым фильтром АГС-40. Вообще АГС от Яндекса направлен на очистку выдачи от некачественных сайтов, которые ориентированы в первую очередь на продажу ссылок (интересно как с этим борется поиск DuckDuckGo у которого нет фильтров).
В общем, как это частенько бывает, результат применения АГС оказался не столь однозначным, как сама идея.
Недавно в процесс поиска разных вариантов для индексации страниц сайта я наткнулся на новый сервис IndexGator, который вроде как должен был решить эту задачу. Есть у меня один неплохой проект, который упорно не хочет «дружить с Яндексом»: и robotx.txt создал, и XML карту сайта настроил, и LetUsIndex с SeoBudget пробовал — ничего. Понимаю, что когда…