Сегодня мы хотим объяснить, как отслеживать индексацию конфиденциальных PDF-файлов и блокировать их доступ роботу Googlebot . Вы понятия не имеете, о чем мы говорим?
Приведем пример:
Жил-был клиент, который продавал курсы как работает ботим? онлайн. Поскольку на сайте было плохое программирование , роботы Google проиндексировали внутренние PDF-файлы с классами этих курсов. В чем проблема? Что ж, продажи клиента падали : PDF-файлы должны были предоставляться пользователям как ответ на их запросы, и намерением было (очевидно) заставить их платить за них . Любой желающий мог найти PDF-файл в Google и скачать его бесплатно.
PDF-файлы занимают хорошие позиции .
Плохое программирование сайта может привести к снижению продаж .
Следует быть осторожным с инструментами, отслеживающими позиции : если мы не проверим, какой URL-адрес записывается, мы можем считать, что находимся на правильном пути, хотя на самом деле мы выбрасываем деньги на ветер.
Когда дело доходит до блокировки индексации PDF, не все является «большими данными»
С помощью Search Console мы можем получить много информации. В «Поисковом трафике» в «Поисковой аналитике» мы можем фильтровать страницы, содержащие PDF в своих URL-адресах: таким образом мы будем иметь представление о трафике , который достигает страниц PDF из поисковой системы . Здесь мы должны проверить, хотим ли мы заблокировать все PDF-файлы или хотим ли мы проиндексировать некоторые из них: например, в случае с продавцом курса может быть предоставлен бесплатный образец; резюме или введение.
трафик на сайт - заблокировать pdf
Графика с информацией о дорожном движении
Программный пинг-понг: как предотвратить индексирование PDF-файлов
Чтобы предотвратить индексирование PDF-файлов (или любой другой страницы на веб-сайте), Google предлагает несколько способов :
Метатег robots без индекса, расположенный в разделе <head> html-кода сайта:
<meta name="robots" content="noindex">
Если у нас нет доступа к серверу, его практически всегда можно применить из CMS , управляющей сайтом: это явное преимущество. Проблема в том, что это не работает для PDF-файлов, поскольку в них нет html-кода .
Удаление URL-адресов в Search Console . Этот метод частично решает проблему, но мы не рекомендуем использовать его для устранения коренной проблемы.
удалены URL-адреса - заблокировать PDF-файлы
Мета- файл robots.txt . Применить его просто, вам нужен только FTP-доступ к серверу сайта. В Search Console есть инструмент для проверки изменений, а затем загрузки окончательного файла robots.txt для загрузки в корень сайта. Просто добавив строку «Disallow:*.pdf» мы заблокируем доступ сканеру .
На этом примере мы можем сделать три вывода :
-
hasibaakterss3309
- Posts: 824
- Joined: Thu Jan 02, 2025 7:46 am