Постраничный вывод записей из бд php. Постраничный вывод контента в браузер. PHP класс Paging для постраничной разбивки
Если рассмотреть причины, по которым сайты резко начинают терять трафик, то их можно разделить на 3 основные группы: алгоритмические, внутренние и внешние. К первым относится изменение алгоритмов поисковых систем, на которые мы не можем повлиять. На все остальные причины мы осознанно или неосознанно влияем. И если с осознанным влиянием все более-менее понятно, тут все зависит от степени осведомленности и здравомыслия оптимизатора, то серьезной проблемой является незнание, что там происходит с сайтом.
Один из примеров: мой заброшенный сайт взломали и разместили вредоносный код, позже подтвердили права на домен в панелях для вебмастеров и загнали в индекс кучу спамных страниц. Узнал я об этом только из уведомления панели, когда Google прислал сообщение “вы предоставили доступ к сайту…”. Понятное дело, что трафик из поиска на сайт пропал из-за снижения доверия. Если бы я мог быстро отследить изменения в коде страниц, то среагировал бы оперативней. В моем случае сайт был заброшен, но у многих живых сайтов происходят аналогичные ситуации со взломом и бизнес может терпеть большой ущерб.
Есть много других примеров, когда над сайтом работает команда и один человек из команды не всегда знает, что делает второй. И еще интересней, когда все изменения в коде затираются после обновления CMS . Так было с моими знакомыми, которые больше года не могли выпустить новую версию сайта, так как закрытые таски переоткрывались после очередных обновлений и правок (делали одно, другое ломалось и наоборот). И здесь хорошо, когда в тестовом режиме можно все это узнать, но что делать, когда вы уже выкатили проект в паблик и через неделю автоматом в целях безопасности обновили CMS или какой-то плагин?
Ответ очевиден - необходимо мониторить изменения на сайте. Особенно это актуально для больших проектов, и особенно там, где над проектами работает несколько человек. Хотя, я рекомендую всем это делать. Хотя бы изредка, чтобы застраховать себя от разных несчастных случаев. С помощью мониторинга вы сможете вовремя отреагировать на ненужные (или слетевшие) изменения на сайте, плюс сможете лучше понимать причины резких изменений позиций сайта или его отдельных страниц.
Что именно мониторить?
В идеале нужно мониторить всё 🙂 но возникает много нюансов для сайтов с динамическим контентом, поэтому лучше сконцентрировать внимание на важных участках:
- Тег TITLE и H1
- Мета-тег description
- Выделенные участки контента
- HTTP код статуса
- Файл robots.txt
Полезно будет также отслеживать мета-тег robots и канонические ссылки (rel canonical).
Можно ли это автоматизировать и как?
Постоянно отслеживать изменения вручную это неблагодарное занятие. Мониторинг необходимо автоматизировать, и смотреть в отчеты лишь тогда, когда один из отслеживаемых параметров изменяется.
Для автоматизации этого процесса имеется несколько инструментов. Один из них свежий, от компании Mail.ru - SeoSan . Плюсы в том, что сервис бесплатный, помимо мета-тегов отслеживает изменения файла robots.txt. Минусы в ограничениях на количество страниц (максимум можно добавить 50 страниц), и вы не можете мониторить сайты, владение которыми не подтвердите. А хотелось бы отслеживать изменения и конкурентов в том числе.