Аудит сайту - аналіз ресурсу на відповідність вимогам, що пред'являються пошуковими системами для здійснення подальшого пошукового просування, а також оцінка його зручності його використання і привабливості для користувачів.
Як правило, аудит сайту включає в себе:
Технічний аудит дозволяє виявити помилки пов'язані з роботою хостингу та програмного коду сайту. Вирішення технічних проблем є фундаментом для подальшого успішного пошукового просування проекту.
Пошуковий або SEO-аудит виконується після проведення технічного аудиту і спрямований на виявлення та усунення помилок внутрішньої оптимізації.
Юзабіліті аудит дозволяє виявити проблеми, що перешкоджають ефективній взаємодії користувачів сайту з публікованим контентом і працюючим функціоналом, і, спрямований на підвищення конверсії. Джерело: beseller
Сьогодні ми поговоримо про технічний і SEO-аудит сайту
Технічний аудит
Помилки в коді HTML і CSS розмітки
Помилки в HTML і CSS призводять до неправильного відображення сторінок сайту, втрати позицій в пошуковій видачі і навіть потрапляння під фільтр пошуковиків.
Найпоширеніші помилки в HTML і CSS:
Сервіси для перевірки HTML і CSS сканують код і видають докладний звіт на предмет помилок.
Відправити код для перевірки сервісами можна за посиланням, Завантажити з файлу або скопіювати текст коду у відповідне поле.
Коректність кодування сторінок сайту
Через некоректне кодування контент сайту може відображатися неправильно. Крім того, що відвідувачам це не сподобається, сайт не проіндексується або потрапить під фільтр пошукових систем.
Щоб дізнатися кодування, подивіться відповіді сервера в спеціальних сервісах.
Про кодування повідомляє рядок Content-Type.
Content-Type: text/html; charset=utf-8 — говорить про те, що у вас кодування UTF-8.
Далі перевірте, чи відповідає кодування, яку відправляє сервер, реальному кодуванні сайту. Відкрийте вихідний код сторінки сайту і знайдіть рядок, що містить слово charset всередині тега head.
<meta http-equiv= "Content-Type"content=" text/html; charset=UTF-8 " > — на сторінці сайту використовується кодування UTF-8.
Якщо такого рядка немає, вставте рядок з кодуванням між відкриває і закриває тегом head, щоб вказати кодування сайту у файлі шаблону сайту.
Кодування Windows - 1251 і UTF-8 правильно відображають сайт і підтримують кириличні символи.
Помилка 404 Not Found
Сторінка помилки 404 відображається, коли відвідувач сайту намагається потрапити в неіснуючу частину ресурсу. Якщо у вас багато сторінок з помилкою 404, ваш сайт буде дратувати користувачів і впаде у видачі.
Чому користувачі потрапляють на неіснуючу сторінку:
Оптимізація сторінки 404 відбувається в два етапи
Перевірте сайт на» биті " посилання-внутрішні і зовнішні.
Для цього можна використовувати:
Використовуйте відразу кілька засобів, щоб напевно знайти всі неробочі посилання.
Визначте, що робити з кожною з «битих» посилань:
Після виправлення посилань необхідно видалити неіснуючі сторінки з індексу пошукових систем. Це робиться засобами вже згаданих панелей вебмайстрів Google.
Щоб сторінка пішла з індексу, сервер при зверненні до неї повинен повертати помилку 404. Якщо сторінка існує, але не повинна брати участь у пошуковій видачі, закрийте її від індексації правилами robots.txt або мета-тегом noindex.
При наступному обході сайту роботом запити на видалення будуть виконані, а сторінки зникнуть з результатів пошуку.
Якщо користувач потрапить на неіснуючу сторінку, сервер покаже сторінку 404 за замовчуванням. У кращому випадку, це коротке пояснення, що Користувач "не туди потрапив" і реклама вашого хостера. Швидше за все, Користувач покине сайт, побачивши таку сторінку. Оригінальна сторінка 404 допоможе утримати відвідувача на сайті.
Вимоги до сторінки 404
Щоб вказати серверу, куди перенаправляти користувачів, якщо виникає помилка 404, використовується директива ErrorDocument у файлі .htaccess в кореневій папці сайту:
ErrorDocument 404 http://example.com/404.html
Де http://example.com/404.html -адреса вашої оригінальної сторінки 404.
Таким же способом за допомогою файлу .htaccess ви можете обробляти і інші помилки сервера:
401 помилка (ErrorDocument 401 http://example.com/page.html) - потрібна авторизація;
403 помилка (ErrorDocument 403 http://example.com/page.html) - Доступ заборонений;
500 помилка (ErrorDocument 500 http://example.com/page.html) - Внутрішня помилка сервера.
Швидкість завантаження сторінок
Низька швидкість завантаження сторінок не подобається ні користувачам, ні пошуковикам. Перевірити швидкість завантаження сторінок сайту можна за допомогою сервісу Google PageSpeed. Оптимальна швидкість завантаження сайту на десктопі-не більше 3 секунд, на мобільних пристроях — 7-9 секунд.
Як збільшити швидкість завантаження сторінок сайту?
Онлайн-сервіси для спрощення JavaScript і CSS видаляють з коду прогалини і коментарі, скорочуючи час його завантаження.
Радимо ці:
Розміщуйте CSS-файли на початку сторінки, а JS-файли — перед закриваючим тегом body. До моменту відображення контенту сторінки браузер повинен завантажити тільки стилі, а скрипти — в останню чергу. Так користувач швидше побачить вміст сторінки. Якщо стилі теж перенести в низ сторінки, то розмітка після завантаження буде не Стилізована, до моменту завантаження стилів це буде виглядати негарно.
Використовуйте стиснення gzip, це скоротить час передачі файлів браузеру.
За замовчуванням конфігураційний файл Nginx називається nginx.conf і розташований в каталозі / usr/local/nginx /conf,/etc /nginx або/usr/local/etc / nginx. Для включення стиснення gzip в Nginx, додайте в цей файл ці рядки:
server {
....
gzip on;
gzip_disable "msie6";
gzip_types text/plain text/css application/json application/x-javascript text/xml application/xml application/xml+rss text/javascript application/javascript;
}
Nginx дозволяє регулювати рівень стиснення від 1 до 9 рядком: gzip_comp_level 5. Оптимальний рівень-5.
Для включення стиснення gzip в Apache переконайтеся, що підключений модуль mod_deflate. Далі, додайте в файл .htaccess наступні рядки:
AddOutputFilterByType DEFLATE text/plain
AddOutputFilterByType DEFLATE text/html
AddOutputFilterByType DEFLATE text/xml
AddOutputFilterByType DEFLATE text/css
AddOutputFilterByType DEFLATE application/xml
AddOutputFilterByType DEFLATE application/xhtml+xml
AddOutputFilterByType DEFLATE application/rss+xml
AddOutputFilterByType DEFLATE application/javascript
AddOutputFilterByType DEFLATE application/x-javascript
Перевірити працездатність і ступінь стиснення gzip вашого сайту можна за допомогою сервісу GIDZipTest.
Оптимізуйте розмір зображення Під сайт. Не завантажуйте зображення на хостинг в дозволі 4000x3000, якщо відображатися воно буде в 800x600 без можливості збільшення по кліку.
Безкоштовні онлайн-сервіси для редагування зображень:
Формат JPEG найкраще підходить для фотографій. PNG краще стискає однотонні ділянки і градієнти, підтримує прозорість. Використовуйте його для іконок, ілюстрацій та ін.
Досягніть балансу між стисненням і якістю зображення. Використовуйте максимально можливе стиснення, але стежте, щоб не було зайвої розмитості, пікселізації або артефактів.
Онлайн-сервіси для стиснення зображень:
Вкажіть ширину і висоту всіх зображень. Браузер відображає сторінку ще до завантаження зображень, якщо відомі розміри місця, яке зарезервовано для них. Вкажіть ці розміри, щоб прискорити завантаження сторінки і зробити її зручною для користувачів.
У будь-якій CMS можна вказати бажані ширину і висоту зображення в редакторі зображень. Якщо немає можливості використовувати інструментарій CMS, задайте за допомогою атрибутів width (ширина) і height (висота).
Приклад:
<img src="photo.jpg" width="640" height="480">
З обережністю використовуйте зображення для оформлення сайту. Скрізь, де це можливо, замість зображень користуйтеся CSS для створення фону.
Скрізь, де можливо, позбудьтеся від редиректів, щоб відвідувачі сайту відразу прямували на потрібну сторінку. Редирект збільшує час завантаження сторінки, а пошукові системи можуть розцінити множинні перенаправлення як проблеми на сайті.
Використання редиректу виправдано у випадках, якщо адреси сторінок змінюються з технічних причин, для склеювання доменів з www і без www і для перенаправлення на мобільну версію сайту.
SEO-аудит
Налаштування файлу robots.txt
Robots.txt-текстовий файл, який містить параметри індексування сайту для роботів пошукових систем. Robots.txt не пустить пошукового робота на сторінки, які ви хочете закрити від індексації.
Як зробити файл robots.txt?
Файл robots.txt використовує систему директив-правил, що задаються пошуковому роботу.
Формат рядка файлу robots.txt:
Директива: [пробіл]значення
Для коректної роботи robots.txt необхідно, щоб хоча б одна директива Disallow була після кожної вказівки User-agent.
Директиви для robots.txt:
"User-agent:" - основна директива robots.txt. Використовується для конкретизації пошукового робота, якому будуть даватися вказівки.
"Allow:" - директива дозволу індексації. За допомогою тих же самих уточнюючих елементів, але використовуючи цю команду в файлі robots.txt, можна дозволити індексує роботу вносити потрібні елементи сайту в пошукову базу.
Спецсимволи * і $
При вказівці шляхів директив Allow і Disallow можна використовувати спецсимволи * і$, щоб задати певні регулярні вирази.
* Спецсимвол * - означає будь-яку, в тому числі порожню, послідовність символів.
Disallow: /support/*.html-забороняє індексувати всі сторінки .html в директорії support.
За замовчуванням до кінця кожного правила, описаного у файлі robots.txt, приписується спецсимвол*. Рядки "Disallow: / example" і» Disallow: /example* " пошуковий Бот сприйме як ідентичні. Щоб скасувати * на кінці правила, можна використовувати спецсимвол $.
Disallow: / example$ - забороняє "/ example«, але не забороняє " /example.html».
"Sitemap:" - директива, що вказує індексує роботу шлях до файлу карти сайту. Допомагає пошуковому роботу швидше проіндексувати Карту сайту, щоб сторінки веб-сайту швидше потрапили в пошукову видачу.
User-agent: *
Sitemap: http://example.com/sitemap.xml
Згенерувати файл robots.txt для вашого сайту можна за допомогою даного сервісу.
Детальніше про robots.txt і всіх директивах чатайте в цій статті.
Про особливості взаємодії пошукового робота Google з файлом robots.txt читайте в довідкових матеріалах Google.
Канонічні URL
Іноді одна сторінка сайту може бути доступна за кількома адресами:
Чому одна сторінка може мати кілька URL:
Роботи пошукових систем розпізнають ці адреси, як різні web-документи з однаковим змістом. Пошуковики можуть знизити у видачі дубльований контент.
Атрибут link вказує пошуковому роботу основну версію документа. Це потрібно для того, щоб:
Щоб вказати пошуковику канонічну сторінку, потрібно в код кожного дубля додати між тегами <head> і < / head> рядок:
<link rel="canonical" href="http://site.ru/statya1"/>
де http://site.ru/statya1 -URL сторінки, який повинен бути основним.
Важливо!
Обов'язково вказуйте повну адресу з http: / / і доменом.
Використовувати канонічні URL корисно, коли є багато сторінок зі схожим змістом, наприклад, інтернет-магазини. Якщо у вас є продукт різних кольорів з однаковими описами на окремих сторінках, ви можете вибрати найпопулярніший варіант в якості канонічної версії. Інші кольори будуть як і раніше доступні користувачам, але вага з зовнішніх посилань на них буде перенаправлятися на канонічну URL-адресу.
Детальніше про канонічні URL читайте в довідці Google
Склейка доменів з www або без
Технічно, домени з www і без www-це два різних ресурсу, пошукові системи індексують і ранжують їх окремо, а посилання матимуть різну вагу. Це може загрожувати:
Проблема вирішується 301 редиректом і зазначенням пошуковикам основного дзеркала. З точки зору просування сайту домен без www краще, тому що не є доменом третього рівня, а його довжина завжди буде менше.
У прикладі розглянуто цей варіант.
Як вказати основне дзеркало для Google
Google обробляє інформацію від доби до двох тижнів.
301 редирект
Важливо!
Приступайте до цього пункту тільки коли боти пошукових систем оброблять інформацію про основні дзеркалах, інакше ваш сайт може повністю випасти з пошукової видачі.
RewriteEngine on
RewriteCond %{HTTP_HOST} ^www\.(.*) [NC]
RewriteRule ^(.*)$ http://%1/$1 [R=301,L]
XML карта сайту
Sitemap.xml-файл з інформацією про сторінки сайту, що підлягають індексуванню. Файл повідомляє роботам пошукових систем:
Пошуковий робот може не знайти деякі сторінки або невірно визначити їх важливість: проблемними зазвичай стають динамічно створювані сторінки або сторінки, до яких веде довгий ланцюжок посилань. Файл Sitemap вирішує ці проблеми.
Вимоги до файлу Sitemap
Посилання, зазначені у файлі Sitemap, повинні використовувати той самий протокол, за яким доступний файл Sitemap.
Якщо файл Sitemap знаходиться на http://www.example.com/sitemap.xml, то він не може містити посилання типу https://www.example.com/page.html і ftp://www.example.com/file.doc.
Щоб повідомити пошуковим системам, де знаходиться Sitemap.xml, використовуйте директиву "Sitemap:" для robots.txt:
sitemap: http://example.com/sitemap.xml
Перш ніж приступати до SEO-аудиту, варто перевірити технічні помилки на вашому сайті і заздалегідь провести технічний аудит сайту, адже якщо у машини немає коліс, майстерність водія навряд чи допоможе дістатися куди-небудь.