ПОЗВОНИТЬ

Всі забули про Ваш сайт? З аудитом цьому край!

Всі забули про Ваш сайт? З аудитом цьому край!

Аудит сайту - аналіз ресурсу на відповідність вимогам, що пред'являються пошуковими системами для здійснення подальшого пошукового просування, а також оцінка його зручності його використання і привабливості для користувачів.

 

Аудит сайтів від SEO-фахівців - пошуковий, технічний, юзабіліті сайту 

 

Як правило, аудит сайту включає в себе:

 

Технічний аудит дозволяє виявити помилки пов'язані з роботою хостингу та програмного коду сайту. Вирішення технічних проблем є фундаментом для подальшого успішного пошукового просування проекту.

 

Пошуковий або SEO-аудит виконується після проведення технічного аудиту і спрямований на виявлення та усунення помилок внутрішньої оптимізації.

 

Юзабіліті аудит дозволяє виявити проблеми, що перешкоджають ефективній взаємодії користувачів сайту з публікованим контентом і працюючим функціоналом, і, спрямований на підвищення конверсії. Джерело: beseller

 

Аудит сайтів від SEO-фахівців - пошуковий, технічний, юзабіліті сайту

 

Сьогодні ми поговоримо про технічний і SEO-аудит сайту

 

Технічний аудит

 

Помилки в коді HTML і CSS розмітки

Помилки в HTML і CSS призводять до неправильного відображення сторінок сайту, втрати позицій в пошуковій видачі і навіть потрапляння під фільтр пошуковиків.

 

Найпоширеніші помилки в HTML і CSS:

  • використовується не рекомендований тег;
  • не рекомендовані символи в посиланнях;
  • не вказано обов'язковий атрибут;
  • не закритий тег;

 

Сервіси для перевірки HTML і CSS сканують код і видають докладний звіт на предмет помилок.

  • HTML Validator
  • CSS Validator

 

Відправити код для перевірки сервісами можна за посиланням, Завантажити з файлу або скопіювати текст коду у відповідне поле.

 

Коректність кодування сторінок сайту

Через некоректне кодування контент сайту може відображатися неправильно. Крім того, що відвідувачам це не сподобається, сайт не проіндексується або потрапить під фільтр пошукових систем.

 

Щоб дізнатися кодування, подивіться відповіді сервера в спеціальних сервісах.

Про кодування повідомляє рядок Content-Type.

Content-Type: text/html; charset=utf-8 — говорить про те, що у вас кодування UTF-8.

Далі перевірте, чи відповідає кодування, яку відправляє сервер, реальному кодуванні сайту. Відкрийте вихідний код сторінки сайту і знайдіть рядок, що містить слово charset всередині тега head.

<meta http-equiv= "Content-Type"content=" text/html; charset=UTF-8 " > — на сторінці сайту використовується кодування UTF-8.

Якщо такого рядка немає, вставте рядок з кодуванням між відкриває і закриває тегом head, щоб вказати кодування сайту у файлі шаблону сайту.

Кодування Windows - 1251 і UTF-8 правильно відображають сайт і підтримують кириличні символи.

 

Помилка 404 Not Found

Сторінка помилки 404 відображається, коли відвідувач сайту намагається потрапити в неіснуючу частину ресурсу. Якщо у вас багато сторінок з помилкою 404, ваш сайт буде дратувати користувачів і впаде у видачі.

 

Чому користувачі потрапляють на неіснуючу сторінку:

  • сторінка переміщена або видалена, але залишилася в індексі пошуковика і користувач отримав на неї посилання у видачі;
  • сторінка переміщена або видалена, але на ресурсі залишилися внутрішні посилання на неї;
  • сторінка переміщена або видалена, але на неї посилаються сторонні ресурси;
  • помилка в адресному рядку браузера.

 

Оптимізація сторінки 404 відбувається в два етапи

 

  1. Зробіть так, щоб користувачі не потрапляли на неіснуючу сторінку

Перевірте сайт на» биті " посилання-внутрішні і зовнішні.

 

Для цього можна використовувати:

  • панелі вебмайстрів Google;
  • безкоштовну програму Xenu's Link Sleuth.

 

Використовуйте відразу кілька засобів, щоб напевно знайти всі неробочі посилання.

Визначте, що робити з кожною з «битих» посилань:

  • Якщо помилку видає сайт за зовнішнім комерційним посиланням, зв'яжіться з рекламодавцем і повідомте, що його сайт не працює;
  • Якщо сторінка за посиланням була переміщена, налаштуйте 301 редирект;
  • Якщо цільова сторінка внутрішнього посилання видалена, видаліть посилання або заповніть неіснуючу сторінку контентом. Про те, як оформити сторінку 404 — нижче.

 

Після виправлення посилань необхідно видалити неіснуючі сторінки з індексу пошукових систем. Це робиться засобами вже згаданих панелей вебмайстрів Google.

Щоб сторінка пішла з індексу, сервер при зверненні до неї повинен повертати помилку 404. Якщо сторінка існує, але не повинна брати участь у пошуковій видачі, закрийте її від індексації правилами robots.txt або мета-тегом noindex.

При наступному обході сайту роботом запити на видалення будуть виконані, а сторінки зникнуть з результатів пошуку.

 

  1. Створіть оригінальну сторінку 404 Not Found

Якщо користувач потрапить на неіснуючу сторінку, сервер покаже сторінку 404 за замовчуванням. У кращому випадку, це коротке пояснення, що Користувач "не туди потрапив" і реклама вашого хостера. Швидше за все, Користувач покине сайт, побачивши таку сторінку. Оригінальна сторінка 404 допоможе утримати відвідувача на сайті.

 

Вимоги до сторінки 404

  • Оригінальна сторінка 404 повинна відповідати дизайну та ідеї вашого сайту. Користувач повинен зрозуміти, що потрапив саме на ваш сайт;
  • Сторінка 404 не повинна бути "тупиковою". Розмістіть на ній посилання на основні розділи, пошук по сайту, посилання на групи в соцмережах;
  • Користувач повинен зрозуміти, чому він потрапив на неіснуючу сторінку. Додайте невелике текстове пояснення, довідкову інформацію, живий чат з техпідтримкою користувачів або форму зворотного зв'язку.
  • Смішні зображення, відеоролики, цікаві інтерактивні елементи допомагають згладити розчарування від потрапляння на сторінку 404.

 

Щоб вказати серверу, куди перенаправляти користувачів, якщо виникає помилка 404, використовується директива ErrorDocument у файлі .htaccess в кореневій папці сайту:

 

ErrorDocument 404 http://example.com/404.html

Де http://example.com/404.html -адреса вашої оригінальної сторінки 404.

Таким же способом за допомогою файлу .htaccess ви можете обробляти і інші помилки сервера:

401 помилка (ErrorDocument 401 http://example.com/page.html) - потрібна авторизація;

403 помилка (ErrorDocument 403 http://example.com/page.html) - Доступ заборонений;

500 помилка (ErrorDocument 500 http://example.com/page.html) - Внутрішня помилка сервера.

 

Швидкість завантаження сторінок

Низька швидкість завантаження сторінок не подобається ні користувачам, ні пошуковикам. Перевірити швидкість завантаження сторінок сайту можна за допомогою сервісу Google PageSpeed. Оптимальна швидкість завантаження сайту на десктопі-не більше 3 секунд, на мобільних пристроях — 7-9 секунд.

 

Як збільшити швидкість завантаження сторінок сайту?

  1. Скоротіть розмір коду CSS і JavaScript

Онлайн-сервіси для спрощення JavaScript і CSS видаляють з коду прогалини і коментарі, скорочуючи час його завантаження.

 

Радимо ці:

  • Refresh-SF
  • YUI Compressor
  • CSSResizer
  • JSCompress

 

Розміщуйте CSS-файли на початку сторінки, а JS-файли — перед закриваючим тегом body. До моменту відображення контенту сторінки браузер повинен завантажити тільки стилі, а скрипти — в останню чергу. Так користувач швидше побачить вміст сторінки. Якщо стилі теж перенести в низ сторінки, то розмітка після завантаження буде не Стилізована, до моменту завантаження стилів це буде виглядати негарно.

 

  1. Зменшіть обсяг завантажуваних сторінок

Використовуйте стиснення gzip, це скоротить час передачі файлів браузеру.

 

За замовчуванням конфігураційний файл Nginx називається nginx.conf і розташований в каталозі / usr/local/nginx /conf,/etc /nginx або/usr/local/etc / nginx. Для включення стиснення gzip в Nginx, додайте в цей файл ці рядки:

server {

....

gzip on;

gzip_disable "msie6";

gzip_types text/plain text/css application/json application/x-javascript text/xml application/xml application/xml+rss text/javascript application/javascript;

}

 

Nginx дозволяє регулювати рівень стиснення від 1 до 9 рядком: gzip_comp_level 5. Оптимальний рівень-5.

 

Для включення стиснення gzip в Apache переконайтеся, що підключений модуль mod_deflate. Далі, додайте в файл .htaccess наступні рядки:

 

AddOutputFilterByType DEFLATE text/plain

AddOutputFilterByType DEFLATE text/html

AddOutputFilterByType DEFLATE text/xml

AddOutputFilterByType DEFLATE text/css

AddOutputFilterByType DEFLATE application/xml

AddOutputFilterByType DEFLATE application/xhtml+xml

AddOutputFilterByType DEFLATE application/rss+xml

AddOutputFilterByType DEFLATE application/javascript

AddOutputFilterByType DEFLATE application/x-javascript

Перевірити працездатність і ступінь стиснення gzip вашого сайту можна за допомогою сервісу GIDZipTest.

 

  1. Оптимізуйте зображення

Оптимізуйте розмір зображення Під сайт. Не завантажуйте зображення на хостинг в дозволі 4000x3000, якщо відображатися воно буде в 800x600 без можливості збільшення по кліку.

 

Безкоштовні онлайн-сервіси для редагування зображень:

  • PicMonkey
  • Pixlr
  • BeFunky

 

Формат JPEG найкраще підходить для фотографій. PNG краще стискає однотонні ділянки і градієнти, підтримує прозорість. Використовуйте його для іконок, ілюстрацій та ін.

 

Досягніть балансу між стисненням і якістю зображення. Використовуйте максимально можливе стиснення, але стежте, щоб не було зайвої розмитості, пікселізації або артефактів.

 

Онлайн-сервіси для стиснення зображень:

  • CompressJPEG
  • PunyPNG
  • TinyPNG

 

Вкажіть ширину і висоту всіх зображень. Браузер відображає сторінку ще до завантаження зображень, якщо відомі розміри місця, яке зарезервовано для них. Вкажіть ці розміри, щоб прискорити завантаження сторінки і зробити її зручною для користувачів.

 

У будь-якій CMS можна вказати бажані ширину і висоту зображення в редакторі зображень. Якщо немає можливості використовувати інструментарій CMS, задайте за допомогою атрибутів width (ширина) і height (висота).

 

Приклад:

<img src="photo.jpg" width="640" height="480">

З обережністю використовуйте зображення для оформлення сайту. Скрізь, де це можливо, замість зображень користуйтеся CSS для створення фону.

 

  1. Увімкніть кеш даних

 

  1. Позбавтеся від зайвих редиректів

Скрізь, де можливо, позбудьтеся від редиректів, щоб відвідувачі сайту відразу прямували на потрібну сторінку. Редирект збільшує час завантаження сторінки, а пошукові системи можуть розцінити множинні перенаправлення як проблеми на сайті.

 

Використання редиректу виправдано у випадках, якщо адреси сторінок змінюються з технічних причин, для склеювання доменів з www і без www і для перенаправлення на мобільну версію сайту.

 

  1. Зменшіть кількість запитів до сервера

 

SEO-аудит

 

Налаштування файлу robots.txt

Robots.txt-текстовий файл, який містить параметри індексування сайту для роботів пошукових систем. Robots.txt не пустить пошукового робота на сторінки, які ви хочете закрити від індексації.

 

Як зробити файл robots.txt?

  1. У текстовому редакторі створіть файл з ім'ям robots.txt. Важливо! Всі букви в нижньому регістрі;
  2. Заповніть файл відповідно до правил і ваших вимог до індексування сайту. Важливо! Кодування файлу має бути UTF-8;
  3. Завантажте файл в кореневу директорію сайту.

 

Файл robots.txt використовує систему директив-правил, що задаються пошуковому роботу.

Формат рядка файлу robots.txt:

Директива: [пробіл]значення

Для коректної роботи robots.txt необхідно, щоб хоча б одна директива Disallow була після кожної вказівки User-agent.

Директиви для robots.txt:

"User-agent:" - основна директива robots.txt. Використовується для конкретизації пошукового робота, якому будуть даватися вказівки.

  • User-agent: Googlebot-всі команди, наступні після цієї Директиви, будуть стосуватися виключно індексуючого робота Google;
  • User-agent: * - звернення до всіх пошуковиків.
  • Після основної директиви «User-agent:» слідують конкретні команди:
  • "Disallow:" - директива заборони індексації в robots.txt. Забороняє пошуковому роботу індексувати веб-ресурс цілком або якусь його частину.
  • Disallow: / - сайт не буде індексуватися
  • Disallow: / forum-з індексації виключається папка " forum»
  • Disallow – - весь сайт відкритий для індексації

"Allow:" - директива дозволу індексації. За допомогою тих же самих уточнюючих елементів, але використовуючи цю команду в файлі robots.txt, можна дозволити індексує роботу вносити потрібні елементи сайту в пошукову базу.

Спецсимволи * і $

При вказівці шляхів директив Allow і Disallow можна використовувати спецсимволи * і$, щоб задати певні регулярні вирази.

* Спецсимвол * - означає будь-яку, в тому числі порожню, послідовність символів.

Disallow: /support/*.html-забороняє індексувати всі сторінки .html в директорії support.

За замовчуванням до кінця кожного правила, описаного у файлі robots.txt, приписується спецсимвол*. Рядки "Disallow: / example" і» Disallow: /example* " пошуковий Бот сприйме як ідентичні. Щоб скасувати * на кінці правила, можна використовувати спецсимвол $.

Disallow: / example$ - забороняє "/ example«, але не забороняє " /example.html».

"Sitemap:" - директива, що вказує індексує роботу шлях до файлу карти сайту. Допомагає пошуковому роботу швидше проіндексувати Карту сайту, щоб сторінки веб-сайту швидше потрапили в пошукову видачу.

User-agent: *

Sitemap: http://example.com/sitemap.xml

Згенерувати файл robots.txt для вашого сайту можна за допомогою даного сервісу.

Детальніше про robots.txt і всіх директивах чатайте в цій статті.

Про особливості взаємодії пошукового робота Google з файлом robots.txt читайте в довідкових матеріалах Google.

 

Канонічні URL

 

Іноді одна сторінка сайту може бути доступна за кількома адресами:

  • ru/statya1
  • ru/blog/statya1
  • ru/1/1

 

Чому одна сторінка може мати кілька URL:

  • Входження матеріалу відразу в кілька категорій;
  • Некоректна настройка CMS.

Роботи пошукових систем розпізнають ці адреси, як різні web-документи з однаковим змістом. Пошуковики можуть знизити у видачі дубльований контент.

Атрибут link вказує пошуковому роботу основну версію документа. Це потрібно для того, щоб:

  • посилальна вага коректно передавалася на потрібну версію сайту;
  • контент, доступний за кількома URL, індексувався і ранжирувався правильно;
  • не потрапити під санкції пошукачів через дублів.

Щоб вказати пошуковику канонічну сторінку, потрібно в код кожного дубля додати між тегами <head> і < / head> рядок:

<link rel="canonical" href="http://site.ru/statya1"/>

де http://site.ru/statya1 -URL сторінки, який повинен бути основним.

 

Важливо!

Обов'язково вказуйте повну адресу з http: / / і доменом.

Використовувати канонічні URL корисно, коли є багато сторінок зі схожим змістом, наприклад, інтернет-магазини. Якщо у вас є продукт різних кольорів з однаковими описами на окремих сторінках, ви можете вибрати найпопулярніший варіант в якості канонічної версії. Інші кольори будуть як і раніше доступні користувачам, але вага з зовнішніх посилань на них буде перенаправлятися на канонічну URL-адресу.

Детальніше про канонічні URL читайте в довідці Google

 

Склейка доменів з www або без

Технічно, домени з www і без www-це два різних ресурсу, пошукові системи індексують і ранжують їх окремо, а посилання матимуть різну вагу. Це може загрожувати:

  • зниженням в пошуковій видачі;
  • фільтром, тому що пошуковик може прийняти один сайт за дублікат іншого;
  • проблемами з авторизацією на сайті та іншим функціоналом, що використовують cookie.

Проблема вирішується 301 редиректом і зазначенням пошуковикам основного дзеркала. З точки зору просування сайту домен без www краще, тому що не є доменом третього рівня, а його довжина завжди буде менше.

У прикладі розглянуто цей варіант.

 

Як вказати основне дзеркало для Google

  1. Авторизуйтесь/зареєструйтеся в Google Search Console;
  2. Додайте ваш сайт, підтвердіть права, якщо не зробили це раніше;
  3. Натисніть на значок шестерінки і виберіть "Налаштування сайту";
  4. Вкажіть потрібний варіант в розділі "основний домен".

Google обробляє інформацію від доби до двох тижнів.

 

301 редирект

Важливо!

Приступайте до цього пункту тільки коли боти пошукових систем оброблять інформацію про основні дзеркалах, інакше ваш сайт може повністю випасти з пошукової видачі.

  1. Відкрийте / створіть в корені вашого сайту файл .htaccess
  2. Додайте рядки коду:

RewriteEngine on

RewriteCond %{HTTP_HOST} ^www\.(.*) [NC]

RewriteRule ^(.*)$ http://%1/$1 [R=301,L]

 

XML карта сайту

Sitemap.xml-файл з інформацією про сторінки сайту, що підлягають індексуванню. Файл повідомляє роботам пошукових систем:

  • які сторінки сайту потрібно індексувати;
  • як часто оновлюється інформація на сторінках;
  • індексування яких сторінок найбільш важливо.

Пошуковий робот може не знайти деякі сторінки або невірно визначити їх важливість: проблемними зазвичай стають динамічно створювані сторінки або сторінки, до яких веде довгий ланцюжок посилань. Файл Sitemap вирішує ці проблеми.

 

Вимоги до файлу Sitemap

  • Файл повинен розташовуватися на тому ж домені, що і сайт, для якого він складений і вказувати тільки на сторінки цього домену;
  • При зверненні до файлу сервер повинен повертати http-статус з кодом 200 OK;
  • Файл може містити не більше 50 000 URL, а розмір в нестисненому вигляді не повинен перевищувати 10 Мб. Якщо Sitemap не відповідає цим вимогам, розбийте його на кілька окремих файлів і вкажіть їх у файлі індексу Sitemap;
  • У файлі необхідно використовувати кодування UTF-8;
  • Посилання у файлі Sitemap повинні вказувати на сторінки, що знаходяться в тому ж каталозі або його підкаталогах, що і сам файл Sitemap.

Посилання, зазначені у файлі Sitemap, повинні використовувати той самий протокол, за яким доступний файл Sitemap.

Якщо файл Sitemap знаходиться на http://www.example.com/sitemap.xml, то він не може містити посилання типу https://www.example.com/page.html і ftp://www.example.com/file.doc.

Щоб повідомити пошуковим системам, де знаходиться Sitemap.xml, використовуйте директиву "Sitemap:" для robots.txt:

sitemap: http://example.com/sitemap.xml

 

Перш ніж приступати до SEO-аудиту, варто перевірити технічні помилки на вашому сайті і заздалегідь провести технічний аудит сайту, адже якщо у машини немає коліс, майстерність водія навряд чи допоможе дістатися куди-небудь.

 

МАЄТЕ ПИТАННЯ?