Анализ файла robots.txt Индексация гугл.
У меня такая проблема, в гугле пишет что заблокированые url 124, из-за запрета в robots.txt а проиндексировано всего 68 станиц. И вот что там написано:
User-agent: *
Disallow: /a/
Disallow: /stat/
Disallow: /index/1
Disallow: /index/2
Disallow: /index/3
Disallow: /index/5
Disallow: /index/7
Disallow: /index/8
Disallow: /index/9
Disallow: /panel/
Disallow: /admin/
Disallow: /secure/
Disallow: /informer/
Disallow: /mchat
Disallow: /search
Disallow: /shop/order/
Sitemap: [ссылка заблокирована по решению администрации проекта]
Sitemap: [ссылка заблокирована по решению администрации проекта]
Sitemap: [ссылка заблокирована по решению администрации проекта]
подскажите как правильно составить robots.txt, и где его нужно исправить что бы индексировали все страницы?? ?
сайт [ссылка заблокирована по решению администрации проекта]