Тёмный

Robots.txt. Для чего он нужен и как им пользоваться? 

Курси SEO (просування сайтів) - Академія SEO
Просмотров 19 тыс.
50% 1

Опубликовано:

 

17 окт 2024

Поделиться:

Ссылка:

Скачать:

Готовим ссылку...

Добавить в:

Мой плейлист
Посмотреть позже
Комментарии : 64   
@Seoakademiya1
@Seoakademiya1 4 года назад
Примите участие в бесплатном мастер-классе по SEO seoakadem.com/3adT0Ie
@liliyaserebrova4704
@liliyaserebrova4704 4 года назад
Видео как всегда годное и главное практичное! Без лишних слов, всё чётко, понятно и по делу!
@julia_moor
@julia_moor 4 года назад
Тяжело мне далась эта тема в свое время, где же вы раньше были))) всё четко и по делу. Спасибо!
@АннаМажаева-б9б
@АннаМажаева-б9б 4 года назад
Спасибо ,вы очень грамотно и без лишней информации объяснили , даже я всё поняла с первого раза
@ВалентинаБєлова-и9р
Супер! Пользовалась стандартным robots.txt от wordpress а теперь все можно делать самостоятельно после такого доступного объяснения!
@Seoakademiya1
@Seoakademiya1 4 года назад
Стандартные не всегда означают, что плохие. Но перепроверять точно нужно.
@mcbroccolinnen
@mcbroccolinnen 3 месяца назад
Спасибо!! Очень подробно🙏🏼 Мне не хватило информации для чайников: вашей рекомендации какие страницы лучше закрыть, а какие оставить.
@leoniddzhabiev
@leoniddzhabiev 4 года назад
Самое годное видео о ротот.тхт. Спасибо огромное !
@dmitry_v2286
@dmitry_v2286 2 года назад
Самое четко видео , коротко и ясно
@YanZbarik
@YanZbarik 4 года назад
Спасибо, Павел! Поставил лайк №248. Жду следующего видео.
@ОляРоманова-ц4д
@ОляРоманова-ц4д 4 года назад
Отличное видео,Robots txt.определенно необходим,и вы сумели полностью это доказать
@сергеймельников-ц7в
Класс, давно думал как это сделать , завтра же попробую
@ВладимирНечаев-щ8х
Всё крут, спасибо!
@ИринаСелезнева-п1и
крутая вещь,ранее никогда и не слышала о таком!Нужно обязательно попробовать!
@сергейсергеев-г1о
@сергейсергеев-г1о 4 года назад
интересно, я даже и не знал что это, а как пользоваться тем более .спасибо за науку
@АлександрПермяков-з6б
Павел, спасибо за полезную информацию
@МаринаКраснопольская-х6у
Спасибо! Буду пробовать!
@annafomich778
@annafomich778 4 года назад
самое главное не закрыть вообще всё))), а так то спасибо я даже не знала что есть такая возможность
@kanal-dlya-muzchin
@kanal-dlya-muzchin 3 года назад
Спасибо! Sitamap порадовал ))
@ВалентинаБухтоярова-ш4л
Супер подсказка .Спасибо
@Nikisha_H
@Nikisha_H 4 года назад
Классно! Спасибо!
@andreykarolik7455
@andreykarolik7455 Год назад
Подскажите, пожалуйста, так нужно ставить в самом начале Allow: / если потом идут несколько запретов на какие-то отдельные директории. Или же достаточно указать запреты и все, что означает индексацию всего остального. Вы лишь упомянули в видео про Allow:/ в случае одностраничного сайта. Хотя и там не очень понятен смысл, если нет запретов. Спасибо.
@Эдуард-п2у
@Эдуард-п2у 4 года назад
Вопрос. в User-agent Googlebot и YandexBot - "Bot" большими и маленькими буквами для разных поисковиков. Это так и должно или опечатка? Или имено так названы боты этих поисковых систем? Есть разница если Googlebot или GoogleBot. 1 из вариантов не будет работать?
@Seoakademiya1
@Seoakademiya1 4 года назад
Регистр имеет значение в директивах, не так важен при обращении к боту, по крайней мере нам об этом не сообщают официально, вот список всех ботов Google, тут они указаны так как их указывает Google support.google.com/webmasters/answer/1061943
@VolodymyrSteshenko
@VolodymyrSteshenko 4 года назад
Robots txt рулит!.. ;)
@user-rasd8x
@user-rasd8x 2 года назад
Ну это и так все понятно. А есть еще глубже? То есть что какие то там файлы CSS должны быть открыты и т.д.?
@УНИВЕРСАЛБИШКЕК
@УНИВЕРСАЛБИШКЕК 3 года назад
Здравствуйте, вы не могли л б помочь мне, недавно создал файл робот тхт, добавил директивы Allow: /*js/.js и после этого не работает на сайте слайд шоу, и другие картинки не открывается, я хочу просто отменить это действие, но ни знаю как. Помогите плииз
@Алекс_128
@Алекс_128 4 года назад
указанным Вами способом файл не открывается, но в корневой папке есть. сайт на WPress. это нормально или он находится не там где надо ? или другая\ проблема?
@ЗаводЖБИКОМПЛЕКТАЦИЯ
Подскажите пожалуйста, что значит команда в файле роботс.тхт вида Disallow: *page
@nanocodeofficial3344
@nanocodeofficial3344 4 года назад
Спасибо за информацию! Еще подскажите как теперь правильно удалить из индекса проиндексированные страницы пагинации? nanocode.com.ua/face/page/2/ - пишу в robots.txt User-agent: * Disallow: */page/ - но по факту в GSearch Console такие страницы числятся как "в индексе" и в поиске их видно тоже. Спасибо!
@kotboss4150
@kotboss4150 3 года назад
чтобы заработало мета-роботс надо открывать доступ к эти страницам в роботс.тхт?
@2013kanal
@2013kanal 4 года назад
20 лайков уже есть. Видос по сути и полезный)
@ВикторК-э4к
@ВикторК-э4к 3 года назад
Спасибо за видео Уточните пожалуйста в каком формате сохранять файл: Robots.txt
@ИринаКараванова-п6э
И для Яндекса и для Googlebot и для User-agent я в robots.txt написала данную строчку - Disallow: */attachment/*, в google search console они терзают меня уже почти год требованием дать доступ к данным файлам, пишут - Проблемы категории "Покрытие" на сайте **pearl-story.ru/** ( сейчас уже 676 ошибок), советуют устранить ошибки, то есть я должна убрать данную директиву - Disallow: */attachment/* (запрещаем страницы вложений). Может оставить так - Disallow: */attachment/ ( убрать*) Я активно использую медиафайлы, на сайте достаточно галерей... Что же делать?
@braggartkyiv5534
@braggartkyiv5534 4 года назад
немного не в тему, но все же... Павел, почему вы говорите про важность того, чего сами не используете на своих проектах...? к примеру, в одном из своих видео вы говорили что на сайте должен быть фильтр товаров, но этого почему то нет на вашем сайте glasses...тоже самое - стационарный телефон
@2013kanal
@2013kanal 4 года назад
Пи$%еть не мешки ворочать. . . . . Ну конечно это стёб, но он же курсы по продвижению продаёт и говорит все как должно быть а на сайте и того хватает что сейчас есть.
@Seoakademiya1
@Seoakademiya1 4 года назад
Спасибо за вопрос. Структура, которую мы сделали и заточенные страницы под низкочастотные запросы дают нам возможность не пользоваться фильтром. Тем более для нашей тематики это не всегда нужно. У нас много сайтов и у нас есть возможность тестировать. К примеру, тут фильтр есть o4ki.ua и он не увеличил поведенческие факторы)) Все зависит от тематики и типа сайта. Стационарный телефон нужен опять таки в зависимости от тематики. К примеру, юристам он нужен 100%, а в нашей молодежной тематике достаточно просто 3 телефона.
@Seoakademiya1
@Seoakademiya1 4 года назад
@@2013kanal Вы правы) Своим комментарием этот как раз подтверждаете. Может, поможете нам с мешками? А то мы устали их уже носить.
@ЗахарСавчин-ж5п
@ЗахарСавчин-ж5п 3 года назад
спасибо
@СергейДанилов-й9с
@СергейДанилов-й9с 4 года назад
Если страницы уже проиндексировались, а вы все-равно хотите их закрыть, нельзя их добавлять в роботс.тхт - будут висеть в индексе, а в сниппете будет писать о том, что доступ ограничен файлом роботс))
@dreamersssdreams2129
@dreamersssdreams2129 3 года назад
и что делать делать тогда? если есть страниц, которые хочется убрать и их много из индексации? постранично делать невозможно, но вы говорите в robots.txt их уже добавлять нельзя?
@СергейДанилов-й9с
@СергейДанилов-й9с 3 года назад
@@dreamersssdreams2129 именно так, если хотите убрать страницы из индекса, на требуемых страницах необходимо ставить тег meta robots c переменными noindex, nofollow
@ozirko4548
@ozirko4548 4 года назад
5+....Паша-Мооозг
@doktor602
@doktor602 4 года назад
Не знал, было интересно.
@Tatyana2404
@Tatyana2404 4 года назад
Расскажите пожалуйста, как проверить файл robots.txt. Раньше это можно было сделать в Гугл Серч Консоле. Теперь такой возможности нет, т.к. в новой версии этот инструмент убрали. Так как проверить?
@julia_moor
@julia_moor 4 года назад
Можно в Яндекс Вебмастере
@Seoakademiya1
@Seoakademiya1 4 года назад
Именно об этом и есть видео) Посмотрите нет ли лишних страниц в поиске у вас. Если нету - значит все ок настроено.
@Tatyana2404
@Tatyana2404 4 года назад
@@Seoakademiya1 Видно я не совсем корректно задала вопрос. Вот например у меня в Гугл Серче несколько страниц с ошибками и написано Доступ к отправленному URL заблокирован в файле robots.txt. Раньше там же существовал инструмент проверки robots.txt, где можно было выяснить, что именно блокирует и затем исправить ошибку. Сейчас такие инструменты проверки файла есть? Про проверку через поисковую строку поисковика я услышала из ролика.
@Tatyana2404
@Tatyana2404 4 года назад
@@julia_moor Но там просто покажет есть ошибки в составлении самого файла или нет. Не более того.
@julia_moor
@julia_moor 4 года назад
@@Tatyana2404 я может не так вас понимаю, но в целом там в инструментах есть раздел "анализ robot.txt", где можно самой глазками просмотреть, что закрыто в Disallow, и при умении уже править, но не забыть обновить карту сайта
@dariag840
@dariag840 3 года назад
можно ли продвигать сайт на шаблоне ?
@User-cf3rw
@User-cf3rw 6 месяцев назад
06:56 кажется опечатка, не Sitamap а Sitemap😐
@yuriytsynkevich430
@yuriytsynkevich430 4 года назад
Доброго времени. Нет ссылки в верхнем правом углу.
@Seoakademiya1
@Seoakademiya1 4 года назад
Здравствуйте! В подсказке сверху есть ссылочка на видео о sitemap :)
@bogdankondrus1094
@bogdankondrus1094 3 года назад
главное зеркало тоже лучше указать
@OleksandrPohribnyi
@OleksandrPohribnyi 4 года назад
Ошибка в написании Sitamap: а должно быть Sitemap:
@kanal-dlya-muzchin
@kanal-dlya-muzchin 3 года назад
я тоже увидел ))
@ИринаСеменова-в4ъ
@ИринаСеменова-в4ъ 4 года назад
Спасибо за инфу, еще вариант воспользоваться модулем здесь neoseo.com.ua/generator-robotstxt-dlya-opencart-3-0 Тем более у них сейчас скидки!
@УНИВЕРСАЛБИШКЕК
@УНИВЕРСАЛБИШКЕК 3 года назад
Я хочу просто отменить это действие, чтобы картинки и слайд шоу заново работали,
@yabeznika156
@yabeznika156 4 года назад
Я все равно не понимаю зачем прятать информацию от поисковой системы?
@julia_moor
@julia_moor 4 года назад
В него нужно закрывать "бесполезные страницы" с точки зрения поисковых роботов, иначе они могут негативно сказаться на индексации. Ну например точки входов платных каналов, тк они формируют дубли, или результаты работы функционалов. Для сайта и пользователя это ок, а вот для ПР некачественный контент.
@AllmasterNEW
@AllmasterNEW 4 года назад
Жаль, что вы не выкладываете свои вебинары в свободный доступ. А так смотрю и применяю у себя на сайте. Пользуясь информацией, размещенной на нашем ресурсе, вы можете быть уверены, что мы поможем вам с выбором сервисного центра по ремонту. Ознакомиться с каталогом вы можете у нас на сайте allmaster.com.ua/companys
@grigoriykovalenko
@grigoriykovalenko 4 года назад
5+
Далее
Файл robots.txt
18:36
Просмотров 1,1 тыс.