dvi3001 Опубліковано: 19 березня 2013 Share Опубліковано: 19 березня 2013 Парни помогите!Как удалить дубли ссылок с индекса? Давно нужно было это сделать уже.Не хватка опыта останавливала этот процесс что вообще всё не испортить. Теперь к сути вопроса! Начнём с Google. Я сделал запрос в site:ooo-arle.ru и там оказалось в индексе "Результатов: примерно 673"..И это очень много потому что страниц всего где то 70 шт. Есть страницы такого содержания: Категория Блузки. правильная ссылка: Блузки женские собственного производства. ooo-arle.ru/60-bluzki/ Стильные блузки.Широкий выбор стильных женских рубашек, блузок и туник собственного производства в нашем интернет магазине.Из натуральных ... Но есть и такие: ooo-arle.ru/60-bluzki/?limit=50 Описание веб-страницы недоступно из-за ограничений в файле robots.txt. Подробнее... ooo-arle.ru/60-bluzki/?sort=rating&order=DESC Описание веб-страницы недоступно из-за ограничений в файле robots.txt. Подробнее... И такая ситуация на всех категориях.Как мне запереть в robots.txt. и удалить с индекса. Дело в том что в robots.txt. уже прописано так:Disallow: /*?limit= и так:Disallow: /*&limit= Почему же они всё равно в индексе и такого странного вида. Помогите! Надіслати Поділитися на інших сайтах More sharing options...
snastik Опубліковано: 19 березня 2013 Share Опубліковано: 19 березня 2013 роботс был таким с самого начала ? в вебмастере при проверке урла говорит что он заблокирован ? что пишет в оптимизации html ? Надіслати Поділитися на інших сайтах More sharing options... dvi3001 Опубліковано: 19 березня 2013 Автор Share Опубліковано: 19 березня 2013 роботс был таким с самого начала ? в вебмастере при проверке урла говорит что он заблокирован ? что пишет в оптимизации html ? Да,роботс был таким с самого начала! В вебмастере при проверке урла всё нормаль,строка от туда " у робота Goolebot не возникает проблем при сканировании вашего сайта". Оптимизации html на скриншоте.Но я эти все дубли удалил через удаление URL-адреса.Удолил сегодня Но они пока там.Когда они удолятся? И тех ссылок там нет. Надіслати Поділитися на інших сайтах More sharing options... snastik Опубліковано: 19 березня 2013 Share Опубліковано: 19 березня 2013 вы вот эту ссылку ткните в проверку http://ooo-arle.ru/60-bluzki/?limit=50 должно ответить что запрещено по такой то строчке а дубли пропадут через пару проверок в течение недели думаю Надіслати Поділитися на інших сайтах More sharing options... dvi3001 Опубліковано: 19 березня 2013 Автор Share Опубліковано: 19 березня 2013 вы вот эту ссылку ткните в проверку http://ooo-arle.ru/60-bluzki/?limit=50 должно ответить что запрещено по такой то строчке а дубли пропадут через пару проверок в течение недели думаю Не совсем понял.Извините. Куда её вставить для проверки? Надіслати Поділитися на інших сайтах More sharing options... snastik Опубліковано: 19 березня 2013 Share Опубліковано: 19 березня 2013 в вебмастере состояние-заблокированные урлы внизу URL-адреса Укажите URL-адреса и роботов User Agent для проверки. Надіслати Поділитися на інших сайтах More sharing options... dvi3001 Опубліковано: 19 березня 2013 Автор Share Опубліковано: 19 березня 2013 (змінено) Результаты проверки URL Робот Google Googlebot-Mobile http://ooo-arle.ru/60-bluzki/?limit=50 . Заблокировано по строке 29: Disallow: /*?limit= Значит их нужно удалить с индекса? Как это сделать? Ещё там есть такая строка:Строка 72: Clean-param: tracking Синтаксис не распознается. Что это значит? Змінено 19 березня 2013 користувачем dvi3001 Надіслати Поділитися на інших сайтах More sharing options... snastik Опубліковано: 19 березня 2013 Share Опубліковано: 19 березня 2013 удалить в том же вебмастере есть запрос на удаление урл а строка не распознается по той причине что она для яндекса если я конечно ничего не путаю Надіслати Поділитися на інших сайтах More sharing options... dvi3001 Опубліковано: 19 березня 2013 Автор Share Опубліковано: 19 березня 2013 удалить в том же вебмастере есть запрос на удаление урл а строка не распознается по той причине что она для яндекса если я конечно ничего не путаю Я уже все удалил на гугле.Спасибо! Теперь буду ждать пока удаляться ссылки.Потом будем дальше продолжать разбегаться. Спасибо за помощь! Надіслати Поділитися на інших сайтах More sharing options... dvi3001 Опубліковано: 20 березня 2013 Автор Share Опубліковано: 20 березня 2013 У меня не получается удалить не нужные страницы (которых уже не существуют.) из янкеса.Яндек удоляет строницы те которые закрыты в файле robots.txt. А как же удалить мне страницу каторая не скрыта в robots.?Подскажите Пример ссылок: Товар не найден! /index.php?route=product/product&product_id=61 Категория не найдена! /index.php?route=product/category&path=25 Надіслати Поділитися на інших сайтах More sharing options... snastik Опубліковано: 20 березня 2013 Share Опубліковано: 20 березня 2013 значит там должен быть статус 404 и тогда такие страницы тоже можно удалить Надіслати Поділитися на інших сайтах More sharing options... dvi3001 Опубліковано: 20 березня 2013 Автор Share Опубліковано: 20 березня 2013 Я запер их в robots.и удалил. После того как они удалятся из поиска.Можно удалить из robots.эти ссылки?. Надіслати Поділитися на інших сайтах More sharing options... snastik Опубліковано: 20 березня 2013 Share Опубліковано: 20 березня 2013 можно Надіслати Поділитися на інших сайтах More sharing options... PVL Опубліковано: 20 березня 2013 Share Опубліковано: 20 березня 2013 Але, ребята!? Русским языком ведь написано: Описание веб-страницы недоступно из-за ограничений в файле robots.txt. Подробнее... нет? Что вы пытаетесь проверить? Вам все грамотно написал гугл. Учите мат часть. Читай про сопли и основной индекс. В основном индексе - тот, который участвует в поисковой выдаче (Пишется так: site:ooo-arle.ru/&) у вас 56 страниц, все правильно. Ч.Т.Д. Ваша ситуация - это нормально, удалить ничего не получится и это не требует гугл. Другое дело, если вам нужно вытащить страницу из соплей в основной индекс. P.S. Удалить страницу можно только через тег "<meta name="robots" content="noindex,nofollow" />". Остальные манипуляции в гугл вэбмастер, если и удалят страницу, то ненадолго. Успехов, хакеры ;) Надіслати Поділитися на інших сайтах More sharing options... dvi3001 Опубліковано: 20 березня 2013 Автор Share Опубліковано: 20 березня 2013 Почищу,удалю не существующие страницы.А потом буду делать выводы что надо а что не надо.Но всё равно спасибо за советы. Надіслати Поділитися на інших сайтах More sharing options... Створіть аккаунт або увійдіть для коментування Ви повинні бути користувачем, щоб залишити коментар Створити обліковий запис Зареєструйтеся для отримання облікового запису. Це просто! Зареєструвати аккаунт Вхід Уже зареєстровані? Увійдіть тут. Вхід зараз Share More sharing options... Передплатники 0 Перейти до списку тем Зараз на сторінці 0 користувачів Ні користувачів, які переглядиють цю сторінку Последние темы Последние дополнения Последние новости Вся активність Головна Підтримка та відповіді на запитання. Загальні питання Как удалить дубли ссылок? Покупцям Оплата розширень фізичними особами Оплата розширень юридичними особами Політика повернень Розробникам Регламент розміщення розширень Регламент продажу та підтримки розширень Віртуальний обліковий запис автора Політика просування оголошень API каталогу розширень Вирішення спорів щодо авторських прав Корисна інформація Публічна оферта Політика повернень Політика конфіденційності Платіжна політика Політика передачі особистих даних Політика прозорості Останні розширення Повний пакет SEO Автор: GeekoDev SameSite Session Fix Opencart 3 Автор: web_bond SP Telegram повідомлення FREE Автор: spectre Відключити порожні категорії Автор: spectre SEO Автор тексту категорії / фільтра / блогу з датою оновлення контенту + мікророзмітка Автор: radaevich × Уже зареєстровані? Ввійти Реєстрація Ваші замовлення Назад Придбані модулі та шаблони Ваші рахунки Лист очікувань Альтернативні контакти Форум Новини ocStore Назад Офіційний сайт Демо ocStore 3.0.3.2 Демо ocStore 2.3.0.2.4 Завантажити ocStore Документація Історія версій ocStore Блоги Модулі Шаблони Назад Безкоштовні шаблони Платні шаблони Де купувати модулі? Послуги FAQ OpenCart.Pro Назад Демо Купити Порівняння × Створити... Important Information На нашому сайті використовуються файли cookie і відбувається обробка деяких персональних даних користувачів, щоб поліпшити користувальницький інтерфейс. Щоб дізнатися для чого і які персональні дані ми обробляємо перейдіть за посиланням . Якщо Ви натиснете «Я даю згоду», це означає, що Ви розумієте і приймаєте всі умови, зазначені в цьому Повідомленні про конфіденційність. Я даю згоду
dvi3001 Опубліковано: 19 березня 2013 Автор Share Опубліковано: 19 березня 2013 роботс был таким с самого начала ? в вебмастере при проверке урла говорит что он заблокирован ? что пишет в оптимизации html ? Да,роботс был таким с самого начала! В вебмастере при проверке урла всё нормаль,строка от туда " у робота Goolebot не возникает проблем при сканировании вашего сайта". Оптимизации html на скриншоте.Но я эти все дубли удалил через удаление URL-адреса.Удолил сегодня Но они пока там.Когда они удолятся? И тех ссылок там нет. Надіслати Поділитися на інших сайтах More sharing options...
snastik Опубліковано: 19 березня 2013 Share Опубліковано: 19 березня 2013 вы вот эту ссылку ткните в проверку http://ooo-arle.ru/60-bluzki/?limit=50 должно ответить что запрещено по такой то строчке а дубли пропадут через пару проверок в течение недели думаю Надіслати Поділитися на інших сайтах More sharing options... dvi3001 Опубліковано: 19 березня 2013 Автор Share Опубліковано: 19 березня 2013 вы вот эту ссылку ткните в проверку http://ooo-arle.ru/60-bluzki/?limit=50 должно ответить что запрещено по такой то строчке а дубли пропадут через пару проверок в течение недели думаю Не совсем понял.Извините. Куда её вставить для проверки? Надіслати Поділитися на інших сайтах More sharing options... snastik Опубліковано: 19 березня 2013 Share Опубліковано: 19 березня 2013 в вебмастере состояние-заблокированные урлы внизу URL-адреса Укажите URL-адреса и роботов User Agent для проверки. Надіслати Поділитися на інших сайтах More sharing options... dvi3001 Опубліковано: 19 березня 2013 Автор Share Опубліковано: 19 березня 2013 (змінено) Результаты проверки URL Робот Google Googlebot-Mobile http://ooo-arle.ru/60-bluzki/?limit=50 . Заблокировано по строке 29: Disallow: /*?limit= Значит их нужно удалить с индекса? Как это сделать? Ещё там есть такая строка:Строка 72: Clean-param: tracking Синтаксис не распознается. Что это значит? Змінено 19 березня 2013 користувачем dvi3001 Надіслати Поділитися на інших сайтах More sharing options... snastik Опубліковано: 19 березня 2013 Share Опубліковано: 19 березня 2013 удалить в том же вебмастере есть запрос на удаление урл а строка не распознается по той причине что она для яндекса если я конечно ничего не путаю Надіслати Поділитися на інших сайтах More sharing options... dvi3001 Опубліковано: 19 березня 2013 Автор Share Опубліковано: 19 березня 2013 удалить в том же вебмастере есть запрос на удаление урл а строка не распознается по той причине что она для яндекса если я конечно ничего не путаю Я уже все удалил на гугле.Спасибо! Теперь буду ждать пока удаляться ссылки.Потом будем дальше продолжать разбегаться. Спасибо за помощь! Надіслати Поділитися на інших сайтах More sharing options... dvi3001 Опубліковано: 20 березня 2013 Автор Share Опубліковано: 20 березня 2013 У меня не получается удалить не нужные страницы (которых уже не существуют.) из янкеса.Яндек удоляет строницы те которые закрыты в файле robots.txt. А как же удалить мне страницу каторая не скрыта в robots.?Подскажите Пример ссылок: Товар не найден! /index.php?route=product/product&product_id=61 Категория не найдена! /index.php?route=product/category&path=25 Надіслати Поділитися на інших сайтах More sharing options... snastik Опубліковано: 20 березня 2013 Share Опубліковано: 20 березня 2013 значит там должен быть статус 404 и тогда такие страницы тоже можно удалить Надіслати Поділитися на інших сайтах More sharing options... dvi3001 Опубліковано: 20 березня 2013 Автор Share Опубліковано: 20 березня 2013 Я запер их в robots.и удалил. После того как они удалятся из поиска.Можно удалить из robots.эти ссылки?. Надіслати Поділитися на інших сайтах More sharing options... snastik Опубліковано: 20 березня 2013 Share Опубліковано: 20 березня 2013 можно Надіслати Поділитися на інших сайтах More sharing options... PVL Опубліковано: 20 березня 2013 Share Опубліковано: 20 березня 2013 Але, ребята!? Русским языком ведь написано: Описание веб-страницы недоступно из-за ограничений в файле robots.txt. Подробнее... нет? Что вы пытаетесь проверить? Вам все грамотно написал гугл. Учите мат часть. Читай про сопли и основной индекс. В основном индексе - тот, который участвует в поисковой выдаче (Пишется так: site:ooo-arle.ru/&) у вас 56 страниц, все правильно. Ч.Т.Д. Ваша ситуация - это нормально, удалить ничего не получится и это не требует гугл. Другое дело, если вам нужно вытащить страницу из соплей в основной индекс. P.S. Удалить страницу можно только через тег "<meta name="robots" content="noindex,nofollow" />". Остальные манипуляции в гугл вэбмастер, если и удалят страницу, то ненадолго. Успехов, хакеры ;) Надіслати Поділитися на інших сайтах More sharing options... dvi3001 Опубліковано: 20 березня 2013 Автор Share Опубліковано: 20 березня 2013 Почищу,удалю не существующие страницы.А потом буду делать выводы что надо а что не надо.Но всё равно спасибо за советы. Надіслати Поділитися на інших сайтах More sharing options... Створіть аккаунт або увійдіть для коментування Ви повинні бути користувачем, щоб залишити коментар Створити обліковий запис Зареєструйтеся для отримання облікового запису. Це просто! Зареєструвати аккаунт Вхід Уже зареєстровані? Увійдіть тут. Вхід зараз Share More sharing options... Передплатники 0 Перейти до списку тем Зараз на сторінці 0 користувачів Ні користувачів, які переглядиють цю сторінку Последние темы Последние дополнения Последние новости Вся активність Головна Підтримка та відповіді на запитання. Загальні питання Как удалить дубли ссылок? Покупцям Оплата розширень фізичними особами Оплата розширень юридичними особами Політика повернень Розробникам Регламент розміщення розширень Регламент продажу та підтримки розширень Віртуальний обліковий запис автора Політика просування оголошень API каталогу розширень Вирішення спорів щодо авторських прав Корисна інформація Публічна оферта Політика повернень Політика конфіденційності Платіжна політика Політика передачі особистих даних Політика прозорості Останні розширення Повний пакет SEO Автор: GeekoDev SameSite Session Fix Opencart 3 Автор: web_bond SP Telegram повідомлення FREE Автор: spectre Відключити порожні категорії Автор: spectre SEO Автор тексту категорії / фільтра / блогу з датою оновлення контенту + мікророзмітка Автор: radaevich × Уже зареєстровані? Ввійти Реєстрація Ваші замовлення Назад Придбані модулі та шаблони Ваші рахунки Лист очікувань Альтернативні контакти Форум Новини ocStore Назад Офіційний сайт Демо ocStore 3.0.3.2 Демо ocStore 2.3.0.2.4 Завантажити ocStore Документація Історія версій ocStore Блоги Модулі Шаблони Назад Безкоштовні шаблони Платні шаблони Де купувати модулі? Послуги FAQ OpenCart.Pro Назад Демо Купити Порівняння × Створити... Important Information На нашому сайті використовуються файли cookie і відбувається обробка деяких персональних даних користувачів, щоб поліпшити користувальницький інтерфейс. Щоб дізнатися для чого і які персональні дані ми обробляємо перейдіть за посиланням . Якщо Ви натиснете «Я даю згоду», це означає, що Ви розумієте і приймаєте всі умови, зазначені в цьому Повідомленні про конфіденційність. Я даю згоду
dvi3001 Опубліковано: 19 березня 2013 Автор Share Опубліковано: 19 березня 2013 вы вот эту ссылку ткните в проверку http://ooo-arle.ru/60-bluzki/?limit=50 должно ответить что запрещено по такой то строчке а дубли пропадут через пару проверок в течение недели думаю Не совсем понял.Извините. Куда её вставить для проверки? Надіслати Поділитися на інших сайтах More sharing options...
snastik Опубліковано: 19 березня 2013 Share Опубліковано: 19 березня 2013 в вебмастере состояние-заблокированные урлы внизу URL-адреса Укажите URL-адреса и роботов User Agent для проверки. Надіслати Поділитися на інших сайтах More sharing options... dvi3001 Опубліковано: 19 березня 2013 Автор Share Опубліковано: 19 березня 2013 (змінено) Результаты проверки URL Робот Google Googlebot-Mobile http://ooo-arle.ru/60-bluzki/?limit=50 . Заблокировано по строке 29: Disallow: /*?limit= Значит их нужно удалить с индекса? Как это сделать? Ещё там есть такая строка:Строка 72: Clean-param: tracking Синтаксис не распознается. Что это значит? Змінено 19 березня 2013 користувачем dvi3001 Надіслати Поділитися на інших сайтах More sharing options... snastik Опубліковано: 19 березня 2013 Share Опубліковано: 19 березня 2013 удалить в том же вебмастере есть запрос на удаление урл а строка не распознается по той причине что она для яндекса если я конечно ничего не путаю Надіслати Поділитися на інших сайтах More sharing options... dvi3001 Опубліковано: 19 березня 2013 Автор Share Опубліковано: 19 березня 2013 удалить в том же вебмастере есть запрос на удаление урл а строка не распознается по той причине что она для яндекса если я конечно ничего не путаю Я уже все удалил на гугле.Спасибо! Теперь буду ждать пока удаляться ссылки.Потом будем дальше продолжать разбегаться. Спасибо за помощь! Надіслати Поділитися на інших сайтах More sharing options... dvi3001 Опубліковано: 20 березня 2013 Автор Share Опубліковано: 20 березня 2013 У меня не получается удалить не нужные страницы (которых уже не существуют.) из янкеса.Яндек удоляет строницы те которые закрыты в файле robots.txt. А как же удалить мне страницу каторая не скрыта в robots.?Подскажите Пример ссылок: Товар не найден! /index.php?route=product/product&product_id=61 Категория не найдена! /index.php?route=product/category&path=25 Надіслати Поділитися на інших сайтах More sharing options... snastik Опубліковано: 20 березня 2013 Share Опубліковано: 20 березня 2013 значит там должен быть статус 404 и тогда такие страницы тоже можно удалить Надіслати Поділитися на інших сайтах More sharing options... dvi3001 Опубліковано: 20 березня 2013 Автор Share Опубліковано: 20 березня 2013 Я запер их в robots.и удалил. После того как они удалятся из поиска.Можно удалить из robots.эти ссылки?. Надіслати Поділитися на інших сайтах More sharing options... snastik Опубліковано: 20 березня 2013 Share Опубліковано: 20 березня 2013 можно Надіслати Поділитися на інших сайтах More sharing options... PVL Опубліковано: 20 березня 2013 Share Опубліковано: 20 березня 2013 Але, ребята!? Русским языком ведь написано: Описание веб-страницы недоступно из-за ограничений в файле robots.txt. Подробнее... нет? Что вы пытаетесь проверить? Вам все грамотно написал гугл. Учите мат часть. Читай про сопли и основной индекс. В основном индексе - тот, который участвует в поисковой выдаче (Пишется так: site:ooo-arle.ru/&) у вас 56 страниц, все правильно. Ч.Т.Д. Ваша ситуация - это нормально, удалить ничего не получится и это не требует гугл. Другое дело, если вам нужно вытащить страницу из соплей в основной индекс. P.S. Удалить страницу можно только через тег "<meta name="robots" content="noindex,nofollow" />". Остальные манипуляции в гугл вэбмастер, если и удалят страницу, то ненадолго. Успехов, хакеры ;) Надіслати Поділитися на інших сайтах More sharing options... dvi3001 Опубліковано: 20 березня 2013 Автор Share Опубліковано: 20 березня 2013 Почищу,удалю не существующие страницы.А потом буду делать выводы что надо а что не надо.Но всё равно спасибо за советы. Надіслати Поділитися на інших сайтах More sharing options... Створіть аккаунт або увійдіть для коментування Ви повинні бути користувачем, щоб залишити коментар Створити обліковий запис Зареєструйтеся для отримання облікового запису. Це просто! Зареєструвати аккаунт Вхід Уже зареєстровані? Увійдіть тут. Вхід зараз Share More sharing options... Передплатники 0 Перейти до списку тем Зараз на сторінці 0 користувачів Ні користувачів, які переглядиють цю сторінку Последние темы Последние дополнения Последние новости Вся активність Головна Підтримка та відповіді на запитання. Загальні питання Как удалить дубли ссылок? Покупцям Оплата розширень фізичними особами Оплата розширень юридичними особами Політика повернень Розробникам Регламент розміщення розширень Регламент продажу та підтримки розширень Віртуальний обліковий запис автора Політика просування оголошень API каталогу розширень Вирішення спорів щодо авторських прав Корисна інформація Публічна оферта Політика повернень Політика конфіденційності Платіжна політика Політика передачі особистих даних Політика прозорості Останні розширення Повний пакет SEO Автор: GeekoDev SameSite Session Fix Opencart 3 Автор: web_bond SP Telegram повідомлення FREE Автор: spectre Відключити порожні категорії Автор: spectre SEO Автор тексту категорії / фільтра / блогу з датою оновлення контенту + мікророзмітка Автор: radaevich
dvi3001 Опубліковано: 19 березня 2013 Автор Share Опубліковано: 19 березня 2013 (змінено) Результаты проверки URL Робот Google Googlebot-Mobile http://ooo-arle.ru/60-bluzki/?limit=50 . Заблокировано по строке 29: Disallow: /*?limit= Значит их нужно удалить с индекса? Как это сделать? Ещё там есть такая строка:Строка 72: Clean-param: tracking Синтаксис не распознается. Что это значит? Змінено 19 березня 2013 користувачем dvi3001 Надіслати Поділитися на інших сайтах More sharing options...
snastik Опубліковано: 19 березня 2013 Share Опубліковано: 19 березня 2013 удалить в том же вебмастере есть запрос на удаление урл а строка не распознается по той причине что она для яндекса если я конечно ничего не путаю Надіслати Поділитися на інших сайтах More sharing options... dvi3001 Опубліковано: 19 березня 2013 Автор Share Опубліковано: 19 березня 2013 удалить в том же вебмастере есть запрос на удаление урл а строка не распознается по той причине что она для яндекса если я конечно ничего не путаю Я уже все удалил на гугле.Спасибо! Теперь буду ждать пока удаляться ссылки.Потом будем дальше продолжать разбегаться. Спасибо за помощь! Надіслати Поділитися на інших сайтах More sharing options... dvi3001 Опубліковано: 20 березня 2013 Автор Share Опубліковано: 20 березня 2013 У меня не получается удалить не нужные страницы (которых уже не существуют.) из янкеса.Яндек удоляет строницы те которые закрыты в файле robots.txt. А как же удалить мне страницу каторая не скрыта в robots.?Подскажите Пример ссылок: Товар не найден! /index.php?route=product/product&product_id=61 Категория не найдена! /index.php?route=product/category&path=25 Надіслати Поділитися на інших сайтах More sharing options... snastik Опубліковано: 20 березня 2013 Share Опубліковано: 20 березня 2013 значит там должен быть статус 404 и тогда такие страницы тоже можно удалить Надіслати Поділитися на інших сайтах More sharing options... dvi3001 Опубліковано: 20 березня 2013 Автор Share Опубліковано: 20 березня 2013 Я запер их в robots.и удалил. После того как они удалятся из поиска.Можно удалить из robots.эти ссылки?. Надіслати Поділитися на інших сайтах More sharing options... snastik Опубліковано: 20 березня 2013 Share Опубліковано: 20 березня 2013 можно Надіслати Поділитися на інших сайтах More sharing options... PVL Опубліковано: 20 березня 2013 Share Опубліковано: 20 березня 2013 Але, ребята!? Русским языком ведь написано: Описание веб-страницы недоступно из-за ограничений в файле robots.txt. Подробнее... нет? Что вы пытаетесь проверить? Вам все грамотно написал гугл. Учите мат часть. Читай про сопли и основной индекс. В основном индексе - тот, который участвует в поисковой выдаче (Пишется так: site:ooo-arle.ru/&) у вас 56 страниц, все правильно. Ч.Т.Д. Ваша ситуация - это нормально, удалить ничего не получится и это не требует гугл. Другое дело, если вам нужно вытащить страницу из соплей в основной индекс. P.S. Удалить страницу можно только через тег "<meta name="robots" content="noindex,nofollow" />". Остальные манипуляции в гугл вэбмастер, если и удалят страницу, то ненадолго. Успехов, хакеры ;) Надіслати Поділитися на інших сайтах More sharing options... dvi3001 Опубліковано: 20 березня 2013 Автор Share Опубліковано: 20 березня 2013 Почищу,удалю не существующие страницы.А потом буду делать выводы что надо а что не надо.Но всё равно спасибо за советы. Надіслати Поділитися на інших сайтах More sharing options... Створіть аккаунт або увійдіть для коментування Ви повинні бути користувачем, щоб залишити коментар Створити обліковий запис Зареєструйтеся для отримання облікового запису. Це просто! Зареєструвати аккаунт Вхід Уже зареєстровані? Увійдіть тут. Вхід зараз Share More sharing options... Передплатники 0 Перейти до списку тем Зараз на сторінці 0 користувачів Ні користувачів, які переглядиють цю сторінку Последние темы Последние дополнения Последние новости Вся активність Головна Підтримка та відповіді на запитання. Загальні питання Как удалить дубли ссылок?
dvi3001 Опубліковано: 19 березня 2013 Автор Share Опубліковано: 19 березня 2013 удалить в том же вебмастере есть запрос на удаление урл а строка не распознается по той причине что она для яндекса если я конечно ничего не путаю Я уже все удалил на гугле.Спасибо! Теперь буду ждать пока удаляться ссылки.Потом будем дальше продолжать разбегаться. Спасибо за помощь! Надіслати Поділитися на інших сайтах More sharing options...
dvi3001 Опубліковано: 20 березня 2013 Автор Share Опубліковано: 20 березня 2013 У меня не получается удалить не нужные страницы (которых уже не существуют.) из янкеса.Яндек удоляет строницы те которые закрыты в файле robots.txt. А как же удалить мне страницу каторая не скрыта в robots.?Подскажите Пример ссылок: Товар не найден! /index.php?route=product/product&product_id=61 Категория не найдена! /index.php?route=product/category&path=25 Надіслати Поділитися на інших сайтах More sharing options...
snastik Опубліковано: 20 березня 2013 Share Опубліковано: 20 березня 2013 значит там должен быть статус 404 и тогда такие страницы тоже можно удалить Надіслати Поділитися на інших сайтах More sharing options... dvi3001 Опубліковано: 20 березня 2013 Автор Share Опубліковано: 20 березня 2013 Я запер их в robots.и удалил. После того как они удалятся из поиска.Можно удалить из robots.эти ссылки?. Надіслати Поділитися на інших сайтах More sharing options... snastik Опубліковано: 20 березня 2013 Share Опубліковано: 20 березня 2013 можно Надіслати Поділитися на інших сайтах More sharing options... PVL Опубліковано: 20 березня 2013 Share Опубліковано: 20 березня 2013 Але, ребята!? Русским языком ведь написано: Описание веб-страницы недоступно из-за ограничений в файле robots.txt. Подробнее... нет? Что вы пытаетесь проверить? Вам все грамотно написал гугл. Учите мат часть. Читай про сопли и основной индекс. В основном индексе - тот, который участвует в поисковой выдаче (Пишется так: site:ooo-arle.ru/&) у вас 56 страниц, все правильно. Ч.Т.Д. Ваша ситуация - это нормально, удалить ничего не получится и это не требует гугл. Другое дело, если вам нужно вытащить страницу из соплей в основной индекс. P.S. Удалить страницу можно только через тег "<meta name="robots" content="noindex,nofollow" />". Остальные манипуляции в гугл вэбмастер, если и удалят страницу, то ненадолго. Успехов, хакеры ;) Надіслати Поділитися на інших сайтах More sharing options... dvi3001 Опубліковано: 20 березня 2013 Автор Share Опубліковано: 20 березня 2013 Почищу,удалю не существующие страницы.А потом буду делать выводы что надо а что не надо.Но всё равно спасибо за советы. Надіслати Поділитися на інших сайтах More sharing options... Створіть аккаунт або увійдіть для коментування Ви повинні бути користувачем, щоб залишити коментар Створити обліковий запис Зареєструйтеся для отримання облікового запису. Це просто! Зареєструвати аккаунт Вхід Уже зареєстровані? Увійдіть тут. Вхід зараз Share More sharing options... Передплатники 0 Перейти до списку тем Зараз на сторінці 0 користувачів Ні користувачів, які переглядиють цю сторінку
dvi3001 Опубліковано: 20 березня 2013 Автор Share Опубліковано: 20 березня 2013 Я запер их в robots.и удалил. После того как они удалятся из поиска.Можно удалить из robots.эти ссылки?. Надіслати Поділитися на інших сайтах More sharing options...
snastik Опубліковано: 20 березня 2013 Share Опубліковано: 20 березня 2013 можно Надіслати Поділитися на інших сайтах More sharing options... PVL Опубліковано: 20 березня 2013 Share Опубліковано: 20 березня 2013 Але, ребята!? Русским языком ведь написано: Описание веб-страницы недоступно из-за ограничений в файле robots.txt. Подробнее... нет? Что вы пытаетесь проверить? Вам все грамотно написал гугл. Учите мат часть. Читай про сопли и основной индекс. В основном индексе - тот, который участвует в поисковой выдаче (Пишется так: site:ooo-arle.ru/&) у вас 56 страниц, все правильно. Ч.Т.Д. Ваша ситуация - это нормально, удалить ничего не получится и это не требует гугл. Другое дело, если вам нужно вытащить страницу из соплей в основной индекс. P.S. Удалить страницу можно только через тег "<meta name="robots" content="noindex,nofollow" />". Остальные манипуляции в гугл вэбмастер, если и удалят страницу, то ненадолго. Успехов, хакеры ;) Надіслати Поділитися на інших сайтах More sharing options... dvi3001 Опубліковано: 20 березня 2013 Автор Share Опубліковано: 20 березня 2013 Почищу,удалю не существующие страницы.А потом буду делать выводы что надо а что не надо.Но всё равно спасибо за советы. Надіслати Поділитися на інших сайтах More sharing options... Створіть аккаунт або увійдіть для коментування Ви повинні бути користувачем, щоб залишити коментар Створити обліковий запис Зареєструйтеся для отримання облікового запису. Це просто! Зареєструвати аккаунт Вхід Уже зареєстровані? Увійдіть тут. Вхід зараз Share More sharing options... Передплатники 0
PVL Опубліковано: 20 березня 2013 Share Опубліковано: 20 березня 2013 Але, ребята!? Русским языком ведь написано: Описание веб-страницы недоступно из-за ограничений в файле robots.txt. Подробнее... нет? Что вы пытаетесь проверить? Вам все грамотно написал гугл. Учите мат часть. Читай про сопли и основной индекс. В основном индексе - тот, который участвует в поисковой выдаче (Пишется так: site:ooo-arle.ru/&) у вас 56 страниц, все правильно. Ч.Т.Д. Ваша ситуация - это нормально, удалить ничего не получится и это не требует гугл. Другое дело, если вам нужно вытащить страницу из соплей в основной индекс. P.S. Удалить страницу можно только через тег "<meta name="robots" content="noindex,nofollow" />". Остальные манипуляции в гугл вэбмастер, если и удалят страницу, то ненадолго. Успехов, хакеры ;) Надіслати Поділитися на інших сайтах More sharing options...
dvi3001 Опубліковано: 20 березня 2013 Автор Share Опубліковано: 20 березня 2013 Почищу,удалю не существующие страницы.А потом буду делать выводы что надо а что не надо.Но всё равно спасибо за советы. Надіслати Поділитися на інших сайтах More sharing options...
Recommended Posts