Категории

[FAQ] Часто задаваемые вопросы и ответы

Проблемы и решения

Ошибки и исправления

Общие вопросы

Расширения

Установка и обновление

Модули

Шаблоны

Локализация интерфейса

Коммерческие предложения

Учимся бизнесу

Бизнес книги

Поисковая оптимизация (SEO)

Магазины на ShopOS

Хостинг для ShopOS

Предложения и пожелания

Курилка

Yandex

Интересует вопросик по яндексу, яндекс не может найти Sitemap т.е. карту сайта, она есть в папке но в файле php т.е. просто на сайт. в ему требуется в xml для лучшего индексирования. вопрос стоит с этим заморачиваться или толку не даст?)


Модуль есть отдельный. Он и для yandex работает.
http://www.shopos.ru/module/133/

Я думаю хуже точто не будет :)


Это для гугла, для yandex-а двигаться по той же схеме?


да, карты аналогичны и для яндлекса и для меты, кстати чтобы поисковики поддерживающие сайтмапы лучше всего прописать ссылку на сайтмап в хтаксесс


Это для гугла, для yandex-а двигаться по той же схеме?

Да, тоже самое.

кстати чтобы поисковики поддерживающие сайтмапы лучше всего прописать ссылку на сайтмап в хтаксесс

это как? .. что то не слышал такого.


простите загнался немного, писать нада в robots.txt

просто строку следующего формата к примеру
Sitemap: http://sportive.com.ua/xml_sitemap.php


МЕТА покрайней мере именно так и выгребает sitemap


А не проще в папке content есть файл sitemap.php нельзя ли просто яндексу дать ссылку на него?) поймет он его?)


А не проще в папке content есть файл sitemap.php нельзя ли просто яндексу дать ссылку на него?) поймет он его?)


Уже написал что да.
Процесс добавление карты сайта такой же как и в google.


но в роботс рекомендовалб всеравно прописать, малоли какие боты квам заходят =) лишним не будет

кстати яндекс при самостоятельном скане также может молча из роботс вытащить вашу карту =) без всякого добавления, просто с добавлением в ручную - быстрее и надежней, мололи чего там в голове этого поисковика =)


Все спасибо вопрос решен и я все понял)))))) Спасибо!



Модуль есть отдельный. Он и для yandex работает.
http://www.shopos.ru/module/133/

Я думаю хуже точто не будет :)


Здравствуйте!
Подскажите, почему не работает google_sitemap?
при загрузке страницы пишет, что ошибка на 15-й строчке
Заранее спасибо ))




Модуль есть отдельный. Он и для yandex работает.
http://www.shopos.ru/module/133/

Я думаю хуже точто не будет :)


Здравствуйте!
Подскажите, почему не работает google_sitemap?
при загрузке страницы пишет, что ошибка на 15-й строчке
Заранее спасибо ))

Потому что устарел. Теперь есть встроенный xml_sitemap для Google, Yahoo, Yandex.


я делаю так обзательно в корни должен быть xml_sitemap.php
на него и сылкки поисковикоы sitemap, но тут из шопса делаю просто сайт с товарами и услугами
и понял что в xml_sitemap.php не отображаются страницы ежли они не товар. для того чтобы остальные страницы
принимались киборгами просто создаю текстовый файл куда кидаю пути через 13,10.
итог: yandex, google, bing жрет быстрее чем xml_sitemap.php - товары, но при прохождении времени жизни страницы все страницы xml_sitemap.php - появляются в поиски, причем ежли все пути прописаны так /home.html а.не.так htttp://ваш сайт/home.html то алиасы васпринимают как другой сайт! работает год с 5000 товарами. как то поднимал енту теме но вроде
даже Евгений не поверил бана нет до-сих-пор!


Ага, теперь понятно! Большое спасибо, tulgha и pavelrer!
А еще вы не подскажите по поводу файла robots.txt - что там оптимальнее всего прописать? Т.к. у меня проблемка - поисковики долго могут не обновлять страницы. Или например обновляют мета-дескрипшн,а мета-титл остается при этом старый... Не могут понять с чем это связано... Подозреваю файл роботс нужно отредактировать. Смотрел в инете примеры для джумлы, ворпресса и т.д. Ну там везде свои нюансы. И советуют в файл роботс прописывать путь к сайтмэпу. Кто-нибудь может дать примерчик для шопоса как прописать лучше всего robots.txt? Какие папки нужно запретить для индексации?


Т.к. у меня проблемка - поисковики долго могут не обновлять страницы. Или например обновляют мета-дескрипшн,а мета-титл остается при этом старый... Не могут понять с чем это связано...


Ежли поисковик знает вашу страницу т.е в sitemap или txt он есть и поисковик сожрал без ошибок,
то рано или поздно он ее обновит, но енто не значит что она будет в поиске. yandex обнавляет очень долго.google бысрее во много раз. единственный способ ускорить это создать линковую зависимость в сети. т.е блоги, соц закладки, статьи,  форумы - то же не помешают ( именно для определенной страницы ). когда страниц за 500 получиться очень много работы но все же. в robot.txt я sitemap не прописываю никогда, скормил один раз поисковику xml_sitemap.php и тхт и все - мне кажтся так быстрее процесс идет..... единственное что разрешил в robot.txt все dir с картинками и файлами инструкций pdf, doc, zip. Ну и самое главное мудохоться с продвижением без бабла бесполезно - как тока бабло кончилось сайт свалиться с такой же скоростью. Работайте над контентом, уникальность очень важная штука, страницы на 3500 символов уникального контента живут очень хорошо. В robot.txt при установки все не нужное уже запрещено


Спасибо большое за подсказки ))
А вот по поводу фала robots.txt вопросик:
В robot.txt при установки все не нужное уже запрещено - А где его можно найти? Я вручную создавал :o



Спасибо большое за подсказки ))
А вот по поводу фала robots.txt вопросик:
В robot.txt при установки все не нужное уже запрещено - А где его можно найти? Я вручную создавал :o


в корне магазина должен лежать изначально


А у меня в корне магазина нет такого файлика.... ((
Он там так и называется robots.txt? Может кто-нибудь дать скачать его, пожалуйста? ))


файл robots.txt есть всегда. ищите внимательнее, либо скачайте дистрибутив шопоса и возьмите оттуда, в чем проблема то?))


У меня в версии 2.4.4 точно его нет (( И в скачанной версии 2.5.0 тоже не нашел.
Вот скачал версию 2.5.2- там все на месте )))
Подскажите, пожалуйста, можно ли использовать файл robots.txt из версии 2.5.2 для моей версии 2.4.4?
Как мне кажется, то можно, но хотел бы уточнить этот нюансик у более знающих людей в этом деле ))
Заранее благодарен!


конечно можно

http://ru.wikipedia.org/wiki/Robots.txt



У меня в версии 2.4.4 точно его нет (( И в скачанной версии 2.5.0 тоже не нашел.
Вот скачал версию 2.5.2- там все на месте )))
Подскажите, пожалуйста, можно ли использовать файл robots.txt из версии 2.5.2 для моей версии 2.4.4?
Как мне кажется, то можно, но хотел бы уточнить этот нюансик у более знающих людей в этом деле ))
Заранее благодарен!


не знаю откуда вы эти версии качаете. но robots.txt был во всех версиях

Подскажите, пожалуйста, можно ли использовать файл robots.txt из версии 2.5.2 для моей версии 2.4.4?


да


Огромное спасибо, Евгений! ))
Будем работать дальше )))))


В магазине 63000 товаров и размер sitemap более 10мб по данным Яндекса. Есть какие не будь способы чтобы он его скушал?



В магазине 63000 товаров и размер sitemap более 10мб по данным Яндекса. Есть какие не будь способы чтобы он его скушал?


а что не хочет кушать?


Файл проверен Яндексом, но загрузить его не может, пишет, что "Не удалось загрузить файл." Хотя если вставить ссылку в строку браузера файл открывается.


разбить на куски

и загрузить отдельно


А подробнее можно?


генерируете весь sitemap, потом делите его notepad++ (аналог блокнота) вручную допустим по 40 000 строк (максимум 50 000) , т.е. у вас получится sitemap1.xml и sitemap2.xml (продолжение), не забываем использовать открывающие и закрывающие теги как в исходном sitemap и грузим в robots.txt строкой
Sitemap: http://www.трали-вали.ru/sitemap1.xml (или без www)
Sitemap: http://www.трали-вали.ru/sitemap2.xml и т.д.


Спасибо.



генерируете весь sitemap, потом делите его notepad++ (аналог блокнота) вручную допустим по 40 000 строк (максимум 50 000) , т.е. у вас получится sitemap1.xml и sitemap2.xml (продолжение), не забываем использовать открывающие и закрывающие теги как в исходном sitemap и грузим в robots.txt строкой
Sitemap: http://www.трали-вали.ru/sitemap1.xml (или без www)
Sitemap: http://www.трали-вали.ru/sitemap2.xml и т.д.


хм. можно просто генератор сайтмап доработать

ибо такой геморой после каждого обновления базы товаров или статей быстро надоест


Я использую сторонний генератор программу, она подо всё генерит от яндекса до яху, по этому делаю при необходимости в ручную (у меня не один магазин, а есть еще другие сайты)


А как программа называется?


A1 Sitemap Generator в нете с лекарством есть :)


Источник



Copyright ShopOS