Архив рубрики: Поисковые системы

2014-02-07 14.59.57

Такая схема перелинковки получилась

На днях для проекта «Сова Скриптор» продумывал схему перелинковки и вот, что получилось :)

2014-02-07 14.59.57

Должна получиться довольно эффективная схема. После внедрения по случаю отпишусь о результатах.

Google logo

Новогодний подарок от Google

Google logo

Компания Google решила сделать подарок всем и не только пользователям собственных сервисов. Цитирую:

Поскольку благотворительные организации испытывают самый тяжелый год за послднее десятилетие, мы решили пожертвовать $20 миллионов, чтобы помочь тем, кто помогает нам всем. На подарок Вам — это подарок им!
С Новым Годов и Рождеством!

Официальное заявление компании и список организаций получателей на этой странице http://www.google.com/intl/ru/advertising/holiday2009/

Что же, отличное завершение года и отличный подарок! Будем надеяться, что инициатива Google будет поддержана другими компаниями и простыми людьми. И следующий год будет, помимо всего прочего, годом взаимопомощи, сострадания и участия :)

inurl и у Яндекса

Как оказалось уже больше месяца Яндекс ввел новый (для себя) оператор расширенного запроса inurl. Данный факт не может не радовать :)

Правда, в отличии от Google, запрос необходимо делать так inurl=»text»
(у Google inurl:text).

Праздное наблюдение за поисковыми ботами

Перепутье дорогНочью на проекте Битва экстрасенсов произвел небольшую реорганизацию. Перенес форум из директории на поддомен. Все по правилам, с 301 редиректом и прописыванием директивы Host для Yandex в robots.txt :) А пару минут назад решил посмотреть в логи, понаблюдать за ботами.

Очень порадовал бот Google, который уже перешел на поддомен и уже обжился там. Практически прописался :)

А что же происходит с ботом Yandex? А он все еще долбится в директорию, получая каждый раз 301 ответ сервера. При этом на поддомене он еще не появился. Ждем :)

Перенос форума из директории на поддомен был связан с тем, что сам сайт плохо индексировался. Как известно, у каждой ПС есть свой лимит индексации для каждого сайта. Как правило, лимит зависит от частоты обновлений сайта. В данном случае поисковые боты провисали в бесконечных тредах форума, а страницы основного сайта оставались без внимания. И, как следствие, медленное движение в поисковой выдаче и поздняя реакция на производимые изменения.

Главный вывод таков, что, если на сайте планируется иметь разделы с по-разному структурированной информацией (основной сайт со статьями и прочими «о компании», блог, форум, wiki и т.д.), то лучше выносить каждый тип на отдельный поддомен. Это улучшит индексацию каждого элемента в отдельности и всего сайта в целом. А иногда и два сниппета в серпе :D

cerca_google_texa

Google все ближе и ближе к мировому господству

cerca_google_texaКомпания Google объвила о запуске «своей» операционной системы, базирующейся на Linux и браузере Google Chrome. Все необходимые приложения компания предлагает запускать на собственных серверах через браузер. С одной стороны, подобное решение позволит серьезно разгрузить персональные устройства, а с другой получает доступ ко всей персональной и рабочей информации. В принципе, и сейчас Google располагает исчерпывающими данными о пользователях поиска, документов и почты. И пока что эта информация используется исключительно для таргеттинга рекламных объявлений. На собственном опыту могу сказать, что реклама от Google самая релевантная и странице, на которой располагается и поведенчесим предпочтениям.

Навеяло: http://slon.ru/articles/79848/

Вот так вот :)

Google тоже дышит

Физик Алекс Уисснер-Гросс из Гарвардского университета США решил изучить, к каким последствиям для окружающей среды приводит использование Google, и подсчитал, сколько углекислого газа вырабатывает система, чтобы удовлетворить любопытство интернет-пользователя.

Он выяснил, что при обработке поисковиком одного запроса пользователя вырабатывается около 7 граммов углекислого газа. Для сравнения, при кипении воды в электрическом чайнике в атмосферу попадает около 15 граммов СО2.

Ученый утверждает, что все объясняется энергозатратами при работе как компьютерного терминала, с которого делается запрос, так и электронных баз данных Google по всему миру.

Google известен быстротой поиска результатов. Однако Уисснер-Гросс объясняет эту скорость тем, что поисковик использует несколько баз данных одновременно, что приводит к большему объему выброса углекислого газа, чем при поиске с помощью конкурентов Google.

По подсчетам ученого, каждая минута, проведенная нами в интернете, оборачивается выбросом 0,02 грамма CO2.

Сами по себе эти цифры кажутся очень небольшими, если не учитывать, что каждый день интернет-поисковики обрабатывают примерно 200 миллионов запросов.

http://news.bbc.co.uk/low/russian/sci/tech/newsid_7823000/7823626.stm

И всетаки он живой! =)

Мета-теги для ботов

<meta name = «Robots» content = «noindex, nofollow»> — запрет индексации страницы и всех ссылок на ней.
<meta name = «Robots» content = «noindex, follow»> — не индексировать страницу, пройтись только по ссылкам
<meta name = «Robots» content = «index, nofollow»> — индексация страницы, но не индексировать ссылки.

d-s-v.jpg

Яндекс и его "совершенный" индекс

d-s-v Заметил, что у Яндкса могут быть разные базы серпа для различных тематик. Яндекс хранит разный кэш сайта для нескольких тематик, в которых он участвует. Различия в версиях, сохраненного в кэш, сайта. По основной тематике, по которой продвигается сайт, обноволяется в кэше чаще, чем по неосновной тематике.

И это довольно сильно напрягает.

Будем надеяться, что при активизации работы над сайтом по новой тематике, скорость индексации будет выше и не будет проблем с продвижением в принципе.