quarta-feira, 16 de janeiro de 2008

Adicione seu Blog/Site ao buscador Google

Entendendo seus funcionamentos e conceitos de forma simples e objetiva:



Adicione seu Blog/Site ao buscador Google e receba visitas do mundo inteiro.

Como voces ja devem ter ouvido os sites de redirecionamento são conhecidos pelo nome de Spiders. (Aranhas)
Talvez você não saiba, mas existem robôs especializados em visitar sites e coletar o material visitado.
Eles são conhecidos como spiders ou crawlers e tem como missão indexar o conteúdo de sites para servir de resposta para sites de busca. Isto significa que para uma página aparecer em um resultado de busca, um spider a visitou antes. Por isto que algumas páginas demoram um tempo para aparecer nos sites de busca.
Cada spider de um site de busca tem um nome que serve para identificá-lo. O spider do Google por exemplo se chama Googlebot. O Googlebot funciona "lendo" e armazenando o conteúdo da página além de coletar todos os links presentes na página. Estes links servirão para o Google montar o PageRank (ranking de paginas mais visitadas) e também para descobrir novas páginas.

REGRA PARA SITES

Robots.txt

Outros agentes mais conhecidos são o Yahoo! Slurp, o MSNBot. Eles tem algumas características próprias, mas no geral seguem alguma regras comuns. Uma delas é obedecer as diretrizes do seu site através de um arquivo conhecido como robots.txt. Este é o primeiro arquivo que os spider procuram em seu site e é interpretado linha a linha. Ele fica hospedado na raiz do site. Caso queira ver exemplo real, acesse: www.webpaulo.com/robots.txt.
O arquivo é em texto e possui dois comandos principais. O primeiro é o User-agent, que define qual é o agente que será afetado pelo comando posto abaixo dele. Se no lugar do nome do agente, for colocado um asterisco, as regras serão postas para todos os agentes. Se for colocado o nome do agente, apenas aquele agente seguirá as regras.
Obs: O blogspot ao meu ver não necessita da criação deste arquivo Robots.txt


0 comments: