Vulnerabilidade em sites: Robots.txt


Saudações, legião! Hoje estarei dando uma dica a respeito de uma vulnerabilidade que notei durante meus estudos para sites mais novos que utilizam recursos do Google. Trata-se do arquivo robots.txt, uma tecnologia que surgiu praticamente junto com os sites de busca, como o Google, Yahoo e Bing. Vamos conhecer mais sobre o assunto.

Como o próprio nome já diz, robots.txt é um arquivo no formato .txt (bloco de notas). Funciona como um filtro para os robôs dos sites de busca e faz com que os webmasters controlem permissões de acesso a determinadas páginas ou pastas dos sites. O robots.txt controla qual informação de um site deve ou não deve ser indexada pelos sites de busca.

É possível buscar e acessar, através do próprio Google, os arquivos robots.txt de vários sites famosos e seguros. Mas, como sabemos, nada é 100% seguro, e é possível sim explorar vulnerabilidades através desse recurso.

Para acessar um arquivo como este, basta digitar na barra de busca do Google:

filetype:txt robots.txt Allow

Sendo o robots.txt um arquivo que mostra todos os diretórios de um site e os que são possíveis ser acessados através do Google abertamente ou não, basta verificar isso observando as palavras "Allow" (Permitir), que significa que o diretório é permitido, e "Disallow"(Não permitir), que significa que o diretório não é permitido.

Sendo assim, tendo encontrado um diretório "/password", por exemplo, com o parâmetro Allow, é possível acessar pelo Google ou pela barra de endereços (adicionando o nome do diretório ao final do link do site) todas as senhas de um site qualquer. Ou se ele for invadido e esse parâmetro for alterado no arquivo, também é possível deixar aberto para qualquer um acessar seus arquivos.

Lembrando que essa técnica é considerada black hat, ou cracking, e é crime. Portanto, seja responsável por seus próprios atos.

Comentários