Autor: @cassiov1ru5
Ferramenta: Robots Explorer
Objetivos:
Ler o arquivo Robots.txt de um domínio.
Listar os diretórios que o administrador não quer que os mecanismos de busca indexem.
Exploitar os diretório em busca de um HTTP Status Code 200, o que afirma que o diretório está "aberto", no caso o server não foi configurador contra Directory Listing.
Linguagem: C#
Versão: 0.0.1
Github: https://github.com/cassiodeveloper/robotsexplorer
Mini cv:
Formado em Análise e Desenvolvimento de Sistemas e MBA em Arquitetura de Software pela FIAP e especilista em Computação Forense pelo Mackenzie, é bém professor na Universidade Anhanguera e com mais de 10 anos de experiência na área de desenvolvimento de software, e boas práticas no desenvolvimento de código seguro, mobile e segurança da informação.