19 Ekim 2010 Salı

HE:WA-C2 Search Tools and Automated Crawling






Using Search Tools For Profiling

Google ve benzeri bir arama motoru ile site crawl edilir (http://webuygulamalariguvenligi.blogspot.com/search/label/Google%20Hacking). 1-2 örnek sorgu:

  • "site:www.victim.com" (tırnaklarla beraber) è www.victim.com içeren URL'leri araştırmak için.
  • related:www.victim.com è farklı sayfalardan benzer içerikli sonuçlar döner.
  • site:victim.com è mail.victim.com, beta.victim.com gibi sonuçlar döner.

Robots.txt

Altın madeni gibidir bu dosya. Siteler artık kullanmıyordur bu dosyaları diye düşünüyorsanız Google'da şunu deneyin: "parent directory" robots.txt (tırnaklarla beraber). Dosya içeriği örneği:

[root@meddle]# getit.sh www.victim.com /robots.txt

User-agent: *

Disallow: /Admin/

Disallow: /admin/

Disallow: /common/

Disallow: /cgi-bin/

Disallow: /scripts/



Automated Web Crawling

DİKKAT: Burada başka işler de yapan web açıklık tarama araçlarından söz edilmiyor, ileride değinilecek bunlara.

Lynx

Unix sistemleri için text tabanlı web tarayıcı. Basit URL'leri capture etmek için hala çok iyi bir araç. "getit" scriptlerine göre temel avantajı, HTTP basic authentication gerektiren sitelerde –auth parametresi ile kullanılabilmesi (-crawl, -traversal gibi diğer opsiyonlar için lynx komutunu inceleyin):

[root@meddle]# lynx -source https://www.victim.com/private/index.html

Looking up www.victim.com

Making HTTPS connection to 192.168.201.2

Secure 168-bit TLSv1/SSLv3 (EDH-RSA-DES-CBC3-SHA) HTTP connection

Sending HTTP request.

HTTP request sent; waiting for response.

Alert!: Can't retry with authorization! Contact the server's WebMaster.

Can't Access `https://192.168.201.2/private/index.html'

Alert!: Unable to access document.

lynx: Can't access startfile

[root@meddle]# lynx -source -auth=user:pass \

> https://63.142.201.2/private/index.html

<!DOCTYPE HTML PUBLIC "-//W3C//DTD HTML 3.2 FINAL//EN">

<HTML>

<HEAD>

...



Wget

Windows ve Unix sistemler için web sitesinin içeriğini indirmek için command-line aracı. Tek amacı vardır, web sitesinden dosyaları alır. Bu dosyaları değerlendirmek için başka araçlara ihtiyaç duyulabilir. –r yada --recursive parametreleri ana sayfadaki tüm linkleri takip için. Avantajları:

  • Tüm olası linkleri takip eder,
  • Proxy destekler,
  • HTTP basic authentication destekler

Teleport Pro

Windows sistemler için görsel wget aracı.

Black Widow

Teleport Pro ürününün kabiliyetlerini genişletir; grafik arayüzü vardır. Dosyaları kendi sabit diskinize kopyalamanıza izin verir.

Paros

Hiç yorum yok:

Yorum Gönder

Web Uygulama Sızma Testleri İçin Kontrol Listeleri - V

Checklist for Web App Pentesting - V 6. Veri Denetimi (Data Validation) Testleri 6.1 Girdi Denetimi Bütün girdiler denetlenmelidir....