5. 🌐 لابات HTTP (خوادم الويب: IIS و Apache)

5.1 💻 لاب: Windows Recon – IIS Lab

🎯 الهدف الأساسي:

استكشاف خادم الويب IIS على Windows، وتحديد إصدارات ASP.NET، وحالة حماية XSS، وصفحات إعادة التوجيه الافتراضية، واستخدام أدوات مثل WhatWeb و Dirb و Browsh لجمع معلومات حساسة قد تكشف عن ثغرات.

🔧 الخطوات العملية للاستغلال (تحديد نقاط الضعف):

  1. بصمة خادم الويب وخدماته (WhatWeb):

    • لو أردت جمع معلومات مفصلة عن خادم الويب IIS والتطبيقات المستخدمة (مثال: ASP.NET, IIS 10.0)، وحالة حماية XSS:

      whatweb -v http://<Target_IP>

      🔍 إشارة تنبيه: ابحث عن X-XSS-Protection: 0 (يعني الحماية معطلة) أو إصدارات قديمة من الخادم/التطبيقات. هذا يشير إلى ضعف محتمل لهجمات Cross-Site Scripting (XSS).

  2. فحص إعادة التوجيه الافتراضية (HTTP.py):

    • لو أردت التحقق من سلوك إعادة التوجيه لصفحات الويب (مثال: default.aspx):

      http http://<Target_IP>

      🔍 إشارة تنبيه: رمز الاستجابة 302 Found يعني أن الصفحة موجودة ولكنها تقوم بإعادة التوجيه إلى مكان آخر (مثلاً default.aspx)، وهذا قد يكشف عن مسارات افتراضية مهمة.

  3. تعداد الأدلة والملفات المخفية (Dirb):

    • لو أردت اكتشاف الأدلة (Directories) والملفات المخفية على خادم الويب باستخدام قاموس كلمات:

      dirb http://<Target_IP>

      🔗 ربط سلسلة الأدوات: ناتج dirb (مثل /admin, /backup, /upload) يكشف عن مسارات محتملة للاستغلال. 🔍 إشارة تنبيه: Dirb أداة قوية جداً للعثور على المسارات المخفية التي قد تحتوي على "معلومات قيمة (Juicy Information)" مثل ملفات النسخ الاحتياطي أو كلمات المرور القديمة.

  4. تصفح الويب من سطر الأوامر (Browsh):

    • لو أردت تصفح الصفحة الرئيسية أو صفحة إعادة التوجيه (مثلاً default.aspx) من سطر الأوامر (في حال عدم وجود واجهة رسومية):

      browsh --startup-url http://<Target_IP>/default.aspx

      🔗 ربط سلسلة الأدوات: browsh يسمح لك برؤية المحتوى المرئي للصفحة في الطرفية.

🚀 سيناريو تحدي: العثور على منطقة قابلة للاستغلال في خادم IIS:

الهدف: اكتشف موقعاً إلكترونياً ضعيفاً يسمح بتنفيذ XSS أو يمتلك مجلدات حساسة يمكن الوصول إليها.

  • الخطوات:

    1. لو حصلت على IP الهدف:

    2. ابحث عن معلومات عامة ونقاط ضعف معروفة:

      • ابحث في النتيجة عن X-XSS-Protection: 0 أو إصدارات IIS قديمة.

    3. ابحث عن أدلة مخفية:

      • ابحث عن أدلة مثل /admin, /dev, /upload, /backup.

    4. حاول زيارة أي دليل مشبوه اكتشفته باستخدام browsh أو curl (غير مذكور صراحة في هذا السياق، لكن curl يستخدم لجلب محتوى الويب):


5.2 💻 لاب: Windows Recon – IIS Nmap Scripts Lab

🎯 الهدف الأساسي:

استخدام سكريبتات Nmap لاستخراج معلومات عن رؤوس HTTP (HTTP Headers)، وتحديد طرق HTTP المدعومة، واستكشاف تثبيتات WebDAV، مما يكشف عن نقاط ضعف محتملة.

🔧 الخطوات العملية للاستغلال (تحديد نقاط الضعف):

  1. تعداد الأدلة المثيرة للاهتمام (Interesting Directories):

    • لو أردت اكتشاف الأدلة المخفية أو المهمة على خادم الويب (مثل content, downloads, webdav):

      🔗 ربط سلسلة الأدوات: هذه الأدلة المكتشفة يمكن أن تكون مدخلاً لـ http-methods.

  2. استخراج رؤوس HTTP (HTTP Headers):

    • لو أردت جمع معلومات مفصلة من رؤوس HTTP، مثل إصدارات ASP.NET، والكوكيز، وسلوك إعادة التوجيه:

      🔍 إشارة تنبيه: هذا الأمر يكشف عن تفاصيل مثل إصدار IIS، وإذا كان هناك إعادة توجيه لصفحة افتراضية (مثلاً default.aspx).

  3. تحديد طرق HTTP المدعومة (Allowed HTTP Methods):

    • لو أردت تحديد طرق HTTP المسموح بها على الخادم (مثال: GET, POST, OPTIONS, TRACE, PUT, DELETE)، خاصة في أدلة مثل webdav:

      🔍 إشارة تنبيه: وجود طرق مثل PUT أو DELETE على أدلة معينة يمكن أن يكون خطيراً جداً، حيث يسمح للمهاجمين بتحميل أو حذف الملفات.

  4. فحص تثبيتات WebDAV:

    • لو أردت استكشاف تثبيتات WebDAV وتحديد الطرق المدعومة عليها:

      🔗 ربط سلسلة الأدوات: هذا السكريبت يقدم معلومات مشابهة لـ http-methods ولكن يركز على WebDAV.

🚀 سيناريو تحدي: البحث عن طرق HTTP خطيرة في مجلد webdav:

الهدف: اكتشف ما إذا كان خادم الويب IIS يسمح بطرق HTTP خطيرة (مثل PUT أو DELETE) على مجلد webdav، والتي يمكن استغلالها لتحميل أو حذف الملفات.

  • الخطوات:

    1. لو اكتشفت المنفذ 80 مفتوحاً، استخدم http-enum للتأكد من وجود مجلد webdav:

    2. استخدم http-methods لفحص الطرق المدعومة على مجلد webdav:

      • 🔍 إشارة تنبيه: ابحث في الناتج عن PUT أو DELETE ضمن الطرق المسموح بها (Allowed methods).


5.3 💻 لاب: Apache Recon – Basics Lab

🎯 الهدف الأساسي:

اكتشاف خادم الويب Apache، وعرض محتويات صفحات الويب باستخدام أدوات مثل Curl و Wget و Browsh، وتعداد الأدلة (Directories) عبر Metasploit و Dirb، وفحص ملف robots.txt للكشف عن مسارات حساسة.

🔧 الخطوات العملية للاستغلال (تحديد نقاط الضعف):

  1. تحديد إصدار خادم الويب (Apache):

    • لو أردت تحديد إصدار خادم الويب (مثلاً Apache 2.4.18):

      🔍 إشارة تنبيه: معرفة الإصدار تساعد في البحث عن الثغرات المعروفة.

  2. عرض محتويات صفحة الويب (Curl و Wget):

    • لو أردت عرض محتوى صفحة الويب (كـ Source Code) في سطر الأوامر:

      🔗 ربط سلسلة الأدوات: هذا الأمر يظهر الكود المصدري للصفحة (مثال: Apache2 Ubuntu Default Page).

    • لو أردت تحميل الصفحة الرئيسية كملف HTML محلي:

      🔗 ربط سلسلة الأدوات: wget يقوم بتنزيل ملف index.html، والذي يمكنك قراءته لاحقاً بـ cat.

  3. تصفح الويب من سطر الأوامر (Browsh / Links):

    • لو أردت تصفح الصفحة في الطرفية (Terminal) كما لو كانت في متصفح رسومي:

      🔗 ربط سلسلة الأدوات: هذه الأدوات تتيح لك رؤية المحتوى المرئي للصفحة في الطرفية.

  4. تعداد الأدلة (Directories) باستخدام Metasploit و Dirb:

    • لو أردت اكتشاف الأدلة المخفية أو المهمة على خادم الويب باستخدام Metasploit dir_scanner:

      🔗 ربط سلسلة الأدوات: هذا الموديول يكشف عن أدلة مثل /dir و /source. 🔍 إشارة تنبيه: رموز الاستجابة 200 تعني أن الدليل موجود ومتاح.

    • لو أردت تعداد الأدلة باستخدام Dirb مع قاموس كلمات مخصص:

      🔗 ربط سلسلة الأدوات: Dirb يمكن أن يكشف عن أدلة قد لا تظهرها أدوات أخرى (مثال: /data ).

  5. فحص ملف robots.txt:

    • لو أردت قراءة ملف robots.txt الذي قد يحتوي على مسارات لا يريد المسؤولون فهرستها (وبالتالي قد تكون حساسة):

      🔗 ربط سلسلة الأدوات: المسارات المكتشفة (مثال: Disallow: /admin/ أو Disallow: /cgi-bin/) يمكن استكشافها يدوياً باستخدام curl أو متصفح. 🔍 إشارة تنبيه: مسارات Disallow في robots.txt هي معلومات ذهبية، لأنها غالباً ما تكون مناطق حساسة في الموقع.

🚀 سيناريو تحدي: العثور على معلومات حساسة في robots.txt ومجلدات مخفية:

الهدف: اكتشف ملف robots.txt وأي مسارات Disallow، ثم استخدم dirb للعثور على أدلة إضافية.

  • الخطوات:

    1. لو حصلت على IP الهدف:

    2. ابحث عن مسارات Disallow في robots.txt:

      • ابحث في الناتج عن Disallow: /<path> (مثال: Disallow: /cgi-bin/).

    3. استخدم dirb لتعداد الأدلة المخفية:

      • ابحث عن أدلة جديدة (مثال: /data) لم تظهرها الأداة السابقة.

    4. حاول الوصول إلى أي مسار Disallow أو دليل جديد اكتشفته:

Last updated