🧪 LAB 1: استطلاع المواقع وجمع البصمات (Website Recon & Footprinting)

🎯 الهدف الأساسي: جمع المعلومات عن موقع إلكتروني باستخدام مصادر متاحة للجمهور دون التفاعل المباشر مع الهدف.

🔧 الأدوات المستخدمة:

  • ئـ host

  • متصفح ويب (Firefox/Chrome)

  • ملف robots.txt

  • ملف sitemap.xml

  • إضافات المتصفح (BuiltWith, Wappalyzer)

  • ئـ whatweb

  • ئـHTTrack (أو WebHTTrack)

📜 خطوات التنفيذ:

📊 مرحلة الاستطلاع السلبي (Passive Reconnaissance):

الحصول على عنوان IP:

  • افتح Terminal في Kali Linux.

  • 🔧 نفذ الأمر التالي للحصول على عناوين IP للموقع:

    host hackersloit.org
  • إذا نفذت الأمر بتحصل على عناوين IPv4 و IPv6 للخادم الذي يستضيف الموقع.

  • 🔑 ملاحظة ذهبية: إذا ظهرت عناوين IP كثيرة يمكن انه في وكيل (Proxy) أو جدار حماية (Firewall) مثل Cloudflare يحمي الموقع.

فحص ملف robots.txt:

  • افتح المتصفح وتوجه إلى http://[TargetDomain]/robots.txt.

  • تحاول تعرف وش الصفحات المخفية .

فحص ملف sitemap.xml:

  • افتح المتصفح وتوجه إلى http://[TargetDomain]/sitemap.xml.

  • يعرض هذا الملف الخريطة المنظمة للموقع .

استخدام إضافات المتصفح:

  • 🔧 الأدوات: BuiltWith (أو Wappalyzer).

  • بعد تثبيت الإضافة (مثلاً Wappalyzer لـ Firefox أو Chrome)، افتح الموقع المستهدف في المتصفح.

  • انقر على أيقونة الإضافة في المتصفح. بتعرض الإضافة تقريرًا مفصلاً عن التقنيات المستخدمة في الموقع، مثل نظام إدارة المحتوى (CMS)، إضافات WordPress، مكتبات JavaScript، وشبكات توصيل المحتوى (CDN).

استخدام أداة whatweb:

  • افتح Terminal في Kali Linux.

  • 🔧 نفذ الأمر التالي لتحديد تقنيات الويب:

  • هذا الأمر يفحص فحص شامل لتحديد تقنيات الويب المستخدمة بما في ذلك إصدارات PHP والسيرفر.

تنزيل الموقع بالكامل باستخدام HTTrack:

  • 🔧 تثبيت الأداة (إذا لم تكن مثبتة):

  • 🔧 تشغيل الأداة:

  • 🗣️ ستفتح واجهة رسومية. اتبع المعالج لإنشاء مشروع جديد، وتحديد اسم المشروع ومسار الحفظ.

  • 🗣️ أدخل عنوان URL للموقع المستهدف.

  • 🗣️ ستقوم الأداة بتنزيل نسخة من الموقع محليًا بحيث يتيح لك تحليل الكود المصدري والبنية .

نقاط التحقق: جاوب نفسك بحيث تتاكد 👍.

  • هل تم تحديد عنوان (أو عناوين) IP للموقع بنجاح؟

  • هل تم العثور على أي مسارات مخفية أو محظورة في ملف robots.txt؟

  • هل تم استعراض خريطة الموقع وتحديد صفحات إضافية؟

  • هل تم التعرف على التقنيات المستخدمة في الموقع باستخدام إضافات المتصفح وwhatweb؟

  • هل تم تنزيل نسخة من الموقع بنجاح باستخدام HTTrack؟

Last updated