80,443 - Pentesting Web Μεθοδολογία

Tip

Μάθετε & εξασκηθείτε στο AWS Hacking:HackTricks Training AWS Red Team Expert (ARTE)
Μάθετε & εξασκηθείτε στο GCP Hacking: HackTricks Training GCP Red Team Expert (GRTE) Μάθετε & εξασκηθείτε στο Azure Hacking: HackTricks Training Azure Red Team Expert (AzRTE)

Υποστηρίξτε το HackTricks

Βασικές Πληροφορίες

Η web υπηρεσία είναι η πιο συνηθισμένη και εκτεταμένη και υπάρχουν πολλοί διαφορετικοί τύποι ευπαθειών.

Προεπιλεγμένη θύρα: 80 (HTTP), 443(HTTPS)

PORT    STATE SERVICE
80/tcp  open  http
443/tcp open  ssl/https
nc -v domain.com 80 # GET / HTTP/1.0
openssl s_client -connect domain.com:443 # GET / HTTP/1.0

Οδηγίες για Web API

Web API Pentesting

Περίληψη μεθοδολογίας

Σε αυτή τη μεθοδολογία υποθέτουμε ότι πρόκειται να επιτεθείτε σε ένα domain (ή subdomain) και μόνο αυτό. Επομένως, πρέπει να εφαρμόσετε αυτή τη μεθοδολογία σε κάθε ανιχνευμένο domain, subdomain ή IP με αδιευκρίνιστο web server εντός του scope.

  • Ξεκινήστε με το εντοπισμό των τεχνολογιών που χρησιμοποιεί ο web server. Αναζητήστε κόλπα που πρέπει να έχετε υπόψη κατά την υπόλοιπη δοκιμή αν καταφέρετε να εντοπίσετε την τεχνολογία.
  • Υπάρχει κάποια known vulnerability στην έκδοση της τεχνολογίας;
  • Χρησιμοποιείται κάποια well known tech; Υπάρχει κάποιο useful trick για να εξάγετε περισσότερες πληροφορίες;
  • Υπάρχει κάποιος specialised scanner που πρέπει να τρέξετε (π.χ. wpscan);
  • Εκτελέστε general purposes scanners. Δεν ξέρετε αν θα βρουν κάτι ή αν θα αποκαλύψουν ενδιαφέρουσες πληροφορίες.
  • Ξεκινήστε με τα initial checks: robots, sitemap, 404 error και SSL/TLS scan (αν HTTPS).
  • Ξεκινήστε το spidering της σελίδας: Είναι ώρα να βρείτε όλα τα πιθανά files, folders και parameters being used. Επίσης, ελέγξτε για special findings.
  • Σημειώστε ότι κάθε φορά που ανακαλύπτεται ένας νέος κατάλογος κατά το brute-forcing ή το spidering, θα πρέπει να γίνει spidering.
  • Directory Brute-Forcing: Προσπαθήστε να brute force όλα τα ανακαλυφθέντα folders ψάχνοντας για νέα files και directories.
  • Σημειώστε ότι κάθε φορά που ανακαλύπτεται ένας νέος κατάλογος κατά το brute-forcing ή το spidering, θα πρέπει να γίνει Brute-Forced.
  • Backups checking: Ελέγξτε αν μπορείτε να βρείτε backups των discovered files προσθέτοντας κοινές επεκτάσεις backup.
  • Brute-Force parameters: Προσπαθήστε να βρείτε κρυφές παραμέτρους.
  • Μόλις έχετε identified όλα τα πιθανά endpoints που δέχονται user input, ελέγξτε για κάθε είδους vulnerabilities που σχετίζονται με αυτά.
  • Follow this checklist

Server Version (Vulnerable?)

Αναγνώριση

Ελέγξτε αν υπάρχουν known vulnerabilities για την version του server που τρέχει.
Οι HTTP headers and cookies of the response μπορεί να είναι πολύ χρήσιμες για να identify τις technologies και/ή την version που χρησιμοποιείται. Το Nmap scan μπορεί να εντοπίσει την έκδοση του server, αλλά επίσης χρήσιμα μπορεί να είναι τα εργαλεία whatweb, webtech or https://builtwith.com/:

whatweb -a 1 <URL> #Stealthy
whatweb -a 3 <URL> #Aggresive
webtech -u <URL>
webanalyze -host https://google.com -crawl 2

Search for vulnerabilities of the web application version

Ελέγξτε αν υπάρχει WAF

Κόλπα Web τεχνολογιών

Μερικά κόλπα για finding vulnerabilities σε διάφορες γνωστές technologies που χρησιμοποιούνται:

Λάβετε υπόψη ότι το same domain μπορεί να χρησιμοποιεί different technologies σε διαφορετικά ports, folders και subdomains.
Αν η web εφαρμογή χρησιμοποιεί κάποια γνωστή tech/platform listed before ή any other, μην ξεχάσετε να search on the Internet για νέα κόλπα (και ενημερώστε με!).

Source Code Review

Αν ο source code της εφαρμογής είναι διαθέσιμος στο github, εκτός από το να πραγματοποιήσετε από εσάς έναν White box test της εφαρμογής, υπάρχουν κάποιες πληροφορίες που θα μπορούσαν να είναι useful για το τρέχον Black-Box testing:

  • Υπάρχει ένα Change-log or Readme or Version αρχείο ή κάτι με version info accessible μέσω web;
  • Πώς και πού αποθηκεύονται τα credentials; Υπάρχει κάποιο (accessible?) file με credentials (usernames ή passwords);
  • Είναι τα passwords σε plain text, encrypted ή ποιος hashing algorithm χρησιμοποιείται;
  • Χρησιμοποιεί κάποιο master key για την κρυπτογράφηση κάποιου πράγματος; Ποιος algorithm χρησιμοποιείται;
  • Μπορείτε να access any of these files εκμεταλλευόμενοι κάποια vulnerability;
  • Υπάρχει κάποια interesting information in the github (solved and not solved) issues; ή στο commit history (ίσως κάποιο password introduced inside an old commit)?

Source code Review / SAST Tools

Αυτόματοι σαρωτές

Αυτόματοι σαρωτές γενικής χρήσης

nikto -h <URL>
whatweb -a 4 <URL>
wapiti -u <URL>
W3af
zaproxy #You can use an API
nuclei -ut && nuclei -target <URL>

# https://github.com/ignis-sec/puff (client side vulns fuzzer)
node puff.js -w ./wordlist-examples/xss.txt -u "http://www.xssgame.com/f/m4KKGHi2rVUN/?query=FUZZ"

CMS scanners

Αν χρησιμοποιείται CMS, μην ξεχάσεις να run a scanner, ίσως βρεθεί κάτι ενδιαφέρον:

Clusterd: JBoss, ColdFusion, WebLogic, Tomcat, Railo, Axis2, Glassfish
CMSScan: WordPress, Drupal, Joomla, vBulletin ιστότοποι για θέματα ασφάλειας. (GUI)
VulnX: Joomla, Wordpress, Drupal, PrestaShop, Opencart
CMSMap: (W)ordpress, (J)oomla, (D)rupal ή (M)oodle
droopscan: Drupal, Joomla, Moodle, Silverstripe, Wordpress

cmsmap [-f W] -F -d <URL>
wpscan --force update -e --url <URL>
joomscan --ec -u <URL>
joomlavs.rb #https://github.com/rastating/joomlavs

Σε αυτό το σημείο θα πρέπει ήδη να έχετε κάποιες πληροφορίες για τον web server που χρησιμοποιεί ο client (αν έχουν δοθεί δεδομένα) και κάποια κόλπα που πρέπει να έχετε υπόψη κατά τη διάρκεια του τεστ. Αν είστε τυχεροί ίσως έχετε βρει ένα CMS και να έχετε τρέξει κάποιο scanner.

Βήμα-βήμα Ανακάλυψη Web Application

Από αυτό το σημείο θα αρχίσουμε να αλληλεπιδρούμε με την Web Application.

Αρχικοί έλεγχοι

Default pages with interesting info:

  • /robots.txt
  • /sitemap.xml
  • /crossdomain.xml
  • /clientaccesspolicy.xml
  • /.well-known/
  • Ελέγξτε επίσης σχόλια στις κύριες και δευτερεύουσες σελίδες.

Προκαλώντας σφάλματα

Web servers μπορεί να συμπεριφερθούν απρόβλεπτα όταν τους αποστέλλονται περίεργα δεδομένα. Αυτό μπορεί να ανοίξει vulnerabilities ή να προκαλέσει αποκάλυψη ευαίσθητων πληροφοριών.

  • Πρόσβαση σε fake pages όπως /whatever_fake.php (.aspx,.html,.etc)
  • Προσθέστε “[]”, “]]”, και “[[” στις cookie values και στις parameter τιμές για να δημιουργήσετε σφάλματα
  • Δημιουργήστε σφάλμα δίνοντας είσοδο ως /~randomthing/%s στο τέλος του URL
  • Δοκιμάστε διαφορετικά HTTP Verbs όπως PATCH, DEBUG ή λάθος όπως FAKE

Ελέγξτε αν μπορείτε να ανεβάσετε αρχεία (PUT verb, WebDav)

Αν διαπιστώσετε ότι το WebDav είναι enabled αλλά δεν έχετε επαρκή δικαιώματα για uploading files στο root φάκελο δοκιμάστε να:

  • Brute Force credentials
  • Upload files via WebDav στους υπόλοιπους εντοπισμένους φακέλους μέσα στην ιστοσελίδα. Ίσως έχετε δικαιώματα για να ανεβάσετε αρχεία σε άλλους φακέλους.

SSL/TLS ευπάθειες

  • Αν η εφαρμογή δεν αναγκάζει τη χρήση HTTPS σε κανένα σημείο, τότε είναι vulnerable to MitM
  • Αν η εφαρμογή στέλνει ευαίσθητα δεδομένα (passwords) μέσω HTTP. Τότε είναι υψηλή ευπάθεια.

Χρησιμοποιήστε testssl.sh για να ελέγξετε για vulnerabilities (Σε προγράμματα Bug Bounty πιθανώς αυτού του είδους οι ευπάθειες να μην γίνονται αποδεκτές) και χρησιμοποιήστε a2sv για να επαληθεύσετε ξανά τις ευπάθειες:

./testssl.sh [--htmlfile] 10.10.10.10:443
#Use the --htmlfile to save the output inside an htmlfile also

# You can also use other tools, by testssl.sh at this momment is the best one (I think)
sslscan <host:port>
sslyze --regular <ip:port>

Πληροφορίες σχετικά με τις ευπάθειες SSL/TLS:

Spidering

Εκκινήστε κάποιο είδος spider μέσα στο web. Ο στόχος του spider είναι να βρει όσο το δυνατόν περισσότερες διαδρομές από την εφαρμογή που δοκιμάζεται. Επομένως, web crawling και εξωτερικές πηγές πρέπει να χρησιμοποιηθούν για να βρεθούν όσες περισσότερες έγκυρες διαδρομές είναι δυνατόν.

  • gospider (go): HTML spider, LinkFinder in JS files and external sources (Archive.org, CommonCrawl.org, VirusTotal.com).
  • hakrawler (go): HML spider, with LinkFider for JS files and Archive.org as external source.
  • dirhunt (python): HTML spider, also indicates “juicy files”.
  • evine (go): Interactive CLI HTML spider. It also searches in Archive.org
  • meg (go): This tool isn’t a spider but it can be useful. You can just indicate a file with hosts and a file with paths and meg will fetch each path on each host and save the response.
  • urlgrab (go): HTML spider with JS rendering capabilities. However, it looks like it’s unmaintained, the precompiled version is old and the current code doesn’t compile
  • gau (go): HTML spider that uses external providers (wayback, otx, commoncrawl)
  • ParamSpider: This script will find URLs with parameter and will list them.
  • galer (go): HTML spider with JS rendering capabilities.
  • LinkFinder (python): HTML spider, with JS beautify capabilities capable of search new paths in JS files. It could be worth it also take a look to JSScanner, which is a wrapper of LinkFinder.
  • goLinkFinder (go): To extract endpoints in both HTML source and embedded javascript files. Useful for bug hunters, red teamers, infosec ninjas.
  • JSParser (python2.7): A python 2.7 script using Tornado and JSBeautifier to parse relative URLs from JavaScript files. Useful for easily discovering AJAX requests. Looks like unmaintained.
  • relative-url-extractor (ruby): Given a file (HTML) it will extract URLs from it using nifty regular expression to find and extract the relative URLs from ugly (minify) files.
  • JSFScan (bash, several tools): Gather interesting information from JS files using several tools.
  • subjs (go): Find JS files.
  • page-fetch (go): Load a page in a headless browser and print out all the urls loaded to load the page.
  • Feroxbuster (rust): Content discovery tool mixing several options of the previous tools
  • Javascript Parsing: A Burp extension to find path and params in JS files.
  • BurpJSLinkFinder Enhanced: Burp extension (Jython) that passively analyzes JavaScript responses (by MIME type and /js paths) to extract endpoints/links and optionally flag embedded secrets with severity.
  • Sourcemapper: A tool that given the .js.map URL will get you the beatified JS code
  • xnLinkFinder: This is a tool used to discover endpoints for a given target.
  • waymore: Discover links from the wayback machine (also downloading the responses in the wayback and looking for more links)
  • HTTPLoot (go): Crawl (even by filling forms) and also find sensitive info using specific regexes.
  • SpiderSuite: Spider Suite is an advance multi-feature GUI web security Crawler/Spider designed for cyber security professionals.
  • jsluice (go): It’s a Go package and command-line tool for extracting URLs, paths, secrets, and other interesting data from JavaScript source code.
  • ParaForge: ParaForge is a simple Burp Suite extension to extract the paramters and endpoints from the request to create custom wordlist for fuzzing and enumeration.
  • katana (go): Awesome tool for this.
  • Crawley (go): Print every link it’s able to find.

Brute Force directories and files

Ξεκινήστε brute-forcing από τον root φάκελο και βεβαιωθείτε ότι θα brute-force σε όλους τους βρεθέντες καταλόγους χρησιμοποιώντας αυτή τη μέθοδο και όλους τους καταλόγους που ανακαλύφθηκαν από το Spidering (μπορείτε να κάνετε αυτό το brute-forcing αναδρομικά και να προσθέσετε στην αρχή της χρησιμοποιούμενης wordlist τα ονόματα των βρεθέντων καταλόγων).
Εργαλεία:

  • Dirb / Dirbuster - Included in Kali, old (and slow) but functional. Allow auto-signed certificates and recursive search. Too slow compared with th other options.
  • Dirsearch (python): It doesn’t allow auto-signed certificates but allows recursive search.
  • Gobuster (go): It allows auto-signed certificates, it doesn’t have recursive search.
  • Feroxbuster - Fast, supports recursive search.
  • wfuzz wfuzz -w /usr/share/seclists/Discovery/Web-Content/raft-medium-directories.txt https://domain.com/api/FUZZ
  • ffuf - Fast: ffuf -c -w /usr/share/wordlists/dirb/big.txt -u http://10.10.10.10/FUZZ
  • uro (python): This isn’t a spider but a tool that given the list of found URLs will to delete “duplicated” URLs.
  • Scavenger: Burp Extension to create a list of directories from the burp history of different pages
  • TrashCompactor: Remove URLs with duplicated functionalities (based on js imports)
  • Chamaleon: It uses wapalyzer to detect used technologies and select the wordlists to use.

Recommended dictionaries:

Σημείωση: κάθε φορά που ανακαλύπτεται ένας νέος κατάλογος κατά το brute-forcing ή το spidering, θα πρέπει να γίνει Brute-Force σε αυτόν.

What to check on each file found

  • Broken link checker: Find broken links inside HTMLs that may be prone to takeovers
  • File Backups: Μόλις έχετε βρει όλα τα αρχεία, ψάξτε για backups όλων των εκτελέσιμων αρχείων (“.php”, “.aspx”…). Συνηθισμένες παραλλαγές ονοματοδοσίας για backup είναι: file.ext~, #file.ext#, ~file.ext, file.ext.bak, file.ext.tmp, file.ext.old, file.bak, file.tmp and file.old. Μπορείτε επίσης να χρησιμοποιήσετε το εργαλείο bfac ή backup-gen.
  • Discover new parameters: Μπορείτε να χρησιμοποιήσετε εργαλεία όπως Arjun, parameth, x8 και Param Miner για να ανακαλύψετε κρυφούς παράμετρους. Αν είναι δυνατόν, δοκιμάστε να αναζητήσετε κρυφές παραμέτρους σε κάθε εκτελέσιμο web αρχείο.
  • Arjun all default wordlists: https://github.com/s0md3v/Arjun/tree/master/arjun/db
  • Param-miner “params” : https://github.com/PortSwigger/param-miner/blob/master/resources/params
  • Assetnote “parameters_top_1m”: https://wordlists.assetnote.io/
  • nullenc0de “params.txt”: https://gist.github.com/nullenc0de/9cb36260207924f8e1787279a05eb773
  • Comments: Ελέγξτε τα σχόλια όλων των αρχείων — μπορείτε να βρείτε credentials ή κρυφές λειτουργικότητες.
  • Αν παίζετε CTF, ένα “κοινό” κόλπο είναι να κρύψετε πληροφορίες μέσα σε σχόλια στη δεξιά πλευρά της σελίδας (χρησιμοποιώντας εκατοντάδες κενά ώστε να μην φαίνεται το περιεχόμενο αν ανοίξετε τον πηγαίο κώδικα στο browser). Άλλη δυνατότητα είναι να χρησιμοποιήσετε πολλές νέες γραμμές και να κρύψετε πληροφορίες σε ένα σχόλιο στο κάτω μέρος της σελίδας.
  • API keys: Αν βρείτε κάποιο API key υπάρχει οδηγός που δείχνει πώς να χρησιμοποιήσετε API keys από διάφορες πλατφόρμες: keyhacks, zile, truffleHog, SecretFinder, RegHex, DumpsterDive, EarlyBird
  • Google API keys: Αν βρείτε κάποιο API key που μοιάζει με AIzaSyA-qLheq6xjDiEIRisP_ujUseYLQCHUjik μπορείτε να χρησιμοποιήσετε το project gmapapiscanner για να ελέγξετε σε ποιες apis έχει πρόσβαση το key.
  • S3 Buckets: Κατά το spidering ελέγξτε αν κάποιος subdomain ή κάποιος link σχετίζεται με κάποιο S3 bucket. Σε αυτή την περίπτωση, ελέγξτε τα permissions του bucket.

Special findings

Κατά την εκτέλεση του spidering και του brute-forcing μπορεί να βρείτε ενδιαφέροντα ευρήματα που πρέπει να προσέξετε.

Interesting files

  • Ψάξτε για links προς άλλα αρχεία μέσα στα CSS αρχεία.
  • If you find a .git file some information can be extracted
  • Αν βρείτε ένα .env μπορεί να βρεθούν πληροφορίες όπως api keys, dbs passwords και άλλα.
  • Αν βρείτε API endpoints θα πρέπει να τα δοκιμάσετε επίσης. Αυτά δεν είναι αρχεία, αλλά πιθανόν να “μοιάζουν” με αυτά.
  • JS files: Στην ενότητα spidering αναφέρθηκαν διάφορα εργαλεία που μπορούν να εξάγουν paths από JS files. Επίσης, είναι ενδιαφέρον να παρακολουθείτε κάθε JS αρχείο που βρέθηκε, καθώς σε κάποιες περιπτώσεις, μια αλλαγή μπορεί να δείχνει ότι εισήχθη μια πιθανή ευπάθεια στον κώδικα. Μπορείτε για παράδειγμα να χρησιμοποιήσετε JSMon.
  • Θα πρέπει επίσης να ελέγξετε τα ανακαλυφθέντα JS αρχεία με RetireJS ή JSHole για να δείτε αν είναι ευάλωτα.
  • Javascript Deobfuscator and Unpacker: https://lelinhtinh.github.io/de4js/, https://www.dcode.fr/javascript-unobfuscator
  • Javascript Beautifier: http://jsbeautifier.org/, http://jsnice.org/
  • JsFuck deobfuscation (javascript with chars:“[]!+” https://enkhee-osiris.github.io/Decoder-JSFuck/)
  • TrainFuck: +72.+29.+7..+3.-67.-12.+55.+24.+3.-6.-8.-67.-23.
  • Σε πολλές περιπτώσεις θα χρειαστεί να κατανοήσετε τις regular expressions που χρησιμοποιούνται. Αυτό θα βοηθήσει: https://regex101.com/ ή https://pythonium.net/regex
  • Μπορείτε επίσης να παρακολουθείτε τα αρχεία όπου ανιχνεύτηκαν φόρμες, καθώς μια αλλαγή σε μια παράμετρο ή η εμφάνιση μιας νέας φόρμας μπορεί να υποδείξει μια νέα πιθανή ευάλωτη λειτουργικότητα.

403 Forbidden/Basic Authentication/401 Unauthorized (bypass)

403 & 401 Bypasses

502 Proxy Error

Αν κάποια σελίδα απαντήσει με αυτόν τον κωδικό, πιθανότατα πρόκειται για κακώς ρυθμισμένο proxy. Αν στείλετε ένα HTTP request όπως: GET https://google.com HTTP/1.1 (με το host header και άλλα κοινά headers), ο proxy θα προσπαθήσει να πρόσβαση στο google.com και θα έχετε βρει ένα SSRF.

NTLM Authentication - Info disclosure

Αν ο server που ζητάει authentication είναι Windows ή βρείτε μια login φόρμα που ζητάει τα credentials σας (και ζητάει domain name), μπορείτε να προκαλέσετε αποκάλυψη πληροφοριών.
Στείλτε το header: “Authorization: NTLM TlRMTVNTUAABAAAAB4IIAAAAAAAAAAAAAAAAAAAAAAA=” και λόγω του τρόπου που λειτουργεί το NTLM authentication, ο server θα απαντήσει με εσωτερικές πληροφορίες (έκδοση IIS, έκδοση Windows…) μέσα στο header “WWW-Authenticate”.
Μπορείτε να αυτοματοποιήσετε αυτό χρησιμοποιώντας το nmap pluginhttp-ntlm-info.nse”.

HTTP Redirect (CTF)

Είναι δυνατό να βάλετε περιεχόμενο μέσα σε μια Redirect. Αυτό το περιεχόμενο δεν θα εμφανιστεί στον χρήστη (καθώς ο browser θα εκτελέσει την ανακατεύθυνση) αλλά κάτι θα μπορούσε να είναι κρυμμένο εκεί.

Web Vulnerabilities Checking

Τώρα που έχει γίνει μια ολοκληρωμένη απογραφή της web εφαρμογής, είναι ώρα να ελεγχθούν πολλές πιθανές ευπάθειες. Μπορείτε να βρείτε το checklist εδώ:

Web Vulnerabilities Methodology

Βρείτε περισσότερες πληροφορίες για web ευπάθειες σε:

Monitor Pages for changes

Μπορείτε να χρησιμοποιήσετε εργαλεία όπως https://github.com/dgtlmoon/changedetection.io για να παρακολουθείτε σελίδες για τροποποιήσεις που μπορεί να εισαγάγουν ευπάθειες.

HackTricks Automatic Commands

HackTricks Αυτόματες Εντολές ```yaml Protocol_Name: Web #Protocol Abbreviation if there is one. Port_Number: 80,443 #Comma separated if there is more than one. Protocol_Description: Web #Protocol Abbreviation Spelled out

Entry_1: Name: Notes Description: Notes for Web Note: | https://book.hacktricks.wiki/en/network-services-pentesting/pentesting-web/index.html

Entry_2: Name: Quick Web Scan Description: Nikto and GoBuster Command: nikto -host {Web_Proto}://{IP}:{Web_Port} &&&& gobuster dir -w {Small_Dirlist} -u {Web_Proto}://{IP}:{Web_Port} && gobuster dir -w {Big_Dirlist} -u {Web_Proto}://{IP}:{Web_Port}

Entry_3: Name: Nikto Description: Basic Site Info via Nikto Command: nikto -host {Web_Proto}://{IP}:{Web_Port}

Entry_4: Name: WhatWeb Description: General purpose auto scanner Command: whatweb -a 4 {IP}

Entry_5: Name: Directory Brute Force Non-Recursive Description: Non-Recursive Directory Brute Force Command: gobuster dir -w {Big_Dirlist} -u {Web_Proto}://{IP}:{Web_Port}

Entry_6: Name: Directory Brute Force Recursive Description: Recursive Directory Brute Force Command: python3 {Tool_Dir}dirsearch/dirsearch.py -w {Small_Dirlist} -e php,exe,sh,py,html,pl -f -t 20 -u {Web_Proto}://{IP}:{Web_Port} -r 10

Entry_7: Name: Directory Brute Force CGI Description: Common Gateway Interface Brute Force Command: gobuster dir -u {Web_Proto}://{IP}:{Web_Port}/ -w /usr/share/seclists/Discovery/Web-Content/CGIs.txt -s 200

Entry_8: Name: Nmap Web Vuln Scan Description: Tailored Nmap Scan for web Vulnerabilities Command: nmap -vv –reason -Pn -sV -p {Web_Port} –script=banner,(http* or ssl*) and not (brute or broadcast or dos or external or http-slowloris* or fuzzer) {IP}

Entry_9: Name: Drupal Description: Drupal Enumeration Notes Note: | git clone https://github.com/immunIT/drupwn.git for low hanging fruit and git clone https://github.com/droope/droopescan.git for deeper enumeration

Entry_10: Name: WordPress Description: WordPress Enumeration with WPScan Command: | ?What is the location of the wp-login.php? Example: /Yeet/cannon/wp-login.php wpscan –url {Web_Proto}://{IP}{1} –enumerate ap,at,cb,dbe && wpscan –url {Web_Proto}://{IP}{1} –enumerate u,tt,t,vp –passwords {Big_Passwordlist} -e

Entry_11: Name: WordPress Hydra Brute Force Description: Need User (admin is default) Command: hydra -l admin -P {Big_Passwordlist} {IP} -V http-form-post ‘/wp-login.php:log=^USER^&pwd=^PASS^&wp-submit=Log In&testcookie=1:S=Location’

Entry_12: Name: Ffuf Vhost Description: Simple Scan with Ffuf for discovering additional vhosts Command: ffuf -w {Subdomain_List}:FUZZ -u {Web_Proto}://{Domain_Name} -H “Host:FUZZ.{Domain_Name}” -c -mc all {Ffuf_Filters}

</details>

## Αναφορές

- [https://github.com/panchocosil/burp-js-linkfinder-enhanced](https://github.com/panchocosil/burp-js-linkfinder-enhanced)

> [!TIP]
> Μάθετε & εξασκηθείτε στο AWS Hacking:<img src="../../../../../images/arte.png" alt="" style="width:auto;height:24px;vertical-align:middle;">[**HackTricks Training AWS Red Team Expert (ARTE)**](https://training.hacktricks.xyz/courses/arte)<img src="../../../../../images/arte.png" alt="" style="width:auto;height:24px;vertical-align:middle;">\
> Μάθετε & εξασκηθείτε στο GCP Hacking: <img src="../../../../../images/grte.png" alt="" style="width:auto;height:24px;vertical-align:middle;">[**HackTricks Training GCP Red Team Expert (GRTE)**](https://training.hacktricks.xyz/courses/grte)<img src="../../../../../images/grte.png" alt="" style="width:auto;height:24px;vertical-align:middle;">
> Μάθετε & εξασκηθείτε στο Azure Hacking: <img src="../../../../../images/azrte.png" alt="" style="width:auto;height:24px;vertical-align:middle;">[**HackTricks Training Azure Red Team Expert (AzRTE)**](https://training.hacktricks.xyz/courses/azrte)<img src="../../../../../images/azrte.png" alt="" style="width:auto;height:24px;vertical-align:middle;">
>
> <details>
>
> <summary>Υποστηρίξτε το HackTricks</summary>
>
> - Ελέγξτε τα [**σχέδια συνδρομής**](https://github.com/sponsors/carlospolop)!
> - **Εγγραφείτε στην** 💬 [**ομάδα Discord**](https://discord.gg/hRep4RUj7f) ή στην [**ομάδα telegram**](https://t.me/peass) ή **ακολουθήστε** μας στο **Twitter** 🐦 [**@hacktricks_live**](https://twitter.com/hacktricks_live)**.**
> - **Μοιραστείτε κόλπα hacking υποβάλλοντας PRs στα** [**HackTricks**](https://github.com/carlospolop/hacktricks) και [**HackTricks Cloud**](https://github.com/carlospolop/hacktricks-cloud) github repos.
>
> </details>