80,443 - Pentesting वेब कार्यप्रणाली
Tip
AWS हैकिंग सीखें और अभ्यास करें:
HackTricks Training AWS Red Team Expert (ARTE)
GCP हैकिंग सीखें और अभ्यास करें:HackTricks Training GCP Red Team Expert (GRTE)
Azure हैकिंग सीखें और अभ्यास करें:
HackTricks Training Azure Red Team Expert (AzRTE)
HackTricks का समर्थन करें
- सदस्यता योजनाओं की जांच करें!
- हमारे 💬 Discord समूह या टेलीग्राम समूह में शामिल हों या हमें Twitter 🐦 @hacktricks_live** पर फॉलो करें।**
- हैकिंग ट्रिक्स साझा करें और HackTricks और HackTricks Cloud गिटहब रिपोजिटरी में PRs सबमिट करें।
बुनियादी जानकारी
वेब सेवा सबसे सामान्य और व्यापक सेवा है और इसमें कई विभिन्न प्रकार की कमजोरियाँ पाई जाती हैं।
डिफ़ॉल्ट पोर्ट: 80 (HTTP), 443(HTTPS)
PORT STATE SERVICE
80/tcp open http
443/tcp open ssl/https
nc -v domain.com 80 # GET / HTTP/1.0
openssl s_client -connect domain.com:443 # GET / HTTP/1.0
Web API मार्गदर्शन
कार्यप्रणाली सारांश
इस कार्यप्रणाली में हम मानकर चलेंगे कि आप किसी एक डोमेन (या सबडोमेन) पर ही हमला कर रहे हैं और सिर्फ उसी पर। इसलिए, इस कार्यप्रणाली को स्कोप में पाए गए प्रत्येक डिस्कवर्ड डोमेन, सबडोमेन या अनिर्धारित वेब सर्वर वाले IP पर लागू करें।
- प्रारम्भ में वेब सर्वर द्वारा उपयोग की जा रही प्रौद्योगिकियों की पहचान करें। यदि आप टेक को सफलतापूर्वक पहचान लेते हैं तो टेस्ट के बाकी हिस्सों के दौरान ध्यान में रखने के लिए किसी भी tricks की तलाश करें।
- क्या उस टेक्नोलॉजी के संस्करण में कोई known vulnerability है?
- क्या कोई well known tech इस्तेमाल हो रही है? क्या कोई ऐसा useful trick है जिससे अधिक जानकारी निकाली जा सके?
- क्या चलाने के लिये कोई specialised scanner है (जैसे wpscan)?
- सामान्य प्रयोजन के scanners लॉन्च करें। कभी नहीं पता कि वे कुछ पाएँगे या कुछ रोचक जानकारी देंगे।
- initial checks से शुरू करें: robots, sitemap, 404 error और SSL/TLS scan (यदि HTTPS)।
- वेब पेज की spidering शुरू करें: यह समय है सभी संभावित files, folders और उपयोग किए जा रहे parameters को खोजने का। साथ ही special findings की जांच करें।
- Note that anytime a new directory is discovered during brute-forcing or spidering, it should be spidered.
- Directory Brute-Forcing: सभी पाए गए फोल्डरों को brute force करके नए files और directories खोजने की कोशिश करें।
- Note that anytime a new directory is discovered during brute-forcing or spidering, it should be Brute-Forced.
- Backups checking: सामान्य बैकअप एक्सटेंशन्स जोड़कर देखें कि क्या आप किसी discovered files के backups पा सकते हैं।
- Brute-Force parameters: छिपे हुए पैरामीटर खोजने की कोशिश करें।
- एक बार जब आप सभी संभावित यूज़र-इनपुट स्वीकार करने वाले endpoints की पहचान कर लें, तो उन पर संबंधित सभी प्रकार की vulnerabilities के लिये जांच करें।
- Follow this checklist
सर्वर संस्करण (कमजोर?)
पहचान
जाँच करें कि चल रहे सर्वर के उस version के लिये कोई known vulnerabilities मौजूद हैं या नहीं।
प्रतिक्रिया के HTTP headers और cookies बहुत उपयोगी हो सकते हैं ताकि उपयोग की जा रही प्रौद्योगिकियों और/या version की पहचान की जा सके। Nmap scan सर्वर version की पहचान कर सकता है, लेकिन निम्न tools भी उपयोगी हो सकते हैं: whatweb, webtech or https://builtwith.com/:
whatweb -a 1 <URL> #Stealthy
whatweb -a 3 <URL> #Aggresive
webtech -u <URL>
webanalyze -host https://google.com -crawl 2
खोजें के लिए वेब एप्लिकेशन की कमजोरियाँ संस्करण
जाँचें कि कोई WAF है या नहीं
- https://github.com/EnableSecurity/wafw00f
- https://github.com/Ekultek/WhatWaf.git
- https://nmap.org/nsedoc/scripts/http-waf-detect.html
वेब टेक ट्रिक्स
उपयोग में लाई जा रही विभिन्न प्रसिद्ध प्रौद्योगिकियों में कमज़ोरियाँ खोजने के लिए कुछ ट्रिक्स:
- AEM - Adobe Experience Cloud
- Apache
- Artifactory
- Buckets
- CGI
- Custom UDP RPC Protocols
- Dotnet SOAP WSDL client exploitation
- Drupal
- Flask
- Fortinet FortiWeb
- Git
- Golang
- GraphQL
- H2 - Java SQL database
- ISPConfig
- IIS tricks
- Microsoft SharePoint
- JBOSS
- Jenkins
- Jira
- Joomla
- JSP
- Laravel
- Moodle
- Nginx
- PHP (php has a lot of interesting tricks that could be exploited)
- Python
- Roundcube
- Spring Actuators
- Symphony
- Tomcat
- VMWare
- Web API Pentesting
- WebDav
- Werkzeug
- Wordpress
- Electron Desktop (XSS to RCE)
- Sitecore
- Zabbix
ध्यान में रखें कि एक ही डोमेन विभिन्न प्रौद्योगिकियों का उपयोग अलग-अलग पोर्ट्स, फ़ोल्डर्स और सबडोमेन में कर सकता है.
यदि वेब एप्लिकेशन किसी प्रसिद्ध tech/platform listed before या किसी अन्य का उपयोग कर रही है, तो नए ट्रिक्स के लिए इंटरनेट पर खोजना न भूलें (और मुझे बताएं!)।
Source Code Review
यदि एप्लिकेशन का source code GitHub पर उपलब्ध है, तो स्वयं द्वारा White box test करने के अलावा कुछ ऐसी जानकारी हो सकती है जो वर्तमान Black-Box testing के लिए उपयोगी हो:
- क्या कोई Change-log या Readme या Version फ़ाइल या वेब पर उपलब्ध कोई और version info है?
- credentials कैसे और कहाँ सेव किए गए हैं? क्या कोई (accessible?) file है जिसमें credentials (usernames या passwords) हैं?
- क्या पासवर्ड plain text में हैं, encrypted हैं या किस hashing algorithm का उपयोग किया गया है?
- क्या किसी चीज़ को encrypt करने के लिए कोई master key उपयोग हो रहा है? कौन सा algorithm उपयोग किया जा रहा है?
- क्या आप किसी vulnerability का इस्तेमाल करके इन फ़ाइलों में से किसी तक पहुँच सकते हैं?
- क्या github में कोई दिलचस्प जानकारी है (solved और not solved) issues में? या commit history में (शायद कोई password पुराने commit में जोड़ा गया हो)?
Source code Review / SAST Tools
Automatic scanners
General purpose automatic scanners
nikto -h <URL>
whatweb -a 4 <URL>
wapiti -u <URL>
W3af
zaproxy #You can use an API
nuclei -ut && nuclei -target <URL>
# https://github.com/ignis-sec/puff (client side vulns fuzzer)
node puff.js -w ./wordlist-examples/xss.txt -u "http://www.xssgame.com/f/m4KKGHi2rVUN/?query=FUZZ"
CMS स्कैनर्स
यदि कोई CMS उपयोग किया जा रहा है तो स्कैनर चलाना न भूलें — हो सकता है कुछ दिलचस्प मिल जाए:
Clusterd: JBoss, ColdFusion, WebLogic, Tomcat, Railo, Axis2, Glassfish
CMSScan: WordPress, Drupal, Joomla, vBulletin वेबसाइट्स में सुरक्षा मुद्दों के लिए। (GUI)
VulnX: Joomla, Wordpress, Drupal, PrestaShop, Opencart
CMSMap: (W)ordpress, (J)oomla, (D)rupal या (M)oodle
droopscan: Drupal, Joomla, Moodle, Silverstripe, Wordpress
cmsmap [-f W] -F -d <URL>
wpscan --force update -e --url <URL>
joomscan --ec -u <URL>
joomlavs.rb #https://github.com/rastating/joomlavs
इस चरण तक आपके पास क्लाइंट द्वारा उपयोग किए जा रहे वेब सर्वर के बारे में कुछ जानकारी होनी चाहिए (यदि कोई डेटा दिया गया हो) और टेस्ट के दौरान ध्यान में रखने के लिए कुछ तरकीबें। अगर आप खुशकिस्मत हैं तो आपने एक CMS भी ढूंढ लिया होगा और कोई स्कैनर चला लिया होगा।
Step-by-step Web Application Discovery
इस बिंदु से हम वेब एप्लीकेशन के साथ इंटरैक्ट करना शुरू करने जा रहे हैं।
Initial checks
Default pages with interesting info:
- /robots.txt
- /sitemap.xml
- /crossdomain.xml
- /clientaccesspolicy.xml
- /.well-known/
- मुख्य और द्वितीयक पेजों में टिप्पणियाँ भी चेक करें।
Forcing errors
जब अजीब डेटा भेजा जाता है तो वेब सर्वर अनपेक्षित व्यवहार कर सकते हैं। इससे vulnerabilities खुल सकती हैं या संवेदनशील जानकारी का खुलासा हो सकता है।
- /whatever_fake.php (.aspx,.html,.etc) जैसे fake pages को एक्सेस करें
- त्रुटियाँ उत्पन्न करने के लिए cookie values और parameter values में “[]”, “]]”, और “[[” जोड़ें
- URL के end में इनपुट के रूप में
/~randomthing/%sदेकर error जनरेट करें - PATCH, DEBUG जैसे different HTTP Verbs आज़माएं या FAKE जैसे गलत Verbs
Check if you can upload files (PUT verb, WebDav)
अगर आप पाते हैं कि WebDav enabled है लेकिन root फ़ोल्डर में फ़ाइलें upload करने के लिए पर्याप्त permissions नहीं हैं तो कोशिश करें:
- Brute Force credentials
- WebDav के माध्यम से वेब पेज के अंदर मिले हुए बाकी फ़ोल्डरों (rest of found folders) में upload files करें। हो सकता है आपको अन्य फ़ोल्डरों में फ़ाइलें upload करने की permissions मिल जाएं।
SSL/TLS vulnerabilites
- यदि एप्लीकेशन किसी भी हिस्से में HTTPS के उपयोग को बाध्य नहीं कर रही है, तो यह MitM के लिए vulnerable है
- यदि एप्लीकेशन HTTP का उपयोग करके संवेदनशील डेटा (passwords) भेज रही है, तो यह एक उच्च vulnerability है।
testssl.sh का उपयोग करके vulnerabilities की जाँच करें (Bug Bounty programs में संभवतः इस प्रकार की vulnerabilities स्वीकार नहीं की जाएँगी) और vulnerabilities को दोबारा जाँचने के लिए a2sv का उपयोग करें:
./testssl.sh [--htmlfile] 10.10.10.10:443
#Use the --htmlfile to save the output inside an htmlfile also
# You can also use other tools, by testssl.sh at this momment is the best one (I think)
sslscan <host:port>
sslyze --regular <ip:port>
Information about SSL/TLS vulnerabilities:
- https://www.gracefulsecurity.com/tls-ssl-vulnerabilities/
- https://www.acunetix.com/blog/articles/tls-vulnerabilities-attacks-final-part/
Spidering
Launch some kind of spider inside the web. The goal of the spider is to find as much paths as possible from the tested application. Therefore, web crawling and external sources should be used to find as much valid paths as possible.
- gospider (go): HTML spider, JS files में LinkFinder और external sources (Archive.org, CommonCrawl.org, VirusTotal.com) का उपयोग करता है।
- hakrawler (go): HTML spider, JS files के लिए LinkFinder और Archive.org जैसे external source के साथ।
- dirhunt (python): HTML spider, “juicy files” भी इशारा करता है।
- evine (go): Interactive CLI HTML spider। यह Archive.org में भी खोजता है।
- meg (go): यह tool एक spider नहीं है पर उपयोगी हो सकता है। आप hosts की फ़ाइल और paths की फ़ाइल बता कर meg से हर host पर हर path fetch करवा सकते हैं और response save करवा सकते हैं।
- urlgrab (go): JS rendering क्षमताओं के साथ HTML spider। हालांकि, ऐसा लगता है कि यह unmaintained है, precompiled version पुराना है और current code compile नहीं होता।
- gau (go): external providers (wayback, otx, commoncrawl) का उपयोग करने वाला HTML spider।
- ParamSpider: यह script parameter वाले URLs ढूँढेगा और उन्हें list करेगा।
- galer (go): JS rendering क्षमताओं के साथ HTML spider।
- LinkFinder (python): HTML spider, JS beautify क्षमताओं के साथ जो JS फाइलों में नए paths खोज सकता है। इसके wrapper JSScanner पर भी नजर डालना फायदेमंद हो सकता है।
- goLinkFinder (go): HTML source और embedded javascript files दोनों में endpoints निकालने के लिए। bug hunters, red teamers, infosec ninjas के लिए उपयोगी।
- JSParser (python2.7): Tornado और JSBeautifier प्रयोग करते हुए JavaScript फाइलों से relative URLs parse करने वाला python 2.7 script। AJAX requests खोजने में मददगार। लगता है unmaintained है।
- relative-url-extractor (ruby): दिए गए file (HTML) से relative URLs निकालने के लिए nifty regular expression का उपयोग करता है, खासकर minified files से।
- JSFScan (bash, several tools): कई tools का उपयोग करके JS फाइलों से interesting information इकट्ठा करता है।
- subjs (go): JS फाइलें खोजने के लिए।
- page-fetch (go): headless browser में एक page load कर के उस page को load करने वाली सभी urls print करता है।
- Feroxbuster (rust): कई पिछले tools के विकल्पों को मिलाकर content discovery tool।
- Javascript Parsing: JS फाइलों में path और params खोजने के लिए एक Burp extension।
- BurpJSLinkFinder Enhanced: Burp extension (Jython) जो JavaScript responses (MIME type और
/jspaths द्वारा) को passive तरीके से analyze कर endpoints/links निकालता है और optionally embedded secrets को severity के साथ flag कर सकता है। - Sourcemapper: given .js.map URL से beatified JS code वापस लाने वाला tool।
- xnLinkFinder: किसी target के लिए endpoints discover करने के लिए इस्तेमाल होने वाला tool।
- waymore: wayback machine से links discover करता है (wayback में responses download कर के और भी links खोजता है)।
- HTTPLoot (go): Crawl (forms fill करके भी) और specific regexes से sensitive info खोजता है।
- SpiderSuite: Spider Suite एक advanced multi-feature GUI web security Crawler/Spider है जो cyber security professionals के लिए डिज़ाइन किया गया है।
- jsluice (go): Go package और command-line tool जो JavaScript source code से URLs, paths, secrets और अन्य interesting data extract करता है।
- ParaForge: ParaForge एक simple Burp Suite extension है ताकि request से parameters और endpoints extract कर के fuzzing और enumeration के लिए custom wordlist बनाया जा सके।
- katana (go): इस काम के लिए एक शानदार tool।
- Crawley (go): जो भी link इसे मिल सके उसे print कर देता है।
Brute Force directories and files
Start brute-forcing from the root folder and be sure to brute-force all the directories found using this method and all the directories discovered by the Spidering (you can do this brute-forcing recursively and appending at the beginning of the used wordlist the names of the found directories).
Tools:
- Dirb / Dirbuster - Included in Kali, old (and slow) but functional. Allow auto-signed certificates and recursive search. Too slow compared with th other options.
- Dirsearch (python): It doesn’t allow auto-signed certificates but allows recursive search.
- Gobuster (go): It allows auto-signed certificates, it doesn’t have recursive search.
- Feroxbuster - Fast, supports recursive search.
- wfuzz
wfuzz -w /usr/share/seclists/Discovery/Web-Content/raft-medium-directories.txt https://domain.com/api/FUZZ - ffuf - Fast:
ffuf -c -w /usr/share/wordlists/dirb/big.txt -u http://10.10.10.10/FUZZ - uro (python): यह spider नहीं है पर दिए गए found URLs की list लेकर “duplicated” URLs हटाने में मदद करता है।
- Scavenger: Burp Extension जो burp history से directories की list बनाता है।
- TrashCompactor: js imports के आधार पर duplicated functionalities वाले URLs हटाता है।
- Chamaleon: यह wapalyzer का उपयोग कर इस्तेमाल हुई technologies detect करता है और उसी के अनुरूप wordlists select करता है।
Recommended dictionaries:
- https://github.com/carlospolop/Auto_Wordlists/blob/main/wordlists/bf_directories.txt
- Dirsearch included dictionary
- http://gist.github.com/jhaddix/b80ea67d85c13206125806f0828f4d10
- Assetnote wordlists
- https://github.com/danielmiessler/SecLists/tree/master/Discovery/Web-Content
- raft-large-directories-lowercase.txt
- directory-list-2.3-medium.txt
- RobotsDisallowed/top10000.txt
- https://github.com/random-robbie/bruteforce-lists
- https://github.com/google/fuzzing/tree/master/dictionaries
- https://github.com/six2dez/OneListForAll
- https://github.com/random-robbie/bruteforce-lists
- https://github.com/ayoubfathi/leaky-paths
- /usr/share/wordlists/dirb/common.txt
- /usr/share/wordlists/dirb/big.txt
- /usr/share/wordlists/dirbuster/directory-list-2.3-medium.txt
Note that anytime a new directory is discovered during brute-forcing or spidering, it should be Brute-Forced.
What to check on each file found
- Broken link checker: HTMLs के अंदर broken links खोजें जो takeover के लिए prone हो सकते हैं।
- File Backups: एक बार जब आप सभी files ढूँढ लें तो सभी executable files के backups देखें (“.php”, “.aspx”…)। backup नामकरण के सामान्य रूप हैं: file.ext~, #file.ext#, ~file.ext, file.ext.bak, file.ext.tmp, file.ext.old, file.bak, file.tmp and file.old. आप tool bfac या backup-gen भी इस्तेमाल कर सकते हैं।
- Discover new parameters: hidden parameters खोजने के लिए Arjun, parameth, x8 और Param Miner जैसे tools का उपयोग कर सकते हैं। यदि संभव हो तो प्रत्येक executable web file पर hidden parameters खोजने की कोशिश करें।
- Arjun all default wordlists: https://github.com/s0md3v/Arjun/tree/master/arjun/db
- Param-miner “params” : https://github.com/PortSwigger/param-miner/blob/master/resources/params
- Assetnote “parameters_top_1m”: https://wordlists.assetnote.io/
- nullenc0de “params.txt”: https://gist.github.com/nullenc0de/9cb36260207924f8e1787279a05eb773
- Comments: सभी files की comments जाँचें, वहाँ credentials या hidden functionality मिल सकती है।
- अगर आप CTF खेल रहे हैं तो एक सामान्य trick यह है कि page के स्रोत में comments के ठीक दाईं ओर (हजारों spaces का उपयोग करके) जानकारी छिपा दी जाती है ताकि browser में page खोलने पर यह दिखाई न दे। दूसरी संभावना कई new lines का उपयोग कर page के bottom में comment में information छिपाना है।
- API keys: यदि आप कोई API key पाते हैं तो विभिन्न platforms की API keys कैसे use करें इसके लिए ये projects मददगार हैं: keyhacks, zile, truffleHog, SecretFinder, RegHex, DumpsterDive, EarlyBird
- Google API keys: अगर आपको कोई API key ऐसा दिखे जो AIzaSyA-qLheq6xjDiEIRisP_ujUseYLQCHUjik जैसे दिखती हो तो आप gmapapiscanner प्रोजेक्ट का उपयोग कर यह जांच सकते हैं कि key किन APIs को access कर सकती है।
- S3 Buckets: Spidering करते समय देखें कि क्या कोई subdomain या कोई link किसी S3 bucket से संबंधित है। ऐसे में, check the permissions of the bucket।
Special findings
While performing the spidering and brute-forcing you could find interesting things that you have to notice.
Interesting files
- CSS files में अन्य files के लिए links देखें।
- If you find a .git file some information can be extracted
- अगर आपको .env मिल जाए तो api keys, dbs passwords और अन्य जानकारी मिल सकती है।
- अगर आप API endpoints पाते हैं तो आपको उन्हें भी test करना चाहिए। ये files नहीं हैं, पर अक्सर इन्हें files जैसा दिखते हैं।
- JS files: spidering हिस्से में कई tools का ज़िक्र था जो JS फाइलों से paths निकालते हैं। साथ ही, यह उपयोगी होगा कि आप पाए गए हर JS file की monitoring करें, क्योंकि कभी-कभी कोई बदलाव यह संकेत दे सकता है कि code में कोई संभावित vulnerability आई है। उदाहरण के लिए आप JSMon का उपयोग कर सकते हैं।
- आपको discovered JS files को RetireJS या JSHole से भी जांचना चाहिए ताकि पता चले कि क्या वे vulnerable हैं।
- Javascript Deobfuscator and Unpacker: https://lelinhtinh.github.io/de4js/, https://www.dcode.fr/javascript-unobfuscator
- Javascript Beautifier: http://jsbeautifier.org/, http://jsnice.org/
- JsFuck deobfuscation (javascript with chars:“[]!+” https://enkhee-osiris.github.io/Decoder-JSFuck/)
- TrainFuck:
+72.+29.+7..+3.-67.-12.+55.+24.+3.-6.-8.-67.-23. - कई मौकों पर आपको उपयोग किए गए regular expressions को समझने की ज़रूरत पड़ेगी। यह उपयोगी होगा: https://regex101.com/ या https://pythonium.net/regex
- आप उन files की भी monitoring कर सकते हैं जहाँ forms detect हुए थे, क्योंकि parameters में बदलाव या नए form का आना संभावित नयी vulnerable functionality का संकेत दे सकता है।
403 Forbidden/Basic Authentication/401 Unauthorized (bypass)
502 Proxy Error
यदि कोई page उस code के साथ respond करता है, तो संभवतः यह एक गलत configured proxy है। If you send a HTTP request like: GET https://google.com HTTP/1.1 (host header और अन्य common headers के साथ), तो proxy google.com तक पहुँचने की कोशिश करेगा और आप एक SSRF खोज चुके होंगे।
NTLM Authentication - Info disclosure
यदि running server authentication माँग रहा है और वह Windows है या आप किसी login पर domain नाम माँगते हुए credentials के लिए कहा देखते हैं, तो आप information disclosure provoke कर सकते हैं।
Send the header: “Authorization: NTLM TlRMTVNTUAABAAAAB4IIAAAAAAAAAAAAAAAAAAAAAAA=” और NTLM authentication के काम करने के तरीके के कारण, server “WWW-Authenticate” header के अंदर internal info (IIS version, Windows version…) के साथ respond करेगा।
आप इसे automate करने के लिए nmap plugin “http-ntlm-info.nse” का उपयोग कर सकते हैं।
HTTP Redirect (CTF)
Redirection में content डालना संभव है। यह content user को दिखाई नहीं देगा (क्योंकि browser redirection execute करेगा) पर वहाँ कुछ hidden किया जा सकता है।
Web Vulnerabilities Checking
Now that a comprehensive enumeration of the web application has been performed it’s time to check for a lot of possible vulnerabilities. You can find the checklist here:
Web Vulnerabilities Methodology
Find more info about web vulns in:
- https://six2dez.gitbook.io/pentest-book/others/web-checklist
- https://kennel209.gitbooks.io/owasp-testing-guide-v4/content/en/web_application_security_testing/configuration_and_deployment_management_testing.html
- https://owasp-skf.gitbook.io/asvs-write-ups/kbid-111-client-side-template-injection
Monitor Pages for changes
आप https://github.com/dgtlmoon/changedetection.io जैसे tools का उपयोग कर pages को monitor कर सकते हैं ताकि modifications का पता चले जो vulnerabilities डाल सकती हैं।
HackTricks Automatic Commands
HackTricks Automatic Commands
```yaml Protocol_Name: Web #Protocol Abbreviation if there is one. Port_Number: 80,443 #Comma separated if there is more than one. Protocol_Description: Web #Protocol Abbreviation Spelled outEntry_1: Name: Notes Description: Notes for Web Note: | https://book.hacktricks.wiki/en/network-services-pentesting/pentesting-web/index.html
Entry_2: Name: Quick Web Scan Description: Nikto and GoBuster Command: nikto -host {Web_Proto}://{IP}:{Web_Port} &&&& gobuster dir -w {Small_Dirlist} -u {Web_Proto}://{IP}:{Web_Port} && gobuster dir -w {Big_Dirlist} -u {Web_Proto}://{IP}:{Web_Port}
Entry_3: Name: Nikto Description: Basic Site Info via Nikto Command: nikto -host {Web_Proto}://{IP}:{Web_Port}
Entry_4: Name: WhatWeb Description: General purpose auto scanner Command: whatweb -a 4 {IP}
Entry_5: Name: Directory Brute Force Non-Recursive Description: Non-Recursive Directory Brute Force Command: gobuster dir -w {Big_Dirlist} -u {Web_Proto}://{IP}:{Web_Port}
Entry_6: Name: Directory Brute Force Recursive Description: Recursive Directory Brute Force Command: python3 {Tool_Dir}dirsearch/dirsearch.py -w {Small_Dirlist} -e php,exe,sh,py,html,pl -f -t 20 -u {Web_Proto}://{IP}:{Web_Port} -r 10
Entry_7: Name: Directory Brute Force CGI Description: Common Gateway Interface Brute Force Command: gobuster dir -u {Web_Proto}://{IP}:{Web_Port}/ -w /usr/share/seclists/Discovery/Web-Content/CGIs.txt -s 200
Entry_8:
Name: Nmap Web Vuln Scan
Description: Tailored Nmap Scan for web Vulnerabilities
Command: nmap -vv –reason -Pn -sV -p {Web_Port} –script=banner,(http* or ssl*) and not (brute or broadcast or dos or external or http-slowloris* or fuzzer) {IP}
Entry_9: Name: Drupal Description: Drupal Enumeration Notes Note: | git clone https://github.com/immunIT/drupwn.git for low hanging fruit and git clone https://github.com/droope/droopescan.git for deeper enumeration
Entry_10: Name: WordPress Description: WordPress Enumeration with WPScan Command: | ?What is the location of the wp-login.php? Example: /Yeet/cannon/wp-login.php wpscan –url {Web_Proto}://{IP}{1} –enumerate ap,at,cb,dbe && wpscan –url {Web_Proto}://{IP}{1} –enumerate u,tt,t,vp –passwords {Big_Passwordlist} -e
Entry_11: Name: WordPress Hydra Brute Force Description: Need User (admin is default) Command: hydra -l admin -P {Big_Passwordlist} {IP} -V http-form-post ‘/wp-login.php:log=^USER^&pwd=^PASS^&wp-submit=Log In&testcookie=1:S=Location’
Entry_12: Name: Ffuf Vhost Description: Simple Scan with Ffuf for discovering additional vhosts Command: ffuf -w {Subdomain_List}:FUZZ -u {Web_Proto}://{Domain_Name} -H “Host:FUZZ.{Domain_Name}” -c -mc all {Ffuf_Filters}
</details>
## संदर्भ
- [https://github.com/panchocosil/burp-js-linkfinder-enhanced](https://github.com/panchocosil/burp-js-linkfinder-enhanced)
> [!TIP]
> AWS हैकिंग सीखें और अभ्यास करें:<img src="../../../../../images/arte.png" alt="" style="width:auto;height:24px;vertical-align:middle;">[**HackTricks Training AWS Red Team Expert (ARTE)**](https://training.hacktricks.xyz/courses/arte)<img src="../../../../../images/arte.png" alt="" style="width:auto;height:24px;vertical-align:middle;">\
> GCP हैकिंग सीखें और अभ्यास करें: <img src="../../../../../images/grte.png" alt="" style="width:auto;height:24px;vertical-align:middle;">[**HackTricks Training GCP Red Team Expert (GRTE)**](https://training.hacktricks.xyz/courses/grte)<img src="../../../../../images/grte.png" alt="" style="width:auto;height:24px;vertical-align:middle;">
> Azure हैकिंग सीखें और अभ्यास करें: <img src="../../../../../images/azrte.png" alt="" style="width:auto;height:24px;vertical-align:middle;">[**HackTricks Training Azure Red Team Expert (AzRTE)**](https://training.hacktricks.xyz/courses/azrte)<img src="../../../../../images/azrte.png" alt="" style="width:auto;height:24px;vertical-align:middle;">
>
> <details>
>
> <summary>HackTricks का समर्थन करें</summary>
>
> - [**सदस्यता योजनाओं**](https://github.com/sponsors/carlospolop) की जांच करें!
> - **हमारे** 💬 [**Discord समूह**](https://discord.gg/hRep4RUj7f) या [**टेलीग्राम समूह**](https://t.me/peass) में शामिल हों या **हमें** **Twitter** 🐦 [**@hacktricks_live**](https://twitter.com/hacktricks_live)** पर फॉलो करें।**
> - **हैकिंग ट्रिक्स साझा करें और** [**HackTricks**](https://github.com/carlospolop/hacktricks) और [**HackTricks Cloud**](https://github.com/carlospolop/hacktricks-cloud) गिटहब रिपोजिटरी में PRs सबमिट करें।
>
> </details>


