80,443 - Pentesting Web Methodology
Last updated
Last updated
Lerne & übe AWS Hacking:HackTricks Training AWS Red Team Expert (ARTE) Lerne & übe GCP Hacking: HackTricks Training GCP Red Team Expert (GRTE)
Erhalte die Perspektive eines Hackers auf deine Webanwendungen, Netzwerke und Cloud
Finde und melde kritische, ausnutzbare Schwachstellen mit echtem Geschäftsauswirkungen. Nutze unsere 20+ benutzerdefinierten Tools, um die Angriffsfläche zu kartieren, Sicherheitsprobleme zu finden, die dir ermöglichen, Privilegien zu eskalieren, und automatisierte Exploits zu verwenden, um wesentliche Beweise zu sammeln, die deine harte Arbeit in überzeugende Berichte verwandeln.
Der Webdienst ist der häufigste und umfangreichste Dienst und es gibt viele verschiedene Arten von Schwachstellen.
Standardport: 80 (HTTP), 443(HTTPS)
In dieser Methodologie gehen wir davon aus, dass Sie eine Domain (oder Subdomain) angreifen werden und nur diese. Daher sollten Sie diese Methodologie auf jede entdeckte Domain, Subdomain oder IP mit unbestimmtem Webserver im Geltungsbereich anwenden.
Überprüfen Sie, ob es bekannte Schwachstellen für die Version des Servers gibt, die ausgeführt wird. Die HTTP-Header und Cookies der Antwort könnten sehr nützlich sein, um die Technologien und/oder Version zu identifizieren, die verwendet werden. Ein Nmap-Scan kann die Serverversion identifizieren, aber auch die Tools whatweb, webtech oder https://builtwith.com/:
Search nach Schwachstellen der Webanwendung Version
Einige Tricks zum finden von Schwachstellen in verschiedenen bekannten Technologien, die verwendet werden:
Beachten Sie, dass die gleiche Domain verschiedene Technologien in verschiedenen Ports, Ordnern und Subdomains verwenden kann. Wenn die Webanwendung eine bekannte Technologie/Plattform aus der Liste oben oder eine andere verwendet, vergessen Sie nicht, im Internet nach neuen Tricks zu suchen (und lassen Sie es mich wissen!).
Wenn der Quellcode der Anwendung in github verfügbar ist, gibt es neben der Durchführung eines White-Box-Tests der Anwendung einige Informationen, die für das aktuelle Black-Box-Testing nützlich sein könnten:
Gibt es eine Änderungsprotokoll- oder Readme- oder Versionsdatei oder irgendetwas mit Versionsinformationen, das über das Web zugänglich ist?
Wie und wo werden die Anmeldeinformationen gespeichert? Gibt es eine (zugängliche?) Datei mit Anmeldeinformationen (Benutzernamen oder Passwörtern)?
Sind Passwörter im Klartext, verschlüsselt oder welcher Hash-Algorithmus wird verwendet?
Wird ein Master-Schlüssel zur Verschlüsselung von etwas verwendet? Welcher Algorithmus wird verwendet?
Können Sie auf eine dieser Dateien zugreifen, indem Sie eine Schwachstelle ausnutzen?
Gibt es interessante Informationen in den github (gelösten und ungelösten) Issues? Oder in der Commit-Historie (vielleicht ein Passwort, das in einem alten Commit eingeführt wurde)?
Wenn ein CMS verwendet wird, vergiss nicht, einen Scanner auszuführen, vielleicht wird etwas Interessantes gefunden:
Clusterd: JBoss, ColdFusion, WebLogic, Tomcat, Railo, Axis2, Glassfish CMSScan: WordPress, Drupal, Joomla, vBulletin-Websites auf Sicherheitsprobleme. (GUI) VulnX: Joomla, Wordpress, Drupal, PrestaShop, Opencart CMSMap: (W)ordpress, (J)oomla, (D)rupal oder (M)oodle droopscan: Drupal, Joomla, Moodle, Silverstripe, Wordpress
An diesem Punkt sollten Sie bereits einige Informationen über den vom Client verwendeten Webserver haben (sofern Daten bereitgestellt werden) und einige Tricks im Hinterkopf behalten, die während des Tests nützlich sein können. Wenn Sie Glück haben, haben Sie sogar ein CMS gefunden und einen Scanner ausgeführt.
Ab diesem Punkt werden wir beginnen, mit der Webanwendung zu interagieren.
Standardseiten mit interessanten Informationen:
/robots.txt
/sitemap.xml
/crossdomain.xml
/clientaccesspolicy.xml
/.well-known/
Überprüfen Sie auch Kommentare auf den Haupt- und Unterseiten.
Fehler erzwingen
Webserver können unerwartet reagieren, wenn seltsame Daten an sie gesendet werden. Dies kann Schwachstellen oder Offenlegung sensibler Informationen öffnen.
Greifen Sie auf falsche Seiten wie /whatever_fake.php (.aspx,.html,.etc) zu
Fügen Sie "[]", "]]" und "[[" in Cookie-Werte und Parameterwerte ein, um Fehler zu erzeugen
Generieren Sie einen Fehler, indem Sie als Eingabe /~randomthing/%s
am Ende der URL angeben
Versuchen Sie verschiedene HTTP-Methoden wie PATCH, DEBUG oder falsche wie FAKE
Wenn Sie feststellen, dass WebDav aktiviert ist, Sie jedoch nicht über ausreichende Berechtigungen zum Hochladen von Dateien im Stammverzeichnis verfügen, versuchen Sie:
Brute Force Anmeldeinformationen
Hochladen von Dateien über WebDav in die restlichen gefundenen Ordner innerhalb der Webseite. Möglicherweise haben Sie Berechtigungen, um in anderen Ordnern Dateien hochzuladen.
Wenn die Anwendung den Benutzer nicht zwingt, HTTPS zu verwenden, ist sie anfällig für MitM
Wenn die Anwendung sensible Daten (Passwörter) über HTTP sendet, ist dies eine hohe Schwachstelle.
Verwenden Sie testssl.sh, um nach Schwachstellen zu suchen (in Bug-Bounty-Programmen werden solche Schwachstellen wahrscheinlich nicht akzeptiert) und verwenden Sie a2sv, um die Schwachstellen erneut zu überprüfen:
Informationen über SSL/TLS-Sicherheitsanfälligkeiten:
Starten Sie eine Art von Spider im Web. Das Ziel des Spiders ist es, so viele Pfade wie möglich aus der getesteten Anwendung zu finden. Daher sollten Web-Crawling und externe Quellen verwendet werden, um so viele gültige Pfade wie möglich zu finden.
gospider (go): HTML-Spider, LinkFinder in JS-Dateien und externen Quellen (Archive.org, CommonCrawl.org, VirusTotal.com, AlienVault.com).
hakrawler (go): HML-Spider, mit LinkFinder für JS-Dateien und Archive.org als externe Quelle.
dirhunt (python): HTML-Spider, zeigt auch "saftige Dateien" an.
evine (go): Interaktiver CLI HTML-Spider. Es sucht auch in Archive.org.
meg (go): Dieses Tool ist kein Spider, kann aber nützlich sein. Sie können einfach eine Datei mit Hosts und eine Datei mit Pfaden angeben, und meg wird jeden Pfad auf jedem Host abrufen und die Antwort speichern.
urlgrab (go): HTML-Spider mit JS-Rendering-Fähigkeiten. Es scheint jedoch unwartbar zu sein, die vorcompilierte Version ist alt und der aktuelle Code kompiliert nicht.
gau (go): HTML-Spider, der externe Anbieter (wayback, otx, commoncrawl) nutzt.
ParamSpider: Dieses Skript findet URLs mit Parametern und listet sie auf.
galer (go): HTML-Spider mit JS-Rendering-Fähigkeiten.
LinkFinder (python): HTML-Spider, mit JS-Beautify-Fähigkeiten, die in JS-Dateien nach neuen Pfaden suchen können. Es könnte sich auch lohnen, einen Blick auf JSScanner zu werfen, das ein Wrapper von LinkFinder ist.
goLinkFinder (go): Um Endpunkte sowohl im HTML-Quellcode als auch in eingebetteten JavaScript-Dateien zu extrahieren. Nützlich für Bug-Jäger, Red-Teamer, Infosec-Ninjas.
JSParser (python2.7): Ein Python 2.7-Skript, das Tornado und JSBeautifier verwendet, um relative URLs aus JavaScript-Dateien zu parsen. Nützlich, um AJAX-Anfragen leicht zu entdecken. Sieht unwartbar aus.
relative-url-extractor (ruby): Gegeben eine Datei (HTML) wird es URLs daraus extrahieren, indem es raffinierte reguläre Ausdrücke verwendet, um die relativen URLs aus hässlichen (minifizierten) Dateien zu finden und zu extrahieren.
JSFScan (bash, mehrere Tools): Interessante Informationen aus JS-Dateien mit mehreren Tools sammeln.
subjs (go): JS-Dateien finden.
page-fetch (go): Laden Sie eine Seite in einem headless Browser und drucken Sie alle URLs aus, die zum Laden der Seite geladen wurden.
Feroxbuster (rust): Inhaltserkennungstool, das mehrere Optionen der vorherigen Tools kombiniert.
Javascript Parsing: Eine Burp-Erweiterung, um Pfade und Parameter in JS-Dateien zu finden.
Sourcemapper: Ein Tool, das Ihnen den beautifizierten JS-Code gibt, wenn die .js.map-URL angegeben wird.
xnLinkFinder: Dies ist ein Tool, das verwendet wird, um Endpunkte für ein bestimmtes Ziel zu entdecken.
waymore: Entdecken Sie Links von der Wayback-Maschine (auch die Antworten in der Wayback herunterladen und nach weiteren Links suchen).
HTTPLoot (go): Crawlen (auch durch Ausfüllen von Formularen) und auch sensible Informationen mit spezifischen Regexen finden.
SpiderSuite: Spider Suite ist ein fortschrittlicher, multifunktionaler GUI-Websicherheits-Crawler/Spider, der für Cybersicherheitsprofis entwickelt wurde.
jsluice (go): Es ist ein Go-Paket und Befehlszeilentool zum Extrahieren von URLs, Pfaden, Geheimnissen und anderen interessanten Daten aus JavaScript-Quellcode.
ParaForge: ParaForge ist eine einfache Burp Suite-Erweiterung, um Parameter und Endpunkte aus der Anfrage zu extrahieren, um benutzerdefinierte Wortlisten für Fuzzing und Enumeration zu erstellen.
katana (go): Großartiges Tool dafür.
Crawley (go): Drucken Sie jeden Link aus, den es finden kann.
Beginnen Sie mit dem Brute-Forcen vom Stammverzeichnis und stellen Sie sicher, dass Sie alle gefundenen Verzeichnisse mit dieser Methode und allen Verzeichnissen entdecken, die durch das Spidering entdeckt wurden (Sie können dieses Brute-Forcing rekursiv durchführen und am Anfang der verwendeten Wortliste die Namen der gefundenen Verzeichnisse anhängen). Tools:
Dirb / Dirbuster - In Kali enthalten, alt (und langsam), aber funktional. Erlaubt automatisch signierte Zertifikate und rekursive Suche. Zu langsam im Vergleich zu den anderen Optionen.
Dirsearch (python): Es erlaubt keine automatisch signierten Zertifikate, aber erlaubt rekursive Suche.
Gobuster (go): Es erlaubt automatisch signierte Zertifikate, hat jedoch keine rekursive Suche.
Feroxbuster - Schnell, unterstützt rekursive Suche.
wfuzz wfuzz -w /usr/share/seclists/Discovery/Web-Content/raft-medium-directories.txt https://domain.com/api/FUZZ
ffuf - Schnell: ffuf -c -w /usr/share/wordlists/dirb/big.txt -u http://10.10.10.10/FUZZ
uro (python): Dies ist kein Spider, sondern ein Tool, das eine Liste gefundener URLs verwendet, um "duplizierte" URLs zu löschen.
Scavenger: Burp-Erweiterung zur Erstellung einer Liste von Verzeichnissen aus der Burp-Historie verschiedener Seiten.
TrashCompactor: Entfernen Sie URLs mit duplizierten Funktionen (basierend auf JS-Imports).
Chamaleon: Es verwendet Wappalyzer, um verwendete Technologien zu erkennen und die zu verwendenden Wortlisten auszuwählen.
Empfohlene Wörterbücher:
raft-large-directories-lowercase.txt
directory-list-2.3-medium.txt
RobotsDisallowed/top10000.txt
/usr/share/wordlists/dirb/common.txt
/usr/share/wordlists/dirb/big.txt
/usr/share/wordlists/dirbuster/directory-list-2.3-medium.txt
Bedenken Sie, dass jedes Mal, wenn während des Brute-Forcings oder Spiderings ein neues Verzeichnis entdeckt wird, es Brute-Forced werden sollte.
Broken link checker: Finden Sie defekte Links in HTMLs, die anfällig für Übernahmen sein könnten.
Dateisicherungen: Sobald Sie alle Dateien gefunden haben, suchen Sie nach Sicherungen aller ausführbaren Dateien (".php", ".aspx"...). Häufige Variationen zur Benennung einer Sicherung sind: file.ext~, #file.ext#, ~file.ext, file.ext.bak, file.ext.tmp, file.ext.old, file.bak, file.tmp und file.old. Sie können auch das Tool bfac oder backup-gen** verwenden.**
Neue Parameter entdecken: Sie können Tools wie Arjun, parameth, x8 und Param Miner verwenden, um versteckte Parameter zu entdecken. Wenn Sie können, könnten Sie versuchen, versteckte Parameter in jeder ausführbaren Webdatei zu suchen.
Arjun alle Standard-Wortlisten: https://github.com/s0md3v/Arjun/tree/master/arjun/db
Param-miner “params” : https://github.com/PortSwigger/param-miner/blob/master/resources/params
Assetnote “parameters_top_1m”: https://wordlists.assetnote.io/
nullenc0de “params.txt”: https://gist.github.com/nullenc0de/9cb36260207924f8e1787279a05eb773
Kommentare: Überprüfen Sie die Kommentare aller Dateien, Sie können Anmeldeinformationen oder versteckte Funktionen finden.
Wenn Sie CTF spielen, ist ein "gewöhnlicher" Trick, Informationen in Kommentaren auf der rechten Seite der Seite zu verstecken (indem Sie Hunderte von Leerzeichen verwenden, sodass Sie die Daten nicht sehen, wenn Sie den Quellcode mit dem Browser öffnen). Eine andere Möglichkeit besteht darin, mehrere neue Zeilen zu verwenden und Informationen in einem Kommentar am unteren Ende der Webseite zu verstecken.
API-Schlüssel: Wenn Sie einen API-Schlüssel finden, gibt es einen Leitfaden, der angibt, wie man API-Schlüssel verschiedener Plattformen verwendet: keyhacks, zile, truffleHog, SecretFinder, RegHex, DumpsterDive, EarlyBird
Google API-Schlüssel: Wenn Sie einen API-Schlüssel finden, der wie AIzaSyA-qLheq6xjDiEIRisP_ujUseYLQCHUjik aussieht, können Sie das Projekt gmapapiscanner verwenden, um zu überprüfen, auf welche APIs der Schlüssel zugreifen kann.
S3-Buckets: Achten Sie beim Spidering darauf, ob eine Subdomain oder ein Link mit einem S3-Bucket verbunden ist. In diesem Fall überprüfen Sie die Berechtigungen des Buckets.
Während Sie das Spidering und Brute-Forcing durchführen, könnten Sie interessante Dinge finden, die Sie beachten sollten.
Interessante Dateien
Suchen Sie nach Links zu anderen Dateien in den CSS-Dateien.
Wenn Sie eine .env-Datei finden, können Informationen wie API-Schlüssel, Datenbankpasswörter und andere Informationen gefunden werden.
Wenn Sie API-Endpunkte finden, sollten Sie diese ebenfalls testen. Diese sind keine Dateien, sehen aber wahrscheinlich "so aus".
JS-Dateien: Im Abschnitt Spidering wurden mehrere Tools erwähnt, die Pfade aus JS-Dateien extrahieren können. Es wäre auch interessant, jede gefundene JS-Datei zu überwachen, da in einigen Fällen eine Änderung darauf hindeuten kann, dass eine potenzielle Sicherheitsanfälligkeit im Code eingeführt wurde. Sie könnten beispielsweise JSMon** verwenden.**
Javascript Deobfuscator und Unpacker: https://lelinhtinh.github.io/de4js/, https://www.dcode.fr/javascript-unobfuscator
Javascript Beautifier: http://jsbeautifier.org/, http://jsnice.org/
JsFuck-Deobfuskation (JavaScript mit Zeichen: "[]!+" https://ooze.ninja/javascript/poisonjs/)
TrainFuck: +72.+29.+7..+3.-67.-12.+55.+24.+3.-6.-8.-67.-23.
In mehreren Fällen müssen Sie reguläre Ausdrücke verstehen, die verwendet werden, dies wird nützlich sein: https://regex101.com/
Sie könnten auch die Dateien überwachen, in denen Formulare erkannt wurden, da eine Änderung des Parameters oder das Auftreten eines neuen Formulars auf eine potenziell neue anfällige Funktionalität hinweisen kann.
403 Forbidden/Basic Authentication/401 Unauthorized (Umgehung)
502 Proxy-Fehler
Wenn eine Seite mit diesem Code antwortet, handelt es sich wahrscheinlich um einen schlecht konfigurierten Proxy. Wenn Sie eine HTTP-Anfrage wie: GET https://google.com HTTP/1.1
(mit dem Host-Header und anderen gängigen Headern) senden, wird der Proxy versuchen, auf google.com zuzugreifen, und Sie haben eine SSRF gefunden.
NTLM-Authentifizierung - Informationsoffenlegung
Wenn der laufende Server nach Authentifizierung fragt und Windows ist oder Sie ein Login finden, das nach Ihren Anmeldeinformationen (und nach dem Domänennamen) fragt, können Sie eine Informationsoffenlegung provozieren.
Senden Sie den Header: “Authorization: NTLM TlRMTVNTUAABAAAAB4IIAAAAAAAAAAAAAAAAAAAAAAA=”
und aufgrund der Funktionsweise der NTLM-Authentifizierung wird der Server mit internen Informationen (IIS-Version, Windows-Version...) im Header "WWW-Authenticate" antworten.
Sie können dies mit dem nmap-Plugin "http-ntlm-info.nse" automatisieren.
HTTP-Weiterleitung (CTF)
Es ist möglich, Inhalte in eine Weiterleitung einzufügen. Diese Inhalte werden dem Benutzer nicht angezeigt (da der Browser die Weiterleitung ausführt), aber etwas könnte dort versteckt sein.
Jetzt, da eine umfassende Enumeration der Webanwendung durchgeführt wurde, ist es an der Zeit, nach vielen möglichen Sicherheitsanfälligkeiten zu suchen. Sie finden die Checkliste hier:
Weitere Informationen zu Web-Sicherheitsanfälligkeiten finden Sie unter:
Sie können Tools wie https://github.com/dgtlmoon/changedetection.io verwenden, um Seiten auf Änderungen zu überwachen, die Sicherheitsanfälligkeiten einfügen könnten.
Erhalten Sie die Perspektive eines Hackers auf Ihre Webanwendungen, Netzwerke und Cloud
Finden und melden Sie kritische, ausnutzbare Sicherheitsanfälligkeiten mit echtem Geschäftswert. Verwenden Sie unsere 20+ benutzerdefinierten Tools, um die Angriffsfläche zu kartieren, Sicherheitsprobleme zu finden, die Ihnen ermöglichen, Berechtigungen zu eskalieren, und verwenden Sie automatisierte Exploits, um wesentliche Beweise zu sammeln, die Ihre harte Arbeit in überzeugende Berichte verwandeln.
Lerne & übe AWS Hacking:HackTricks Training AWS Red Team Expert (ARTE) Lerne & übe GCP Hacking: HackTricks Training GCP Red Team Expert (GRTE)