Подписывайтесь на наш Telegram и не пропускайте важные новости! Перейти

Работа с W3af в Kali Linux

Пользователь
Пользователь
Статус
Оффлайн
Регистрация
3 Май 2016
Сообщения
372
Реакции
102
Введение

Web Application Attack and Audit Framework(W3af) — это сканер веб-уязвимостей с открытым исходным кодом.
Этот сканер имеет графический интерфейс, но так же можно работы и из-под консоли. В общем, это фреймворк имеющий большое количество разных плагинов.
Далее будет описано как осуществить проверку веб-приложения на уязвимости XSS, CSRF и Sqli работая в w3af из под консоли.

Как пользоваться W3af

Для запуска W3af введите в терминале ''w3af_console''. Для просмотра всех команд пишем ''help'' и видим следующие:​
5GxYU7EW_8k.jpg

Прежде всего я вам расскажу как настроить W3af для работы
Для выбора опции достаточно написать ее название, а для возвращения к предыдущему уровню написать ''back'' Вводом команды "view" мы выведем на экран список настраиваемых параметров выбранной опции.
Теперь рассмотрим опцию "target". С помощью нее задается URL для проводимой проверки.

Настройка опции:

qyJrYrFFMi8.jpg


Для данной опции доступны следующие параметры:

18BnY8b5Lb4.jpg

Установим URL для проверки:

f7VM9OxHRjU.jpg

Для дальнейшей работы необходимо настроить плагины:

NIGW7FmK5mc.jpg


LtVA-bNf7S4.jpg

Для аудита веб-приложения нужно настроить минимум 4 плагина.
Audit, crawl, infrastructure и output
Если мы напечатаем audit, то увидим все доступные настройки для этого плагина, такие как xss, csrf, sql и ldap инъекции и т.д.
Кроме этого там также указано какие из настроек в данный момент включены.

Для включения определенных настроек следует напечатать:

Bq5iTEvGO5o.jpg

Для выбора всех настроек:

Xa8_HLaheYA.jpg

Нам как раз и нужно проверить веб-приложение на эти уязвимости. Кроме того мы хотим чтобы результат проверки отображался в консоли и был сохранен в виде html.
Для этого включим необходимые плагины crawl и output.

Sr6FaYjPNu8.jpg

Немного информации об используемых плагинах:
Web_spider
— Плагин представляет из себя классического web-паука. Он бродит по сайту и извлекает все ссылки и адреса форм.
Pykto — Плагин представляет из себя сканнер nikto, портированный на python. Он использует базу данных из nikto (scan_database) для поиска уязвимых ссылок.
Hmap — Плагин опознаёт удалённый веб-сервер, его тип, версию и установленные исправления.
Идентификация происходит не только через заголовок "Server". По сути плагин представляет из себя обёртку для hmap Dustin`a Lee.
Console — Этот плагин пишет отчёт о работе фреймворка в консоль.
Html_file — Плагин пишет отчёт о работе фреймворка в HTML-файл.

Для начала аудита выполняем следующие команды:

4sMSUebmHAM.jpg

Сканер работает довольно долго, так что придется запастись терпением. В итоге получим примерно такой отчет:

3Risles-MRs.jpg

И результат, сохраненный в results.html:

LfWkM09Gm0o.jpg


SDb_ZYXvOOQ.jpg
 
Последнее редактирование:
Тема классно оформлена, но фрейм сам по себе немного кривой, частенько может выдать ошибки) Лучше пользоваться чем то более стабильным)
 
Назад
Сверху Снизу