Сканирование сайта на файлы

Заражение сайтов с целью кражи данных или нанесения вреда не является чем-то новым. Первые такие атаки произошли еще в 1988 году.

С тех пор количество подобных вредоносных программ оценивается в 1,7 миллиарда .

Статистика Лаборатории Касперского по распространению вредоносного программного обеспечения.

Рассмотрим онлайн-инструменты, которые помогут просканировать сайт на наличие вредоносного программного обеспечения.

1. Quttera

Quttera предлагает бесплатное сканирование сайтов на основе WordPress, Joomla, Drupal, Bulletin, SharePoint. А также предоставляет подробный отчет о результатах проверки.

Инструмент также предлагает услуги по очистке зараженного сайта от вредоносного программного обеспечения.

2. SUCURI

SUCURI — один из самых известных сканеров для WordPress, Joomla, Magento и т. д. Он позволяет бесплатно сканировать сайт на наличие вредоносных программ. И предоставляет следующую информацию:

  • Обнаруженные вредоносные программы;
  • Попадание сайта в черные списки (зараженных ресурсов);
  • Наличие спама;
  • Повреждений.

Если на сайте найдено вредоносное программное обеспечение, вы можете воспользоваться услугами от SUCURI для решения возникших проблем.

3. SiteGuarding

Результаты проверки с помощью SiteGauarding похожи на SUCURI.

Этот инструмент сканирует сайт на наличие вредоносных программ, попадание в черные списки и т.д.

4. Web Inspector

WebInspector предлагает бесплатное сканирование веб-страниц. Сгенерированный сервисом отчет информирует о следующих угрозах:

  • Блэклистинге;
  • Фишинге;
  • Вредоносных программах;
  • Бэкдорах;
  • Троянах;
  • Подозрительных фреймах;
  • Подозрительном коде / ​​подключении / активности.

5. Google Malware Checker

Google Safe Browsing проверяет веб-страницу на т наличия вредоносного программного обеспечения или фишинг-контента. Это самый быстрый способ определить, опасно ли посещение какого-то сайта или нет.

6. Metascan

Metascan позволяет сканировать IP-адрес или файл на наличие вредоносного программного обеспечения. Файл проверяется с помощью 43 антивирусных программ, а IP-адрес – с помощью 12 перечисленных ниже ресурсов.

  • Alien Vault;
  • Brute Force Blocker;
  • Chaos Reigns;
  • Clean MX;
  • Dragon Research Group;
  • Feodo Tracker;
  • Malc0de;
  • Malware Domain List;
  • OpenBL;
  • Phish Tank;
  • The Spamhaus Project;
  • Zeus Tracker.

7. Qualys MD

Qualys Malware Detection позволяет непрерывно отслеживать деятельность вредоносного программного обеспечения на сайте с помощью отчета о действиях. В нем вы сможете найти и фрагменты зараженного кода и вылечить их.

Читайте также:  Прошивка телефона gt s5250

Qualys включает в себя панель управления с удобной настройкой и разделом оповещений о выявленных проблемах.

8. Virus Total

VirusTotal проверят подозрительные файлы с помощью нескольких онлайн-сканеров (Kaspersky, Malware, Dr.Web, Netcraft, Trustwave, Cybercrime, CloudStat) на наличие вирусов, червей, троянов и других видов вредоносного программного обеспечения.

9. MalCare

Охватывающий более чем 20 000 WordPress-сайтов, сервис MalCare предлагает комплексное сканирование, очистку и защиту от вредоносных программ.

MalCare использует более 100 сигналов при проверке кода сайта.Это не просто сканер, так как MalCare также предлагает удаление вредоносных программ и постоянную защиту ресурса в один клик.

10. ReScan

ReScan выполняет поведенческое сканирование статичных и динамических страница. Этот инструмент предоставляет отчет со следующей информацией:

  • Обнаружены ли скрытые редиректы;
  • Есть ли подозрительные виджеты, рекламное программное обеспечение, программы-шпионы;
  • Присутствие сайта в черном списке по 60+онлайн-базам данных;
  • Наличие SEO-спам ссылок.

Вот как выглядит отчет:

11. Hacker Combat

Hacker Combat предлагает бесплатный инструмент для проверки сайта на наличие червей, бэкдоров, вредоносных программ, подозрительного кода, троянов, фишинга и т. д.

После завершения проверки он предложит пользователю ввести адрес электронной почты, на который будет отправлен отчет.

Защита в интернете — это всегда непросто. Выполнение регулярных проверок сайта на наличие вредоносных программ — отличная профилактика!

Данная публикация представляет собой перевод статьи « 11 Awesome Tools for Website Malware Scanning » , подготовленной дружной командой проекта Интернет-технологии.ру

SiteAnalyzer это веб-краулер для сканирования и анализа содержимого сайта.

Является бесплатным аналогом Screaming Frog и Netpeak Spider.

Основные возможности

  • Сканирование всех страниц сайта, а также изображений, скриптов и документов
  • Получение кодов ответа сервера для каждой страницы сайта (200, 301, 302, 404, 500, 503 и т.д.)
  • Определение наличия и содержимого Title, Keywords, Description, H1-H6
  • Поиск и отображение "дубликатов" страниц, мета-тегов и заголовков
  • Определение наличия атрибута rel="canonical" для каждой страницы сайта
  • Следование директивам файла "robots.txt", мета-тега "robots", либо X-Robots-Tag
  • Учет "noindex" и "nofollow" при обходе страниц сайта
  • Ссылочный анализ: определение внутренних и внешних ссылок для любой страницы сайта
  • Расчет внутреннего показателя PageRank для каждой страницы сайта
  • Визуализация структуры сайта на графе
  • Определение количества перенаправлений со страницы (редиректов)
  • Сканирование произвольных URL и внешних Sitemap.xml
  • Генерация карты сайта "sitemap.xml" (с возможностью разбиения на несколько файлов)
  • Фильтрация данных по любому параметру (гибкая настройка фильтров любой сложности)
  • Экспорт отчетов в CSV, Excel и PDF-формат
Читайте также:  Связной проверить статус ремонта телефона

Отличия от аналогов

  • Низкие требования к ресурсам компьютера, малый расход оперативной памяти
  • Сканирование сайтов практически любых объемов за счет низких требований к ресурсам компьютера
  • Портативный формат (работает без установки на ПК или прямо со сменного носителя)
  • Бесплатное распространение

Помощь проекту

Если у вас есть желание поддержать развитие программы, вы можете перевести любую сумму одним из удобных для вас способов:

  • на кошелек Яндекс.Деньги: 4100138674154 (занимает менее минуты) на кошелек WebMoney: R848899779227 (без протекции сделки, занимает пару минут)

Либо написать отзыв о программе или ваше пожелание по ее работе на форуме Searchengines.ru в этой ветке https://searchengines.guru/showthread.php?t=973888

Для нас это важно.
Благодарим за поддержку!

История версий

Версия 2.0 (build 198), 23.12.2019:

  • добавлена визуализация структуры сайта на графе (аналогично Screaming Frog)
  • добавлена возможность сканирования сайтов по внутренним URL, а не только по главной странице, как было ранее
  • добавлена возможность сканирования локальных сайтов на Denwer или Live Server по адресам типа http://127.0.0.1:5500/
  • добавлено автоматическое пересканирование страниц, если их скачивание завершается таймаутом (например, когда сайт блокирует большое количество одновременных запросов и возвращает неопределенные коды ответа)
  • добавлена возможность автоматического обновления версий программы (при старте программы или через главное меню)
  • добавлена возможность копирования текста из поля ввода URL по Ctrl-C
  • добавлен счетчик оставшегося времени сканирования текущего проекта
  • оптимизировано управление скоростью скачивания и записью данных в базу (теперь сохранение данных в базу не будет таким долгим при большом количестве потоков сканирования)
  • восстановлена возможность сканирования больших массивов ссылок при импорте URL из файла, буфера обмена, либо по ссылке
  • восстановлена проверка индексации страниц через сервис Яндекс XML
  • исправлен баг с некорректным ответом сервера при парсинге страниц, содержащих в URL знак плюс (+)
  • исправлен некорректный экспорт структуры сайта в CSV (число страниц сайта выгружалось не полностью)
  • исправлен некорректный учет содержимого тега BASE при парсинге страниц (когда BASE HREF представлял собой домен)
  • исправлен баг, возникающий при удалении произвольных строк сразу после сканирования проекта (также добавлено удаление URL по кнопке Delete)
  • исправлен баг, при котором сканер учитывал содержимое мета-тегов "noindex, nofollow" при отключении данной опции в настройках программы
  • исправлен баг, при котором не отображалась область выделенного диапазона ячеек при потере курсора в таблице с основными данными
Читайте также:  Портативная зарядка для самсунг

Минимальные системные требования:
– 500 МГц (рекомендуется: 3 ГГц или выше)
– 1 ГБ RAM (рекомендуется: 2 ГБ или выше)
– Microsoft Windows 10/8/7/Vista/XP
– выход в интернет

10.10.2014 – gosware
Отличная программа. Пользуюсь уже несколько лет. Возникающие проблемы автор решает, не сказать что быстро, но своевременно. Так что актуальность не теряется. Огромный плюс за Free!

Pirnazar

Никогда не бывает лишним просканировать веб-сайт на наличие скрытых каталогов и файлов (скрытых – имеются ввиду каталоги и файлы, на которые не ведут ссылки, и о которых знает только веб-мастер). Как минимум, можно узнать что-то новое о сайте, а бывает просто выпадает супер-приз — архив сайта или базы данных, бэкап чувствительных файлов и т.д.

— это сканер веб-контента. Он ищет существующие (возможно, скрытые) веб-объекты. В основе его работы лежит поиск по словарю, он формирует запросы к веб-серверу и анализирует ответ.

DIRB поставляется с набором настроенных на атаку словарей для простого использования, но вы можете использовать и ваш собственный список слов. Также иногда DIRB можно использовать как классический CGI сканер, но помните, что в первую очередь это сканер содержимого, а не сканер уязвимостей.

Главная цель DIRB — это помочь профессионалам в аудите веб-приложений. Особенно в тестах ориентированных на безопасность. Она покрывает некоторые дыры, не охваченные классическими сканерами веб-уязвимостей. DIRB ищет специфические веб-объекты, которые другие сканеры CGI не ищут. Она не ищет уязвимости и не ищет веб-содержимое, которое может быть уязвимым.

Может быть, эта программа станет последней попыткой для невезучих аналитиков по безопасности…

Примечания
: Основной URL для сканирования. (Используйте -resume для возобновления сессии)
: Список словарей. (словарь1, словарь2, словарь3…)

Leave a Reply

Ваш адрес email не будет опубликован. Обязательные поля помечены *

You may use these HTML tags and attributes:

<a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>