Представлена робота обсягом 87 сторінок містить 26 ілюстрацій, 12 таблиць та 17 джерел за переліком посилань. Актуальність роботи зумовлюється тим, що на даний момент при розробці багатьох інтернет-ресурсів та веб-сайтів веб-розробники та замовники не завжди задумуються про правильне використання своїх ресурсів та захист даних, що знаходяться у відкритому доступі. Перш за все потрібно мінімізувати автоматизований доступ до таких даних та ефективно використовувати наявні ресурси для захисту контенту, особистих даних, що знаходяться у відкритому вигляді, чи інформації, що є об’єктом захисту авторського права. Метою роботи є підвищення рівня захищеності інформації, що розміщена на інтернет-ресурсах різного характеру, шляхом створення ефективної системи, яка буде виявляти та автоматично блокувати виявлене програмне забезпечення для автоматизованого збору інформації з веб-сайтів. Для досягнення даної мети були поставлені наступні завдання: • аналіз роботи веб-скраперів; • аналіз можливих загроз для власників веб-сайтів при відсутності захисту від веб-скраперів; • визначення найефективніших методів захисту; • вдосконалення існуючих методів захисту; • створення власної системи виявлення веб-скраперів на основі вдосконаленого існуючого методу виявлення; • побудова програмної моделі веб-сайту з використанням запропонованої системи виявлення веб-скраперів; • спроба реалізації атаки на побудовану модель веб-сайту з використанням створеної системи; • оцінка захищеної моделі та аналіз результатів. Об’єктами дослідження є веб-сайти та інтернет-ресурси, вразливі до досліджуваної атаки, та можливі методи захисту від неї. Предметом дослідження є виявлення веб-скраперів за допомогою пасток, розміщених на веб-сайті. Методами дослідження було обрано: опрацювання літератури за даною темою, аналіз причин виникнення даної атаки, аналіз методів захисту, проведення експериментів та порівняння деяких методів. Наукова новизна. В ході проведення дослідження було вперше побудовано систему виявлення веб-скраперів, яка є ефективною при виявленні програмного забезпечення під час його запуску лише в певних директоріях веб-сайту. При цьому система не потребує створення додаткових файлів, які будуть завантажувати сервер. Практичне значення полягає в тому, що результати роботи можуть застосовуватись при створенні інтернет-ресурсів для мінімізації можливості крадіжки контенту, особистих даних, що знаходяться у відкритому вигляді, чи інформації, що є об’єктом захисту авторського права. Результати дослідження, які є основою магістерської дисертації, були опубліковані в статті «Удосконалений метод виявлення веб-скраперів з використанням пасток». Стаття опублікована в збірнику, що містить матеріали XVII Всеукраїнської науково-практичної конференції студентiв, аспiрантiв та молодих вчених «Теоретичні і прикладні проблеми фізики, математики та інформатики». This work of 87 pages contains 26 illustrations, 12 tables and 17 literature references. The relevance of the work is due to the fact that at the moment many web developers and customers do not always think about the proper use of their resources and protection of data that is in the open access, when they develop Internet resources and websites. First of all, it is necessary to minimize automated access to such data and to make effective use of available resources to protect content, personal data that is in the public access, or information that is the subject of copyright protection. The aim of the work is to increase the security of information placed on various resources of the Internet by creating an effective system that will detect and automatically block the detected software for automated information gathering from websites. To achieve this goal, the following tasks were set: • analysis of the work of web scrapers; • analysis of possible threats to website owners in the absence of protection from web scrapers; • the most effective protection methods identifying; • existing protection methods improvement; • designing of own web scrapers detection system, based on an improved existing detection method; • creating a program model of a website, using the proposed web scrapers detection system; • an attempt to implement an attack on a built-in website model, using the created system; • evaluation of the protected model and analysis of the results. The objects of the study are websites and Internet resources, vulnerable to the attack being investigated and possible protection methods against it. The subject of the study is the detection of web scrapers, using honeypots, located on the website. The research methods were chosen: studying the literature on this topic, analyzing the causes of this attack, analyzing protection methods, conducting experiments and comparing some methods. Scientific novelty. During the study, a web scrapers detection system, which is effective in detecting software, when it is launched only in certain directories of the website, was built for the first time. The system does not require additional files that will load the server. The practical value is that work results can be applied when creating Internet resources to minimize the possibility of theft of content, personal data that is in the public access, or information that is the subject of copyright protection. The research findings, which are the basis of the master's thesis, were published in the article "Improved web scrapers detecting method using honeypots". The article is published in the collection containing materials of the XVII All-Ukrainian Scientific and Practical Conference of Students, Aspirants and Young Scientists "Theoretical and Applied Problems of Physics, Mathematics and Computer Science".