Пожалуйста, используйте этот идентификатор, чтобы цитировать или ссылаться на этот ресурс: http://dspace.opu.ua/jspui/handle/123456789/14634
Название: Розробка та впровадження ефективних методів веб-скрапінгу для автоматизованого збору і обробки даних з використанням Python
Авторы: Січкарюк, Руслан Костянтинович
Sichkariuk, Ruslan K.
Корніловська, Наталя Володимирівна
Kornilovskа, Natalia V.
Лур’є, Ірина Анатолієвна
Lurie, Iryna A.
Вороненко, Марія Олександрівна
Voronenko, Maria A.
Ключевые слова: Веб-скрапінг
Python
автоматизація збору даних
вторинний ринок
обробка даних
аналіз ринку
завдання cron
BeautifulSoup
Selenium
Scrapy
Web scraping
data collection automation
secondary market
data processing
market analysis
cron jobs
Дата публикации: 26-Сен-2024
Издательство: Odessа Polytechnic National University
Краткий осмотр (реферат): З кожним роком процес цифровізації суспільства набирає обертів, що призводить до значного зростання попиту на оброблену та проаналізовану інформацію. У сучасному світі дані стали важливим ресурсом, а здатність швидко знаходити й аналізувати велику кількість інформації є важливою конкурентною перевагою для компаній, дослідників і аналітиків. У цьому контексті веб-скрапінг стає важливим інструментом, який дозволяє ефективно збирати дані з різних інтернет-джерел для подальшого аналізу та прийняття обґрунтованих рішень. У цій роботі розглядаються сучасні досягнення в області розробки та впровадження ефективних методів веб-скрапінгу для автоматичного збору та обробки даних за допомогою Python. Використання новітніх бібліотек Python, таких як BeautifulSoup, Selenium і Scrapy, дозволяє досягти високої швидкості і точності збору даних з різних веб-джерел, що охоплюють вторинний ринок. Запропоновані алгоритми знижують ризик блокування сайтів, забезпечують стабільність і надійність збору даних у різних ситуаціях. Крім того, в роботі велика увага приділяється автоматизації процесу збору даних, що досягається за рахунок розробки автоматизованих скриптів і впровадження програм планування роботи, таких як cron jobs. Це забезпечує постійне оновлення бази даних і збір нової інформації без необхідності ручного втручання. Особливий акцент робиться на обробці та очищенні зібраних даних, особливо на розробці методів фільтрації непотрібної інформації, дублювання та шуму, що сприяє покращенню якості даних. Ефективне використання зібраних даних показує їх цінність для аналізу ринку, оцінки потреб і прогнозування якості, підкреслюючи важливість використання розробленого методу. Дослідження містить приклади реальних випадків використання даних у різних сферах, таких як маркетинг, економіка та бізнес-аналіз. У цій роботі проведено порівняльний аналіз різних методів збору даних, що дає змогу оцінити ефективність і надійність запропонованих рішень.
With each passing year, the process of digitalization in society is accelerating, leading to a significant increase in demand for processed and analyzed information. In today's world, data has become a valuable resource, and the ability to quickly find and analyze large amounts of information is a key competitive advantage for companies, researchers, and analysts. In this context, web scraping has become an important tool, enabling the efficient collection of data from various online sources for further analysis and informed decision-making. This paper examines the latest advancements in the development and implementation of effective web scraping methods for automatic data collection and processing using Python. The use of the latest Python libraries, such as BeautifulSoup, Selenium, and Scrapy, allows for high-speed and accurate data collection from various web sources, particularly in secondary markets. The proposed algorithms reduce the risk of site blocking, ensuring the stability and reliability of data collection in various situations. Additionally, the paper places great emphasis on automating the data collection process through the development of automated scripts and the implementation of job scheduling programs, such as cron jobs. This ensures continuous database updates and the collection of new information without manual intervention. Special attention is given to the processing and cleaning of collected data, particularly in the development of methods for filtering out unnecessary information, duplicates, and noise, which enhances data quality. The efficient use of the collected data demonstrates its value for market analysis, demand assessment, and quality forecasting, highlighting the importance of the proposed method. The research includes examples of real-world data use cases in various fields such as marketing, economics, and business analysis. A comparative analysis of different data collection methods is also provided, allowing for the assessment of the effectiveness and reliability of the proposed solutions
URI (Унифицированный идентификатор ресурса): http://dspace.opu.ua/jspui/handle/123456789/14634
ISSN: 2522-1523
Располагается в коллекциях:«Informatics. Culture. Technology» = «Інформатика. Культура. Техніка»

Файлы этого ресурса:
Файл Описание РазмерФормат 
8__1-1_Січкарюк_Корніловська.pdf595.9 kBAdobe PDFПросмотреть/Открыть


Все ресурсы в архиве электронных ресурсов защищены авторским правом, все права сохранены.