eONPUIR

Розробка та впровадження ефективних методів веб-скрапінгу для автоматизованого збору і обробки даних з використанням Python

Показать сокращенную информацию

dc.contributor.author Січкарюк, Руслан Костянтинович
dc.contributor.author Sichkariuk, Ruslan K.
dc.contributor.author Корніловська, Наталя Володимирівна
dc.contributor.author Kornilovskа, Natalia V.
dc.contributor.author Лур’є, Ірина Анатолієвна
dc.contributor.author Lurie, Iryna A.
dc.contributor.author Вороненко, Марія Олександрівна
dc.contributor.author Voronenko, Maria A.
dc.date.accessioned 2024-10-07T19:13:13Z
dc.date.available 2024-10-07T19:13:13Z
dc.date.issued 2024-09-26
dc.identifier.issn 2522-1523
dc.identifier.uri http://dspace.opu.ua/jspui/handle/123456789/14634
dc.description.abstract З кожним роком процес цифровізації суспільства набирає обертів, що призводить до значного зростання попиту на оброблену та проаналізовану інформацію. У сучасному світі дані стали важливим ресурсом, а здатність швидко знаходити й аналізувати велику кількість інформації є важливою конкурентною перевагою для компаній, дослідників і аналітиків. У цьому контексті веб-скрапінг стає важливим інструментом, який дозволяє ефективно збирати дані з різних інтернет-джерел для подальшого аналізу та прийняття обґрунтованих рішень. У цій роботі розглядаються сучасні досягнення в області розробки та впровадження ефективних методів веб-скрапінгу для автоматичного збору та обробки даних за допомогою Python. Використання новітніх бібліотек Python, таких як BeautifulSoup, Selenium і Scrapy, дозволяє досягти високої швидкості і точності збору даних з різних веб-джерел, що охоплюють вторинний ринок. Запропоновані алгоритми знижують ризик блокування сайтів, забезпечують стабільність і надійність збору даних у різних ситуаціях. Крім того, в роботі велика увага приділяється автоматизації процесу збору даних, що досягається за рахунок розробки автоматизованих скриптів і впровадження програм планування роботи, таких як cron jobs. Це забезпечує постійне оновлення бази даних і збір нової інформації без необхідності ручного втручання. Особливий акцент робиться на обробці та очищенні зібраних даних, особливо на розробці методів фільтрації непотрібної інформації, дублювання та шуму, що сприяє покращенню якості даних. Ефективне використання зібраних даних показує їх цінність для аналізу ринку, оцінки потреб і прогнозування якості, підкреслюючи важливість використання розробленого методу. Дослідження містить приклади реальних випадків використання даних у різних сферах, таких як маркетинг, економіка та бізнес-аналіз. У цій роботі проведено порівняльний аналіз різних методів збору даних, що дає змогу оцінити ефективність і надійність запропонованих рішень. en
dc.description.abstract With each passing year, the process of digitalization in society is accelerating, leading to a significant increase in demand for processed and analyzed information. In today's world, data has become a valuable resource, and the ability to quickly find and analyze large amounts of information is a key competitive advantage for companies, researchers, and analysts. In this context, web scraping has become an important tool, enabling the efficient collection of data from various online sources for further analysis and informed decision-making. This paper examines the latest advancements in the development and implementation of effective web scraping methods for automatic data collection and processing using Python. The use of the latest Python libraries, such as BeautifulSoup, Selenium, and Scrapy, allows for high-speed and accurate data collection from various web sources, particularly in secondary markets. The proposed algorithms reduce the risk of site blocking, ensuring the stability and reliability of data collection in various situations. Additionally, the paper places great emphasis on automating the data collection process through the development of automated scripts and the implementation of job scheduling programs, such as cron jobs. This ensures continuous database updates and the collection of new information without manual intervention. Special attention is given to the processing and cleaning of collected data, particularly in the development of methods for filtering out unnecessary information, duplicates, and noise, which enhances data quality. The efficient use of the collected data demonstrates its value for market analysis, demand assessment, and quality forecasting, highlighting the importance of the proposed method. The research includes examples of real-world data use cases in various fields such as marketing, economics, and business analysis. A comparative analysis of different data collection methods is also provided, allowing for the assessment of the effectiveness and reliability of the proposed solutions en
dc.language.iso uk en
dc.publisher Odessа Polytechnic National University en
dc.subject Веб-скрапінг en
dc.subject Python en
dc.subject автоматизація збору даних en
dc.subject вторинний ринок en
dc.subject обробка даних en
dc.subject аналіз ринку en
dc.subject завдання cron en
dc.subject BeautifulSoup en
dc.subject Selenium en
dc.subject Scrapy en
dc.subject Web scraping en
dc.subject data collection automation en
dc.subject secondary market en
dc.subject data processing en
dc.subject market analysis en
dc.subject cron jobs en
dc.title Розробка та впровадження ефективних методів веб-скрапінгу для автоматизованого збору і обробки даних з використанням Python en
dc.type Article en
opu.citation.journal Інформатика. Культура. Техніка = Informatics. Culture. Technology en
opu.citation.volume 1 en
opu.citation.firstpage 62 en
opu.citation.lastpage 68 en
opu.citation.conference Х МІЖНАРОДНА НАУКОВО-ПРАКТИЧНА КОНФЕРЕНЦІЯ «Інформатика. Культура. Техніка» = X International conference "INFORMATICS. CULTURE. TECHNIQUE" en
opu.citation.issue 1 en


Файлы, содержащиеся в элементе

Этот элемент содержится в следующих коллекциях

Показать сокращенную информацию