Пожалуйста, используйте этот идентификатор, чтобы цитировать или ссылаться на этот ресурс: http://dspace.opu.ua/jspui/handle/123456789/14634
Полная запись метаданных
Поле DCЗначениеЯзык
dc.contributor.authorСічкарюк, Руслан Костянтинович-
dc.contributor.authorSichkariuk, Ruslan K.-
dc.contributor.authorКорніловська, Наталя Володимирівна-
dc.contributor.authorKornilovskа, Natalia V.-
dc.contributor.authorЛур’є, Ірина Анатолієвна-
dc.contributor.authorLurie, Iryna A.-
dc.contributor.authorВороненко, Марія Олександрівна-
dc.contributor.authorVoronenko, Maria A.-
dc.date.accessioned2024-10-07T19:13:13Z-
dc.date.available2024-10-07T19:13:13Z-
dc.date.issued2024-09-26-
dc.identifier.issn2522-1523-
dc.identifier.urihttp://dspace.opu.ua/jspui/handle/123456789/14634-
dc.description.abstractЗ кожним роком процес цифровізації суспільства набирає обертів, що призводить до значного зростання попиту на оброблену та проаналізовану інформацію. У сучасному світі дані стали важливим ресурсом, а здатність швидко знаходити й аналізувати велику кількість інформації є важливою конкурентною перевагою для компаній, дослідників і аналітиків. У цьому контексті веб-скрапінг стає важливим інструментом, який дозволяє ефективно збирати дані з різних інтернет-джерел для подальшого аналізу та прийняття обґрунтованих рішень. У цій роботі розглядаються сучасні досягнення в області розробки та впровадження ефективних методів веб-скрапінгу для автоматичного збору та обробки даних за допомогою Python. Використання новітніх бібліотек Python, таких як BeautifulSoup, Selenium і Scrapy, дозволяє досягти високої швидкості і точності збору даних з різних веб-джерел, що охоплюють вторинний ринок. Запропоновані алгоритми знижують ризик блокування сайтів, забезпечують стабільність і надійність збору даних у різних ситуаціях. Крім того, в роботі велика увага приділяється автоматизації процесу збору даних, що досягається за рахунок розробки автоматизованих скриптів і впровадження програм планування роботи, таких як cron jobs. Це забезпечує постійне оновлення бази даних і збір нової інформації без необхідності ручного втручання. Особливий акцент робиться на обробці та очищенні зібраних даних, особливо на розробці методів фільтрації непотрібної інформації, дублювання та шуму, що сприяє покращенню якості даних. Ефективне використання зібраних даних показує їх цінність для аналізу ринку, оцінки потреб і прогнозування якості, підкреслюючи важливість використання розробленого методу. Дослідження містить приклади реальних випадків використання даних у різних сферах, таких як маркетинг, економіка та бізнес-аналіз. У цій роботі проведено порівняльний аналіз різних методів збору даних, що дає змогу оцінити ефективність і надійність запропонованих рішень.en
dc.description.abstractWith each passing year, the process of digitalization in society is accelerating, leading to a significant increase in demand for processed and analyzed information. In today's world, data has become a valuable resource, and the ability to quickly find and analyze large amounts of information is a key competitive advantage for companies, researchers, and analysts. In this context, web scraping has become an important tool, enabling the efficient collection of data from various online sources for further analysis and informed decision-making. This paper examines the latest advancements in the development and implementation of effective web scraping methods for automatic data collection and processing using Python. The use of the latest Python libraries, such as BeautifulSoup, Selenium, and Scrapy, allows for high-speed and accurate data collection from various web sources, particularly in secondary markets. The proposed algorithms reduce the risk of site blocking, ensuring the stability and reliability of data collection in various situations. Additionally, the paper places great emphasis on automating the data collection process through the development of automated scripts and the implementation of job scheduling programs, such as cron jobs. This ensures continuous database updates and the collection of new information without manual intervention. Special attention is given to the processing and cleaning of collected data, particularly in the development of methods for filtering out unnecessary information, duplicates, and noise, which enhances data quality. The efficient use of the collected data demonstrates its value for market analysis, demand assessment, and quality forecasting, highlighting the importance of the proposed method. The research includes examples of real-world data use cases in various fields such as marketing, economics, and business analysis. A comparative analysis of different data collection methods is also provided, allowing for the assessment of the effectiveness and reliability of the proposed solutionsen
dc.language.isouken
dc.publisherOdessа Polytechnic National Universityen
dc.subjectВеб-скрапінгen
dc.subjectPythonen
dc.subjectавтоматизація збору данихen
dc.subjectвторинний ринокen
dc.subjectобробка данихen
dc.subjectаналіз ринкуen
dc.subjectзавдання cronen
dc.subjectBeautifulSoupen
dc.subjectSeleniumen
dc.subjectScrapyen
dc.subjectWeb scrapingen
dc.subjectdata collection automationen
dc.subjectsecondary marketen
dc.subjectdata processingen
dc.subjectmarket analysisen
dc.subjectcron jobsen
dc.titleРозробка та впровадження ефективних методів веб-скрапінгу для автоматизованого збору і обробки даних з використанням Pythonen
dc.typeArticleen
opu.citation.journalІнформатика. Культура. Техніка = Informatics. Culture. Technologyen
opu.citation.volume1en
opu.citation.firstpage62en
opu.citation.lastpage68en
opu.citation.conferenceХ МІЖНАРОДНА НАУКОВО-ПРАКТИЧНА КОНФЕРЕНЦІЯ «Інформатика. Культура. Техніка» = X International conference "INFORMATICS. CULTURE. TECHNIQUE"en
opu.citation.issue1en
Располагается в коллекциях:«Informatics. Culture. Technology» = «Інформатика. Культура. Техніка»

Файлы этого ресурса:
Файл Описание РазмерФормат 
8__1-1_Січкарюк_Корніловська.pdf595.9 kBAdobe PDFПросмотреть/Открыть


Все ресурсы в архиве электронных ресурсов защищены авторским правом, все права сохранены.