Skip to content

wkordos/scraper

Folders and files

NameName
Last commit message
Last commit date

Latest commit

 

History

9 Commits
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

Repository files navigation

Architektura bedzie taka

Scrapy w osobnym kontenerze, Scrapy bedzie publikowal do rabbitMQ

RabbitMQ bedzie robil za middleware , odpowiedzialny za przesylanie wiadomosci miedzy serwisami , konkretne kolejki do ustalenia

Processor w osobnym kontenerze - to bedzie serwis do przetwarzania roznych wiadomosci wchodzacych na middleware

Processor bedzie odpowiedzialny za zapisywanie danych ostatecznie do BD postgis na razie prosty skrypt pythonowy, docelowo w celery jako procesor do rabbitmq

PostGIS bedzie baza danych na osobnym kontenerze, zawiera wszystkie dane aplikacji , wszystko w jednej bazie danych , nie chce mi sie juz cudowac

Aplikacja webowa - backend - osobny kontener , bedzie serwowal zapytania wysylane przez frontend , ostatecznie jednak flask zeby wszystko bylo w pythonie , calosc bedzie smigala na kontenerze z unicornem

Frontend angular - prezentacja danych

i dojdzie do tego serwer www jak nginx jako kolejny kontener

czyli mamy

scraper (scrapy ) -> middleware (rabbitmq) -> ETL (celery) -> DB (postgis) -> backend (flask-unicorn) -> frontend angular +leaflet

About

moj prywatny scraper

Resources

Stars

Watchers

Forks

Releases

No releases published

Packages

 
 
 

Contributors