Ponad 30 mln użytkowników, dziesiątki tysięcy zdarzeń na sekundę, miliardy rekordów w hurtowniach danych i petabajty powierzchni dyskowej. Te liczby pokazują skalę wyzwań, z jakimi mierzymy się w naszej codziennej pracy. Korzystając z bogatej gamy dostępnych rozwiązań przekuwamy surowe dane w informacje a te - w wiedzę.
Oto, co możemy Ci zaoferować:
- Złożone projekty z dziedziny przetwarzania danych w dużej skali, wraz z wszystkimi ciekawymi wyzwaniami, jakie za tym stoją. Wśród nich:
- Budowa rozwiązań dostarczających praktycznej wiedzy o użytkownikach do narzędzi edycyjnych, sprzedażowych i statystycznych
- Dostosowanie architektury i migracja rozwiązań do chmury publicznej AWS
- Budowa narzędzi wspomagających zarządzanie produkcją i zakupem treści
- Możliwości praktycznego użycia narzędzi z obszaru BigData do przetwarzań online jak i offline, a także narzędzi klasy BI
- Pracę w ekosystemie chmury publicznej AWS oraz chmury prywatnej, z wykorzystaniem podejścia mikroserwisowego
- Zespół pracujący z wykorzystaniem podejścia DevOps i metodyki Scrum pod okiem świetnego Agile Coach’a
Czego oczekujemy od Ciebie?
- Umiejętności czytania i analizowania danych, ponieważ bez tego dane pozostają tylko danymi
- Znajomości języka SQL na poziomie średnio zaawansowanym, dlatego że czasem trzeba JOIN’ować wiele tabel, a HAVING daje lepsze rezultaty niż WHERE
- Orientacji w strukturach bazodanowych, żeby zapisać to, o co się zapytało
- Otwartości i komunikatywności, bo nasza praca to nie tylko stukanie w klawiaturę
- Doświadczenia w pracy z przetwarzaniem w hurtowniach danych
- Podstawowej znajomości ekosystemu Hadoop, by zadane zapytania miały szansę się wykonać
- Umiejętności programowania w językach Python lub/i Java oraz chęci poznawania innych języków
- Codziennej porcji optymizmu i dystansu do siebie
Mile widziana znajomość:
- Narzędzi wykorzystywanych do przetwarzania danych online i offline: Storm, Flink, Spark, Kafka
- Apache Druid lub Kylin
- AWS