Do zespołu Data Analysis Platforms poszukujemy osoby, która swoją wiedzą i doświadczeniem wspomoże zespół w budowie szeroko pojętych rozwiązań z zakresu Business Intelligence i Big Data.
23+ miliony użytkowników, dziesiątki tysięcy zdarzeń na sekundę, miliardy rekordów w hurtowniach danych, petabajty danych. Z takimi liczbami, będziesz zmagał się w codziennej pracy. Surowe dane zamieniamy w informacje, informacje w wiedzę, wizualizujemy ją dając możliwość wykorzystania jej w procesach decyzyjnych firmy.
Big Data Engineer
Miejsce pracy Kraków
Jeżeli chciałbyś:
- mieć realny i natychmiastowy wpływ na produkty używane codziennie przez ponad 23 miliony osób w 6 krajach Europy
- zajmować się budowaniem różnorodnych systemów przetwarzających, analizujących i wizualizujących dane Online i Offline, w celu optymalizacji biznesu
- integrować w inteligentny sposób, dane pozyskane z różnych źródeł
- strukturyzować dane w rozumieniu szeroko pojętego Data Architecture
- zajmować się weryfikacją jakości i kompletności danych
- pracować nad rozwojem narzędzi i technologii używanych przez zespół i całą międzynarodową organizację
- pracować zarówno w chmurze publicznej (AWS, Google Cloud) jak i we własnym data-center, w którym czekają na Ciebie 40+ core’owe potwory posiadające więcej pamięci RAM niż przeciętny startup
Jeśli prawdą jest, że:
- jesteś kreatywny i efektywny w rozwiązywaniu problemów biznesowych
- posiadasz umiejętność szybkiego uczenia się różnorodnych technologii i zagadnień
- rozumiesz potrzeby biznesowe i umiesz zbierać wymagania
- myślisz systemowo i widzisz Big Picture rzeczy, nad którymi pracujesz
- znasz jedną lub więcej platform/języków ze zbioru JVM, Python (Tornado), NodeJS, ale przede wszystkim jesteś dobrym, otwartym na naukę nowych rzeczy programistą (mindset w stylu “jestem programistą języka X i kropka”, nie jest mile widziany)
- posiadasz podstawowe zrozumienie problematyki projektowania i budowania systemów rozproszonych w wielkiej skali i algorytmiki
- znasz zagadnienia związane z relacyjnymi bazami danych SQL (np. PostgreSQL) i masz doświadczenia w projektowaniu struktur i zapytań bazodanowych
- znasz / masz doświadczenie z ekosystemem Hadoop
- znasz / masz doświadczenie w użyciu technologii i narzędzi służących do przetwarzania danych online i offline (Storm, Kafka, Spark, Flink etc)
- znasz i potrafisz używać nierelacyjnych baz danych NoSQL (Cassandra, Redis etc)
- znasz narzędzia Business Intelligence (np. Tableau, Pentaho, Business Objects)
- masz doświadczenie związane z pracą przy hurtowniach danych
Zapewniamy:
- pracę w dynamicznie rozwijającej się firmie, w międzynarodowym środowisku
- możliwość udziału w ciekawych projektach informatycznych wpływających na losy firmy i jej 23+ milionów użytkowników
- rozwój zawodowy i możliwość awansu
- zatrudnienie na podstawie umowy o pracę
- atrakcyjny pakiet socjalny