Logo Crossweb

Logowanie

Nie masz konta? Zapomniałem hasła

Przypomnij hasło

close Wypełnij formularz.
Na Twój adres e-mail zostanie wysłane link umożliwiający zmianę hasła.
Wyślij
Niestety ta oferta pracy jest już nieaktualna. Sprawdź pozostałe oferty.

Big Data Warehouse Engineer

Dodano: Ponad miesiąc temu

Podstawowe informacje

Typ: Backend
Poziom: regular

formalności

Typ umowy: b2b, Umowa o pracę

projekty

Wykorzystywane technologie/narzędzia:
Główne: Hadoop, Java, Oracle, PostgreSQL, Python, Storm

praca

Metodyka pracy: Scrum
Długość sprintów: 2 tyg
Wielkość zespołu: 6-8 os
Elastyczne godziny pracy: Tak

Wymagane technologie /narzędzia

Oczekiwane:
Hadoop
Java
Python
SQL
Mile widziane:
Kafka
Spark
Storm

inne wymagania

Wykształcenie: wyższe
Język obcy: angielski
Poziom:

Ponad 30 mln użytkowników, dziesiątki tysięcy zdarzeń na sekundę, miliardy rekordów w hurtowniach danych i petabajty powierzchni dyskowej. Te liczby pokazują skalę wyzwań, z jakimi mierzymy się w naszej codziennej pracy. Korzystając z bogatej gamy dostępnych rozwiązań przekuwamy surowe dane w informacje a te - w wiedzę.

Oto, co możemy Ci zaoferować:
  • Złożone projekty z dziedziny przetwarzania danych w dużej skali, wraz z wszystkimi ciekawymi wyzwaniami, jakie za tym stoją. Wśród nich:
    • Budowa rozwiązań dostarczających praktycznej wiedzy o użytkownikach do narzędzi edycyjnych, sprzedażowych i statystycznych
    • Dostosowanie architektury i migracja rozwiązań do chmury publicznej AWS
    • Budowa narzędzi wspomagających zarządzanie produkcją i zakupem treści
  • Możliwości  praktycznego użycia narzędzi z obszaru BigData do przetwarzań online jak i offline, a także narzędzi klasy BI
  • Pracę w ekosystemie chmury publicznej AWS oraz chmury prywatnej, z wykorzystaniem podejścia mikroserwisowego
  • Zespół pracujący z wykorzystaniem podejścia DevOps i metodyki Scrum pod okiem świetnego Agile Coach’a
Czego oczekujemy od Ciebie?
  • Umiejętności czytania i analizowania danych, ponieważ bez tego dane pozostają tylko danymi
  • Znajomości języka SQL na poziomie średnio zaawansowanym, dlatego że czasem trzeba JOIN’ować wiele tabel, a HAVING daje lepsze rezultaty niż WHERE
  • Orientacji w strukturach bazodanowych, żeby zapisać to, o co się zapytało
  • Otwartości i komunikatywności, bo nasza praca to nie tylko stukanie w klawiaturę
  • Doświadczenia w pracy z przetwarzaniem w hurtowniach danych
  • Podstawowej znajomości ekosystemu Hadoop, by zadane zapytania miały szansę się wykonać
  • Umiejętności programowania w językach Python lub/i Java oraz chęci poznawania innych języków
  • Codziennej porcji optymizmu i dystansu do siebie

Mile widziana znajomość:

  • Narzędzi wykorzystywanych do przetwarzania danych online i offline: Storm, Flink, Spark, Kafka
  • Apache Druid lub Kylin
  • AWS
  Jeśli zainteresowała Cię nasza oferta, zapraszamy na spotkanie z zespołem, podczas którego, zupełnie na luzie porozmawiamy o technologiach, wyzwaniach z którymi mierzymy się na co dzień. Opowiesz nam o sobie i swoich aspiracjach zawodowych, a także sprawdzisz swoją wiedzę.
czytaj więcej»
##bigdata#SQL##engineer#hadoop

Podobne oferty w Twojej okolicy