Czym będziesz się u nas zajmować?
- będziesz wdrażał rozwiązania do przetwarzania danych z wykorzystaniem nowoczesnych technologii i narzędzi Big Data lub/i Cloud (m.in. streaming, cloud, clustered computing, real-time processing, advanced analytics);
- będziesz projektować i wdrażać aplikacje PySpark w oparciu o środowisko Cloudera (dawne rozwiązanie Apache Hadoop);
- będziesz optymalizować i testować nowoczesne rozwiązania Big Data, również w chmurze i środowisku Continuous Delivery / Continuous Integration.
Poszukujemy właśnie Ciebie, jeśli:
- posiadasz wykształcenie wyższe z dziedziny informatyki;
- masz komercyjne doświadczenie w pracy w projektach w środowisku Data Engineering, Big Data i/lub Cloud z wykorzystaniem Apache Spark;
- potrafisz kodować w języku Python lub Scala;
- znasz dobrze co najmniej jedno rozwiązanie (nie)relacyjnej bazy danych i język (non)SQL;
- znasz dobrze język angielski, znajomość języka niemieckiego jest dodatkowym atutem.
W zamian otrzymasz od nas:
- szkolenia zawodowe i językowe;
- benefity w ramach pakietu socjalnego, m.in. prywatna opieka medyczna, pakiet ubezpieczeniowy, karta Multisport, dofinansowanie zajęć sportowych;
- abonament samochodowy na preferencyjnych warunkach – Master Benefit;
- możliwość zastosowania podwyższonychkosztów uzyskania przychodu w przypadku pracy twórczej;
- elastyczny czas pracy;
- wsparcie w relokacji;
- bezpłatne miejsca parkingowe oraz zamykane boksy rowerowe;
- dostęp online do ponad 2000 audiobooków i podcastów;
- umowę o pracę na czas nieokreślony.
Poczytaj, jak wygląda nasz proces rekrutacyjny.
W przypadku jakichkolwiek pytań prosimy o kontakt pod następującym adresem: