Dział Insights & Data dostarcza najwyższej klasy rozwiązania związane z przetwarzaniem danych.
Większość naszych projektów dotyczy technologii Big Data oraz rozwiązań chmurowych. Dostarczamy rozwiązania pozwalające na przetwarzanie dużych oraz nieustrukturyzowanych zbiorów danych z wykorzystaniem takich platform chmurowych jak AWS, Azure oraz GCP.
Odpowiadamy za pełny cykl życia systemu (SDLC): oprócz wykorzystywania narzędzi do przetwarzania danych (np. ETL), piszemy dużo kodu w Pythonie, Scali lub Javie, równocześnie stosując najlepsze praktyki i narzędzia DevOps. Dane są dostarczane do docelowych systemów za pomocą interfejsów / API lub wizualizowane i przedstawiane w postaci zestawień i raportów.
W naszym AI CoE realizujemy projekty z obszaru Data Science i Machine Learning, skupiając się w szczególności na przetwarzaniu języka naturalnego (NLP), modelach wykrywania anomalii oraz Computer Vision.
Dodatkowo, jako Insights & Data zgłębiamy obszary Quantum Computing, poszukując praktycznych rozwiązań umożliwiających rozwój naszych klientów.
Obecnie w naszym dziale pracuje ponad 250 architektów danych, inżynierów i analityków, wspólnie realizując ciekawe projekty dla ponad 30 klientów z różnych branż (publiczna, finanse, logistyka, motoryzacja, telekomunikacja oraz innych).
Dołącz do nas! Serdecznie zapraszamy 😊
Twoje codzienne zadania:
- Doradztwo, koncepcja, realizacja i obsługa rozwiązań w środowisku Big Data i analizy
- Organizacja zespołu programistów, udzielanie wskazówek oraz samodzielny udział we wdrożeniu
- Asysta w roli technicznego i merytorycznego eksperta podczas projektowania doskonałych rozwiązań Big Data’owych
- Praca z narzędziami takimi jak HDFS, HADOOP, nifi, Spark, Airflow, Kafka, HIVE, Atlas, Ranger Pod względem technologicznym w naszych rozwiązaniach opieramy się na produktach naszego strategicznego partnera Cloudera
- Wsparcie działam testowych i akceptacyjnych w środowisku klienta
Najczęściej używane technologie:
- Cloudera 5
- Spark 5
- Kafka 4
- HIVE 4
- Nifi 4
- Ansible 3
- Airflow 3
- HDFS 2
- Hadoop 2
- Atlas 2
- Ranger 2
Nasze oczekiwania:
- Wykształcenie wyższe z dziedziny informatyki
- Kilkuletnie doświadczenie projektowe lub / i konsultingowe
- Wiedza techniczna z zakresu Cloudera lub takich narzędzi jak HDFS, Hadoop, nifi, Spark, Airflow, Kafka, HIVE, Atlas, Ranger, itp.
- Udokumentowane doświadczenie w architekturze danych i tworzeniu oprogramowania w projektach opartych na danych
- Dobra znajomość języka angielskiego, znajomość języka niemieckiego jest dodatkowym atutem
Nasza oferta:
- umowa o pracę na czas nieokreślony od pierwszego dnia;
- hybrydowy, elastyczny model pracy;
- możliwość uzyskania podwyższonych kosztów uzyskania przychodu w przypadku pracy twórczej
- dofinansowanie do wyposażenia stanowiska pracy w domu;
- możliwości rozwoju, a wśród nich:
- merytoryczne wsparcie liderów w projektach,
- bogata oferta szkoleń wewnętrznych i zewnętrznych (technicznych, językowych, liderskich),
- wsparcie w certyfikacji w różnych obszarach,
- mentoring i realny wpływ na kształtowanie Twojej ścieżki kariery,
- dostęp do bazy ponad 2000 szkoleń na platformach Pluralsight, Coursera, Harvard,
- wewnętrzne communities (m.in. Agile, IoT, Digital, Security, Women@Capgemini),
- możliwość uczestnictwa w konferencjach zarówno w roli słuchacza jak i eksperta;
- pakiet relokacyjny;
- benefity w ramach pakietu socjalnego (m.in. karta Multisport, opieka medyczna dla całej rodziny, ubezpieczenie grupowe na preferencyjnych warunkach, kafeteria).