Lead GCP Data Engineer/Consultant [rekrutacja prowadzona online]

Dział Insights & Data dostarcza najwyższej klasy rozwiązania związane z przetwarzaniem danych.

 

Większość naszych projektów dotyczy technologii Big Data oraz rozwiązań chmurowych. Dostarczamy rozwiązania pozwalające na przetwarzanie dużych oraz nieustrukturyzowanych zbiorów danych z wykorzystaniem takich platform chmurowych jak AWS, Azure oraz GCP.

 

Odpowiadamy za pełny cykl życia systemu (SDLC): oprócz wykorzystywania narzędzi do przetwarzania danych (np. ETL), piszemy dużo kodu w Pythonie, Scali lub Javie, równocześnie stosując najlepsze praktyki i narzędzia DevOps. Dane są dostarczane do docelowych systemów za pomocą interfejsów / API  lub wizualizowane i przedstawiane w postaci zestawień i raportów.

 

W naszym AI CoE realizujemy projekty z obszaru Data Science i Machine Learning, skupiając się w szczególności na przetwarzaniu języka naturalnego (NLP), modelach wykrywania anomalii oraz Computer Vision.

 

Dodatkowo jako Insights & Data zgłębiamy obszary Quantum Computing, poszukując praktycznych rozwiązań umożliwiających rozwój naszych klientów.

 

Obecnie w naszym dziale pracuje ponad 250 architektów danych, inżynierów i analityków, wspólnie realizując ciekawe projekty dla ponad 30 klientów z różnych branż (publiczna, finanse, logistyka, motoryzacja, telekomunikacja oraz innych).

 

Dołącz do nas! Serdecznie zapraszamy 😊

 

Twoje codzienne zadania:

  • projektowanie i wdrażanie rozwiązania do przetwarzania dużych i nieustrukturyzowanych zbiorów danych (Data Lake Architecture, Streaming Architecture);
  • wdrażanie, optymalizacja i testowanie nowoczesnych rozwiązań DWH/Big Data w oparciu o Google Cloud Platform i środowisko Continuous Delivery/Continuous Integration;
  • odpowiedzialność za poprawę wydajności przetwarzania danych oraz migracje z platform on-prem do chmur publicznych;
  • budowanie i nadzorowanie wewnętrznego programu rozwojowo-szkoleniowego GCP oraz prowadzenie warsztatów i sesji mentorskich.

Najczęściej używane technologie:

  • BigQuery;
  • Python/PySpark;
  • Dataproc;
  • Dataflow;
  • GKE;
  • Cloud Bigtable;
  • Pub/Sub;

Nasze oczekiwania:

  • masz co najmniej 5 lat doświadczenia w projektach Big Data lub Cloud w obszarach przetwarzania i wizualizacji dużych i nieustrukturyzowanych zbiorów danych (w różnych fazach cyklu życia oprogramowania);
  • posiadasz praktyczną wiedzę z zakresu GCP w obszarach Storage, Compute (+Serverless), Networking i DevOps popartą doświadczeniem w pracy nad projektami komercyjnymi;
  • znasz kilka z następujących usług: BigQuery, Dataflow, GKE, Cloud Bigtable, Pub/Sub, Dataproc, Google Data Studio;
  • dobrze znasz jeden z języków programowania: Scala, Python lub Java;
  • jesteś zorganizowany, samodzielny, chętny do dzielenia się wiedzą;
  • bardzo dobrze znasz język angielski.

Nasza oferta:

  • umowa o pracę na czas nieokreślony od pierwszego dnia;
  • hybrydowy, elastyczny model pracy;
  • dofinansowanie do wyposażenia stanowiska pracy w domu;
  • możliwości rozwoju, a wśród nich:
    • szeroka oferta szkoleń wewnętrznych i zewnętrznych (technicznych, językowych, liderskich),
    • wsparcie w certyfikacji w różnych obszarach,
    • mentoring i realny wpływ na kształtowanie Twojej ścieżki kariery,
    • dostęp do bazy ponad 2000 szkoleń na platformach Pluralsight, Coursera, Harvard,
    • wewnętrzne communities (m.in. Agile, IoT, Digital, Security, Women@Capgemini),
    • uczestnictwo w konferencjach zarówno w roli słuchacza jak i eksperta,
  • możliwość uzyskania podwyższonych kosztów uzyskania przychodu w przypadku pracy twórczej;
  • benefity w ramach pakietu socjalnego (m.in. karta Multisport, opieka medyczna dla całej;
  • rodziny, ubezpieczenie grupowe na preferencyjnych warunkach, kafeteria).

Opublikowane:

2023-01-19

Typ zatrudnienia:

Stałe zatrudnienie, pełny etat

Lokalizacja:

Gdańsk Poznań Wrocław

Business units:

Software Solutions Center