IT
(Warszawa)
U nas masz na dzień dobry:
- Umowę o pracę - bo bezpieczeństwo zatrudnienia dla każdego z nas jest superważne.
- Zdrową równowagę między pracą a życiem osobistym - bo nie samą pracą człowiek żyje.
- Pełny pakiet benefitów: od kultury, sportu i wypoczynku, po korzystny fundusz emerytalny - bo Ty wiesz najlepiej, na czym Ci zależy.
- Prywatną opiekę zdrowotną na terenie całej Polski - bo zdrowie jest najważniejsze.
- Profesjonalne szkolenia - bo liczy się Twój rozwój.
Na co dzień w naszym zespole:
- budujemy procesy zasilania operacyjnej składnicy danych,
- projektujemy i realizujemy rozwiązania informatyczne w obszarze zasilania danych,
- analizujemy dane oraz przygotowujemy dla nich modele logiczne i fizyczne,
- stroimy zapytania SQL na bazie relacyjnych i hurtowianych w on-prem i na Chmurze GCP,
- tworzymy przepływy off-linowe oraz strumieniowe danych,
- przygotowujemy datamarty tematyczne na bazach relacyjnych i kolumnowych,
- tworzymy koncepcje rozwiązań i implementacje rozwiązań w oparciu o wymagania i potrzeby biznesu,
- usuwamy incydenty i bierzemy udział w rozwiązywaniu problemów,
- wspieramy testy i wdrażania zmian w zakresie procesów zasilania danych,
- pomagamy przy serwisowaniu wdrożonego oprogramowania,
- tworzymy rozwiązania ładowania danych w Python,
- pracujemy zgodnie z modelem DevOps.
To stanowisko może być Twoje, jeśli:
- posiadasz doświadczenia jako develeoper Data Enegineer:
- w obszarze procesów integracji danych za pomocą narzędzi ETLowych (Informaitica Power Center),
- w obszarze technologii GCP (Big Query, Pub-Sub, Google Cloud Anthos, Cloud Storage Buckets,
- w programowaniu w języku Phyton (znajomość jednego z framework Phyton: Flask, Django),
- w projektowaniu i tworzeniu relacyjnych baz danych (PostgresSQL, Oracle),
- pracujesz w środowisku chmurowym na Google Cloud Platform (Big Query, Cloud SQL, Kubernetes)
- znasz środowisko Linux (doświadczenie w pracy z terminalem, podstawowa znajomość skryptów powłoki bash),
- znasz narzędzie harmonogramujące: Apache Airflow,
- masz doświadczenie w pracy z dużymi wolumenami danych ~100TB.
Dodatkowym atutem będzie znajomość:
- Dash, Streamlit,
- SqlAlchemy,
- aplikacji uruchamianymi w kontenerach (Kubernetes, Anthos, Docker lub podobne,
- aplikacji do harmonogramowania zadań ScheduleIN,
- środowiska SAS,
- aplikacji do raportowania i budowania dashboardów np. Google Data Studio, SuperSet,
- narzędzi do monitorwania np. grafana,
- rozwiązań chmurowych wykorzystywanych w procesach ładowania danych np.. data flow, nifi.
Miejsce pracy: Warszawa - praca hybrydowa
To dobry dzień na aplikowanie! #ZajmijStanowisko.
Poznaj
PKO Bank Polski S.A.
PKO Bank Polski jest liderem polskiego sektora bankowego, a także jedną z wiodących grup finansowych Europy Środkowo-Wschodniej.
Bank powstał z myślą o klientach indywidualnych, jednak obecnie jest także głównym partnerem przedsiębiorstw, korporacji, instytucji rządowych i samorządowych. Zajmując na rynku wiodącą pozycję pod względem osiągnięć biznesowych oraz wyników finansowych, wyznacza kierunki rozwoju bankowości w Polsce. W codziennych działaniach i realizowanych projektach koncentrujemy się na wdrożeniu nowoczesnych rozwiązań technologicznych i na wysokiej jakości obsługi. Jesteśmy najlepsi w tym, co robimy i cały czas rozwijamy nasz potencjał.
Od lat jesteśmy jednym z najbardziej pożądanych pracodawców - znajdziecie nas w czołówce takich prestiżowych rankingów jak: AIESEC, UNIVERSUM, Antal International, Solidny Pracodawca.
PKO Bank Polski zapewnia niepowtarzalne możliwości rozwoju zawodowego. Szeroka oferta oraz duża skala działania Banku pozwala sprawdzić się w wielu interdyscyplinarnych zespołach projektowych.