W Ringier Axel Springer TECH 300 inżynierów i inżynierek w Polsce buduje rozwiązania docierające do 40 milionów użytkowników na całym świecie.

Tworzymy narzędzia dla cyfrowego newsroomu, które pozwalają redakcjom odnieść sukces. Nasz kod pomaga pisać artykuły, wysyłać maile i mailingi, targetować reklamy, generować leady sprzedażowe, zarabiać na treściach i wytrzymywać skoki ruchu generowane przez przełomowe newsy.

the future of media is written in code. write yours with us.

Rozwiń

Data Engineer

Klient Ringier Axel Springer Tech
Miejsce pracy Kraków
Wynagrodzenie 10 500 - 17 500 UoP / 12 000 - 20 000 B2B
Rodzaj zatrudnienia Regular
Region Kraków (małopolskie)
Opis oferty Dołącz do zespołu specjalizującego się w przetwarzaniu danych i współpracuj przy tworzeniu nowych rozwiązań opartych na danych. Jesteśmy renomowaną firmą działającą na rynku mediów, reklam i usług cyfrowych w Polsce, Europie i na całym świecie. Szukamy osób kreatywnych, otwartych na rozwijanie nowych rozwiązań i gotowych na nowe wyzwania. Zapewniając jakość i dostępność danych, podejmij z nami wyzwania związane z dużymi zbiorami danych w środowisku chmury publicznej. Jako członek zespołu będziesz odpowiedzialny za projektowanie, rozwijanie i utrzymywanie zaawansowanych przetwarzań i aplikacji, wspierających wykorzystanie danych w organizacji.
Zakres obowiązków
  • Projektowanie, rozwijanie i utrzymanie przepływów danych, mikroserwisów i API przy użyciu odpowiednich wzorców projektowych oprogramowania
  • Projektowanie i optymalizacja struktur baz danych
  • Praca nad pełnym cyklem życia produktu, w tym dbanie o usability, observability i uptime produktu
  • Udział w procesie code review
  • Współpraca z klientami nad doprecyzowaniem wymagań i oczekiwań względem produktu, a także wsparcie i promowanie produktu w organizacji,
  • Udział w projektowaniu i podejmowaniu decyzji architektonicznych w projektach
Wymagania
  • Operacyjne doświadczenie w budowaniu przepływów danych (za pomocą np. Apache Airflow)
  • Silne umiejętności SQL do obsługi transformacji dużych zbiorów danych
  • Podstawowe umiejętności analizy danych, ciekawość oraz zdolność do rozwiązywania problemów na podstawie danych,
  • Znajomość cloud computing na AWS (S3, Athena, Redshift, Aurora, EMR, itp.)
  • Praktyczna znajomość programowania aplikacji w języku Python


Dodatkowe atuty:

  • Doświadczenie pracy z narzędziami i technologiami przetwarzania danych online (np. Apache Flink, PySpark)

Oferujemy
  • No blame culture — szukamy rozwiązań, nie winnych
  • High autonomy — duża autonomia
  • Experienced developers to work with — doświadczeni programiści
  • Kultura DevOps
  • LeSS & Agile
  • Ubezpieczenie na życie dla ciebie i bliskich
  • Wsparcie psychologiczne i program well-being
  • Multisport package and sport challenges
  • Training budget & e-learning platforms
  • Legendarne imprezy
  • Prywatna opieka medyczna 
  • AWS Certification Path — wsparcie w certyfikacji AWS
  • Nowoczesne, kolorowe i komfortowe biura
  • Transparentne widełki i ścieżki kariery
  • Lightning Talks, Code Jams & HackDays
Data ostatniej modyfikacji czwartek, 20 lutego 2025