10/07/2020

Big Data Engineer für Spark/Hadoop (m/w/d)

Helden-Profil

Als Big Data Engineer für Spark/Hadoop befasst du dich mit der Architektur von Data Lakes, Batch und Streaming Pipelines.

Du hilfst dem Kunden dabei, die 5 V’s (Volume, Velocity, Variety, Veracity, Value) zu meistern, und den Dschungel aus Big Data Tools zu durchqueren. Du findest das richtige Tool bzw. die richtige Datenbank für den Job.

Du arbeitest interdisziplinär mit einer Vielzahl an unterschiedlichen Technologien. Java bildet eine solide Basis. Gelegentlich kommt auch Python zum Einsatz, gerade in Verbindung mit den SDKs. Linux Grundlagen und die Bash/Shell sind dir ebenfalls vertraut.

Du musst nicht alles können, aber bereit sein zu lernen und Wissen aufzusaugen, wie ein Schwamm.

Voraussetzungen

  • Linux
  • Java
  • Maven
  • Python
  • Git
  • JSON
  • SQL
  • Reisebereitschaft
  • Bevorzugter Einsatz im Raum Frankfurt
  • Attention-to-detail
  • Bestehen des Cloud Bootcamps
  • Guter bis sehr guter Notendurchschnitt
  • Abgeschlossenes Studium der Wirtschaftsinformatik/Informatik/Mathematik/Physik/Chemie/Biologie

Zielbild / Technologie-Stack

  • Hadoop / AWS EMR / Google Dataproc
  • HBase oder Cassandra
  • Avro/Parquet
  • Kafka
  • Spark
  • Python
  • AWS, GCP oder Azure SDK

Benefits

  • Beste Weiterbildung durch externe Zertifizierungen im Cloud Bereich
  • Du nimmst Teil an unserem Cloud Bootcamp, wo du auf einer virtuellen Spielwiese alle genannten Technologien im Detail kennenlernst, und auch uns besser kennenlernst. Du bekommst von uns Aufgaben, die du lösen musst, und wirst dabei von einem unserer erfahrenen Cloud Architekten/Engineers betreut
  • Spannende Projekte im Bereich Cloud und Big Data
  • Gettings-things-done Atmosphäre mit kurzen Entscheidungswegen und Freiraum für eigene Ideen
  • Hoch professionelle Arbeit mit Attention-to-detail
  • Einstiegszeitpunkt flexibel: jetzt den Job für nach dem Abschluss sichern!

Jetzt bewerben