Wir suchen einen erfahrenen Senior Data Engineer (m/w/d), der unser Team im Bereich Vendor Sales Operations verstärkt. In dieser Rolle tragen Sie zur Entwicklung mehrerer Datenprodukte bei, die dazu beitragen, das Unternehmen weiter wachsen zu lassen und die Zusammenarbeit mit Anbietern weltweit zu optimieren. Wenn Sie ein kreativer Problemlöser sind, der gerne Lösungen liefert und nach einer neuen Herausforderung sucht, erwartet Sie ein internationales Arbeitsumfeld im Herzen von Berlin. Das Vendor Sales Operations Team hat die Aufgabe, die besten Verkaufsoperationen für Anbieter zu ermöglichen. Wir implementieren Lösungen zur Akquise und Bindung von Anbietern und fungieren als Kompass, um Wettbewerbsnachteile zu schließen. Als Teil eines der größten Technologieplattformen Europas bieten wir kreativen Köpfen die Möglichkeit, Lösungen zu entwickeln, die innerhalb unseres Ökosystems Wirkung zeigen. Wir handeln schnell, ergreifen Initiative und passen uns an. In dieser Position sind Sie verantwortlich für das Sammeln und Transformieren von Daten aus verschiedenen Quellen, um Berichte, Einblicke und Machine Learning-Algorithmen zu ermöglichen. Sie arbeiten eng mit Datenintegrationen, Datenqualität und Datenverträgen zusammen und kommunizieren mit verschiedenen Teams bezüglich der Datenkonsistenz und -verfügbarkeit. Darüber hinaus integrieren Sie den Code, der von Datenwissenschaftlern und Datenanalysten erstellt wurde, in die Datenpipelines und entwickeln Überwachungs- und Alarmsysteme, um die hohe Qualität der gesammelten Daten sicherzustellen.
Senior Data Engineer - Vendor Sales Operations (m/w/d)
Beschreibung
Anforderungen
Um in dieser Rolle erfolgreich zu sein, sollten Sie über mindestens 4 Jahre Erfahrung im Aufbau von Datenpipelines in einem professionellen Umfeld verfügen. Sie sind ein pragmatischer Ingenieur, der versteht, was notwendig ist, um in einem kollaborativen Umfeld Ergebnisse zu erzielen. Selbstorganisation und Proaktivität sind für Sie selbstverständlich. Sie sollten in der Lage sein, in einem dynamischen, fehlertoleranten und agilen Umfeld zu arbeiten. Erfahrung im Umgang mit großen Mengen an strukturierten und unstrukturierten Daten ist erforderlich, insbesondere mit SQL, dbt und Python. Praktische Erfahrung mit Datenbanken, Datenmodellierung und Datenarchitekturen ist ebenfalls notwendig. Kenntnisse in Batch-, Lambda- und Kappa-Architekturen sowie Erfahrung mit OLTP und OLAP sind von Vorteil. Erfahrungen mit Cloud-Diensten wie GCP oder AWS, einschließlich GCS, BigQuery, Pub/Sub und Kubernetes Engine, sind ebenfalls wichtig. Kenntnisse in der Datenintegration und Erfahrung mit containerisierten Anwendungen wie Docker und Kubernetes sind wünschenswert. Zusätzliche Kenntnisse in Data Science, grundlegenden Statistiken sowie AI- und ML-Konzepten sind von Vorteil. Erfahrung in der Einrichtung und Konfiguration von CI/CD-Pipelines sowie Vertrautheit mit gängigen Logging-, Monitoring- und Alarming-Tools wie Datadog, Grafana und Prometheus sind ebenfalls wünschenswert.