Unser Kunde befindet sich in einer spannenden Wachstums- und Internationalisierungsphase und sucht nach einem talentierten Data / Machine Learning Engineer Ops, der über umfangreiche Kenntnisse, Leidenschaft und Kreativität verfügt. In dieser Rolle bist du verantwortlich für das Entwerfen, Erstellen und die Pflege der ML CI/CD-Pipeline sowie der Workflows, die die Datenerfassung, Datenanalyse, Experimente, Modellschulung, Modellbereitstellung und Überwachung in der Produktion automatisieren. Du wirst die Infrastruktur und Tools aufbauen, testen und pflegen, um eine konsistente und automatisierte Entwicklung und Freigabe von KI-Softwarelösungen zu ermöglichen. Zudem wirst du die Modellschulungs- und Freigabe-Workflows automatisieren und Dienste rund um ML-Inferenz und Modellbereitstellung für die Laufzeitverarbeitung aufbauen. Eine enge Zusammenarbeit mit Dateningenieuren und Produktentwicklern ist ebenfalls Teil deiner Aufgaben, um das Modelltraining zu skalieren. Du wirst Pipelines erstellen, um die in der Produktion eingesetzten Modelle kontinuierlich zu verbessern und neue Datenquellen sowie Modellfunktionen zu erkunden. Darüber hinaus implementierst du Maßnahmen zur Verbesserung der Zuverlässigkeit und Leistung der ML-Infrastruktur und suchst aktiv nach Möglichkeiten zur Optimierung der ML-Pipeline-Entwicklung und des Betriebsprozesses. Diese Position bietet dir die Möglichkeit, in einem agilen, internationalen Umfeld zu arbeiten und Teil eines dynamischen Teams zu werden.
Data / Machine Learning Engineer / Ops (m/w/d)
Beschreibung
Anforderungen
Der ideale Kandidat bringt einen B.Sc., M.Sc. oder Ph.D. in Informatik oder einem verwandten Gebiet mit und hat mehr als 3 Jahre Erfahrung als Machine Learning Engineer, Data Engineer oder in einer ähnlichen Funktion mit starkem ML-Hintergrund. Du solltest Erfahrung in der Erstellung, Bereitstellung und Wartung von ML-Modellen in der Produktion haben und mit ML-Frameworks sowie Python-Tools für Data Science und MLOps-Tools wie TensorFlow, Apache Airflow, MLFlow und Kubeflow vertraut sein. Solide Kenntnisse in der Programmierung mit Python sind unerlässlich. Erfahrung mit cloudbasierten Datenpipelines, die für Anwendungen des maschinellen Lernens optimiert sind, insbesondere mit AWS und/oder GCP, sind von Vorteil. Du solltest außerdem Kenntnisse in Docker, Kubernetes und Infrastructure as Code (z. B. Terraform) mitbringen. Ausgezeichnete Kommunikations- und Teamworkfähigkeiten sind ebenso wichtig wie die Vertrautheit mit Workflow-Management-Plattformen und Best Practices in der Data Engineering- und MLOps-Community. Du arbeitest gerne in einem agilen Team, bringst dich aktiv ein, denkst kreativ und hast Freude daran, dich mit neuen Themen auseinanderzusetzen. Gute Deutsch- und/oder Englischkenntnisse runden dein Profil ab.