Startseite
Branchenindex Volltextsuche Regionalsuche Anmeldung Profiländerung Ausschreibungen Vormerkliste Forum Impressum Datenschutz Hilfe
Ausschreibungen nach Branchen
  Ausschreibungen: Ihre Benachrichtigung
Ausschreibungen der letzten zwei Wochen nach Branchen geordnet:

 alle Ausschreibungen

 Bauindustrie
 Büro, Buchhaltung
 Dienstleistungen
 EDV, Datenverarbeitung
 Elektrotechnik, Elektronik
 Finanzwesen, Recht, Steuern
 Fremdsprachen
 Gesundheitswesen
 Handel
 Handwerk
 Haus, Garten
 Industrie
 Ingenieure, Konstruktion
 Internet
 Kunst, Unterhaltung, Fotografie
 Schreibwesen, Literatur
 Textilien
 Transport, Luftfahrt
 Unternehmensdienstleistungen
 Werbung

Volltextsuche Ausschreibungen
Geben Sie einen oder mehrere
Suchbegriffe ein:


 
Suchfunktionen
Teil des Wortes suchen
Nur ganzes Wort suchen

Und-Verknüpfung von Worten
Oder-Verknüpfung von Worten
Hier finden Sie die Auftragsangebote aus Ihrer Benachrichtigung und der letzten zwei Wochen.
Alle Ausschreibungen sind grundsätzlich an selbstständige Fachkräfte gerichtet.
Ausschreibungen von Projektvermittlern sind mit einem * gekennzeichnet (ohne Gewähr).
Für eine eigene Auftragsausschreibung verwenden Sie bitte das Auftragsformular

Senior Data Pipeline Engineer
 vom 07.01.2026

We are looking for a Senior Data Pipeline Engineer (≥ 80 %, start as soon as possible) for 6 months (possible conversion into FTE) to support our team during a crunch time driven by customer demand. The role can be fully remote (± 4 h CET) or based in our Zürich/Berlin office.
Tasks: Own, Design, Build & Operate Data Pipelines – Take responsibility for our Spark-based pipeline, from development through production and monitoring. Advance our ML Models – Improve and productionise models for AdTech use-cases such as lookalike modelling and demographics modeling. AI-Powered Productivity – Leverage LLM-based code assistants, design generators, and test-automation tools to move faster and raise the quality bar. Share your workflows with the team. Drive Continuous Improvement – Profile, benchmark, and tune Spark workloads, introduce best practices in orchestration & observability, and keep our tech stack future-proof.
Requirements: Bachelor/Master/PhD in Computer Science, Data Engineering, or a related field and 5+ years of professional experience. Expert-level Python and PySpark/Scala Spark experience. Proven track record building resilient, production-grade data pipelines with rigorous data-quality and validation checks. Data-platform skills: operating Spark clusters, job schedulers, or orchestration frameworks (Airflow, Dagster, custom schedulers)

 Kontaktadresse