Big Data & Platform Engineer 80-100%
Description du poste
AMAG Informatik recherche un Big Data & Platform Engineer passionné. Rejoignez une entreprise innovante offrant des conditions de travail flexibles.
Tâches
•
Développer des pipelines de données scalables et performants.
•
Travailler avec des technologies cloud pour optimiser les architectures.
•
Implémenter des solutions Machine Learning et MLOps.
Compétences
•
Diplôme en informatique, Data Science ou domaine similaire requis.
•
Expérience en Python et développement d'applications.
•
Connaissance des pratiques DevOps et CI/CD.
Wir bewegen und begeistern Menschen. Einfach. Nachhaltig. Voraus.
Die
AMAG Informatik
in Cham ZG verantwortet mit ihren ca. 200 Mitarbeitenden für alle Konzernbereiche die gesamte IT-Wertschöpfungskette, vom Projekt über die Entwicklung und Integration bis hin zum Betrieb und Support.
Du brennst für Big Data, Cloud-Technologien und Machine Learning und willst skalierbare Lösungen entwickeln, die echten Mehrwert schaffen? Dann bist du bei uns genau richtig!
Unser
Data Architecture & Platform Management
sucht per sofort oder nach Vereinbarung eine dynamische Persönlichkeit als
Big Data & Platform Engineer 80-100%
.
Big Data & Platform Engineer 80-100%
Wie wir dich begeistern
•
Spezialkonditionen bei Fahrzeugkauf und Service:
Für dich und deine Familie - weil wir wissen, wie wichtig Mobilität ist
•
Reisen mit Vergünstigungen:
Weltweit günstiger unterwegs mit Europcar
•
ZIF:
Zusätzliche individuelle Freitage - Kaufe dir zusätzliche Urlaubstage und gönne dir eine wohlverdiente längere Auszeit
•
Flexibilität leben:
Vereinbare Familie, Hobby und Beruf - geniesse die Flexibilität des hybriden Arbeitens
•
Life long learning:
Wir beteiligen uns an deiner Weiterbildung - booste deine Karriere!
•
Fit for free:
Nutze unser kostenloses Fitnessstudio für deine Gesundheit und Fitness
•
Exklusive Deals:
Plattform mit wechselnden Vergünstigungen - entdecke immer wieder neue Angebote und spare dabei
Was du bei uns bewegen kannst
•
Data Engineering:
Du unterstützt Projekte als Data Engineer und entwickelst skalierbare Datenpipelines für Data Ingestion, Transformation und Delivery. Dabei modellierst du Datenstrukturen, stellst Datenqualität und Stabilität sicher und setzt moderne Frameworks ein, um saubere, wartbare und performante Lösungen zu schaffen
•
Cloud-Architektur:
Du arbeitest mit aktuellen Cloud-Technologien und entwickelst robuste, skalierbare Architekturen. Bestehende Services kannst du automatisiert weiterentwickeln, optimieren und reibungslos in bestehende Plattformen integrieren
•
Entwicklung und Automation:
Du implementierst Python, SQL und Spark-Code für Pipelines, Services und APIs. CI/CD-basierte Deployments gehören zu deiner täglichen Arbeit, und du bringst erste Erfahrung mit Infrastructure-as-Code-Ansätzen (bevorzugt Terraform) mit
•
Machine Learning und MLOps:
Du weisst, wie Machine-Learning-Modelle produktiv betrieben werden, und kennst die Anforderungen an eine belastbare MLOps-Umgebung. Gemeinsam mit Data Scientists setzt du ML-Modelle erfolgreich in produktive Datenplattformen um. Ausserdem hast du Interesse an Use Cases mit GenAI
•
Datenberatung und Zusammenarbeit:
Du kannst Business-Anforderungen aufnehmen, fachlich bewerten und in tragfähige technische Lösungen übersetzen. Dabei unterstützt du Teams dabei, Daten effizient, sicher und compliant einzusetzen - und fungierst als verbindendes Element zwischen Technologie und Fachbereich
Das bringst du mit
•
Ausbildung:
Abgeschlossenes Studium in (Wirtschafts-)Informatik, Data Science, Naturwissenschaften mit IT-Schwerpunkt oder eine vergleichbare Qualifikation
•
Erfahrung:
Mehrjährige praktische Erfahrung als Data Engineer, Cloud Engineer oder Platform Engineer - idealerweise im Umfeld von Mobilität, Automotive oder Energie, jedoch nicht zwingend erforderlich
•
Technische Skills:
- Sehr gute Kenntnisse in Python und Erfahrung in der Software- bzw. Applikationsentwicklung
- Praktische Erfahrung mit Cloud-Technologien, bevorzugt Azure
- Fundiertes Knowhow im Betrieb und der Weiterentwicklung von Datenplattformen (bevorzugt Databricks, Snowflake, Microsoft Fabric)
- Erfahrung mit DevOps-Praktiken, Git-Workflows und CI/CD-Pipelines
- Idealerweise erste Erfahrung mit Infrastructure-as-Code (Terraform)
- Erfahrung im Entwurf und der Umsetzung von Datenarchitekturen (Lakehouse-Architekturen, Verarbeitung von Batch- und Streaming-Daten, Datenmodellierung für analytische Workloads, Bewertung architektonischer Ansätze wie Data Mesh im organisatorischen Kontext)
•
Sprachkenntnisse:
Stilsicheres Deutsch in Wort und Schrift sowie sehr gute Englischkenntnisse
•
Arbeitsweise und Persönlichkeit:
Du arbeitest selbstständig, analytisch und lösungsorientiert, kommunizierst klar und bringst Begeisterung für Daten, moderne Technologien und kontinuierliche Weiterentwicklung mit. Ausserdem hast du kein Problem damit, komplexe technische Themen verständlich zu erklären und besitzt eine gesunde Portion Humor
Denkst du, dass wir zusammenpassen könnten?
Dann freuen wir uns auf deine Online-Bewerbung. Übrigens: Ein Motivationsschreiben brauchen wir nicht. Nenne uns doch einfach drei überzeugende Gründe, wieso genau du die richtige Person für diese Stelle bist.
Hast du Fragen zur Stelle oder zum Bewerbungsprozess? Dann kontaktiere mich doch einfach per WhatsApp Kurznachricht. Informationen zum Datenschutz findest du in unseren Datenschutzbestimmungen.
Dario Migliozzi +4144 846 11 32
🎯 Maximisez vos chances de décrocher cet emploi !
Un CV professionnel augmente vos chances de 87% d'obtenir un entretien. Nos experts de CVSuisse.com créent des CV qui se démarquent et convainquent les recruteurs.
Commander mon CV professionnel