Postleitzahl: |
Frankfurt am Main |
Start: |
asap |
Laufzeit: |
120 MT |
Beschreibung: |
F |
Skills: |
Notwendig:
- Praktische IT-Kenntnisse im Big Data Umfeld, speziell im Analyse-Bereich
- Umfangreiche Erfahrung mit modernen Dashboarding-Tools (z.B. Tableau, Qlikview, Kibana) und deren Anbindung an das Hadoop-Cluster
- Praktische Erfahrung mit Komponenten gängiger Hadoop-Distributionen (z. B. Hive, Kafka, Oozie), idealerweise mit Zertifizierung
- Erfahrung mit Dashboard-gestützten Qualitätsmonitoring-Systemen (KPI-Analytics)
- Umfangreiche Erfahrung mit System-Architektur und Workflow-Steuerung
- Programmierkenntnisse im Analytics-Umfeld (z.B. R, Python, SQL)
- Sicherer Umgang mit komplexen Datenstrukturen und Echtzeit-Datenströmen
- Hands-on-Mentalität und Flexibilität in einem dynamischen Umfeld
Optional:
- Kenntnisse statistischer Verfahren |
Anzahl: |
1 |