Du hast erste oder vertiefte Erfahrung mit verteilten Systemen und der Verarbeitung großer Datenmengen (z. B. mit ApacheSpark, Kafka, Flink oder Cassandra). * Freie Open-Source-Welt (FOSS): Arbeit mit unserem eigenen Apache/Nginx-Cluster, Mailcow, Nextcloud, Kubernetes, Cassandra und ApacheSpark
Du hast erste oder vertiefte Erfahrung mit verteilten Systemen und der Verarbeitung großer Datenmengen (z. B. mit ApacheSpark, Kafka, Flink oder Cassandra). * Freie Open-Source-Welt (FOSS): Arbeit mit unserem eigenen Apache/Nginx-Cluster, Mailcow, Nextcloud, Kubernetes, Cassandra und ApacheSpark
Du besitzt sehr gute Kenntnisse im Bereich Linux, Netzwerk und im Betrieb von Applikationen auf OpenShift, idealerweise hast du auch schon Erfahrung mit Spark und im Umgang mit Public Cloud Providern (z.B. Integration von Databricks, Cloud-Kubernetes-Services) gesammelt
Du besitzt sehr gute Kenntnisse im Bereich Linux, Netzwerk und im Betrieb von Applikationen auf OpenShift, idealerweise hast du auch schon Erfahrung mit Spark und im Umgang mit Public Cloud Providern (z.B. Integration von Databricks, Cloud-Kubernetes-Services) gesammelt
Berlin, Dortmund, Düsseldorf, Frankfurt, Hamburg, Köln, München
Teilweise Home-Office
Anschreiben nicht erforderlich
Aufgrund deiner mind. fünfjährigen Erfahrung blickst du auf einen reichen Erfahrungsschatz und ein tiefes Verständnis im Bereich (Cloud) Datenplattformen und des Big Data Ökosystems (Kafka, Spark, Databricks, Delta Lake, Iceberg, etc.) und Cloud Analytics Services (AWS, GCP) zurück, im Optimalfall belegt durch Herstellerzertifizierungen (Professional/ Specialist Level) und/oder nachgewiesene Projekterfahrung. * Du bist fit in gängigen Data Platform Architektur-Konzepten: Data Lake, DWH und Datenmodellierung, Data Mesh und Delta Lake sind für dich ebenso wenig Fremdwörter, wie Databricks oder (py)Spark.
Aufgrund deiner mind. fünfjährigen Erfahrung blickst du auf einen reichen Erfahrungsschatz und ein tiefes Verständnis im Bereich (Cloud) Datenplattformen und des Big Data Ökosystems (Kafka, Spark, Databricks, Delta Lake, Iceberg, etc.) und Cloud Analytics Services (AWS, GCP) zurück, im Optimalfall belegt durch Herstellerzertifizierungen (Professional/ Specialist Level) und/oder nachgewiesene Projekterfahrung. * Du bist fit in gängigen Data Platform Architektur-Konzepten: Data Lake, DWH und Datenmodellierung, Data Mesh und Delta Lake sind für dich ebenso wenig Fremdwörter, wie Databricks oder (py)Spark.
bundesweit, Berlin, Frankfurt, Hamburg, Köln, Leipzig, München
Teilweise Home-Office
Anschreiben nicht erforderlich
Fundierte Kenntnisse in modernen Big-Data-Technologien und -Plattformen (z. B. Databricks, Cloudera, Hadoop, Spark, Kafka, Azure Data Services, Fabric)
Fundierte Kenntnisse in modernen Big-Data-Technologien und -Plattformen (z. B. Databricks, Cloudera, Hadoop, Spark, Kafka, Azure Data Services, Fabric)
Bereitschaft, sich im jeweiligen Kundenkontext durch gezielte Einarbeitung Know-how in verschiedenen ETL-Tools (wie Informatica PowerCenter, ApacheSpark oder Qlik/Talend) sowie weiteren Programmiersprachen und Technologien aufzubauen
Bereitschaft, sich im jeweiligen Kundenkontext durch gezielte Einarbeitung Know-how in verschiedenen ETL-Tools (wie Informatica PowerCenter, ApacheSpark oder Qlik/Talend) sowie weiteren Programmiersprachen und Technologien aufzubauen
Sehr gute Kenntnisse in der Anwendung von Machine Learning, Optimierungs- und Data Mining-Methoden (z.B. mit Python, Spark) * Erfahrungen im Umgang mit Big Data (SQL, Spark/Databricks) und Cloud Technologien (GCP, Azure)
Sehr gute Kenntnisse in der Anwendung von Machine Learning, Optimierungs- und Data Mining-Methoden (z.B. mit Python, Spark) * Erfahrungen im Umgang mit Big Data (SQL, Spark/Databricks) und Cloud Technologien (GCP, Azure)
Sie arbeiten vor allem in der Integration und im Betrieb von Big Data-Anwendungen, arbeiten mit Big Data-Technologien wie Hadoop, Spark, Storm, Cassandra und Kafka, unterstützen im Aufbau und Betrieb von Big Data-Systemen, installieren und konfigurieren komplexe Big Data-Umgebungen.
Sie arbeiten vor allem in der Integration und im Betrieb von Big Data-Anwendungen, arbeiten mit Big Data-Technologien wie Hadoop, Spark, Storm, Cassandra und Kafka, unterstützen im Aufbau und Betrieb von Big Data-Systemen, installieren und konfigurieren komplexe Big Data-Umgebungen.
Ideally experience with AI frameworks (e.g., TensorFlow, PyTorch), Big Data tools (e.g., Hadoop, Spark), data visualization (e.g., Tableau, Power BI), and handling measurement software and simulation environments (e.g., dSPACE, CANape, CarMaker)
Ideally experience with AI frameworks (e.g., TensorFlow, PyTorch), Big Data tools (e.g., Hadoop, Spark), data visualization (e.g., Tableau, Power BI), and handling measurement software and simulation environments (e.g., dSPACE, CANape, CarMaker)
Du bringst erste private und schulische bzw. studiumsbezogene Erfahrungen sowie Leidenschaft und Begeisterung für neue Technologien und Themen rund um Künstliche Intelligenz, Maschinelles Lernen und moderne Data- und Analytics-Plattformen (Cloud, Databricks, Spark, Kafka, Airflow, dbt, BigQuery oder Snowflake) mit.
Du bringst erste private und schulische bzw. studiumsbezogene Erfahrungen sowie Leidenschaft und Begeisterung für neue Technologien und Themen rund um Künstliche Intelligenz, Maschinelles Lernen und moderne Data- und Analytics-Plattformen (Cloud, Databricks, Spark, Kafka, Airflow, dbt, BigQuery oder Snowflake) mit.
Frankfurt am Main, Berlin, Hamburg, Düsseldorf, München, Stuttgart
Teilweise Home-Office
Du bringst Kenntnisse in Big Data-Architekturen und -Technologien (Databricks, Microsoft Fabric, Azure Synapse, SQL & NoSQL Datenbanken, Spark, Kafka, Elastic, etc.) und Programmierung (Python, Scala, Java etc.) mit
Du bringst Kenntnisse in Big Data-Architekturen und -Technologien (Databricks, Microsoft Fabric, Azure Synapse, SQL & NoSQL Datenbanken, Spark, Kafka, Elastic, etc.) und Programmierung (Python, Scala, Java etc.) mit
Idealerweise Erfahrung mit KI-Frameworks (z. B. TensorFlow, PyTorch), Big Data Tools (z.B. Hadoop, Spark), Datenvisualisierung (z. B. Tableau, Power BI) sowie im Umgang mit Messsoftware und Simulationsumgebungen (z. B. dSPACE, CANape, CarMaker)
Idealerweise Erfahrung mit KI-Frameworks (z. B. TensorFlow, PyTorch), Big Data Tools (z.B. Hadoop, Spark), Datenvisualisierung (z. B. Tableau, Power BI) sowie im Umgang mit Messsoftware und Simulationsumgebungen (z. B. dSPACE, CANape, CarMaker)
Sie arbeiten vor allem in der Integration und im Betrieb von Big Data-Anwendungen, arbeiten mit Big Data-Technologien wie Hadoop, Spark, Storm, Cassandra und Kafka, unterstützen im Aufbau und Betrieb von Big Data-Systemen, installieren und konfigurieren komplexe Big Data-Umgebungen.
Sie arbeiten vor allem in der Integration und im Betrieb von Big Data-Anwendungen, arbeiten mit Big Data-Technologien wie Hadoop, Spark, Storm, Cassandra und Kafka, unterstützen im Aufbau und Betrieb von Big Data-Systemen, installieren und konfigurieren komplexe Big Data-Umgebungen.
Arbeit mit Big Data-Technologien (Hadoop, Spark, Storm, Cassandra, Kafka) * Fundierte Kenntnisse in Big Data-Architekturen und -Technologien (Hadoop, Spark, Cassandra, Storm)
Arbeit mit Big Data-Technologien (Hadoop, Spark, Storm, Cassandra, Kafka) * Fundierte Kenntnisse in Big Data-Architekturen und -Technologien (Hadoop, Spark, Cassandra, Storm)