Du hast einschlägige Erfahrung im Umgang mit technologierelevanten Tools und Frameworks wie z.B. Tensorflow, Pytorch, Keras, LangChain, LlamaIndex, OpenAI, Spark und Scala.
Du hast einschlägige Erfahrung im Umgang mit technologierelevanten Tools und Frameworks wie z.B. Tensorflow, Pytorch, Keras, LangChain, LlamaIndex, OpenAI, Spark und Scala.
Ideally experience with AI frameworks (e.g., TensorFlow, PyTorch), Big Data tools (e.g., Hadoop, Spark), data visualization (e.g., Tableau, Power BI), and handling measurement software and simulation environments (e.g., dSPACE, CANape, CarMaker)
Ideally experience with AI frameworks (e.g., TensorFlow, PyTorch), Big Data tools (e.g., Hadoop, Spark), data visualization (e.g., Tableau, Power BI), and handling measurement software and simulation environments (e.g., dSPACE, CANape, CarMaker)
Idealerweise Erfahrung mit KI-Frameworks (z. B. TensorFlow, PyTorch), Big Data Tools (z.B. Hadoop, Spark), Datenvisualisierung (z. B. Tableau, Power BI) sowie im Umgang mit Messsoftware und Simulationsumgebungen (z. B. dSPACE, CANape, CarMaker)
Idealerweise Erfahrung mit KI-Frameworks (z. B. TensorFlow, PyTorch), Big Data Tools (z.B. Hadoop, Spark), Datenvisualisierung (z. B. Tableau, Power BI) sowie im Umgang mit Messsoftware und Simulationsumgebungen (z. B. dSPACE, CANape, CarMaker)
Du bringst erste private und schulische bzw. studiumsbezogene Erfahrungen sowie Leidenschaft und Begeisterung für neue Technologien und Themen rund um Künstliche Intelligenz, Maschinelles Lernen und moderne Data- und Analytics-Plattformen (Cloud, Databricks, Spark, Kafka, Airflow, dbt, BigQuery oder Snowflake) mit.
Du bringst erste private und schulische bzw. studiumsbezogene Erfahrungen sowie Leidenschaft und Begeisterung für neue Technologien und Themen rund um Künstliche Intelligenz, Maschinelles Lernen und moderne Data- und Analytics-Plattformen (Cloud, Databricks, Spark, Kafka, Airflow, dbt, BigQuery oder Snowflake) mit.
Frankfurt am Main, Berlin, Hamburg, Düsseldorf, München, Stuttgart
Teilweise Home-Office
Du bringst Kenntnisse in Big Data-Architekturen und -Technologien (Databricks, Microsoft Fabric, Azure Synapse, SQL & NoSQL Datenbanken, Spark, Kafka, Elastic, etc.) und Programmierung (Python, Scala, Java etc.) mit
Du bringst Kenntnisse in Big Data-Architekturen und -Technologien (Databricks, Microsoft Fabric, Azure Synapse, SQL & NoSQL Datenbanken, Spark, Kafka, Elastic, etc.) und Programmierung (Python, Scala, Java etc.) mit
Wir begeistern unsere Kunden rund um den Globus mit unseren Maschinen und Werkzeugen sowie unseren in einem der weltweit größten und modernsten Perforationsparks hergestellten Produkten.
Wir begeistern unsere Kunden rund um den Globus mit unseren Maschinen und Werkzeugen sowie unseren in einem der weltweit größten und modernsten Perforationsparks hergestellten Produkten.
Wir begeistern unsere Kunden rund um den Globus mit unseren Maschinen und Werkzeugen sowie unseren in einem der weltweit größten und modernsten Perforationsparks hergestellten Produkten.
Wir begeistern unsere Kunden rund um den Globus mit unseren Maschinen und Werkzeugen sowie unseren in einem der weltweit größten und modernsten Perforationsparks hergestellten Produkten.
Bereitschaft, sich im jeweiligen Kundenkontext durch gezielte Einarbeitung Know-how in verschiedenen ETL-Tools (wie Informatica PowerCenter, Apache Spark oder Qlik/Talend) sowie weiteren Programmiersprachen und Technologien aufzubauen
Bereitschaft, sich im jeweiligen Kundenkontext durch gezielte Einarbeitung Know-how in verschiedenen ETL-Tools (wie Informatica PowerCenter, Apache Spark oder Qlik/Talend) sowie weiteren Programmiersprachen und Technologien aufzubauen
Du besitzt sehr gute Kenntnisse im Bereich Linux, Netzwerk und im Betrieb von Applikationen auf OpenShift, idealerweise hast du auch schon Erfahrung mit Spark und im Umgang mit Public Cloud Providern (z.B. Integration von Databricks, Cloud-Kubernetes-Services) gesammelt
Du besitzt sehr gute Kenntnisse im Bereich Linux, Netzwerk und im Betrieb von Applikationen auf OpenShift, idealerweise hast du auch schon Erfahrung mit Spark und im Umgang mit Public Cloud Providern (z.B. Integration von Databricks, Cloud-Kubernetes-Services) gesammelt
Sie arbeiten vor allem in der Integration und im Betrieb von Big Data-Anwendungen, arbeiten mit Big Data-Technologien wie Hadoop, Spark, Storm, Cassandra und Kafka, unterstützen im Aufbau und Betrieb von Big Data-Systemen, installieren und konfigurieren komplexe Big Data-Umgebungen.
Sie arbeiten vor allem in der Integration und im Betrieb von Big Data-Anwendungen, arbeiten mit Big Data-Technologien wie Hadoop, Spark, Storm, Cassandra und Kafka, unterstützen im Aufbau und Betrieb von Big Data-Systemen, installieren und konfigurieren komplexe Big Data-Umgebungen.
Sie arbeiten vor allem in der Integration und im Betrieb von Big Data-Anwendungen, arbeiten mit Big Data-Technologien wie Hadoop, Spark, Storm, Cassandra und Kafka, unterstützen im Aufbau und Betrieb von Big Data-Systemen, installieren und konfigurieren komplexe Big Data-Umgebungen.
Sie arbeiten vor allem in der Integration und im Betrieb von Big Data-Anwendungen, arbeiten mit Big Data-Technologien wie Hadoop, Spark, Storm, Cassandra und Kafka, unterstützen im Aufbau und Betrieb von Big Data-Systemen, installieren und konfigurieren komplexe Big Data-Umgebungen.
Arbeit mit Big Data-Technologien (Hadoop, Spark, Storm, Cassandra, Kafka) * Fundierte Kenntnisse in Big Data-Architekturen und -Technologien (Hadoop, Spark, Cassandra, Storm)
Arbeit mit Big Data-Technologien (Hadoop, Spark, Storm, Cassandra, Kafka) * Fundierte Kenntnisse in Big Data-Architekturen und -Technologien (Hadoop, Spark, Cassandra, Storm)