Beschreibung
Aufgabenbeschreibung:Longterm experience in bigdata solutions
Weitere Informationen liegen uns leider noch nicht vor.
Anforderungen:
Knowledge of mainstream technologies:
Apache family:
HDFS, Hadoop, Hive, Spark, Storm, Kafka
Database technologies: SQL, NoSQL, Column-oriented, Index, Time-Series
Searching technologies:
complete Elastic Stack, Apache Lucene, Apache Solr
Machine learning:
TensorFlow, Keras, Torch (correlation with Spark, Storm, FlumeML)
Ability to develop in any of the languages: Java, Python, C/C++
Excellent knowledge/experience of handling enormous volume of data in realtime (clustering, optimizations) and operations on such data
Projektdaten:
Projekt:14559
Beginn: 16.03.2018
Dauer: 08.06.2018
Haben wir Ihr Interesse geweckt? Wir freuen uns über Ihren Kontakt!