Il est utilisé pour créer des tâches par lots de big data, des tâches de streaming de big data s'exécutant sur Spark. Il a toutes les capacités pour utiliser des composants de big data tels que l'entrée HDFS, la sortie, hive, spark, composants. Peut se connecter à n'importe quel cluster sur site ou dans le cloud et à différentes plateformes comme Cloudera, emr, mapr, hortonworks, etc.
À la recherche de informations sur les logiciels ?
Avec plus de 2,5 millions d'avis, nous pouvons fournir les détails spécifiques qui vous aident à prendre une décision d'achat de logiciel éclairée pour votre entreprise. Trouver le bon produit est important, laissez-nous vous aider.