cta

Démarrer

cloud

Prêt à débuter ?

Télécharger Sandbox

Que pouvons-nous faire pour vous ?

fermerBouton Fermer
cta

Maximize the Value of Data-in-Motion
With Big Data from the Internet of Things

lire la bouton de la vidéo vidéo

cloud Prêt à débuter ?

Télécharger HDF
Hortonworks DataFlow (HDF™)

Hortonworks DataFlow (HDF)

HDF accélère et simplifie l'analyse des flux, en autorisant la collecte, la conservation, l'analyse et la distribution plus rapides des données en temps réel, sur site ou dans le cloud, grâce à une solution intégrée avec Apache NiFi, Kafka et Storm.

Powering the Future of Data
S'ABONNER

Plateforme intégrée de collecte des données indépendamment de la source

Collecte intégrée à partir de sources dynamiques, hétérogènes et distribuées ayant des formats, des schémas, des protocoles, des tailles et des débits différents, à l'instar des machines, appareils de géolocalisation, flux de clic, fichiers, réseaux sociaux, fichiers log et vidéos.

Plus d'informations : 

  • Comment la gestion en temps réel des flux de données indépendamment de la source facilite-t-elle le mouvement des données ?
    Regarder la vidéo
    En savoir plus
Rapide, simple et sécurisé

Réponse en temps réel aux flux de données

Évaluation en temps réel des informations périssables en périphérie afin de déterminer leur pertinence, et de décider si ces données doivent être expédiées, abandonnées ou stockées localement selon les besoins via une interface utilisateur graphique munie d'une visibilité et d'un contrôle opérationnels en temps réel. Bénéficiez d'une efficacité opérationnelle hors pair en éliminant la dépendance et les retards inhérents à l'écriture de lignes de code et de scripts personnalisés.

Plus d'informations : 

  • Découvrez comment la gestion des flux de données via l'interface utilisateur graphique en temps réel d'Apache NiFi accroît l'efficacité opérationnelle.
    Regarder la vidéo
Décisions en temps réel

Sécurité garantie de la source à la destination grâce à une chaîne de contrôle des données en temps réel

Acheminement sécurisé de bout en bout de la source à la destination grâce à une autorisation utilisateur indépendante, à une chaîne de contrôle graphique détaillée en temps réel et aux métadonnées (provenance des données). La prise en charge de façon égale de la sécurité et du cryptage à la fois sur des sources de données de petite taille compatibles JVM en périphérie de l'Internet des Objets, et sur des clusters professionnels de grande envergure gérant des données de l'IoAT (Internet of Anything) garantit un haut degré de fiabilité aux résultats analytiques et aux données sous-jacentes.

Plus d'informations : 

  • Découvrez comment HDF confère un haut degré de fiabilité à vos données
    Regarder la vidéo
Faites confiance à vos données

La gestion d'une activité en temps réel dépend de la capture d'informations périssables à partir des données en mouvement.

HDF prend en charge le traitement de trains de données pour regrouper et analyser des données d'événement afin de reconnaître automatiquement des modèles de données et de détecter les valeurs hors normes. Le traitement d'importants volumes d'événements en temps réel pour gérer rapidement les flux de données est pris en charge par le biais d'une offre professionnelle intégrée d' Apache NiFi, MiNiFi, Kafka et Storm pour le lancement des données.

Apache NiFi et MiNiFi fournissent des pipelines de données configurables et dynamiques, par l'intermédiaire desquels les sources, les systèmes et les destinations communiquent. Kafka s'adapte à différents taux de création et de distribution des données, tandis que l'analyse des flux en temps réel avec Storm crée des renseignements immédiats à grande échelle.

Plus d'informations : 

  • Traitement des données en streaming
    En savoir plus
    Traitement des événements en temps réel dans Hadoop avec NiFi, Kafka et Storm
    En savoir plus
Traitement de trains de données

Générez de nouvelles informations en partageant uniquement certains types de données en toute sécurité

HDF permet d'accéder aux données et de les contrôler en toute sécurité pour faciliter la prise de décisions opérationnelles en connaissance de cause. Grâce au partage d'informations spécifiques et à la suppression de l'accès aux données basées sur des rôles qui accorde immédiatement un accès global à la totalité d'un silo de données, HDF permet aux entreprises de partager de façon dynamique et sécurisée certaines données pertinentes afin d'obtenir de nouveaux renseignements métier.

Plus d'informations : 

  • Découvrez comment HDF réduit les risques tout en favorisant la démocratisation des données
    Regarder la vidéo
Débridez la puissance de vos données

Optimisez l'analyse des fichiers log grâce à l'acheminement ciblé du contenu en périphérie

L'analyse en temps réel de la périphérie facilite l'intégration de systèmes d'analyse des fichiers log, notamment Splunk, SumoLogic, Graylog et LogStash, pour une assimilation simple, sécurisée et complète des données stockées dans ce type de fichier. En augmentant à moindre coût les volumes de données collectées grâce à l'acheminement ciblé du contenu, les entreprises peuvent accélérer la résolution des problèmes et améliorer la détection des anomalies grâce à une visibilité plus complète de toutes les données disponibles sur les machines.

Plus d'informations : 

  • Optimisez l'analyse des fichiers journal en périphérie
    Lire la suite
Optimisation de l'analyse des fichiers log

Une plateforme évolutive et extensible pour l'IoT et l'IoAT

À la fois conçu pour gérer des sources de données de petite taille qui caractérisent l'Internet des Objets et des clusters de grande envergure utilisés aujourd'hui dans les datacenters professionnels, HDF a été pensé pour l'Internet of AnyThing. HDF déplace en toute sécurité les données entre une source et une destination quelconque, indépendamment de leur taille, leur forme ou leur débit en les adaptant automatiquement aux besoins de la source, de la connexion et de la destination.

Plus d'informations : 

Conçu pour l'IoT

Chiffrement et acheminement à la demande

Utilisez l'interface utilisateur graphique de HDF pour glisser-déposer des flux de données en vue de les chiffrer, de les acheminer vers Kafka et de configurer les mémoires tampons ainsi que la gestion de la congestion. Ainsi, ces données pourront être hiérarchisées automatiquement et transférées en toute sécurité entre la source et la destination avec une réactivité immédiate aux conditions fluctuantes observées fréquemment en périphérie.

Plus d'informations : 

  • Découvrez en quelques minutes le chiffrement des flux de données actives et leur acheminement vers Kafka
    Regarder la vidéo
Chiffrement et hiérarchisation

Nouveautés HDF

diapositive parallax
  • Nouvelle interface utilisateur : interface plus intuitive permettant de créer, de gérer, d'optimiser et de contrôler en un clin d'œil et en toute simplicité des flux de données en temps réel
  • Productivité accrue : de multiples intervenants peuvent gérer les différentes parties d'un seul flux de données partagé à travers toute une entreprise, ce qui permet de connecter les silos de données et les équipes bénéficiant d'un contrôle poussé au niveau des composants
  • Préparation de l’entreprise : facilité de déploiement et de gestion de NiFi, Kafka et Storm grâce à l'interface Ambari intégrée et à l'intégration avec Ranger pour la gestion des autorisations
  • MiNiFi : nouvelle option architecturale MiNiFi dans JVM pour une évolutivité étendue permettant de relever le défi des communications sécurisées, First Mile et bidirectionnelles avec des millions de périphériques distants (IoT) dans des débits pouvant atteindre 40 Mbits/s
  • NiFi     Kafka     Storm
cta

Pourquoi HDF a-t-il été inventé ?

Pour surmonter les difficultés réelles rencontrées pour déplacer de façon sécurisée et efficace des données distribuées depuis n'importe quel site
EN SAVOIR PLUS
Guides d'utilisation de HDF

Obtenez des notes de mise à jour HDF, ainsi que des guides de prise en main destinés aux utilisateurs et aux développeurs

Assistance

La meilleure assistance du secteur pour Apache NiFi, Kafka et Storm en entreprise. Contactez notre équipe d'experts qui vous guidera tout au long de votre projet.

Formation

Formation en conditions réelles dispensée, selon vos besoins, en présentiel ou à la demande par des experts des Big Data.