Obtenez par e-mail toute l'actualité Hortonworks

Une fois par mois, recevez les dernières idées, tendances, informations d’analyse et découvertes sur le Big Data.

cta

Démarrer

cloud

Prêt à débuter ?

Télécharger Sandbox

Que pouvons-nous faire pour vous ?

fermerBouton Fermer
cta

Maximisez la valeur des données en mouvement grâce aux Big Data de l’Internet des Objets

lire la bouton de la vidéo vidéo

cloud Prêt à débuter ?

Télécharger HDF
Hortonworks DataFlow (HDF™)

Hortonworks DataFlow (HDF)

Hortonworks DataFlow (HDF) fournit la seule plateforme de bout en bout qui rassemble, organise, analyse et agit sur des données en temps réel, que ce soit sur site ou dans le cloud, et ce, à l'aide d'une interface graphique autorisant le glisser-déposer. HDF est une solution intégrée à Apache Nifi/MiNifi, Apache Kafka, Apache Storm et Druid.

La plateforme HDF d'analyse des données en temps réel inclut des systèmes de gestion des flux de données, de traitement des flux et des services d’entreprise.

Powering the future of data
S'ABONNER

Plateforme de données en mouvement HDF

Trois composants majeurs de Hortonworks DataFlow

administrateur

Gestion simple, sécurisée et fiable des flux de données 

Collectez et manipulez en toute sécurité et efficacité les flux Big Data de l'Internet des Objets tout en offrant en temps réel une gestion, un contrôle et une visibilité des opérations.

administrateur

Des informations immédiates et continues  

Créez en quelques minutes des applications d'analyse en temps réel pour capturer immédiatement des informations périssables sans avoir à écrire une seule ligne de code.

En savoir plus
administrateur

Gouvernance d'entreprise, sécurité et opérations 

Gérez l'écosystème HDF et HDP à l'aide d'un panneau de gestion complète pour le provisionnement, la surveillance et la gouvernance.

En savoir plus

Plateforme intégrée de collecte des données indépendamment de la source

HDF intègre pour la collecte de données des fonctionnalités complètes, indépendantes et intégrées avec plus de 220 processeurs. Les Big Data issues de l'Internet des Objets peuvent être collectées à partir de sources dynamiques et distribuées ayant des formats, des schémas, des protocoles, des tailles, des débits et des types différents, à l'instar des machines, appareils de géolocalisation, flux de clic, fichiers, réseaux sociaux, fichiers log et vidéos.

Plus d'informations : 

  • Comment la gestion en temps réel des flux de données indépendamment de la source facilite-t-elle le mouvement des données ?
    Regarder la vidéo
    En savoir plus
    Découvrez ce que HDF peut faire pour optimiser l'analyse des fichiers journaux en périphérie. En savoir plus
Collecte de données puissante

RÉPONSE EN TEMPS RÉEL AUX DONNÉES EN MOUVEMENT

Avec HDF, la collecte de données n’est plus un processus pénible. Vous pouvez gérer les données à la volée grâce à un panneau de contrôle graphique permettant de définir les sources, les flux associés et divisés, et de hiérarchiser les flux de données. HDF peut également ajouter des données contextuelles à vos flux afin de fournir des analyses et des informations plus complètes. La provenance des données et les pistes d'audit toujours disponibles assurent en temps réel la sécurité et la conformité de la gouvernance, ainsi que le dépannage si nécessaire. Intégré à Apache NiFi, MiNiFi, Kafka et Storm, HDF est prêt pour le traitement d'événements à fort volume en vue de réaliser des analyses et des actions immédiates. Kafka autorise différents débits de création et de distribution des données, tandis que Storm fournit une analyse des flux de données en temps réel et crée des renseignements immédiats à grande échelle.

Plus d'informations : 

  • Découvrez comment la gestion des flux de données via l'interface utilisateur graphique en temps réel d'Apache NiFi accroît l'efficacité opérationnelle.
    Regarder la vidéo
Gestion des flux de données en temps réel

SÉCURISATION TOTALE DE LA SOURCE À LA DESTINATION 

HDF sécurise le flux des données de bout en bout et leur acheminement de la source à la destination grâce à une autorisation utilisateur indépendante et à une chaîne de contrôle graphique détaillée en temps réel. Utilisez l'interface utilisateur graphique de HDF pour chiffrer des flux de données, les acheminer vers Kafka, configurer les mémoires tampons et gérer la congestion de sorte que les données puissent être hiérarchisées automatiquement et transférées en toute sécurité. HDF autorise l’accès aux données basé sur les rôles qui permet aux entreprises de partager automatiquement et de façon sécurisée certains éléments de données pertinentes. HDF peut déployer facilement des applications de gestion des flux et de lecture des données en temps réel dans un environnement Kerberos sans une trop grande charge opérationnelle.

Plus d'informations : 

  • Découvrez comment un accès granulaire aux données est plus efficace qu'un accès basé sur les rôles
    Regarder la vidéo
Sécurité de niveau entreprise

CRÉEZ DES APPLICATIONS D'ANALYSE EN TEMPS RÉEL SANS AUCUN CODE

HDF intègre Streaming Analytics Manager (SAM), un module complet d'analyse en temps réel qui permet de créer des applications qui exécutent la corrélation des événements, l'enrichissement des données, la correspondance de modèles complexes, les agrégations analytiques et qui lancent des alertes/notifications lorsque des informations sont découvertes. SAM facilite grandement la création d'outils d'analyse en temps réel pour les développeurs d'applications, les équipes DevOps et les analyses d'affaires souhaitant créer, développer, partager, analyser, déployer et gérer des applications en quelques minutes sans avoir à écrire une seule ligne de code. Les analystes utilisent des graphiques prédéfinis pour réaliser rapidement des analyses et créer des tableaux de bord, tandis que les équipes DevOps peuvent gérer et surveiller les performances des applications dès leur installation.

Plus d'informations : 

OPÉRATIONS PLUS EFFICACES AVEC SCHEMA REGISTRY

HDF intègre, Schema Registry, un référentiel central de schémas qui permet aux applications d'analyse d’interagir simplement entre elles. Ainsi, les utilisateurs peuvent enregistrer, modifier ou récupérer des schémas pour les données dont ils ont besoin. Cet outil permet également de joindre simplement des schémas à chaque élément de données sans entraîner une surcharge du temps système, ce qui confère une grande efficacité opérationnelle. Grâce à la gestion des versions de schémas, les consommateurs et les producteurs de données peuvent évoluer à des rythmes différents. Et, grâce à la validation des schémas, la qualité des données est grandement améliorée. Un registre central des schémas fournit également une plus grande gouvernance de l'utilisation des données. Schema Registry est intégré avec Apache Nifi et HDF Streaming Analytics Manager.

Plus d'informations : 

Nouveautés HDF

Réalisez des analyses plus rapides en temps réel avec Streaming Analytics Manager

*

Créez simplement des applications d'analyse grâce à une approche graphique de type glisser-déposer assortie de fonctions d'analyse déroulantes

*

Réalisez des analyses rapides grâce à un efficace tableau de bord graphique et à un moteur d'analyse optimisé par Druid

*

Utilisez efficacement des tableaux de bord intégrés pour la surveillance des métriques système

Gérez les flux de données plus facilement avec Schema Registry

*

Éliminez la nécessité d'écrire du code, joignez le schéma à chaque élément de données et réduisez la charge opérationnelle

*

Permettez aux consommateurs et aux producteurs de données d’évoluer à des rythmes différents grâce à la gestion des versions de schéma

*

Stockez le schéma de n’importe quel type d'entité ou de magasin de données, pas seulement ceux de type Kafka

Guides d'utilisation de HDF

Obtenez des notes de mise à jour HDF, ainsi que des guides de prise en main destinés aux utilisateurs et aux développeurs

Assistance

La meilleure assistance du secteur pour Apache NiFi, Kafka et Storm en entreprise. Contactez notre équipe d'experts qui vous guidera tout au long de votre projet.

Formation

Formation en conditions réelles dispensée, selon vos besoins, en présentiel ou à la demande par des experts des Big Data.