Obtenez par e-mail toute l'actualité Hortonworks

Une fois par mois, recevez les dernières idées, tendances, informations d’analyse et découvertes sur le Big Data.

Sign up for the Developers Newsletter

Une fois par mois, recevez les dernières idées, tendances, informations d’analyse et découvertes sur le Big Data.

cta

Démarrer

cloud

Prêt à débuter ?

Télécharger Sandbox

Que pouvons-nous faire pour vous ?

fermerBouton Fermer
cta

Maximisez la valeur des données en mouvement grâce aux Big Data de l’Internet des Objets

lire la bouton de la vidéo vidéo

Get Started with Hortonworks DataFlow

Download Now
Hortonworks DataFlow (HDF)

Hortonworks DataFlow (HDF)

Hortonworks DataFlow (HDF) fournit la seule plateforme de bout en bout qui rassemble, organise, analyse et agit sur des données en temps réel, que ce soit sur site ou dans le cloud, et ce, à l'aide d'une interface graphique autorisant le glisser-déposer. HDF est une solution intégrée à Apache Nifi/MiNifi, Apache Kafka, Apache Storm et Druid.

The HDF streaming real-time data analytics platform includes data flow management systems, stream processing, and enterprise services.

Powering the future of data

HDF 3.1 Platform
Kafka Storm NiFi minifi Ranger Ambari

Trois composants majeurs de Hortonworks DataFlow

administrateur

Gestion simple, sécurisée et fiable des flux de données 

Collectez et manipulez en toute sécurité et efficacité les flux Big Data de l'Internet des Objets tout en offrant en temps réel une gestion, un contrôle et une visibilité des opérations.

administrateur

Des informations immédiates et continues  

Créez en quelques minutes des applications d'analyse en temps réel pour capturer immédiatement des informations périssables sans avoir à écrire une seule ligne de code.

En savoir plus
administrateur

Gouvernance d'entreprise, sécurité et opérations 

Gérez l'écosystème HDF et HDP à l'aide d'un panneau de gestion complète pour le provisionnement, la surveillance et la gouvernance.

En savoir plus

Plateforme intégrée de collecte des données indépendamment de la source

HDF intègre pour la collecte de données des fonctionnalités complètes, indépendantes et intégrées avec plus de 220 processeurs. Les Big Data issues de l'Internet des Objets peuvent être collectées à partir de sources dynamiques et distribuées ayant des formats, des schémas, des protocoles, des tailles, des débits et des types différents, à l'instar des machines, appareils de géolocalisation, flux de clic, fichiers, réseaux sociaux, fichiers log et vidéos.

Plus d'informations : 

  • Comment la gestion en temps réel des flux de données indépendamment de la source facilite-t-elle le mouvement des données ?
    Regarder la vidéo
    En savoir plus
    Découvrez ce que HDF peut faire pour optimiser l'analyse des fichiers journaux en périphérie. En savoir plus
Collecte de données puissante

RÉPONSE EN TEMPS RÉEL AUX DONNÉES EN MOUVEMENT

Avec HDF, la collecte de données n’est plus un processus pénible. Vous pouvez gérer les données à la volée grâce à un panneau de contrôle graphique permettant de définir les sources, les flux associés et divisés, et de hiérarchiser les flux de données. HDF peut également ajouter des données contextuelles à vos flux afin de fournir des analyses et des informations plus complètes. La provenance des données et les pistes d'audit toujours disponibles assurent en temps réel la sécurité et la conformité de la gouvernance, ainsi que le dépannage si nécessaire. Intégré à Apache NiFi, MiNiFi, Kafka et Storm, HDF est prêt pour le traitement d'événements à fort volume en vue de réaliser des analyses et des actions immédiates. Kafka autorise différents débits de création et de distribution des données, tandis que Storm fournit une analyse des flux de données en temps réel et crée des renseignements immédiats à grande échelle.

Plus d'informations : 

  • Découvrez comment la gestion des flux de données via l'interface utilisateur graphique en temps réel d'Apache NiFi accroît l'efficacité opérationnelle.
    Regarder la vidéo
Gestion des flux de données en temps réel

SÉCURISATION TOTALE DE LA SOURCE À LA DESTINATION 

HDF sécurise le flux des données de bout en bout et leur acheminement de la source à la destination grâce à une autorisation utilisateur indépendante et à une chaîne de contrôle graphique détaillée en temps réel. Utilisez l'interface utilisateur graphique de HDF pour chiffrer des flux de données, les acheminer vers Kafka, configurer les mémoires tampons et gérer la congestion de sorte que les données puissent être hiérarchisées automatiquement et transférées en toute sécurité. HDF autorise l’accès aux données basé sur les rôles qui permet aux entreprises de partager automatiquement et de façon sécurisée certains éléments de données pertinentes. HDF peut déployer facilement des applications de gestion des flux et de lecture des données en temps réel dans un environnement Kerberos sans une trop grande charge opérationnelle.

Plus d'informations : 

  • Découvrez comment un accès granulaire aux données est plus efficace qu'un accès basé sur les rôles
    Regarder la vidéo
Sécurité de niveau entreprise

CRÉEZ DES APPLICATIONS D'ANALYSE EN TEMPS RÉEL SANS AUCUN CODE

HDF intègre Streaming Analytics Manager (SAM), un module complet d'analyse en temps réel qui permet de créer des applications qui exécutent la corrélation des événements, l'enrichissement des données, la correspondance de modèles complexes, les agrégations analytiques et qui lancent des alertes/notifications lorsque des informations sont découvertes. SAM facilite grandement la création d'outils d'analyse en temps réel pour les développeurs d'applications, les équipes DevOps et les analyses d'affaires souhaitant créer, développer, partager, analyser, déployer et gérer des applications en quelques minutes sans avoir à écrire une seule ligne de code. Les analystes utilisent des graphiques prédéfinis pour réaliser rapidement des analyses et créer des tableaux de bord, tandis que les équipes DevOps peuvent gérer et surveiller les performances des applications dès leur installation.

Les développeurs peuvent expérimenter la création d'applications SAM en utilisant des données fictives et créer des tests unitaires pour les applications SAM en utilisant le nouveau « Mode test » SAM. Le nouveau module Opérations SAM donne aux utilisateurs la possibilité de tester, déboguer, résoudre les problèmes et contrôler les applications déployées, en toute simplicité, rendant l'exploitation d'une application en cours aussi facile que sa création.

Plus d'informations : 

OPÉRATIONS PLUS EFFICACES AVEC SCHEMA REGISTRY

HDF intègre, Schema Registry, un référentiel central de schémas qui permet aux applications d'analyse d’interagir simplement entre elles. Ainsi, les utilisateurs peuvent enregistrer, modifier ou récupérer des schémas pour les données dont ils ont besoin. Cet outil permet également de joindre simplement des schémas à chaque élément de données sans entraîner une surcharge du temps système, ce qui confère une grande efficacité opérationnelle. Grâce à la gestion des versions de schémas, les consommateurs et les producteurs de données peuvent évoluer à des rythmes différents. Et, grâce à la validation des schémas, la qualité des données est grandement améliorée. Un registre central des schémas fournit également une plus grande gouvernance de l'utilisation des données. Schema Registry est intégré avec Apache Nifi et HDF Streaming Analytics Manager.

Plus d'informations : 

APACHE NIFI REGISTRY

Apache NiFi Registry, un nouveau sous-projet Apache désormais inclus au sein des HDF Enterprise Management Services, facilite le développement, la gestion et la portabilité des flux de données. Au cœur de sa fonctionnalité réside la capacité à réduire les schémas et les programmes de flux de données pour permettre aux utilisateurs de suivre et de contrôler les changements dans les flux de données à un niveau plus précis. Les schémas de flux de données sont stockés dans un référentiel commun qui permet un partage facile à échelle globale ainsi qu'un contrôle de version des schémas.

Grâce à cela, l'export et l'import des flux de données permettent un transfert facile et une migration fluide des flux de données d'un environnement à un autre. Cette fonctionnalité améliore de manière significative le stockage, le contrôle et la gestion des flux dont les versions sont contrôlées, ce qui raccourcit le cycle de vie du développement logiciel et accélère le déploiement des applications, et permet au final d'obtenir un délai de rentabilité encore plus rapide.

Nouveautés HDF

Accélérez la gestion, le développement et l'exploitation des flux de données

*

Développez, gérez et déplacez les flux de données facilement un utilisant Apache NiFi Registry

*

Suivez et contrôlez les changements dans les flux de données à un niveau plus précis

*

Partagez et contrôlez les versions des schémas en utilisant le référentiel commun pour les schémas de flux de données

*

Exportez et importez des flux de données facilement d'un environnement à un autre

Améliorez la productivité des développeurs

*

Améliorez l'exploitation des données de streaming dans Hortonworks Streaming Analytics Manager (SAM)

*

Créez des applications SAM ou des tests unitaires pour des applications SAM en utilisant le nouveau « Mode test » SAM

*

Testez, déboguez, résolvez les problèmes et surveillez les applications déployées avec le nouveau module SAM Operations

Profitez d'une solide intégration avec Kafka 1.0

*

Installez, configurez, gérez, actualisez, contrôlez et sécurisez les clusters Kafka 1.0 avec Ambari

*

Améliorez la gouvernance et la traçabilité des données en gérant les politiques de contrôle d'accès avec Apache Ranger

*

Tirez parti des nouveaux processeurs dans NiFi et SAM pour utiliser les fonctionnalités de Kafka 1.0 y compris les en-têtes et les transactions de messages

Guides d'utilisation de HDF

Obtenez des notes de mise à jour HDF, ainsi que des guides de prise en main destinés aux utilisateurs et aux développeurs

Assistance

La meilleure assistance du secteur pour Apache NiFi, Kafka et Storm en entreprise. Contactez notre équipe d'experts qui vous guidera tout au long de votre projet.

Formation

Formation en conditions réelles dispensée, selon vos besoins, en présentiel ou à la demande par des experts des Big Data.