cta

Démarrer

cloud

Prêt à débuter ?

Télécharger Sandbox

Que pouvons-nous faire pour vous ?

fermerBouton Fermer

Hortonworks Sandbox Tutorials
for Apache Hadoop

Démarrez avec Hadoop grâce à ces tutoriels qui utilisent Hortonworks Sandbox.

Développez avec Hadoop

Commencez à développer avec Hadoop. Les tutoriels ci-dessous ont été conçus pour faciliter le développement avec Hadoop :

Apache Spark sur HDP

Introduction This tutorial will teach you how to set up a full development environment for developing and debugging Spark applications. For this tutorial we’ll be using Java, but Spark also supports development with Java, Python, and R. The Scala version of this tutorial can be found here, and the Python version here. We’ll be using […]

Introduction This tutorial will teach you how to set up a full development environment for developing and debugging Spark applications. For this tutorial we’ll be using Python, but Spark also supports development with Java, Python, and R. The Scala version of this tutorial can be found here, and the Java version here. We’ll be using […]

Introduction This tutorial will teach you how to set up a full development environment for developing and debugging Spark applications. For this tutorial we’ll be using Scala, but Spark also supports development with Java, Python, and R. The Java version of this tutorial can be found here, and the Python version here. We’ll be using […]

Introduction This is the third tutorial in a series about building and deploying machine learning models with Apache Nifi and Spark. In Part 1 of the series we learned how to use Nifi to ingest and store Twitter Streams. In Part 2 we ran Spark from a Zeppelin notebook to design a machine learning model […]

Introduction This tutorial will teach you how to build sentiment analysis algorithms with Apache Spark. We will be doing data transformation using Scala and Apache Spark 2, and we will be classifying tweets as happy or sad using a Gradient Boosting algorithm. Although this tutorial is focused on sentiment analysis, Gradient Boosting is a versatile […]

Introduction Apache Spark is a fast, in-memory data processing engine with elegant and expressive development APIs in Scala, Java, Python, and R that allow developers to execute a variety of data intensive workloads. In this tutorial, we will use an Apache Zeppelin notebook for our development environment to keep things simple and elegant. Zeppelin will […]

Introduction This tutorial walks you through many of the newer features of Spark 1.6.2 on YARN. With YARN, Hadoop can now support many types of data and application workloads; Spark on YARN becomes yet another workload running against the same set of hardware resources. Prerequisites This tutorial is a part of series of hands-on tutorials […]

Introduction Apache Zeppelin is a web-based notebook that enables interactive data analytics. With Zeppelin, you can make beautiful data-driven, interactive and collaborative documents with a rich set of pre-built language backends (or interpreters) such as Scala (with Apache Spark), Python (with Apache Spark), SparkSQL, Hive, Markdown, Angular, and Shell. With a focus on Enterprise, Zeppelin […]

Introduction In this two-part lab-based tutorial, we will first introduce you to Apache Spark SQL. Spark SQL is a higher-level Spark module that allows you to operate on DataFrames and Datasets, which we will cover in more detail later. In the second part of the lab, we will explore an airline dataset using high-level SQL […]

Introduction In this tutorial, we will introduce you to Machine Learning with Apache Spark. The hands-on lab for this tutorial is an Apache Zeppelin notebook that has all the steps necessary to ingest and explore data, train, test, visualize, and save a model. We will cover a basic Linear Regression model that will allow us […]

Introduction The technical preview of the Spark-HBase connector was developed by Hortonworks along with Bloomberg. The connector leverages Spark SQL Data Sources API introduced in Spark-1.2.0. It bridges the gap between the simple HBase Key Value store and complex relational SQL queries and enables users to perform complex data analytics on top of HBase using […]

Hello World

Introduction This tutorial is aimed for users who do not have much experience in using the Sandbox. We will install and explore the Sandbox on virtual machine and cloud environments. We will also navigate the Ambari user interface. Let’s begin our Hadoop journey. Prerequisites Downloaded and Installed Hortonworks Sandbox Allow yourself around one hour to […]

This tutorial will help you get started with Hadoop and HDP.

La congestion du trafic est un sérieux problème pour les banlieusards. Une équipe d'urbanistes collaborent pour créer l'emplacement d'une nouvelle route basée sur des schémas de trafic. Tout d'abord, les données dynamiques posent un problème pour l'analyse du trafic de données, car des données historiques et agrégées sur le trafic ont été utilisées. L'équipe a sélectionné NiFi pour l'intégration de données en temps réel parce que cette solution tire parti des capacités d'acquisition, de filtrage et stockage des données en mouvement. Découvrez comment cette équipe a utilisé NiFi pour obtenir une compréhension plus approfondie des schémas de trafic et décider d'un emplacement pour la nouvelle route.

This tutorial will go through the introduction of Apache HBase and Apache Phoenix along with the new Backup and Restore utility in HBase that has been introduced in HDP 2.5. Enjoy HADOOPING!!

This Hadoop tutorial shows how to Process Data with Hive using a set of driver data statistics.

This Hadoop tutorial shows how to Process Data with Apache Pig using a set of driver data statistics.

In this tutorial, we will load and review data for a fictitious web retail store in what has become an established use case for Hadoop: deriving insights from large data sources such as web logs.

how to get started with Cascading and Hortonworks Data Platform using the Word Count Example.

Si vous rencontrez des problèmes lorsque vous parcourez ce tutoriel, n'hésitez pas à nous poser des questions ou à nous en informer sur la communauté Hortonworks ! Deuxième tutoriel visant à faire découvrir aux développeurs Java Cascading et Hortonworks Data Platform (HDP). Autres tutoriels : Décompte de mots avec Cascading sur le sandbox HDP 2.3 Analyse des journaux avec Cascading sur HDP […]

Apprenez à utiliser des schémas Cascading pour migrer rapidement des modèles prédictifs (PMML) à partir de SAS, R et MicroStrategy vers Hadoop et les déployer à grande échelle.

Introduction Hive LLAP combines persistent query servers and intelligent in-memory caching to deliver blazing-fast SQL queries without sacrificing the scalability Hive and Hadoop are known for. This tutorial will show you how to try LLAP on your HDP Sandbox and experience its interactive performance firsthand using a BI tool of your choice (Tableau will be […]

Introduction Apache HBase is a NoSQL database in the Hadoop eco-system. Many business intelligence tool and data analytic tools lack the ability to work with HBase data directly. Apache Phoenix enables you to interact with HBase using SQL. In HDP 2.5, we have introduced support for ODBC drivers. With this, you can connect any ODBC […]

Utilisation d'Apache Storm pour traiter des flux de données en temps réel dans Hadoop avec Hortonworks Data Platform.

How to use Apache Tez and Apache Hive for Interactive Query with Hadoop and Hortonworks Data Platform 2.5

Dans ce tutoriel, nous verrons comment exécuter Solr dans Hadoop avec l'index (fichiers de données solr) stocké sur HDFS et comment utiliser une tâche MapReduce pour indexer des fichiers.

Utilisez Apache Falcon pour définir un pipeline et une politique de données de bout en bout pour Hadoop et Hortonworks Data Platform 2.1

Standard SQL provides ACID operations through INSERT, UPDATE, DELETE, transactions, and the more recent MERGE operations. These have proven to be robust and flexible enough for most workloads. Hive offers INSERT, UPDATE and DELETE, with more of capabilities on the roadmap.

Introduction Dans ce tutoriel destiné aux développeurs Hadoop, nous allons découvrir les concepts de base d'Apache Hadoop et examiner les processus d'écriture d'un programme MapReduce. Conditions requises Téléchargement et installation de Hortonworks Sandbox Découverte des rudiments de Hortonworks Sandbox Description Hadoop Étape 1 : Découverte des concepts de base d'Apache Hadoop 1.1 Qu'est-ce que MapReduce ? 1.2 […]

Real World Examples

Très souvent, les clients demandent à pouvoir indexer du texte dans des fichiers d'images ; par exemple, du texte intégré à des fichiers PNG numérisés. Dans ce tutoriel, nous allons découvrir comment y parvenir en utilisant SOLR. Conditions requises Téléchargez Hortonworks Sandbox Suivez le tutoriel relatif aux rudiments du sandbox HDP Guide étape par étape […]

This tutorial will cover the core concepts of Storm and the role it plays in an environment where real-time, low-latency and distributed data processing is important.

Introduction Apache Falcon simplifie la configuration du mouvement des données grâce à des fonctions de réplication, de gestion du cycle de vie, de l'historique et de la traçabilité. Ceci fournit une cohérence de la gouvernance des données entre les composants Hadoop. Scénario Dans ce tutoriel, nous découvrirons un scénario dans lequel les données de messagerie sont traitées sur plusieurs clusters HDP 2.2 répartis dans tout le pays avant leur sauvegarde toutes les heures sur un cluster […]

Learn to ingest the real-time data from car sensors with NiFi and send it to Hadoop. Use Apache Kafka for capturing that data in between NiFi and Storm for scalability and reliability. Deploy a storm topology that pulls the data from Kafka and performs complex transformations to combine geolocation data from trucks with sensor data from trucks and roads. Once all sub projects are completed, deploy the driver monitor demo web application to see driver behavior, predictions and drools data in 3 different map visualizations.

Comment optimiser les chances que vos clients en ligne réalisent un achat ? Hadoop facilite l'analyse et modifie le comportement des visiteurs sur votre site Web. Découvrez comment un revendeur en ligne a optimisé les parcours d'achat afin de réduire le taux de rebond et d'améliorer les conversions. HDP peut vous aider à capturer et affiner les données du flux de clics de votre site Web afin de dépasser les objectifs de votre entreprise en matière de commerce électronique. Le tutoriel lié à cette vidéo explique comment affiner les données brutes du flux de clics avec HDP.

La sécurité est parfois menacée. Lorsque des violations de la sécurité se produisent, l'analyse des fichiers journaux serveur vous permet d'identifier la menace afin de mieux vous protéger à l’avenir. Découvrez comment Hadoop révolutionne l'analyse des fichiers journaux serveur en accélérant l'analyse approfondie, en conservant les données de ces journaux pendant une période plus longue et en garantissant la conformité avec les stratégies informatiques. Le tutoriel lié à cette vidéo explique comment affiner les données brutes des fichiers journaux serveur avec HDP.

Avec Hadoop, vous pouvez exploiter des conversations sur Twitter, Facebook et d'autres médias sociaux pour analyser l'opinion des clients concernant votre entreprise et vos concurrents. Prenez des décisions en temps réel plus ciblées grâce à un plus grand nombre de Big Data sociales. Le tutoriel lié à cette vidéo explique comment affiner les données brutes de Twitter avec HDP.

Les machines savent des choses : des données que les capteurs transmettent en continu à bas coût. Hadoop vous permet de stocker et d'affiner facilement ces données, et d'identifier les tendances significatives en vous fournissant les informations nécessaires pour prendre des décisions métiers proactives grâce à l'analyse prédictive. Découvrez comment Hadoop peut être utilisé pour analyser les données des systèmes de chauffage, ventilation et climatisation en vue de maintenir des températures idéales dans vos locaux et réduire les coûts

RADAR est une solution logicielle pour les commerçants conçue à l'aide des outils ITC Handy (NLP et le moteur d'analyse des sentiments) et de la technologie Hadoop, notamment …

Introduction H2O est la solution in-memory Open Source signée 0xdata pour l'analyse prédictive sur les Big Data. Ce moteur mathématique et d'apprentissage automatique apporte distribution et parallélisme aux puissants algorithmes qui vous permettent de faire de meilleures prévisions et de créer des modèles plus précis plus rapidement. Dotée d'API répandues comme R et JSON, ainsi que d'une […]

Administration Hadoop

Prise en main de l'administration Hadoop. Ces tutoriels ont été conçus pour faciliter votre prise en main de la gestion de Hadoop :

Hortonworks Sandbox

The Hortonworks Sandbox is delivered as a Dockerized container with the most common ports already opened and forwarded for you. If you would like to open even more ports, check out this tutorial.

Welcome to the Hortonworks Sandbox! Look at the attached sections for sandbox documentation.

The Hortonworks Sandbox can be installed in a myriad of virtualization platforms, including VirtualBox, Docker, VMWare and Azure.

Exploitation

Introduction The Azure cloud infrastructure has become a common place for users to deploy virtual machines on the cloud due to its flexibility, ease of deployment, and cost benefits. Microsoft has expanded Azure to include a marketplace with thousands of certified, open source, and community software applications and developer services, pre-configured for Microsoft Azure. This […]

Introduction The Hortonworks Sandbox running on Azure requires opening ports a bit differently than when the sandbox is running locally on Virtualbox or Docker. We’ll walk through how to open a port in Azure so that outside connections make their way into the sandbox, which is a Docker container inside an Azure virtual machine. Note: […]

Introduction Apache Falcon est un framework dont l'objectif est de simplifier la gestion et le traitement des pipelines de données sur des clusters Hadoop. Il est ainsi beaucoup plus facile d'intégrer de nouveaux workflows/pipelines, avec l'appui de politiques de gestion et de relance des données récentes. Cette solution vous permet de définir facilement les relations entre des données et divers éléments de traitement. Elle s'intègre de plus facilement avec le metastore/catalogue tel que Hive/HCatalog. Finalement, […]

Introduction Apache Falcon est un framework dont l'objectif est de simplifier la gestion et le traitement des pipelines de données sur des clusters Hadoop. Il fournit des services de gestion des données tels que la rétention, les réplications entre les clusters, l'archivage, etc. Il est ainsi beaucoup plus facile d'intégrer de nouveaux workflows/pipelines, avec l'appui de politiques de gestion et de relance des données récentes. Il vous permet de définir facilement les relations entre […]

Introduction In this tutorial, we will explore how to quickly and easily deploy Apache Hadoop with Apache Ambari. We will spin up our own VM with Vagrant and Apache Ambari. Vagrant is very popular with developers as it lets one mirror the production environment in a VM while staying with all the IDEs and tools in the comfort […]

Introduction Apache Falcon est un framework dont l'objectif est de simplifier la gestion et le traitement des pipelines de données sur des clusters Hadoop. Il est ainsi beaucoup plus facile d'intégrer de nouveaux workflows/pipelines, avec l'appui de politiques de gestion et de relance des données récentes. Cette solution vous permet de définir facilement les relations entre des données et divers éléments de traitement. Elle s'intègre de plus facilement avec le metastore/catalogue tel que Hive/HCatalog. Finalement, […]

Introduction In this tutorial we are going to explore how we can configure YARN Capacity Scheduler from Ambari. YARN’s Capacity Scheduler is designed to run Hadoop applications in a shared, multi-tenant cluster while maximizing the throughput and the utilization of the cluster. Traditionally each organization has it own private set of compute resources that have […]

Apache Hadoop clusters grow and change with use. Maybe you used Apache Ambari to build your initial cluster with a base set of Hadoop services targeting known use cases and now you want to add other services for new use cases. Or you may just need to expand the storage and processing capacity of the […]

In this tutorial, we will walk through many of the common of the basic Hadoop Distributed File System (HDFS) commands you will need to manage files on HDFS. The particular datasets we will utilize to learn HDFS file management are San Francisco salaries from 2011-2014.

Il y a plusieurs mois déjà, nous avons introduit la possibilité de créer des snapshots pour protéger d'importants ensembles de données d'entreprise contre les erreurs générées par les utilisateurs ou les applications. Les snapshots HDFS sont des copies en lecture seule du système de fichiers à un point unique dans le temps. Les snapshots peuvent être pris sur une sous-arborescence du système de fichiers ou sur l'intégralité du système de fichiers. Ils sont aussi : Performants et fiables : la création de snapshots est atomique et […]

Ce tutoriel décrit comment installer et configurer le pilote ODBC Hortonworks sous Windows 7.

Real World Examples

Introduction This tutorial is aimed for users who do not have much experience in using the Sandbox. We will install and explore the Sandbox on virtual machine and cloud environments. We will also navigate the Ambari user interface. Let’s begin our Hadoop journey. Prerequisites Downloaded and Installed Hortonworks Sandbox Allow yourself around one hour to […]

Sécurité

Dans ce tutoriel, nous verrons comment utiliser des règles dans HDP Advanced Security pour protéger le Data Lake de votre entreprise et vérifier l'accès des utilisateurs aux ressources sur HDFS, Hive et HBase à partir d'une console d'administration centralisée pour la sécurité HDP.

Introduction Apache Ranger permet une approche globale de la sécurité pour les clusters Hadoop. Cette solution fournit une administration centralisée des politiques de sécurité sur l'ensemble des principaux critères de sécurité de l'entreprise en matière d'autorisation, de comptabilité et de protection des données. Apache Ranger étend déjà les fonctionnalités de base pour la coordination en temps réel des mesures d'application entre les charges de travail Hadoop ou à partir d'un lot et de requêtes SQL interactives dans Hadoop. Dans ce tutoriel, […]

Introduction Hortonworks has recently announced the integration of Apache Atlas and Apache Ranger, and introduced the concept of tag or classification based policies. Enterprises can classify data in Apache Atlas and use the classification to build security policies in Apache Ranger. This tutorial walks through an example of tagging data in Atlas and building a […]

Protegrity Avatar™ pour Hortonworks® étend les capacités de la sécurité native HDP avec Protegrity Vaultless Tokenization (PVT), Extended HDFS Encryption et Protegrity Enterprise Security Administrator pour fournir des fonctions avancées aux politiques de protection des données, de gestion des clés et d'audit. Dans le tutoriel et l'extension Protegrity Avatar pour Hortonworks Sandbox, vous découvrirez comment protéger ou non des données au niveau des champs à l'aide d'une tokenisation basée sur des règles […]

The hosted Hortonworks Sandbox from Bit Refinery provides an easy way to experience and learn Hadoop with ease. All the tutorials available from HDP work just as if you were running a localized version of the Sandbox. Here is how our “flavor” of Hadoop interacts with the Hortonworks platform: alt text Our new tutorial will […]

Introduction Hortonworks introduced Apache Atlas as part of the Data Governance Initiative, and has continued to deliver on the vision for open source solution for centralized metadata store, data classification, data lifecycle management and centralized security. Atlas is now offering, as a tech preview, cross component lineage functionality, delivering a complete view of data movement […]

Introduction In this tutorial we will walk through the process of Configuring Apache Knox and LDAP services on HDP Sandbox Run a MapReduce Program using Apache Knox Gateway Server Prerequisites Download Hortonworks 2.5 Sandbox. Complete the Learning the Ropes of the Hortonworks Sandbox tutorial, you will need it for logging into Ambari. Outline Concepts 1: […]

Introduction HDP 2.5 ships with Apache Knox 0.6.0. This release of Apache Knox supports WebHDFS, WebHCAT, Oozie, Hive, and HBase REST APIs. Apache Hive is a popular component used for SQL access to Hadoop, and the Hive Server 2 with Thrift supports JDBC access over HTTP. The following steps show the configuration to enable a […]

La sécurisation de vos systèmes vous oblige à mettre en œuvre plusieurs couches de protection.  Les listes de contrôle d'accès (ACL) sont généralement appliquées à des données pour restreindre l'accès aux données à des entités autorisées. L'application de listes de contrôle d'accès à chaque couche d'accès aux données est essentielle pour garantir la sécurité d'un système. Les couches Hadoop sont représentées dans ce schéma et dans cet […]

Gestion et sécurité

Introduction Hortonworks has recently announced the integration of Apache Atlas and Apache Ranger, and introduced the concept of tag or classification based policies. Enterprises can classify data in Apache Atlas and use the classification to build security policies in Apache Ranger. This tutorial walks through an example of tagging data in Atlas and building a […]

Introduction Hortonworks introduced Apache Atlas as part of the Data Governance Initiative, and has continued to deliver on the vision for open source solution for centralized metadata store, data classification, data lifecycle management and centralized security. Atlas is now offering, as a tech preview, cross component lineage functionality, delivering a complete view of data movement […]

Hadoop pour les scientifiques et les analystes des données

Prise en main de l'analyse des données sur Hadoop. Ces tutoriels ont été conçus pour vous aider à tirer le meilleur parti de vos données avec Hadoop :

De nos partenaires

Introduction JReport est un outil intégré de production de rapports décisionnels pouvant facilement extraire et visualiser des données à partir de Hortonworks Data Platform 2.3 à l'aide du pilote JDBC Apache Hive. Vous pouvez ensuite créer des rapports, des tableaux de bord et des analyses de données, qui peuvent être intégrés à vos propres applications. Dans ce tutoriel, nous allons parcourir les étapes suivantes pour […]

Pivotal HAWQ offre une solide prise en charge des requêtes SQL d'analyse à faible temps de latence, associée à d'énormes capacités parallèles d'apprentissage automatique sur Hortonworks Data Platform (HDP). HAWQ est le meilleur moteur SQL sur Hadoop au monde. Il offre l'une des syntaxes SQL les plus avancées assortie d'une riche bibliothèque de données appelée MADlib qui répond aux requêtes en seulement quelques millisecondes. HAWQ permet une analyse basée sur la découverte d'importants […]

Introduction to Data Analysis with Hadoop

Introduction Hadoop has always been associated with BigData, yet the perception is it’s only suitable for high latency, high throughput queries. With the contribution of the community, you can use Hadoop interactively for data exploration and visualization. In this tutorial you’ll learn how to analyze large datasets using Apache Hive LLAP on Amazon Web Services […]

Introduction R is a popular tool for statistics and data analysis. It has rich visualization capabilities and a large collection of libraries that have been developed and maintained by the R developer community. One drawback to R is that it’s designed to run on in-memory data, which makes it unsuitable for large datasets. Spark is […]

This Hadoop tutorial shows how to Process Data with Hive using a set of driver data statistics.

This Hadoop tutorial shows how to Process Data with Apache Pig using a set of driver data statistics.

How to use Apache Tez and Apache Hive for Interactive Query with Hadoop and Hortonworks Data Platform 2.5

Ce tutoriel décrit comment installer et configurer le pilote ODBC Hortonworks sous Windows 7.

Ce tutoriel Hadoop vous permettra d'acquérir une connaissance utile de Pig et une expérience pratique sur la création de scripts Pig pour effectuer des opérations et des tâches de données essentielles.

This Hadoop tutorial shows how to use HCatalog, Pig and Hive to load and process data using a driver data statistics.

Learn how to visualize data using Microsoft BI and HDP with 10 years of raw stock ticker data from NYSE.

Dans ce tutoriel, vous apprendrez à connecter le Sandbox à Talend pour créer rapidement des données de test pour votre environnement Hadoop.

Dans ce tutoriel, l'utilisateur découvrira Revolution R Enterprise et comment celui-ci s'intègre à Hortonworks Sandbox. Un fichier de données sera extrait du Sandbox à l'aide d'ODBC, avant d'être analysé à l'aide de fonctions R intégrées à Revolution R Enterprise.

Introduction Bienvenue dans le tutoriel QlikView (Business Discovery Tools) développé par Qlik™. Ce tutoriel a été conçu pour vous aider à vous connecter à QlikView en quelques minutes, à accéder à des données provenant de Hortonworks Sandbox ou Hortonworks Data Platform (HDP). QlikView vous permettra d'effectuer immédiatement des analyses personnalisées et d'obtenir des informations à partir des données résidant dans le Sandbox […]

Real World Examples

This tutorial will cover the core concepts of Storm and the role it plays in an environment where real-time, low-latency and distributed data processing is important.

Comment optimiser les chances que vos clients en ligne réalisent un achat ? Hadoop facilite l'analyse et modifie le comportement des visiteurs sur votre site Web. Découvrez comment un revendeur en ligne a optimisé les parcours d'achat afin de réduire le taux de rebond et d'améliorer les conversions. HDP peut vous aider à capturer et affiner les données du flux de clics de votre site Web afin de dépasser les objectifs de votre entreprise en matière de commerce électronique. Le tutoriel lié à cette vidéo explique comment affiner les données brutes du flux de clics avec HDP.

La sécurité est parfois menacée. Lorsque des violations de la sécurité se produisent, l'analyse des fichiers journaux serveur vous permet d'identifier la menace afin de mieux vous protéger à l’avenir. Découvrez comment Hadoop révolutionne l'analyse des fichiers journaux serveur en accélérant l'analyse approfondie, en conservant les données de ces journaux pendant une période plus longue et en garantissant la conformité avec les stratégies informatiques. Le tutoriel lié à cette vidéo explique comment affiner les données brutes des fichiers journaux serveur avec HDP.

Avec Hadoop, vous pouvez exploiter des conversations sur Twitter, Facebook et d'autres médias sociaux pour analyser l'opinion des clients concernant votre entreprise et vos concurrents. Prenez des décisions en temps réel plus ciblées grâce à un plus grand nombre de Big Data sociales. Le tutoriel lié à cette vidéo explique comment affiner les données brutes de Twitter avec HDP.

Les machines savent des choses : des données que les capteurs transmettent en continu à bas coût. Hadoop vous permet de stocker et d'affiner facilement ces données, et d'identifier les tendances significatives en vous fournissant les informations nécessaires pour prendre des décisions métiers proactives grâce à l'analyse prédictive. Découvrez comment Hadoop peut être utilisé pour analyser les données des systèmes de chauffage, ventilation et climatisation en vue de maintenir des températures idéales dans vos locaux et réduire les coûts

RADAR est une solution logicielle pour les commerçants conçue à l'aide des outils ITC Handy (NLP et le moteur d'analyse des sentiments) et de la technologie Hadoop, notamment …

Introduction H2O est la solution in-memory Open Source signée 0xdata pour l'analyse prédictive sur les Big Data. Ce moteur mathématique et d'apprentissage automatique apporte distribution et parallélisme aux puissants algorithmes qui vous permettent de faire de meilleures prévisions et de créer des modèles plus précis plus rapidement. Dotée d'API répandues comme R et JSON, ainsi que d'une […]

Guides d'intégration des partenaires

Ces tutoriels illustrent les principaux points d'intégration avec les applications partenaires.

Dans ce tutoriel, vous allez découvrir comment obtenir une vue à 360° des clients d'une entreprise de distribution à l'aide de Datameer Playground, qui a été conçu sur Hortonworks Sandbox.

Dans ce tutoriel, vous apprendrez comment exécuter ETL et créer des tâches MapReduce dans Hortonworks Sandbox.

Dans ce tutoriel, vous apprendrez à connecter le Sandbox à Talend pour créer rapidement des données de test pour votre environnement Hadoop.

Apprenez à utiliser des schémas Cascading pour migrer rapidement des modèles prédictifs (PMML) à partir de SAS, R et MicroStrategy vers Hadoop et les déployer à grande échelle.

Apprenez à configurer BIRT (Business Intelligence and Reporting Tools) pour accéder à des données provenant de Hortonworks Sandbox. BIRT est utilisé par plus de 2,5 millions de développeurs qui souhaitent accéder rapidement à des informations et à des données d'analyse dans des applications Java / J2EE

Connectez Hortonworks Sandbox Version 2.0 avec Hortonworks Data Platform 2.0 à Hunk™ : Splunk Analytics pour Hadoop. Hunk offre une plateforme intégrée pour explorer, analyser et visualiser rapidement des données qui résident en natif dans Hadoop

Découvrez comment configurer le portefeuille de produits SAP (SQL Anywhere, Sybase IQ, BusinessObjects BI, HANA et Lumira) avec Hortonworks Sandbox pour exploiter les Big Data au rythme de l'entreprise.

MicroStrategy utilise Apache Hive (via une connexion ODBC) comme la norme de facto pour l'accès SQL dans Hadoop. L'établissement d'une connexion à partir de MicroStrategy vers Hadoop et Hortonworks Sandbox est illustré ici

Dans ce tutoriel, l'utilisateur découvrira Revolution R Enterprise et comment celui-ci s'intègre à Hortonworks Sandbox. Un fichier de données sera extrait du Sandbox à l'aide d'ODBC, avant d'être analysé à l'aide de fonctions R intégrées à Revolution R Enterprise.

Learn how to visualize data using Microsoft BI and HDP with 10 years of raw stock ticker data from NYSE.

Introduction Bienvenue dans le tutoriel QlikView (Business Discovery Tools) développé par Qlik™. Ce tutoriel a été conçu pour vous aider à vous connecter à QlikView en quelques minutes, à accéder à des données provenant de Hortonworks Sandbox ou Hortonworks Data Platform (HDP). QlikView vous permettra d'effectuer immédiatement des analyses personnalisées et d'obtenir des informations à partir des données résidant dans le Sandbox […]

how to get started with Cascading and Hortonworks Data Platform using the Word Count Example.

Introduction H2O est la solution in-memory Open Source signée 0xdata pour l'analyse prédictive sur les Big Data. Ce moteur mathématique et d'apprentissage automatique apporte distribution et parallélisme aux puissants algorithmes qui vous permettent de faire de meilleures prévisions et de créer des modèles plus précis plus rapidement. Dotée d'API répandues comme R et JSON, ainsi que d'une […]

RADAR est une solution logicielle pour les commerçants conçue à l'aide des outils ITC Handy (NLP et le moteur d'analyse des sentiments) et de la technologie Hadoop, notamment …

Dans ce tutoriel, nous allons découvrir comment charger et analyser des données de graphiques avec Sqrrl et HDP. Sqrrl vient d'annoncer la disponibilité de sa dernière machine virtuelle d'évaluation de Sqrrl (Sqrrl Test Drive VM) en partenariat avec Hortonworks Sandbox exécutant HDP 2.1 ! Celle-ci constitue pour les utilisateurs un moyen simple pour essayer les fonctionnalités de Sqrrl sans avoir à […]

This use case is the sentiment analysis and sales analysis with Hadoop and MySQL. It uses one Hortonworks Data Platform VM for the twitter sentiment data and one MySQL database for the sales
data.

Protegrity Avatar™ pour Hortonworks® étend les capacités de la sécurité native HDP avec Protegrity Vaultless Tokenization (PVT), Extended HDFS Encryption et Protegrity Enterprise Security Administrator pour fournir des fonctions avancées aux politiques de protection des données, de gestion des clés et d'audit. Dans le tutoriel et l'extension Protegrity Avatar pour Hortonworks Sandbox, vous découvrirez comment protéger ou non des données au niveau des champs à l'aide d'une tokenisation basée sur des règles […]

Download the turn-key Waterline Data Sandbox preloaded with HDP, Waterline Data Inventory and sample data with tutorials in one package. Waterline Data Inventory enables users of Hadoop to find, understand, and govern data in their data lake. How do you get the Waterline Data advantage? It’s a combination of automated profiling and metadata discovery, and […]

The hosted Hortonworks Sandbox from Bit Refinery provides an easy way to experience and learn Hadoop with ease. All the tutorials available from HDP work just as if you were running a localized version of the Sandbox. Here is how our “flavor” of Hadoop interacts with the Hortonworks platform: alt text Our new tutorial will […]

Hadoop is fast emerging as a mainstay in enterprise data architectures. To meet the increasing demands of business owners and resource constraints, IT teams are challenged to provide an enterprise grade cluster that can be consistently and reliably deployed. The complexities of the varied Hadoop services and their requirements make it more onerous and time […]