Big data - stocker et manipuler les données volumineuses - prise en main de Hadoop

Date

Big data - stocker et manipuler les données volumineuses - prise en main de Hadoop

Catégorie

  • Gestion des data
Prix HT :
1 450,00 € / Par personne
Durée en heures :
Non renseigné
Localisation :
75009
PARIS 09
France
Niveau de la formation :
Débutant
Diplôme requis :
Bac
Éligible au CIF :
Non
Éligible au CPF :
Non
Formation diplômante :
Non
Type de formation :
Inter-Entreprise
Organisation :
Groupe et individuel
Places disponibles :
Non renseigné
Type de public visé :
Tout public

Introduction :

  • Se repérer dans les outils du big data à travers la suite Hadoop
  • Pratiquer les différents outils à travers des cas concret

 

Apports théoriques et méthodologies  50 %
Etudes de cas et retours d’expériences. 50 %

Objectifs :

Le Big data fait appel à de nombreuses technologies. Ce stage vous permettra d’entrer concrètement dans les outils pour mieux appréhender les possibilités offertes dans la manipulation de données volumineuses.

Détails du programme :

La boite à outils technologique du Big Data

 

  • Les différentes formes de stockage des données : rappel de l’architecture relationnelle de stockage des données transactionnelles (SGBD/R) et multidimensionnelles (OLAP)
  • Prise en main d’une base de données OLAP

 

Les nouvelles formes de stockage des données - compréhension, positionnement et comparaison :

 

  • Bases NoSQL, Hadoop, Spark, Bases de données graph…
  • Prise en main des bases de données graph (Neo4j)
  • Panorama des bases de données NoSQL

 

L’écosystème Hadoop

 

  • Présentation des principaux modules de la distribution Apache Hadoop
  • Présentation et comparaison des principales distributions commerciales (Cloudera, Hortonworks…)

 

L’infrastructure matérielle et logicielle nécessaire au fonctionnement de Hadoop

 

  • Serveur local ou cloud
  • Installation d’une machine virtuelle et d’une distribution Hadoop
  • Les concepts de base de l’architecture Hadoop: Data Node, Name Node, Job Tracker, Task Tracker

 

Présentation de HDFS (Système de gestion des fichiers de Hadoop)

 

  • Prise en main et exercices pratiques dans HDFS

 

Présentation de MapReduce (Outil de traitement de Hadoop)

 

  • Les commandes exécutées au travers de PIG
  • Utilisation de HIVE pour transformer du SQL en MapReduce

 

Analyser et comprendre la signification des données extraites Machine Learning et analyse prédictive : notions de base

Atelier pratique de construction d’une architecture technique au travers d’un cas utilisateur

Prérequis :

Avoir une bonne compréhension des technologies du web.

 

Public concerné :

Toute personne souhaitant comprendre l’environnement technologique du big data

Commentaires

Il n'y a aucun commentaire pour cette formation.