Catégorie
BI - BIG DATA
Nos formations sont organisées dans des places hotellières prestigieuses comme (MOVENPICK, HYATT REGENCY, BARCELO 5*, HOTEL MOGADOR, SOFITEL TOUR BLANCHE, ONOMO, AMPHITRITE …etc.) pour vous offrir un cadre agréable pour préparer vos certifications et profiter de la gastronomie des chefs ainsi que la belle vue de leurs restaurants.
Aperçu
Durée | 5 jours |
Niveau | Tous les niveaux |
Langue | Français |
Résumé
Cette formation vous permettra de comprendre les enjeux et les apports du Big Data ainsi que les technologies pour le mettre en œuvre. Vous apprendrez à intégrer des volumétries massives de données structurées et non structurées via un ETL, puis à les analyser grâce à des modèles statistiques et des dashboards dynamiques.
Objectifs pédagogiques
Comprendre les concepts et l’apport du Big Data par rapport aux enjeux métiers
Comprendre l’écosystème technologique nécessaire pour réaliser un projet Big Data
Acquérir les compétences techniques pour gérer des flux de données complexes, non structurés et massifs
Implémenter des modèles d’analyses statistiques pour répondre aux besoins métiers
Appréhender un outil de data visualisation pour restituer des analyses dynamiques
Exercice
Mettre en place une plateforme Hadoop et ses composants de base, utiliser un ETL pour gérer les données, créer des modèles d’analyse et dashboards.
Participants
Dataminers, chargés d’études statistiques, développeurs, chefs de projet, consultants en informatique décisionnelle.
Prérequis
Connaissances de base des modèles relationnels, des statistiques et des langages de programmation. Connaissances de base des concepts de la Business Intelligence.
Programme
COMPRENDRE LES CONCEPTS ET LES ENJEUX DU BIG DATA
- Origines et définition du Big Data.
- Les chiffres clés du marché dans le monde et en France.
- Les enjeux du Big Data : ROI, organisation, confidentialité des données.
- Un exemple d’architecture Big Data.
LES TECHNOLOGIES DU BIG DATA
- Description de l’architecture et des composants de la plateforme Hadoop.
- Les modes de stockage (NoSQL, HDFS).
- Principes de fonctionnement de MapReduce, Spark, Storm…
- Principales distributions du marché (Hortonworks, Cloudera, MapR, Elastic Map Reduce, Biginsights).
- Installer une plateforme Hadoop.
- Les technologies du datascientist.
- Présentation des technologies spécifiques pour le Big Data (Tableau, Talend, Qlikview …).
- Exercice : Installation d’une plateforme Big Data Hadoop (via Cloudera QuickStart ou autre).
GÉRER LES DONNÉES STRUCTURÉES ET NON STRUCTURÉES
- Principes de fonctionnement de Hadoop Distributed File System (HDFS).
- Importer des données externes vers HDFS.
- Réaliser des requêtes SQL avec HIVE.
- Utiliser PIG pour traiter la donnée.
- Le principe des ETL (Talend…).
- Gestion de streaming de données massive (NIFI, Kafka, Spark, Storm…)
- Exercice : Implémentation de flux de données massives.
TECHNIQUE ET MÉTHODES BIG DATA ANALYTICS
- Machine Learning, une composante de l’intelligence artificielle.
- Découvrir les trois familles : Régression, Classification et Clustering.
- La préparation des données (data preparation, feature engineering).
- Générer des modèles en R ou Python.
- Ensemble Learning.
- Découvrir les outils du marché : Jupyter Notebook, Dataïku, Amazon Machine Learning…
- Exercice : Mise en place d’analyses avec une des outils étudiés.
DATA VISUALISATION ET CAS D'USAGE CONCRETS
- Définir le besoin de la data visualisation.
- Analyse et visualisation des données.
- Peut concerner tous les types de données dans la DataViz ?
- Les outils DataViz du marché.
- Exercice : Installation et utilisation d’un outil de Data Visualisation pour constituer des analyses dynamiques.
Partagez :