Durée : 5 jours - 35 heures
Tarif : Nous contacter pour une formation INTER – INTRA ou en COURS PARTICULIER
La formation est délivrée en présentiel ou distanciel (e-learning, classe virtuelle, présentiel et à distance). Le formateur alterne entre méthodes démonstrative, interrogative et active (via des travaux pratiques et/ou des mises en situation). La validation des acquis peut se faire via des études de cas, des quiz et/ou une certification.
Cette formation est animée par un consultant-formateur dont les compétences techniques, professionnelles et pédagogiques ont été validées par des diplômes et/ou testées et approuvées par l’éditeur et/ou par Audit Conseil Formation.
Connaissances de base des modèles relationnels, des statistiques et des langages de programmation.
Connaissances de base des concepts de la Business Intelligence.
- Evaluation des besoins et objectifs en pré et post formation
- Evaluation technique des connaissances en pré et post formation
- Evaluation générale du stage
Origines et définition du Big Data.
Les chiffres clés du marché dans le monde et en France.
Les enjeux du Big Data : ROI, organisation, confidentialité des données.
Un exemple d'architecture Big Data.
Description de l'architecture et des composants de la plateforme Hadoop.
Les modes de stockage (NoSQL, HDFS).
Principes de fonctionnement de MapReduce, Spark, Storm...
Principales distributions du marché (Hortonworks, Cloudera, MapR, Elastic Map Reduce, Biginsights).
Installer une plateforme Hadoop.
Les technologies du datascientist.
Présentation des technologies spécifiques pour le Big Data (Tableau, Talend, Qlikview ...).
Principes de fonctionnement de Hadoop Distributed File System (HDFS).
Importer des données externes vers HDFS.
Réaliser des requêtes SQL avec HIVE.
Utiliser PIG pour traiter la donnée.
Le principe des ETL (Talend...).
Gestion de streaming de données massive (NIFI, Kafka, Spark, Storm...)
Machine Learning, une composante de l'intelligence artificielle.
Découvrir les trois familles : Régression, Classification et Clustering.
La préparation des données (data preparation, feature engineering).
Générer des modèles en R ou Python.
Ensemble Learning.
Découvrir les outils du marché : Jupyter Notebook, Dataïku, Amazon Machine Learning...
Définir le besoin de la data visualisation.
Analyse et visualisation des données.
Peut concerner tous les types de données dans la DataViz ?
Les outils DataViz du marché.
Ce qu'il faut retenir.
Synthèse des bonnes pratiques.
Bibliographie.