Formation AWS Cloud9 for Data Science
AWS Cloud9 offre un environnement robuste pour la science des données, permettant aux utilisateurs de construire, tester et déployer des modèles de données à l'aide d'outils basés sur le cloud. Ce cours guide les participants dans la mise en place et la gestion d'un environnement de science des données dans AWS Cloud9, en mettant l'accent sur l'intégration avec les services AWS pour le stockage des données, le traitement et l'apprentissage automatique.
Cette formation en direct avec instructeur (en ligne ou sur site) s'adresse aux data scientists et analystes de niveau intermédiaire qui souhaitent utiliser AWS Cloud9 pour rationaliser les flux de travail de la science des données.
À l'issue de cette formation, les participants seront en mesure de :
- Configurer un environnement de science des données dans AWS Cloud9.
- Effectuer des analyses de données à l'aide de Python, R et Jupyter Notebook dans Cloud9.
- Intégrer AWS Cloud9 avec les services de données AWS comme S3, RDS et Redshift.
- Utiliser AWS Cloud9 pour le développement et le déploiement de modèles d'apprentissage automatique.
- Optimiser les flux de travail basés sur le cloud pour l'analyse et le traitement des données.
Format du cours permettant d'évaluer les participants
- Exposé et discussion interactifs.
- Beaucoup d'exercices et de pratique.
- Mise en œuvre pratique dans un environnement live-lab.
Options de personnalisation du cours
- Pour demander une formation personnalisée pour ce cours, veuillez nous contacter.
Plan du cours
Introduction à AWS Cloud9 pour Data Science
- Présentation des fonctionnalités d'AWS Cloud9 pour la science des données
- Configuration d'un environnement de science des données dans AWS Cloud9
- Configuration de Cloud9 pour Python, R et Jupyter Notebook
Ingestion et préparation des données
- Importation et nettoyage de données à partir de différentes sources
- Utilisation d'AWS S3 pour le stockage et l'accès aux données
- Prétraitement des données pour l'analyse et la modélisation
Analyse des données à l'aide de Data Analysis dans AWS Cloud9
- Analyse exploratoire des données à l'aide de Python et de R
- Travailler avec Pandas, NumPy et des bibliothèques de visualisation de données
- Analyse statistique et tests d'hypothèses dans Cloud9
Machine Learning Développement de modèles
- Construction de modèles d'apprentissage automatique à l'aide de Scikit-learn et TensorFlow.
- Entraînement et évaluation des modèles dans AWS Cloud9
- Utilisation de SageMaker avec Cloud9 pour le développement de modèles à grande échelle
Database Intégration et Management
- Intégration d'AWS RDS et Redshift avec AWS Cloud9
- Interroger de grands ensembles de données avec SQL et Python
- Traitement des big data avec les services AWS
Déploiement et optimisation de modèles
- Déployer des modèles d'apprentissage automatique à l'aide de AWS Lambda
- Utilisation d'AWS CloudFormation pour automatiser le déploiement
- Optimisation des pipelines de données pour la performance et la rentabilité
Développement collaboratif et sécurité
- Collaborer à des projets de science des données dans Cloud9
- Utiliser Git pour le contrôle des versions et la gestion de projet
- Meilleures pratiques de sécurité pour les données et les modèles dans AWS Cloud9
Résumé et prochaines étapes
Pré requis
- Compréhension de base des concepts de la science des données
- Familiarité avec la programmation Python.
- Expérience des environnements en nuage et des services AWS
Audience
- Scientifiques des données
- Analystes de données
- Ingénieurs en apprentissage automatique
Les formations ouvertes requièrent plus de 3 participants.
Formation AWS Cloud9 for Data Science - Booking
Formation AWS Cloud9 for Data Science - Enquiry
AWS Cloud9 for Data Science - Demande d'informations consulting
Demande d'informations consulting
Nos clients témoignent (3)
Tout est bon, rien à améliorer
Ievgen Vinchyk - GE Medical Systems Polska Sp. Z O.O.
Formation - AWS Lambda for Developers
Traduction automatique
Applications IoT
Palaniswamy Suresh Kumar - Makers' Academy
Formation - Industrial Training IoT (Internet of Things) with Raspberry PI and AWS IoT Core 「4 Hours Remote」
Traduction automatique
Présentation du sujet connaissances horaire
Aly Saleh - FAB banak Egypt
Formation - Introduction to Data Science and AI (using Python)
Traduction automatique
Cours à venir
Cours Similaires
Advanced Amazon Web Services (AWS) CloudFormation
7 HeuresCette formation en direct avec instructeur en France (en ligne ou sur site) s'adresse aux ingénieurs et développeurs cloud qui souhaitent utiliser CloudFormation pour gérer les ressources d'infrastructure au sein de l'écosystème AWS.
A l'issue de cette formation, les participants seront en mesure de :
- Mettre en œuvre des modèles CloudFormation pour automatiser la gestion de l'infrastructure.
- Intégrer les ressources AWS existantes dans CloudFormation.
- Utiliser les StackSets pour gérer les piles à travers plusieurs comptes et régions.
Introduction to Data Science and AI using Python
35 HeuresIl s'agit d'une introduction de 5 jours à Data Science et à l'IA.
Le cours est livré avec des exemples et des exercices utilisant Python
Anaconda Ecosystem for Data Scientists
14 HeuresCette formation en direct avec instructeur en France (en ligne ou sur site) s'adresse aux data scientists qui souhaitent utiliser l'écosystème Anaconda pour capturer, gérer et déployer des packages et des workflows d'analyse de données dans une plateforme unique.
A la fin de cette formation, les participants seront capables de :
- Installer et configurer les composants et les bibliothèques Anaconda.
- Comprendre les concepts de base, les fonctionnalités et les avantages de Anaconda.
- Gérer les paquets, les environnements et les canaux à l'aide du Anaconda Navigator.
- Utiliser Conda, R et les paquets Python pour la science des données et l'apprentissage automatique.
- Connaître des cas d'utilisation pratiques et des techniques pour gérer des environnements de données multiples.
Amazon DynamoDB for Developers
14 HeuresCette formation en direct avec instructeur en France (en ligne ou sur site) est destinée aux développeurs qui souhaitent intégrer une base de données DynamoDB NoSQL dans une application web hébergée sur AWS.
A l'issue de cette formation, les participants seront en mesure de :
- Mettre en place l'environnement de développement nécessaire pour commencer à intégrer des données dans DynamoDB.
- Intégrer DynamoDB dans des applications web et des applications mobiles.
- Déplacer des données dans AWS avec les services AWS.
- Mettre en œuvre des opérations avec AWS DAX.
AWS IoT Core
14 HeuresCette formation en direct avec instructeur en France (sur site ou à distance) est destinée aux ingénieurs qui souhaitent déployer et gérer des appareils IoT sur AWS.
À la fin de cette formation, les participants seront en mesure de construire une plateforme IoT qui comprend le déploiement et la gestion d'un backend, d'une passerelle et d'appareils sur AWS.
Amazon Web Services (AWS) IoT Greengrass
21 HeuresCette formation en direct avec instructeur à France (en ligne ou sur site) s'adresse aux développeurs qui souhaitent installer, configurer et gérer les capacités de AWS IoT Greengrass afin de créer des applications pour divers appareils.
À l'issue de cette formation, les participants seront en mesure d'utiliser AWS IoT Greengrass pour créer, déployer, gérer, sécuriser et surveiller des applications sur des appareils intelligents.
AWS Lambda for Developers
14 HeuresCette formation en direct avec instructeur dans France (sur site ou à distance) est destinée aux développeurs qui souhaitent utiliser AWS Lambda pour construire et déployer des services et des applications dans le cloud, sans avoir à se soucier du provisionnement de l'environnement d'exécution (serveurs, VM et conteneurs, disponibilité, évolutivité, stockage, etc.)
A l'issue de cette formation, les participants seront capables de :
- Configurer AWS Lambda pour exécuter une fonction.
- Comprendre le FaaS (Functions as a Service) et les avantages du développement sans serveur.
- Construire, télécharger et exécuter des fonctions AWS Lambda.
- Intégrer les fonctions Lambda avec différentes sources d'événements.
- Packager, déployer, surveiller et dépanner les applications basées sur Lambda.
AWS CloudFormation
7 HeuresCette formation en direct (en ligne ou sur site) est destinée aux ingénieurs qui souhaitent utiliser AWS CloudFormation pour automatiser le processus de gestion de l'infrastructure en nuage AWS.
A l'issue de cette formation, les participants seront capables de :
- Activer les services AWS pour commencer à gérer l'infrastructure.
- Comprendre et appliquer le principe de « l’infrastructure en tant que code ».
- Améliorer la qualité et réduire les coûts de déploiement de l'infrastructure.
- Écrire AWS CloudFormation modèles en utilisant YAML.
Mastering DevOps with AWS Cloud9
21 HeuresCette formation en direct avec instructeur à France (en ligne ou sur site) est destinée aux professionnels de niveau avancé qui souhaitent approfondir leur compréhension des pratiques DevOps et rationaliser les processus de développement à l'aide d'AWS Cloud9.
A l'issue de cette formation, les participants seront en mesure de :
- Mettre en place et configurer AWS Cloud9 pour les flux de travail DevOps.
- Mettre en œuvre des pipelines d'intégration continue et de livraison continue (CI/CD).
- Automatiser les processus de test, de surveillance et de déploiement à l'aide d'AWS Cloud9.
- Intégrer les services AWS tels que Lambda, EC2 et S3 dans les flux de travail DevOps.
- Utiliser des systèmes de contrôle des sources comme GitHub ou GitLab dans AWS Cloud9.
Developing Serverless Applications on AWS Cloud9
14 HeuresCette formation en direct avec instructeur à France (en ligne ou sur site) s'adresse aux professionnels de niveau intermédiaire qui souhaitent apprendre à construire, déployer et maintenir efficacement des applications sans serveur sur AWS Cloud9 et AWS Lambda.
À l'issue de cette formation, les participants seront en mesure de :
- Comprendre les fondamentaux de l'architecture serverless.
- Configurer AWS Cloud9 pour le développement d'applications sans serveur.
- Développer, tester et déployer des applications sans serveur à l'aide de AWS Lambda.
- Intégrer AWS Lambda avec d'autres services AWS tels que API Gateway et S3.
- Optimiser les applications sans serveur pour la performance et la rentabilité.
Industrial Training IoT (Internet of Things) with Raspberry PI and AWS IoT Core 「4 Hours Remote」
4 HeuresRésumé :
- Principes de base de l'architecture et des fonctions de l'IdO
- Les "objets", les "capteurs", l'internet et la correspondance entre les fonctions commerciales de l'IdO
- Essentiel de tous les composants logiciels de l'IdO - matériel, micrologiciel, intergiciel, nuage et application mobile
- Fonctions de l'IdO - Gestionnaire de flotte, visualisation des données, FM et DV basés sur SaaS, alerte/alarme, intégration des capteurs, intégration des "choses", géofencing
- Bases de la communication des appareils IoT avec le cloud grâce à MQTT.
- Connexion des appareils IoT à AWS avec MQTT (AWS IoT Core).
- Connexion du noyau AWS IoT avec la fonction AWS Lambda pour le calcul et le stockage des données.
- Connexion de Raspberry PI avec le noyau AWS IoT et communication simple de données.
- Alertes et événements
- Calibration des capteurs
Industrial Training IoT (Internet of Things) with Raspberry PI and AWS IoT Core 「8 Hours Remote」
8 HeuresRésumé :
- Principes de base de l'architecture et des fonctions de l'IdO
- Les "objets", les "capteurs", Internet et la correspondance entre les fonctions commerciales de l'IdO
- Essentiel de tous les composants logiciels de l'IdO - matériel, micrologiciel, intergiciel, nuage et application mobile
- Fonctions de l'IdO - Gestionnaire de flotte, visualisation des données, FM et DV basés sur SaaS, alerte/alarme, intégration des capteurs, intégration des "choses", géofencing
- Bases de la communication des appareils IoT avec le cloud grâce à MQTT.
- Connexion des appareils IoT à AWS avec MQTT (AWS IoT Core).
- Connecter AWS IoT core avec AWS Lambda function pour le calcul et le stockage des données en utilisant DynamoDB.
- Connexion de Raspberry PI avec AWS IoT core et communication simple de données.
- Travaux pratiques avec Raspberry PI et AWS IoT Core pour construire un appareil intelligent.
- Visualisation des données de capteurs et communication avec une interface web.
Kaggle
14 HeuresCette formation en France (en ligne ou sur site) est destinée aux data scientists et aux développeurs qui souhaitent apprendre et développer leur carrière dans Data Science en utilisant Kaggle.
A l'issue de cette formation, les participants seront capables de :
- S'informer sur la science des données et l'apprentissage automatique.
- Explorer l'analyse des données.
- En savoir plus sur Kaggle et son fonctionnement.
Accelerating Python Pandas Workflows with Modin
14 HeuresCette formation en direct avec instructeur dans France (en ligne ou sur site) est destinée aux scientifiques des données et aux développeurs qui souhaitent utiliser Modin pour construire et mettre en œuvre des calculs parallèles avec Pandas afin d'accélérer l'analyse des données.
A la fin de cette formation, les participants seront capables de :
- Mettre en place l'environnement nécessaire pour commencer à développer des flux de travail Pandas à l'échelle avec Modin.
- Comprendre les caractéristiques, l'architecture et les avantages de Modin.
- Connaître les différences entre Modin, Dask et Ray.
- Effectuer des opérations Pandas plus rapidement avec Modin.
- Mettre en œuvre l'ensemble de l'API et des fonctions Pandas.
GPU Data Science with NVIDIA RAPIDS
14 HeuresCette formation en France (en ligne ou sur site) s'adresse aux data scientists et aux développeurs qui souhaitent utiliser RAPIDS pour construire des pipelines de données, des workflows et des visualisations accélérés par GPU, en appliquant des algorithmes d'apprentissage automatique, tels que XGBoost, cuML, etc.
A la fin de cette formation, les participants seront capables de :
- Mettre en place l'environnement de développement nécessaire pour construire des modèles de données avec NVIDIA RAPIDS.
- Comprendre les caractéristiques, les composants et les avantages de RAPIDS.
- Exploiter les GPU pour accélérer les pipelines de données et d'analyse de bout en bout.
- Mettre en œuvre la préparation des données et l'ETL accélérés par GPU avec cuDF et Apache Arrow.
- Apprendre à réaliser des tâches d'apprentissage automatique avec les algorithmes XGBoost et cuML.
- Construire des visualisations de données et exécuter des analyses graphiques avec cuXfilter et cuGraph.