Formation Spark Streaming with Python and Kafka
[Le streaming est un système de traitement de flux évolutif et open source qui permet aux utilisateurs de traiter des données en temps réel à partir de sources prises en charge. Le Streaming Spark Streaming permet un traitement tolérant aux pannes des flux de données.
Cette formation en direct (en ligne ou sur site) est destinée aux ingénieurs de données, aux scientifiques des données et aux programmeurs qui souhaitent utiliser les fonctionnalités de Spark Streaming pour traiter et analyser des données en temps réel.
A la fin de cette formation, les participants seront capables d'utiliser Spark Streaming pour traiter des flux de données en temps réel pour une utilisation dans des bases de données, des systèmes de fichiers et des tableaux de bord en temps réel.
Format du cours permettant d'évaluer les participants
- Exposé et discussion interactifs.
- Beaucoup d'exercices et de pratique.
- Mise en œuvre pratique dans un environnement live-lab.
Options de personnalisation du cours
- Pour demander une formation personnalisée pour ce cours, veuillez nous contacter.
Plan du cours
Introduction
Aperçu des fonctionnalités et de l'architecture de Spark Streaming
- Sources de données prises en charge
- API de base
Préparation de l'environnement
- Dépendances
- Contexte Spark et streaming
- Connexion à Kafka
Traitement des messages
- Analyse des messages entrants en JSON
- Processus ETL
- Démarrer le contexte de streaming
Exécution d'un Windowed Stream Processing
- Intervalle entre les diapositives
- Configuration de la livraison des points de contrôle
- Lancement de l'environnement
Prototypage du code de traitement
- Connexion à un sujet Kafka
- Récupération de JSON à partir d'une source de données à l'aide de Paw
- Variations et traitements supplémentaires
Streaming du code
- Variables de contrôle des tâches
- Définir les valeurs à faire correspondre
- Fonctions et conditions
Acquisition de la sortie du flux
- Compteurs
- Sortie Kafka (avec ou sans correspondance)
Résolution des problèmes
Résumé et conclusion
Pré requis
- Expérience avec Python et Apache Kafka
- Familiarité avec les plateformes de traitement de flux
Audience
- Ingénieurs en données
- Scientifiques des données
- Programmeurs
Les formations ouvertes requièrent plus de 3 participants.
Formation Spark Streaming with Python and Kafka - Booking
Formation Spark Streaming with Python and Kafka - Enquiry
Spark Streaming with Python and Kafka - Demande d'informations consulting
Demande d'informations consulting
Nos clients témoignent (5)
Engagement avec le formateur Un certain nombre d'exercices et de laboratoires pertinents Examens pratiques
Salim - SICPA SA
Formation - Administration of Kafka Message Queue
Traduction automatique
l'approche interactive de l'enseignant, qui ne se contente pas d'un récit direct, mais répond aux questions de l'auditoire.
Rens - Canon Medical Informatics Europe B.V.
Formation - Administration of Kafka Topic
Traduction automatique
Les laboratoires et les diapositives se combinent bien avec les connaissances et l'amour de Jorge pour Kafka.
Willem - BMW SA
Formation - Apache Kafka for Developers
Traduction automatique
Une pratique suffisante, le formateur est compétent
Chris Tan
Formation - A Practical Introduction to Stream Processing
Traduction automatique
Excellentes compétences, exemples, très bons exercices
Marek Konieczny - G2A.COM Limited
Formation - Kafka for Administrators
Traduction automatique
Cours à venir
Cours Similaires
Apache Kafka Connect
7 HeuresCette formation en direct (en ligne ou sur site) s'adresse aux développeurs qui souhaitent intégrer Apache Kafka aux bases de données et applications existantes à des fins de traitement, d'analyse, etc.
A l'issue de cette formation, les participants seront capables de :
- Utiliser Kafka Connect pour ingérer de grandes quantités de données d'une base de données vers des topics Kafka.
- Ingérer les données de journal générées par des serveurs d'applications dans des topics Kafka.
- Make toute donnée collectée disponible pour le traitement en flux.
- Exporter des données à partir des topics Kafka vers des systèmes secondaires pour le stockage et l'analyse.
Building Kafka Solutions with Confluent
14 HeuresCette formation en direct, animée par un instructeur (sur site ou à distance), est destinée aux ingénieurs souhaitant utiliser Confluent (une distribution de Kafka) pour créer et gérer une plate-forme de traitement de données en temps réel pour leurs applications.
À la fin de cette formation, les participants seront en mesure de:
- Installer et configurer le Confluent Platform.
- Utiliser les outils et services de gestion de Confluent pour exécuter Kafka plus facilement.
- Stockez et traitez les données de flux entrantes.
- Optimisez et gérez des clusters Kafka.
- Sécurisez les flux de données.
Format du cours permettant d'évaluer les participants
- Cours interactif et discussion.
- Beaucoup d'exercices et de pratique.
- Mise en œuvre pratique dans un environnement de laboratoire en direct.
Options de personnalisation du cours
- Ce cours est basé sur la version open source de Confluent : Confluent Open Source.
- Pour demander une formation personnalisée pour ce cours, veuillez nous contacter pour en faire la demande.
Building Data Pipelines with Apache Kafka
7 HeuresApache Kafka est une plate-forme de diffusion distribuée. C'est un standard de facto pour la construction de pipelines de données qui résout de nombreux cas d'utilisation liés au traitement de données: il peut être utilisé comme une file d'attente de messages, un journal distribué, un processeur de flux, etc.
Nous commencerons par une théorie sur les pipelines de données en général, puis nous poursuivrons avec les concepts fondamentaux derrière Kafka. Nous découvrirons également des composants importants tels que Kafka Streams et Kafka Connect.
A Practical Introduction to Stream Processing
21 HeuresDans cette formation dirigée par un instructeur en <loc> ; (sur site ou à distance), les participants apprendront comment configurer et intégrer différents Stream Processing frameworks avec des systèmes de stockage de big data existants et des applications logicielles et microservices connexes.
A l'issue de cette formation, les participants seront capables de :
- Installer et configurer différents Stream Processing frameworks, tels que Spark Streaming et Kafka Streaming.
- Comprendre et sélectionner le framework le plus approprié pour le travail à effectuer.
- Traiter des données en continu, de manière concurrente et enregistrement par enregistrement.
- Intégrer les solutions Stream Processing aux bases de données existantes, aux entrepôts de données, aux lacs de données, etc.
- Intégrer la bibliothèque de traitement de flux la plus appropriée avec les applications d'entreprise et les microservices.
Distributed Messaging with Apache Kafka
14 HeuresCe cours s'adresse aux architectes d'entreprise, aux développeurs, aux administrateurs système et à tous ceux qui souhaitent comprendre et utiliser un système de messagerie distribuée à haut débit. Si vous avez des exigences plus spécifiques (par exemple, uniquement du côté de l'administration système), ce cours peut être adapté pour mieux répondre à vos besoins.
Kafka for Administrators
21 HeuresCette formation en direct avec instructeur (en ligne ou sur site) s'adresse aux administrateurs système qui souhaitent mettre en place, déployer, gérer et optimiser un cluster Kafka de niveau entreprise.
A l'issue de cette formation, les participants seront capables de :
- Mettre en place et administrer un cluster Kafka.
- Évaluer les avantages et les inconvénients du déploiement de Kafka sur site et dans le cloud.
- Déployer et surveiller Kafka à l'aide de divers outils d'environnement sur site et dans le nuage.
Apache Kafka for Developers
21 HeuresCette formation en direct avec instructeur (en ligne ou sur site) s'adresse aux développeurs de niveau intermédiaire qui souhaitent développer des applications big data avec Apache Kafka.
A l'issue de cette formation, les participants seront capables de :
-
Développer des producteurs et des consommateurs Kafka pour envoyer et lire des données à partir de Kafka.
Intégrer Kafka avec des systèmes externes en utilisant Kafka Connect.
Ecrire des applications de streaming avec Kafka Streams & ; ksqlDB.
Intégrer une application client Kafka avec Confluent Cloud pour des déploiements Kafka basés sur le cloud.
Acquérir une expérience pratique grâce à des exercices et des cas d'utilisation réels.
Apache Kafka for Python Programmers
7 HeuresCette formation en direct avec instructeur dans France (en ligne ou sur site) est destinée aux ingénieurs de données, aux scientifiques de données et aux programmeurs qui souhaitent utiliser les fonctionnalités Apache Kafka dans les flux de données avec Python.
À la fin de cette formation, les participants seront en mesure d'utiliser Apache Kafka pour surveiller et gérer les conditions dans les flux de données continus en utilisant la programmation Python.
Kafka Fundamentals for Java Developers
14 HeuresCette formation en France (en ligne ou sur site) s'adresse aux développeurs de Java de niveau intermédiaire qui souhaitent intégrer Apache Kafka dans leurs applications pour une messagerie fiable, évolutive et à haut débit.
A l'issue de cette formation, les participants seront capables de :
- Comprendre l'architecture et les composants de base de Kafka.
- Mettre en place et configurer un cluster Kafka.
- Produire et consommer des messages en utilisant Java.
- Mettre en œuvre les flux Kafka pour le traitement des données en temps réel.
- Assurer la tolérance aux pannes et l'évolutivité des applications Kafka.
Administration of Kafka Message Queue
14 HeuresCette formation en direct avec instructeur à France (en ligne ou sur site) est destinée aux administrateurs de systèmes de niveau intermédiaire qui souhaitent exploiter efficacement les fonctionnalités de mise en file d'attente de messages de Kafka.
A l'issue de cette formation, les participants seront capables de :
- Comprendre les capacités et l'architecture de la file d'attente de messages de Kafka.
- Configurer les sujets Kafka pour les scénarios de mise en file d'attente de messages.
- Produire et consommer des messages en utilisant Kafka.
- Surveiller et gérer Kafka en tant que file d'attente de messages.
Security for Apache Kafka
7 HeuresCette formation en direct, dirigée par un formateur (en ligne ou sur site), s'adresse aux testeurs de logiciels souhaitant intégrer des mesures de sécurité réseau dans une application Apache Kafka.
A l'issue de cette formation, les participants seront capables de :
- Déployer Apache Kafka sur un serveur basé sur le cloud.
- Mettre en œuvre une encryption SSL pour prévenir les attaques.
- Ajouter une authentification ACL pour suivre et contrôler l'accès des utilisateurs.
- Assurer que les clients fiables ont accès aux clusters Kafka avec une authentification SSL et SASL.
Apache Kafka and Spring Boot
7 HeuresCette formation en direct avec instructeur en <loc> ; (en ligne ou sur site) est destinée aux développeurs de niveau intermédiaire qui souhaitent apprendre les principes fondamentaux de Kafka et l'intégrer à Spring Boot.
A l'issue de cette formation, les participants seront capables de :
- Comprendre Kafka et son architecture.
- Apprendre à installer, configurer et mettre en place un environnement Kafka de base.
- Intégrer Kafka à Spring Boot.
Stream Processing with Kafka Streams
7 HeuresKafka Streams est une bibliothèque côté client permettant de créer des applications et des microservices dont les données sont transmises depuis et vers un système de messagerie Kafka. Apache Kafka s’appuyait traditionnellement sur Apache Spark ou Apache Storm pour traiter les données entre les producteurs de messages et les consommateurs. En appelant l'API Kafka Streams depuis une application, les données peuvent être traitées directement dans Kafka, ce qui évite d'avoir à les envoyer à un cluster distinct.
Au cours de cette formation en direct animée par un instructeur, les participants apprendront comment intégrer Kafka Streams à un ensemble d’exemples d’applications Java qui transmettent des données depuis et vers Apache Kafka pour le traitement de flux.
À la fin de cette formation, les participants seront en mesure de:
- Comprendre les fonctionnalités et les avantages de Kafka Streams par rapport à d'autres frameworks de traitement de flux
- Traiter des données de flux directement au sein d'un cluster Kafka
- Rédiger une application ou un microservice Java ou Scala qui s'intègre avec Kafka et Kafka Streams
- Rédiger un code concis qui transforme des sujets d'entrée Kafka en sujets de sortie Kafka
- Construire, empaqueter et déployer l’application
Public
- Développeurs
Format du cours permettant d'évaluer les participants
- Mixte de cours magistral, discussions, exercices et pratique intensive
Remarques
- Pour demander une formation sur mesure pour ce cours, veuillez nous contacter pour en faire la demande.
Administration of Kafka Topic
14 HeuresCette formation en direct avec instructeur à France (en ligne ou sur site) s'adresse aux administrateurs système de niveau débutant à intermédiaire qui souhaitent apprendre à gérer efficacement les sujets Kafka pour une diffusion et un traitement efficaces des données.
A l'issue de cette formation, les participants seront capables de :
- Comprendre les principes fondamentaux et l'architecture des sujets Kafka.
- Créer, configurer et gérer les sujets Kafka.
- Contrôler l'état, les performances et la disponibilité des sujets Kafka.
- Mettre en œuvre des mesures de sécurité pour les sujets Kafka.
Confluent KSQL
7 HeuresCette formation en direct dans France (en ligne ou sur site) est destinée aux développeurs qui souhaitent mettre en œuvre le traitement de flux Apache Kafka sans écrire de code.
A l'issue de cette formation, les participants seront capables de :
- Installer et configurer Confluent KSQL.
- Mettre en place un pipeline de traitement de flux en utilisant uniquement des commandes SQL (pas de codage Java ou Python).
- Effectuer le filtrage des données, les transformations, les agrégations, les jointures, le fenêtrage et la sessionnalisation entièrement en SQL.
- Concevoir et déployer des requêtes interactives et continues pour l'ETL en continu et l'analyse en temps réel.