Formation Graphic techniques (Adobe Photoshop, Corel Draw)
Ce que vous apprendrez pendant la formation :
- principes de création de graphiques informatiques et d'impression en bureau
- méthodes pour définir et travailler avec les couleurs
- différences entre les graphiques vectoriels et bitmap
- façons de personnaliser les photos et graphiques colorées
- principes de retouche et de création de photomontages
- créer vos propres illustrations et graphiques
- adaptés pour répondre aux besoins de composition de matériel graphique et d'impression
- comment faire des logos
- créer des tableaux et diagrammes intéressants
- créer des cartes de visite et des en-têtes de lettre
- création d'étiquettes, de diplômes, d'invitations
- préparation de dépliants
- comment formater le texte
- utilisation des couleurs à l'impression
- principes de préparation pour l'impression
- impression numérique, offset et sérigraphie
Exemples de sujets de cours :
- mon poster
- portrait
- étendue
- mon catalogue
- mon visage
- panneau publicitaire
- mon logo
Plan du cours
Photoshop:
- Principes de la création d'une image informatique
- Outils Photoshop
- Taille du document
- Sélection et sélection
- Chemin - Créer et modifier des chemins
- Retouche
- Palette Historique
- Travailler avec les Calques
- Transformations
- Ajuster des photos - correction de couleur et de tonalité
- Correction de couleur - exemples
- Le texte et le travail avec du texte
- Impression
- Enregistrement
Corel:
- Règles pour créer des graphiques vectoriels
- Formes vectorielles, chemins
- Transformations
- Travail avec les couleurs
- Travail avec le texte
- Créer des tableaux et des graphiques
- Filtres et Effets
- Travail avec les graphiques bitmap
- Préparer des documents simples
- Impression
- Préparation à l'exposition
Acrobat:
- Aperçu PostScript
- Édition de fichiers PDF
Pré requis
Good compétences informatiques.
Les formations ouvertes requièrent plus de 3 participants.
Formation Graphic techniques (Adobe Photoshop, Corel Draw) - Booking
Formation Graphic techniques (Adobe Photoshop, Corel Draw) - Enquiry
Cours à venir
Cours Similaires
Developing AI Applications with Huawei Ascend and CANN
21 HeuresLa famille de processeurs Huawei Ascend est conçue pour une inférence et un entraînement de haute performance.
Cette formation en direct (en ligne ou sur site) dispensée par un formateur est destinée aux ingénieurs AI intermédiaires et aux scientifiques des données qui souhaitent développer et optimiser des modèles de réseau neuronal à l'aide du plateau Ascend de Huawei et du kit CANN.
À la fin de cette formation, les participants seront capables de :
- Configurer et paramétrer l'environnement de développement CANN.
- Développer des applications IA en utilisant MindSpore et CloudMatrix workflows.
- Optimiser les performances sur les unités de traitement Ascend NPUs grâce aux opérateurs personnalisés et à la tiling.
- Déployer des modèles dans des environnements de bord ou cloud.
Format du cours permettant d'évaluer les participants
- Cours interactif et discussion.
- Utilisation pratique de Huawei Ascend et du kit CANN dans des applications d'exemple.
- Exercices guidés axés sur la construction, l'entraînement et le déploiement du modèle.
Options de personnalisation du cours
- Pour demander une formation personnalisée basée sur votre infrastructure ou vos jeux de données, veuillez nous contacter pour organiser cela.
Deploying AI Models with CANN and Ascend AI Processors
14 HeuresCANN (Compute Architecture for Neural Networks) est la堆叠在翻译过程中似乎出现了一些混乱。让我重新整理并正确翻译这段内容:
CANN (Compute Architecture for Neural Networks) est l'architecture de calcul IA d'Huawei pour déployer et optimiser des modèles IA sur les processeurs Ascend.
Cette formation en direct, dirigée par un formateur (en ligne ou sur site), s'adresse aux développeurs et ingénieurs intermédiaires en IA qui souhaitent déployer efficacement des modèles IA formés sur le matériel Huawei Ascend à l'aide du kit d'outils CANN et d'outils tels que MindSpore, TensorFlow, ou PyTorch.
À la fin de cette formation, les participants seront capables de :
- Comprendre l'architecture CANN et son rôle dans le pipeline de déploiement IA.
- Convertir et adapter des modèles à partir de cadres populaires vers des formats compatibles Ascend.
- Utiliser des outils tels que ATC, la conversion de modèle OM et MindSpore pour l'inférence edge et cloud.
- Diagnostics de problèmes de déploiement et optimisation des performances sur le matériel Ascend.
Format de la formation
- Cours interactif et démonstrations.
- Bon travail pratique en utilisant les outils CANN et des simulateurs ou appareils Ascend.
- Scénarios pratiques de déploiement basés sur des modèles IA du monde réel.
Options de personnalisation de la formation
- Pour demander une formation personnalisée pour ce cours, veuillez nous contacter pour organiser cela.
GPU Programming on Biren AI Accelerators
21 HeuresLes accélérateurs Biren AI sont des GPU de haute performance conçus pour les charges de travail en IA et HPC, avec un support pour l'entraînement et l'inférence à grande échelle.
Cette formation en direct (en ligne ou sur site) animée par un formateur est destinée aux développeurs intermédiaires à avancés qui souhaitent programmer et optimiser des applications en utilisant la pile GPU propriétaire de Biren, avec des comparaisons pratiques avec les environnements basés sur CUDA.
À la fin de cette formation, les participants seront capables de :
- Comprendre l'architecture et la hiérarchie mémoire Biren GPU.
- Mettre en place l'environnement de développement et utiliser le modèle de programmation Biren.
- Traduire et optimiser des codes au style CUDA pour les plateformes Biren.
- Appliquer des techniques d'ajustement de performance et de débogage.
Format du cours permettant d'évaluer les participants
- Cours interactif et discussion.
- Utilisation pratique de la SDK Biren dans des charges de travail GPU d'exemple.
- Exercices guidés axés sur le portage et l'ajustement de performance.
Options de personnalisation du cours
- Pour demander une formation personnalisée pour ce cours basée sur votre pile d'applications ou vos besoins d'intégration, veuillez nous contacter pour en faire la demande.
Cambricon MLU Development with BANGPy and Neuware
21 HeuresLes Cambricon MLUs (Machine Learning Unités) sont des puces AI spécialisées optimisées pour l'inférence et la formation dans les scénarios de périphérie et de centre de données.
Cette formation en direct (en ligne ou sur site), animée par un formateur, s'adresse aux développeurs intermédiaires souhaitant construire et déployer des modèles AI à l'aide du cadre BANGPy et du SDK Neuware sur le matériel Cambricon MLU.
À la fin de cette formation, les participants seront capables de :
- Configurer et configurer les environnements de développement BANGPy et Neuware.
- Développer et optimiser des modèles basés sur Python et C++ pour Cambricon MLUs.
- Déployer des modèles vers des appareils de périphérie et de centre de données exécutant le runtime Neuware.
- Intégrer les flux de travail ML avec des fonctionnalités d'accélération spécifiques à MLU.
Format du cours permettant d'évaluer les participants
- Cours interactifs et discussions.
- Utilisation pratique de BANGPy et Neuware pour le développement et le déploiement.
- Exercices guidés axés sur l'optimisation, l'intégration et les tests.
Options de personnalisation du cours
- Pour demander une formation personnalisée pour ce cours basée sur votre modèle d'appareil Cambricon ou votre cas d'utilisation, veuillez nous contacter pour organiser cela.
Introduction à Cambricon et à l'architecture MLU
- Aperçu de la gamme de puces AI de Cambricon
- Architecture MLU et pipeline d'instructions
- Types de modèles pris en charge et cas d'utilisation
Installation du chaînon de développement
- Installation de BANGPy et du SDK Neuware
- Configuration de l'environnement pour Python et C++
- Compatibilité des modèles et prétraitement
Développement de modèles avec BANGPy
- Gestion de la structure et de la forme du tenseur
- Construction du graphe de calcul
- Soutien aux opérations personnalisées dans BANGPy
Déploiement avec le runtime Neuware
- Conversion et chargement des modèles
- Contrôle d'exécution et d'inférence
- Pratiques de déploiement pour périphérie et centre de données
Optimisation des performances
- Mappage mémoire et réglage par couche
- Suivi d'exécution et profilage
- Bouchons courants et corrections
Intégration de MLU dans les applications
- Utilisation des API Neuware pour l'intégration d'applications
- Soutien au streaming et aux modèles multiples
- Scénarios d'inférence hybride CPU-MLU
Projet de bout en bout et Use Case
- Laboratoire : déploiement d'un modèle vision ou NLP
- Inférence périphérique avec intégration BANGPy
- Test de précision et de débit
Récapitulatif et prochaines étapes
- Compréhension des structures de modèles d'apprentissage automatique
- Expérience avec Python et/ou C++
- Familiarité avec les concepts de déploiement et d'accélération des modèles
Audience
- Développeurs AI embarqués
- Ingénieurs ML déployant sur périphérie ou centre de données
- Développeurs travaillant avec l'infrastructure AI chinoise
Récapitulatif et prochaines étapes
Introduction to CANN for AI Framework Developers
7 HeuresCANN (Architecture de calcul pour Neural Networks) est un kit d'outils de calcul IA de Huawei utilisé pour compiler, optimiser et déployer des modèles IA sur les processeurs Ascend AI.
Cette formation interactive en présentiel ou à distance s'adresse aux développeurs IA débutants qui souhaitent comprendre comment CANN s'intègre dans le cycle de vie du modèle, depuis l'entraînement jusqu'au déploiement, et comment il fonctionne avec des cadres comme MindSpore, TensorFlow, et PyTorch.
Au terme de cette formation, les participants seront capables de :
- Comprendre la finalité et l'architecture du kit d'outils CANN.
- Configurer un environnement de développement avec CANN et MindSpore.
- Convertir et déployer un modèle IA simple sur le matériel Ascend.
- Développer une connaissance fondamentale pour des projets futurs d'optimisation ou d'intégration de CANN.
Format du cours permettant d'évaluer les participants
- Cours interactif et discussions.
- Ateliers pratiques avec déploiement simple de modèle.
- Démonstration pas à pas de la chaîne d'outils CANN et des points d'intégration.
Options de personnalisation du cours
- Pour demander une formation personnalisée pour ce cours, veuillez nous contacter pour organiser cela.
CANN for Edge AI Deployment
14 HeuresL'outil Ascend CANN de Huawei permet des inférences d'intelligence artificielle puissantes sur les dispositifs de périphérie tels que le Ascend 310. CANN fournit des outils essentiels pour compiler, optimiser et déployer des modèles dans des environnements où la capacité de calcul et la mémoire sont limitées.
Cette formation en direct (en ligne ou sur site) est destinée aux développeurs et intégrateurs d'IA intermédiaires qui souhaitent déployer et optimiser des modèles sur les dispositifs de périphérie Ascend en utilisant le chaînon outil CANN.
À la fin de cette formation, les participants seront capables de :
- Préparer et convertir des modèles d'IA pour Ascend 310 à l'aide des outils CANN.
- Construire des pipelines inférentiels légers en utilisant MindSpore Lite et AscendCL.
- Optimiser les performances du modèle dans des environnements limités en calcul et en mémoire.
- Déployer et surveiller des applications d'IA dans des cas d'utilisation réels de périphérie.
Format de la formation
- Cours interactif et démonstration.
- Travail pratique en laboratoire avec des modèles spécifiques à la périphérie et des scénarios.
- Exemples de déploiement en direct sur du matériel virtuel ou physique de périphérie.
Options d'adaptation du cours
- Pour demander une formation adaptée pour ce cours, veuillez nous contacter pour arranger cela.
Understanding Huawei’s AI Compute Stack: From CANN to MindSpore
14 HeuresLa pile d'IA de Huawei — allant du SDK de niveau inférieur CANN au cadre MindSpore de haut niveau — offre un environnement de développement et de déploiement d’IA intégré et optimisé pour le matériel Ascend.
Cette formation en direct, menée par un formateur (en ligne ou sur place), s'adresse aux professionnels techniques débutants à intermédiaires qui souhaitent comprendre comment les composants CANN et MindSpore travaillent ensemble pour soutenir la gestion du cycle de vie de l’IA et les décisions d’infrastructure.
À la fin de cette formation, les participants seront en mesure de :
- Comprendre l'architecture par couches de la pile de calcul d'IA de Huawei.
- Identifier comment CANN soutient l'optimisation des modèles et le déploiement au niveau matériel.
- Évaluer le cadre et les outils MindSpore en relation avec les alternatives du secteur.
- Positionner la pile d’IA de Huawei dans un environnement d’entreprise ou cloud/local.
Format de la formation
- Cours interactif et discussion.
- Démonstrations système en direct et études de cas guidées.
- Laboratoires dirigés facultatifs sur le flux de modèles de MindSpore à CANN.
Options de personnalisation de la formation
- Pour demander une formation personnalisée pour ce cours, veuillez nous contacter pour organiser cela.
Optimizing Neural Network Performance with CANN SDK
14 HeuresCANN SDK (Architecture de calcul pour Neural Networks) est la base de calcul IA de Huawei qui permet aux développeurs d'affiner et d'optimiser les performances des réseaux neuronaux déployés sur les processeurs AI Ascend.
Cette formation en direct animée par un instructeur (en ligne ou sur site) s’adresse aux développeurs et ingénieurs systèmes chevronnés qui souhaitent optimiser les performances d'inférence en utilisant l'ensemble avancé d'outils de CANN, notamment le Graph Engine, TIK et le développement d'opérateurs personnalisés.
À la fin de cette formation, les participants seront capables de :
- Comprendre l’architecture en temps réel de CANN et son cycle de vie des performances.
- Utiliser des outils de profilage et le Graph Engine pour l'analyse et l'optimisation des performances.
- Développer et optimiser des opérateurs personnalisés en utilisant TIK et TVM.
- Résoudre les goulets d'étranglement de mémoire et améliorer la performance du modèle.
Format de la formation
- Cours interactif et discussion.
- Ateliers pratiques avec un profilage en temps réel et l'ajustement des opérateurs.
- Exercices d’optimisation à l’aide de déploiements de cas particuliers.
Options de personnalisation du cours
- Pour demander une formation personnalisée pour ce cours, veuillez nous contacter pour en faire la demande.
CANN SDK for Computer Vision and NLP Pipelines
14 HeuresLe SDK CANN (Compute Architecture pour Neural Networks) fournit des outils puissants de déploiement et d'optimisation pour les applications AI en temps réel dans la vision par ordinateur et le traitement du langage naturel, en particulier sur le matériel Huawei Ascend.
Cette formation interactive (en ligne ou sur site) est destinée aux praticiens intermédiaires de l'IA qui souhaitent construire, déployer et optimiser des modèles de vision et de langage à l'aide du SDK CANN pour des cas d'utilisation en production.
À la fin de cette formation, les participants seront capables de :
- Déployer et optimiser des modèles CV et NLP à l’aide de CANN et AscendCL.
- Utiliser les outils CANN pour convertir les modèles et les intégrer dans des pipelines en temps réel.
- Optimiser les performances d'inférence pour des tâches telles que la détection, la classification et l'analyse de sentiment.
- Créer des pipelines CV/NLP en temps réel pour des scénarios de déploiement basés sur le bord ou dans le cloud.
Format de la formation
- Cours interactif et démonstrations pratiques.
- Atelier pratique avec déploiement de modèles et profilage des performances.
- Conception en direct de pipelines à partir d’utilisations réelles CV et NLP.
Options de personnalisation de la formation
- Pour demander une formation personnalisée pour ce cours, veuillez nous contacter pour organiser cela.
Building Custom AI Operators with CANN TIK and TVM
14 HeuresCANN TIK (Tensor Instruction Kernel) et Apache TVM permettent une optimisation avancée et une personnalisation des opérateurs de modèles d'IA pour Huawei Ascend matériel.
Cette formation en direct, encadrée par un instructeur (en ligne ou sur site), s'adresse aux développeurs système avancés qui souhaitent construire, déployer et ajuster des opérateurs personnalisés pour les modèles d'IA à l'aide du modèle de programmation TIK CANN et de la intégration avec le compilateur TVM.
À la fin de cette formation, les participants seront en mesure de :
- Rédiger et tester des opérateurs personnalisés d'IA à l'aide du TIK DSL pour les processeurs Ascend.
- Intégrer des opérations personnalisées dans le runtime CANN et le graphe d'exécution.
- Utiliser TVM pour la programmation des opérateurs, l'auto-ajustement et les tests de référence.
- Déboguer et optimiser les performances au niveau de l'instruction pour des motifs de calcul personnalisés.
Format du cours permettant d'évaluer les participants
- Cours interactif et démonstration.
- Réalisation pratique de code d'opérateurs en utilisant les pipelines TIK et TVM.
- Tests et ajustements sur le matériel Ascend ou des simulateurs.
Options de personnalisation du cours
- Pour demander une formation personnalisée pour ce cours, veuillez nous contacter pour en faire la demande.
Migrating CUDA Applications to Chinese GPU Architectures
21 HeuresLes architectures chinoises GPU telles que Huawei Ascend, Biren et Cambricon MLUs offrent des alternatives à CUDA adaptées aux marchés locaux de l'IA et du calcul haute performance.
Cette formation en direct (en ligne ou sur site) dispensée par un formateur est destinée aux programmeurs avancés GPU et aux spécialistes d'infrastructure qui souhaitent migrer et optimiser des applications CUDA existantes pour leur déploiement sur des plateformes matérielles chinoises.
À la fin de cette formation, les participants seront capables de :
- Évaluer la compatibilité des charges de travail CUDA existantes avec les alternatives à base de puces chinoises.
- Migrer des bases de code CUDA vers Huawei CANN, Biren SDK et environnements Cambricon BANGPy.
- Comparer les performances et identifier les points d'optimisation sur différents plateformes.
- Aborder les défis pratiques du support inter-architecture et du déploiement.
Format de la formation
- Cours interactif et discussion.
- Laboratoires pratiques de traduction de code et de comparaison des performances.
- Exercices guidés axés sur les stratégies d'adaptation multi-GPU.
Options de personnalisation du cours
- Pour demander une formation personnalisée basée sur votre plateforme ou projet CUDA, veuillez nous contacter pour organiser cela.
Performance Optimization on Ascend, Biren, and Cambricon
21 HeuresAscend, Biren et Cambricon sont des plateformes de matériel IA leaders en Chine, chacune offrant des outils uniques d'accélération et de profilage pour les charges de travail AI à l'échelle de production.
Cette formation en direct dirigée par un formateur (en ligne ou sur site) s'adresse aux ingénieurs高级AI基础设施和性能工程师,他们希望在多个中国AI芯片平台上优化模型推理和训练工作流。
到本培训结束时,参与者将能够:
- 在Ascend、Biren和Cambricon平台上对模型进行基准测试。
- 识别系统瓶颈和内存/计算低效问题。
- 应用图级、内核级和操作符级优化。
- 调整部署管道以提高吞吐量和减少延迟。
课程格式
- 互动讲座和讨论。
- 在每个平台上实际使用性能分析和优化工具。
- 专注于实用调优场景的指导练习。
课程定制选项
- 如需基于您的性能环境或模型类型对此课程进行定制培训,请联系我们安排。