Monitorez Windows 365

Ah, le monitoring Windows 365. Pendant longtemps, c’était la croix et la bannière : exporter des données, bricoler des dashboards dans Excel ou Power BI, croiser les doigts pour retrouver la bonne info au bon moment… Doug Coombs de Microsoft vient d’annoncer une refonte complète de cette expérience, disponible dès maintenant en Public Preview dans le centre d’administration Intune. Et franchement, ça change vraiment la donne.

Pour vous guider plus facilement dans cet article, voici des liens rapides :

Quelle est la nouveauté ?

Comme annoncé en introduction, Microsoft vient de lancer en préversion une toute nouvelle plateforme de monitoring et reporting pour Windows 365, directement intégrée dans le centre d’administration Intune.

Elle regroupe dans une seule interface trois onglets (Connection health, User and devices, Configuration monitoring) avec des dashboards interactifs, de la détection d’anomalies, et des tables de données exploitables sans export.

L’objectif est d’en finir avec les exports CSV et les dashboards dans Power BI.

Est-ce que cela remplace les anciens rapports Windows 365 ?

Non. Les anciens rapports (Reports > Cloud PC overview) restent disponibles en parallèle. La nouvelle plateforme vient s’y ajouter, elle ne les supprime pas.

La copie d’écran de la page web des rapports Intune vous montre la continuité des deux :

La copie d’écran ci-dessous vous montre que les objectifs des deux rapports sont différents :

  • Le rapport de gauche, en préversion, apporte une vue plus détaillée et plus technique du monitoring des Cloud PCs, avec des métriques d’environnement, de configuration et des données plus granulaires pour l’analyse des problèmes.
  • Le rapport de droite est plus orienté pilotage global : il résume rapidement l’état du parc, les alertes et les indicateurs clés, donc il est plus simple pour avoir une vision synthétique et exploitable au quotidien.

Le nouveau rapport offre une valeur ajoutée majeure en consolidant des données techniques détaillées sur la santé, les performances et les configurations des Cloud PCs dans des dashboards intégrés.

Il inclut des tendances comme le nombre actif de connexions (graphique en ligne et barre visible), filtrables par environnement et temps, pour un diagnostic proactif des problèmes.

J’ai Windows 365 Business, est-ce que j’y ai accès ?

Non, ou du moins pas pour l’instant. La plateforme est explicitement destinée aux clients Windows 365 Enterprise. Windows 365 Business n’est pas mentionné dans l’annonce ni dans la documentation officielle.

Faut-il activer quelque chose pour accéder à la preview ?

Non, aucune inscription séparée n’est nécessaire. Si vous avez Windows 365 Enterprise et l’accès au centre d’administration Intune, vous pouvez y accéder directement via Reports > Cloud PC monitoring (preview).

Attention, malgré l’annonce de la préversion publique par Microsoft, j’ai constaté encore quelques tenants où le menu de se rapport n’apparaît pas encore. Et l’URL directe du rapport n’affiche pas d’informations :

Les données sont-elles en temps réel ?

Presque, mais pas tout à fait. Les données de connexion ont un délai allant jusqu’à 15 minutes (granularité 2 min), et les données de santé des Cloud PCs jusqu’à 30 minutes. Il n’y a pas de rafraîchissement automatique : pensez à recharger la page manuellement.

  • Les pages de surveillance ne s’actualisent pas automatiquement. Les informations affichées reflètent l’heure à laquelle la page a été chargée ou actualisée pour la dernière fois.
  • Les données de connexion peuvent être retardées de 15 minutes au maximum et sont fournies à une granularité de 2 minutes.
  • Les données d’intégrité des PC cloud peuvent être retardées jusqu’à 30 minutes et sont fournies à une granularité d’environ 30 minutes.

Microsoft Learn

Qu’est-ce que le Round Trip Time (RTT) mesure exactement ?

Il s’agit de la médiane (P50) du temps aller-retour pour toutes les connexions Cloud PC sur la période sélectionnée. Plus il est élevé, plus l’expérience utilisateur sera dégradée (lag, lenteur, délai clavier).

Qu’est-ce que le MTTF (Mean Time to Failure) ?

C’est la durée moyenne pendant laquelle un Cloud PC fonctionne normalement avant de rencontrer une panne. Un MTTF en baisse est un signal préoccupant : les pannes deviennent plus fréquentes.

La plateforme est-elle compatible avec Frontline Shared ?

Oui. L’onglet User and devices supporte les relations « un appareil, plusieurs utilisateurs », ce qui correspond exactement aux Cloud PCs Frontline Shared où plusieurs utilisateurs se connectent au même appareil au fil du temps.

Quels sont les codes d’erreur les plus courants à connaître ?

Microsoft documente 13 codes d’erreur dans la plateforme. Les plus fréquents : ClientNetworkLost (réseau utilisateur coupé), ConnectionBroken (session interrompue), ConnectionFailedClientDisconnect (client fermé par l’utilisateur), OutOfMemory (ressources insuffisantes sur le Cloud PC).

La liste complète est disponible dans le guide de troubleshooting Microsoft et juste en dessous :

Code d’erreurSignification typique
ClientNetworkLostLa connexion réseau de l’utilisateur a été supprimée
ClientNetworkUnavailableRéseau de l’utilisateur non disponible
ConnectionBrokenLa connexion de session a été interrompue
ConnectionBrokenMissedHeartbeatThresholdExceededSession perdue en raison de pulsations manquées (souvent une perte réseau)
ConnectionFailedClientDisconnectLe client a été fermé ou déconnecté par l’utilisateur
AutoreconnectFailedBecauseSessionEndedTentative de reconnexion automatique, mais la session était déjà terminée
ShortpathNetworkDrop / ShortpathTransportNetworkDropChutes réseau sur le transport shortpath
SocketConnectionTimedOutDélai d’expiration de la connexion de socket réseau
TransportClosedUnexpectedlyCouche de transport fermée sans avertissement
ConnectionFailedReverseConnectStackTimeout WaitingForReplyDélai d’expiration de la connexion côté service
ConnectionInitiationSequenceTimeoutLe délai d’initiation de la connexion a expiré
FailedToAcquireAadNonceProblème d’acquisition de jeton d’authentification
OutOfMemoryÉpuisement des ressources sur le PC cloud

Pourquoi ce changement était nécessaire ?

Jusqu’à présent, la supervision d’un environnement Windows 365 reposait souvent sur des bricolages. Les admins les plus aguerris exportaient des données via des APIs, construisaient leurs propres dashboards dans Power BI, et passaient un temps fou à corréler des informations éparpillées dans Intune.

« Today, many organizations resort to exporting, processing and analyzing Cloud PC data, which can increase the complexity and total cost of ownership of Windows 365. »

Doug Coombs

Ce qui arrive en Public Preview

La nouvelle plateforme de monitoring s’intègre directement dans le centre d’administration Microsoft Intune, sous Reports > Cloud PC monitoring (preview). Elle se décompose en trois onglets principaux, et chaque sélection que vous faites en haut de la page (onglet, série de données, plage de temps, filtres) se répercute immédiatement sur tous les composants en dessous.

OngletPour qui ?Cas d’usage principal
Connection healthÉquipes opsVue d’ensemble tenant – patterns système, tendances
User and devicesHelp deskInvestigation par utilisateur ou appareil
Configuration monitoringAdmins avancésCorrélation config/performance, fin à fin

Regardez aussi la démo YouTube de Windows IT Pro pour une présentation complète :

Connection Health : la vue d’ensemble tenant

C’est LE tableau de bord qu’on attendait. Vous avez enfin une vue agrégée de la santé de toutes vos connexions Cloud PC, avec des tendances et des alertes visuelles. Selon la documentation Microsoft Learn, voici les 6 métriques clés disponibles :

MétriqueDescriptionCe qu’elle révèle
Active Connection CountTendance du nombre de connexions activesCharge réelle sur le tenant
Connection Failure RateNombre de connexions en échecFiabilité globale
Cloud PC Health% de Cloud PCs sains sur la périodeSanté du parc
Round Trip Time (RTT)Médiane (P50) du temps aller-retourQualité d’expérience réseau
Mean Time to Failure (MTTF)Durée moyenne avant une panneStabilité et tendance de dégradation
Sign-in TimeTemps end-to-end pour ouvrir une sessionRessenti utilisateur au démarrage
Note : Détail important sur le Cloud PC Health : la vérification se fait environ toutes les 30 minutes. Si un Cloud PC tombe à 12h10, il peut encore apparaître comme « sain » jusqu’à ~12h31. À garder en tête pour l’interprétation.

User and Devices : le meilleur ami du Help Desk

Fini les allers-retours entre plusieurs écrans pour diagnostiquer le problème d’un utilisateur. Cet onglet centralise tout ce dont le support a besoin :

  • Recherche par UPN (email) ou par nom d’appareil
  • Historique des connexions, taux d’erreur, RTT et durée d’utilisation
  • Support des relations 1-à-plusieurs (un utilisateur = plusieurs Cloud PCs, ou un Frontline Shared = plusieurs utilisateurs)
  • Actions à distance directement depuis l’interface : redémarrer ou troubleshooter l’appareil concerné :

Le workflow typique : un utilisateur appelle le helpdesk. L’agent tape l’UPN dans la barre de recherche, sélectionne le Cloud PC concerné, choisit la plage de temps autour de l’incident signalé, et il voit immédiatement les erreurs, les métriques et la config de connexion. En quelques clics, là où il fallait auparavant fouiller dans 3 ou 4 écrans différents.

Configuration Monitoring : comprendre le passé pour résoudre le présent

Voilà une feature que j’attendais vraiment. La config d’un environnement Windows 365 change constamment : policies Intune, paramètres réseau, versions de clients RDP, endpoints utilisateurs… Et quand une connexion se dégrade, il faut reconstituer ce que la config était à ce moment précis.

L’onglet Configuration Monitoring propose des visuels end-to-end qui couvrent l’intégralité du chemin de connexion :

  1. Endpoint utilisateur (côté client)
  2. Configuration du service Windows 365
  3. Configuration du Cloud PC lui-même

Particulièrement utile dans les environnements BYOD, où les machines clientes ne sont pas managées par Intune. On peut enfin corréler un changement de config client avec une dégradation de performance, sans export manuel.

Détection des anomalies (Outlier Detection)

La plateforme intègre une détection automatique des métriques anormales. Le système identifie lui-même les valeurs qui sortent de la norme et les met en avant pour attirer votre attention.

« Depending on how customers use these insights, some organizations may experience earlier issue identification and reduced escalation, though results will vary. »

Microsoft

Ces indicateurs s’intègrent dans une méthodologie de troubleshooting structurée :

  1. Identifier un problème ou une anomalie
  2. Formuler une hypothèse sur la cause
  3. Tester l’hypothèse via les séries de données et les filtres
  4. Isoler le problème
  5. Résoudre en traitant les conditions identifiées

Graphiques et tables de données : fini les exports !

Chaque page dispose d’un panneau « View data » en bas de l’écran, qui expose trois tables de données exploitables directement en ligne :

TableContenuUsage
Environment MetricsMétriques agrégées par période (RTT, taux d’échec…)Identifier les plages horaires problématiques
Connection ConfigurationConfiguration de chaque connexionTrouver les traits communs aux connexions en échec
EventsÉvénements granulaires, checkpoints, codes d’erreurDiagnostic précis pour admins expérimentés

Le panneau est redimensionnable, les colonnes sont personnalisables, et une recherche « contient » permet de filtrer les données sans quitter l’interface. Fini les exports CSV dans Excel.

Comment accéder à la nouvelle plateforme ?

La navigation est simple :

  1. Connectez-vous au Microsoft Intune admin center
  2. Dans le menu de gauche, cliquez sur Reports
  3. Sélectionnez Cloud PC monitoring (preview)
  4. Choisissez votre onglet : Connection health, User and devices, ou Configuration monitoring
Prérequis : vous devez avoir une licence Windows 365 Enterprise. Windows 365 Business ne semble pas supporté pour l’instant. Les anciens rapports (Reports > Cloud PC overview) restent disponibles en parallèle et ne disparaissent pas. La documentation complète est disponible ici.

Les limitations connues

Comme toute preview, cette plateforme n’est pas encore finale. Microsoft documente lui-même ses limitations :

LimitationImpact
Pas de rafraîchissement automatiqueIl faut recharger la page manuellement
Données de connexion retardées jusqu’à 15 minGranularité de 2 minutes
Données Cloud PC Health retardées jusqu’à 30 minGranularité ~30 minutes
Filtrage incomplet sur certaines colonnesQuelques colonnes dans View Data ne supportent pas encore le filtre
La recherche dans View Data n’affecte pas les graphiquesDeux contextes séparés
Connection Failure Rate surestime les erreursInclut toutes les erreurs, pas seulement les connexions non établies
Egress point ≠ localisation physiqueSi trafic via VPN, la ville affichée = point de sortie, pas position réelle

Microsoft rappelle aussi que les features en preview peuvent changer avant la GA. Pas de date de disponibilité générale annoncée à ce jour.

Conclusion

C’est clairement une évolution majeure pour l’administration de Windows 365. Pas une amélioration incrémentale : une refonte complète de la façon dont on supervise et dépanne les Cloud PCs, directement intégrée dans Intune, sans export ni outil externe.

Ce qui me plaît particulièrement : la cohérence de l’interface (une sélection en haut cascade partout), l’onglet Configuration Monitoring qui résout un vrai problème du quotidien, et la méthodologie de troubleshooting structurée que Microsoft documente avec des scénarios concrets.

Ce qui mérite vigilance : les délais de données (15 à 30 min), l’absence de date de GA, et le rappel de Microsoft que la preview est « non finie ». À tester, mais pas à utiliser comme seul outil de monitoring critique en production tout de suite.

Enfin, vous pouvez même laisser un feedback à Microsoft via ce lien ou celui disponible sur le portail Intune :

En tout cas, si vous avez Windows 365 Enterprise, allez-y : Reports > Cloud PC monitoring (preview) dans Intune, et dites-moi ce que vous en pensez dans les commentaires !

Microsoft Copilot Cowork

Comme moi, vous faites peut-être déjà partie des premiers utilisateurs de Copilot Cowork dans votre organisation ? Fraîchement accessible pour les entreprises ayant déjà activé le mode Frontier, découvrons ensemble ce que Microsoft propose avec Copilot Cowork. Voyons si cette Wave 3 peut être perçue comme une amélioration majeure de Microsoft 365 Copilot. Je vous propose quelques exemples concrets pour démarrer du bon pied.

Saviez-vous que seulement 5% des utilisateurs de Microsoft ne dépassent pas encore la phase de test ? Pourquoi cela ? Parce que Copilot classique reste bloqué une simple assistance.

Pour vous guider plus facilement dans cet article, voici des liens rapides :

Wave 3 Copilot Qu’est-ce que cette révolution ?

La Wave 3 est la troisième génération majeure de Microsoft 365 Copilot, annoncée le 9 mars 2026 lors de l’événement « Frontier Transformation » :

Toute cette mécanique s’appuie sur Work IQ, la couche d’intelligence contextuelle de Microsoft 365 qui agrège les signaux issus des e-mails, réunions, conversations Teams, fichiers SharePoint et relations professionnelles de l’utilisateur.

Chaque action de Copilot est transparente, réversible et soumise aux permissions et labels de sensibilité déjà en place dans l’organisation. Dit autrement, la Wave 3 veut initier une transformation opérationnelle à l’échelle de l’entreprise en plaçant l’IA agentique au cœur de la plateforme collaborative.

informatiquenews.fr

Les 5 piliers de la Wave 3 sont donc :

  • Copilot devient multi-modèle : Il y avait encore quelque temps, seulement OpenAI était disponible. Maintenant, vous pouvez choisir le meilleur modèle pour la tâche à réaliser :
ModèleCas d’usage
Claude (Anthropic)Analyse complexe, tâches nécessitant raisonnement
OpenAITâches générales, génération de contenu
  • Work IQ : le cerveau contextuel apportant la couche d’intelligence introduite à Microsoft Ignite 2025. Pourquoi est-ce crucial ? Car sans contexte, pas de valeur économique réelle.
  • Copilot Cowork : co-développé avec Anthropic, intègre la technologie Claude Co-work dans M365 Copilot. C’est la grande nouveauté de cette wave 3 :
Ce que tu peux faireExemple concret
Déléguer des tâches complexesPréparer une réunion : créer une invitation Teams + générer support présentation + résumer échanges précédents.
Tasks en arrière-planTâches qui tournent minutes ou heures sans que tu attendes.
Multitâche parallèleSoumettre plusieurs tâches qu’elles exécutent en parallèle, interférer pendant l’exécution.
Actions concrètesDéplacer réunions, créer Excel, envoyer des e-mails, planifier du temps de focalisation.
  • Agents agentic natifs : dans Word, Excel, PowerPoint, Outlook L’ancien mode agent devient le fonctionnement standard de Copilot dans ces applications (déjà à présent ou dans les prochains mois) :
ApplicationCe que l’agent fait (nativement)
ExcelCréation de vraies formules Excel, analyse de variance, structure sur le canvas
WordRédaction de documents complets, insertion de formules, …
PowerPointTransformation contenu fade → slides engageantes (objets éditables, pas images plates)
OutlookPlanification, rédaction et envoi emails (avec revue avant envoi)
  • Agent 365 : gouvernance & sécurité au programme, dont la disponibilité générale est prévu le 1er mai. Ce panneau de contrôle unique pour tous vos agents (Microsoft + développeurs + IT + partenaires externes)

Qu’est-ce que Claude Cowork ?

Claude Cowork est un produit d’Anthropic lancé en janvier 2026, qui change radicalement la manière d’interagir avec l’intelligence artificielle.

Alors que Claude classique se contente de répondre à vos questions ou de générer du texte dans une fenêtre de chat, Claude Cowork est conçu pour exécuter des tâches complexes de bout en bout, en travaillant directement sur votre ordinateur et dans vos fichiers.

Vous ne lui demandez plus de vous aider à écrire, vous lui déléguez un projet entier et il l’accomplit de manière autonome, pendant que vous faites autre chose.

La transparence est un principe clé du fonctionnement de Cowork.

Quand Claude exécute une tâche, des indicateurs de progression vous montrent ce qu’il est en train de faire à chaque étape. Il expose son raisonnement et son approche, ce qui vous permet de suivre le processus et de comprendre pourquoi il prend telle ou telle décision. Vous pouvez intervenir à tout moment pour corriger la direction, ou fournir des directives supplémentaires au milieu de la tâche.

Qu’est-ce que Copilot Cowork ?

Le 9 mars dernier, Microsoft a officiellement lancé Copilot Cowork, développé en étroite collaboration avec Anthropic et propulsé par le modèle Claude. Ce n’est pas une mise à jour technique de Copilot, c’est un changement fondamental de nature.

Alors que les premières versions de Copilot restaient cantonnées à un rôle d’assistance conversationnelle, Cowork introduit une nouvelle catégorie de produit : l’agent IA capable d’accomplir des tâches complexes sur plusieurs minutes voire plusieurs heures, sans intervention humaine constante.

La différence est radicale quand on compare ce que Copilot faisait avant et ce que fait Cowork maintenant. Avec la version classique, vous posiez une question, Copilot répondait par du texte généré. Vous lui demandiez de résumer un document, il le faisait. Ou alors il rédigeait un brouillon Word selon vos directives. Mais tout restait dans le domaine conversationnel.

Copilot Cowork change cette logique :

Copilot Wave 1-2Copilot Cowork (Wave 3)
Vous posez une question → il répond du texteVous donnez une mission → il exécute le travail
Résume-moi ce documentPrépare ma réunion de mardi avec Romuald
Génère un brouillon WordCrée Word + Excel + PowerPoint + envoie un e-mail + planifie un meeting
Conversation ponctuelleTâches en arrière-plan pendant minutes / heure

Microsoft a choisi d’intégrer la technologie Claude d’Anthropic plutôt que d’utiliser uniquement ses propres modèles OpenAI. Les raisons sont pragmatiques. Les tests indépendants placent Claude en tête pour la planification de tâches complexes, le débogage de code et l’analyse financière.

La disponibilité de Copilot Cowork est progressive. Le programme Frontier est ouvert maintenant pour les utilisateurs qui souhaitent tester les features avant leur sortie publique. La généralisation large est attendue fin mars 2026.

Qu’est-ce que Frontier chez Microsoft ?

Frontier chez Microsoft, c’est en réalité trois choses liées à l’IA :

  • Programme Frontier : Un espace d’accès en avant-première pour explorer les dernières innovations IA dans Microsoft 365 avant leur disponibilité générale :
    • Essayer de nouvelles expériences avec Copilot (agents expérimentaux, fonctionnalités en préversion)
    • Accéder à des modèles IA avancés (comme Claude dans Copilot Chat, en plus d’OpenAI)
    • Partager des commentaires pour façonner les futures fonctionnalités
  • Frontier Transformation : Les entreprises Frontier sont des pionnières qui intègrent l’IA agentique au cœur de leurs opérations. Les 3 traits d’une Frontier Firm sont :
    • Les personnes aux centres : IA dans le flux de travail (Word, Excel, Outlook), pas outil séparé
    • Tout le monde peut contribuer : Chacun crée/utilise des agents IA
    • Visibilité à chaque couche : vous gouvernez, contrôlez et observez les agents.
  • Suite Frontier (Microsoft 365 E7) : Nouvelle de licence offre premium. Lancée le 1er mai 2026, cette suite regroupera :
ComposantCe que ça inclut
Microsoft 365 E5Productivité, sécurité, conformité de base
Microsoft 365 CopilotIA générative complète (Word, Excel, PowerPoint, Outlook, Copilot Chat) + Work IQ + Copilot Studio + Agent Builder
Agent 365Plateforme de gouvernance/sécurisation des agents IA ($15/utilisateur seul)
Microsoft Entra SuiteGouvernance des identités, accès, sécurité réseau (SSE/ZTNA)

Comment active-t-on le mode Frontier ?

Pour y accéder, il faut que votre administrateur active Frontier dans le tenant Microsoft 365 Admin Center, puis attribue l’accès à des groupes d’utilisateurs pilotes. Vous pouvez aussi participer au programme Frontier en individuel si vous avez une licence Microsoft 365 Personal ou Famille.

Pour un compte Microsoft particulier : Ouvrez Word, Excel ou PowerPoint sur le web (https://www.office.com), allez dans les Options, recherchez les paramètres Copilot, puis activez cette option :

Pour chaque application Office, il est nécessaire de l’activer (Word, Excel, PowerPoint, … ):

  • Pour un compte Microsoft entreprise : Dans le cadre d’une entreprise, l’activation de Frontier est géré au niveau tenant. C’est donc l’administrateur IT de votre tenant qui doit l’activer pour que les utilisateurs puissent en profiter.

Cette option se trouve sur la page d’administration de Microsoft 365 :

Comment sait-on si Frontier est activé ?

D’un point de vue utilisateur, c’est assez simple de vérifier que Frontier a bien été activé.

  • Pour un compte Microsoft entreprise : Rendez-vous sur la page https://m365.cloud.microsoft, puis recherchez si les agents Frontier vous sont accessibles dans le catalogue :

Quelles sont les limites de Copilot Cowork ?

Nous sommes encore sur une préversion de l’outil, c’est pour cela que certaines contraintes temporaires sont encore présentes :

LimitationDétails
Appareils mobilesCowork n’est pas encore disponible sur mobile. Seuls le navigateur (m365.cloud.microsoft) et applications de bureau Windows/Mac sont supportés
VoixLa fonction vocale dépend du navigateur. Tous les navigateurs ne la supportent pas
Programme nécessaireIl faut être inscrit au programme Frontier preview pour accéder à Cowork

Mais, Microsoft ne communique pas beaucoup sur sa FAQ les limites mensuelles d’usage de Copilot Cowork dans sa documentation.

Cette absence totale de chiffre officiel dans la documentation Microsoft Learn suggère que Cowork est géré en usage illimité dans le cadre de l’abonnement Microsoft 365, mais cette absence de transparence crée des incertitudes pratiques sur les limites réelles en production.

Mais d’autres limites sont déjà documentées :

LimitationDétails
Fichiers locauxCowork ne peut pas accéder ni modifier les fichiers stockés localement sur votre appareil. Il travaille uniquement avec les fichiers de OneDrive et SharePoint
Suppression de fichiersCowork ne peut pas supprimer de fichiers ou dossiers dans OneDrive ou SharePoint
Fichiers encryptésCowork ne peut pas lire les fichiers chiffrés, même si l’utilisateur y a accès
Taille des fichiersLes fichiers joints doivent faire moins de 200 Mo

Enfin, dans le cadre de mon abonnement Microsoft 365 Famille, seul l’utilisateur principal dispose de fonctions Copilot. De plus, des limitations d’usage s’appliquent bien à ces nouvelles fonctions :

Comment puis-je tester Copilot Cowork ?

Vous êtes enfin prêts à tester Copilot Cowork ? C’est parti !

Pour cela, commencez par vous rendre sur la page web de Copilot, recherchez puis ajoutez Copilot Cowork ajouté à votre liste d’agents :

Une fois l’agent Copilot Cowork ajouté, ouvrez-le afin de constater les premières fonctionnalités :

L’écran ressemble à Copilot Work, puis que les requêtes comment elles aussi par un prompt. Des tuiles sont également visibles afin de démarrer rapidement, Microsoft vous propose quatre cas d’usage de base :

  • Organize my inbox pour trier vos e-mails
  • Organize my week pour remettre de l’ordre dans ton agenda
  • Prep for a meeting pour préparer un rendez-vous
  • Research a company pour faire une recherche sur une entreprise.

Enfin, les Tasks ou tâches, correspondent à l’historique des missions que tu as déjà lancées dans Cowork. On voit dans mon exemple deux tâches déjà marquées comme terminées.

Testons maintenant Copilot Cowork ensemble.

Première tâche recherche d’une entreprise :

Voici l’exemple le plus simple et le plus facile, la recherche d’une entreprise :

Dès que la tâche démarre, celle-ci se crée et change de statut. Microsoft documente quatre statuts :

  • In progress quand Cowork travaille encore dessus
  • Needs user input quand il attend votre réponse pour continuer
  • Done quand c’est fini
  • Failed quand la tâche a échoué

Dans mon cas, la tâche a besoin d’une réponse pour avancer :

De façon assez logique Copilot Cowork a besoin de connaître le nom de l’entreprise pour effectuer sa recherche. Pour cela, un formulaire vous invite à lui fournir le nom :

Une fois l’information fournie, Copilot Cowork repart alors travail :

Le statut de la tâche rechange à nouveau :

Pour un meilleur suivi et une traçabilité, toutes les interactions avec l’agent sont affichées à droite de l’écran :

Cowork vous montre son plan d’action détaillé, l’avancement en temps réel, les dossiers source/destination, et les skills qu’il mobilise. On peut suivre précisément ce qu’il fait. :

  • Barre de progression : on y voit ici les 6 étapes planifiées par Cowork :
    • Researching TD SYNNEX
    • Researching TD SYNNEX financial data
    • Create Word document cover sheet
    • Build financial spreadsheet
    • Verifying findings
    • Writing the report
  • Output folder : le dossier où Cowork va déposer les résultats
  • Input folder : le dossier source avec les données d’entrée
  • Skills : 1 compétence active appelée Deep Research

Durant toutes les phases de travail, il nous est toujours possible de re-prompter Copilot Cowork afin de lui apporter des précisions, des contre-ordres ou des informations ou fichiers :

Sur cette autre capture, Cowork est passé de 0/6 à 4/6 : la recherche TD SYNNEX est terminée, il construit un fichier .md :

Un clic sur le fichier .md nous montre directement son contenu :

Sur cette dernière capture, Cowork a terminé toutes les étapes : recherche TD SYNNEX bouclée, Word de 3 pages et Excel 5 onglets créés dans ton OneDrive, avec synthèse détaillée des comptes, trésorerie et ratios financiers :

Tout y est très bien présenté :

L’ensemble des fichiers, générés ou utilisés, sont stockés et accessibles dans un dossier OneDrive créé spécialement pour cette conversation :

Copilot Cowork vous avertit même, au besoin, via un système de notification quand il a besoin de vous ou quand le travail est terminé :

Continuons avec une autre tâche.

Deuxième tâche optimisation d’un planning de vacances :

Dans cette seconde démonstration, que j’ai testé dans le mode Office Agent en Frontier sur un Copilot personnel, mais que j’ai aussi réalisé sur Copilot Cowork Enterprise, j’ai pris un fichier Excel de planning vacances incorrect et mal formaté. J’ai donc demandé à Cowork de le reprendre complètement, de créer une page web interactive avec toutes les activités.

Voici le prompt utilisé pour cette tâche :

J'ai un fichier Excel de planification de vacances à Londres en mai 2026. Il est bancal : dates dans 4 formats différents, prix mélangés en £ et en €, c... J'aimerais que tu fasses les choses suivantes dans l'ordre :

Diagnostic — Analyse le fichier et liste tous les problèmes que tu détectes.
Nettoyage — Corrige tous les problèmes, standardise tous les prix en livres sterling (indique le taux de conversion utilisé en note de bas de fichier), et génère un fichier Excel propre avec 4 onglets : 
ACTIVITES (activités groupées par zone géographique, avec statut Gratuit/Payant), PLANNING (jour par jour avec horaires et transport), BUDGET (formules propres, zéro erreur) et CARTE DES ZONES (carte visuelle des quartiers de Londres avec activités et budget par zone). Page web interactive — Génère un fichier HTML autonome, sans dépendance externe, utilisable hors connexion sur téléphone le jour de la visite. Il doit contenir : une carte cliquable des 7 zones de Londres (City, South Bank, West End, Kensington, North London, East London, Excursions) avec les activités de chaque zone cochables, un planning jour par jour en accordéon, un suivi de budget avec saisie des dépenses réelles, et un onglet Tips pratiques (réservations obligatoires, transport, food). Commence par le diagnostic, attends ma validation, puis enchaîne sur le nettoyage et la page web.

Et voici le fichier Excel de départ utilisé avec ce prompt :

Voyons ce que cela donne en vidéo :

Preuve que Cowork ne se contente pas de répondre, il exécute et livre des fichiers concrets.

Troisième tâche organisation d’un calendrier :

Shervin nous montre comment apporter des optimisations intelligentes sur son calendrier :

Quatrième tâche Création d’un rapport d’incident :

John nous propose un exemple d’analyse de rapports d’incidents dans un dossier OneDrive générant une matrice des menaces, top 5 priorités et allocation de ressources :

Autres exemples de tâches :

Enfin, d’autres bons exemples d’analyse sont proposés par Elliott :

Conclusion

Copilot Cowork marque un tournant décisif dans l’évolution de Microsoft 365 Copilot. En passant d’un simple assistant conversationnel à un agent IA exécuteur capable de mener des projets entiers de bout en bout, Microsoft répond enfin au défi majeur de l’adoption de l’IA en entreprise.

Les premiers tests montrent un potentiel immense. Copilot Cowork livre des fichiers concrets, pas juste du texte. La transparence du processus, la possibilité d’intervenir à tout moment et l’exécution en arrière-plan transforment radicalement la relation à l’IA.

Bien que certaines limitations subsistent, la technologie est déjà fonctionnelle et prête pour la production dans le cadre du programme Frontier. La disponibilité générale attendue fin mars 2026 (et la suite Microsoft 365 E7 le 1er mai) devrait démocratiser l’accès.

Le passage de « résume-moi ce document » à « prépare ma réunion de mardi avec Christophe» n’est pas une simple évolution : c’est une révolution.

L’IA agentique n’est plus de la science-fiction. Elle est déjà dans Word, Excel, PowerPoint et Outlook. Et elle ne fait que commencer à transformer notre manière de travailler.

Pour finir, voici encore une autre vidéo qui pourrait vous donner quelques idées :

Microsoft MVP Summit 2026

Chaque année, certains rendez-vous ont une saveur particulière. Le Microsoft MVP Summit en fait clairement partie. En ce mois de mars 2026, j’ai eu la chance de participer une nouvelle fois à cet événement organisé par Microsoft à Redmond, près de Seattle, et cela grâce à TD SYNNEX. Pour beaucoup, le MVP Summit reste un nom un peu mystérieux. On sait que cela existe, on imagine des sessions techniques, des échanges avec Microsoft, un cadre privilégié… mais on ne sait pas toujours ce qui s’y passe réellement, ni ce que cela représente pour un MVP.

Cette année, l’expérience a eu une dimension un peu particulière pour moi, car j’ai également eu l’occasion d’échanger avec Nicolas Vaccaro dans le cadre d’une vidéo tournée sur place. Il m’a donc interviewé aux côtés de Bassirou Barry dans un format plus personnel, autour du parcours, du rôle du MVP, de la communauté, de la veille technologique, et de notre vision de l’IT aujourd’hui.

À travers cet article, j’avais envie de revenir sur cette expérience, mais aussi de répondre simplement à une question que beaucoup se posent : qu’est-ce que le Microsoft MVP Summit, et qu’est-ce que cela dit du programme MVP lui-même ?

Qu’est-ce qu’un Microsoft MVP ?

Le programme Microsoft Most Valuable Professional est une reconnaissance décernée par Microsoft à des experts techniques indépendants qui se distinguent par leur engagement actif dans la communauté, que ce soit à travers des articles, des conférences, du support ou du partage d’expérience terrain.

Contrairement à une certification, il ne valide pas un niveau technique mais un impact réel sur l’écosystème : aider les autres, diffuser la connaissance et faire le lien entre les utilisateurs et les équipes produit. Le titre est attribué pour une durée d’un an et peut être renouvelé en fonction de la continuité des contributions.

Il permet notamment d’accéder à des échanges privilégiés avec Microsoft et de participer à des événements comme le Microsoft MVP Summit.

Voici le site officiel de Microsoft affichant tous les MVPs actifs.

Est-ce qu’il faut être “né expert” pour devenir MVP ?

Non. Au contraire, derrière chaque MVP, il y a souvent un parcours progressif, du travail, de la persévérance, de l’apprentissage continu, des erreurs, des essais, et surtout beaucoup de partage.

Parce que le MVP n’est pas seulement un titre. C’est une dynamique de transmission. Le partage, la pédagogie, la patience, la capacité à aider les autres et à rendre un sujet plus compréhensible sont au cœur de cette reconnaissance.

Comment devient-on MVP ?

Il n’existe pas de recette magique. En pratique, cela passe par des contributions concrètes : articles, conférences, meetups, démonstrations, vidéos, aide à la communauté, mentorat, documentation, vulgarisation… Le plus important reste la régularité et la sincérité de l’engagement.

Les parcours sont donc très variés. Certains viennent d’études longues, d’autres ont progressé davantage par l’expérience terrain, la curiosité, l’autoformation et l’expérimentation.

Est-ce qu’un blog en français peut compter ?

Oui, clairement, et j’en suis la preuve. Produire du contenu technique en français a une vraie valeur. Tout le monde ne consomme pas l’information en anglais, et il existe un véritable besoin de contenu de qualité en français, accessible et précis.

Qu’est-ce que le Microsoft MVP Summit ?

Le Microsoft MVP Summit est un rendez-vous organisé par Microsoft, qui réunit des MVP du monde entier autour de leurs spécialités respectives. C’est un moment d’échange, de découverte, de feedback produit, mais aussi de rencontre entre experts, passionnés et équipes Microsoft.

Concrètement, c’est une conférence privée organisée par Microsoft, réservée uniquement aux personnes ayant le titre de MVP (Most Valuable Professional) et à quelques profils équivalents comme les RD (Regional Directors).

Le Summit permet de rencontrer les équipes Microsoft, de mieux comprendre certaines orientations, d’échanger avec d’autres MVP du monde entier, de donner du feedback, et de revenir avec encore plus d’énergie pour continuer à contribuer à la communauté.

Où se déroule le MVP Summit ?

Le Microsoft MVP Summit se déroule au siège de Microsoft, sur le campus de Redmond, dans l’État de Washington (États‑Unis), à proximité de Seattle.

Le campus est immense, très structuré, pensé pour le travail, les échanges et le bien-être. Entre bâtiments emblématiques, zones piétonnes, navettes, studios, espaces de restauration et lieux de rencontre, tout est conçu pour favoriser les interactions.

Le Microsoft MVP Summit dure 3 jours pour l’événement principal, auxquelles s’ajoutent un pre‑day (lundi) et un post‑day (vendredi).

Peut-on montrer ce qu’on voit pendant le Summit ?

La règle de base du Microsoft MVP Summit est simple : tout ce qui concerne le contenu est sous NDA. Une très grande partie du contenu est donc couverte par la confidentialité. Ce qu’on ne peut pas montrer / partager :

  • Contenu des sessions (slides, démos, roadmaps, features, chiffres, décisions produit)
  • Photos ou vidéos dans les salles de session
  • Captures d’écran, enregistrements, notes détaillées
  • Discussions techniques ou annonces non publiques

En revanche, il est possible de partager l’ambiance générale, le cadre, certaines rencontres, et l’expérience globale vécue sur place.

Et pour cela je remercie aussi toutes les personnes formidables que j’ai pu rencontrer durant ce Summit, que ce soit des MVPs (Seyfallah, Nicolas, Bassirou, Adrien, Nicolas, Aurélien, David, Hakim, Amélie, Clément, Laurent, Yves, Alexandre, Allan, Christophe, Daniel, Fiona, Dieter, Stefan, Kévin, Mathieu, Thierry, Romain, mais aussi des Microsoftees (Megan, Christiaan, Chloe) et encore tant d’autres que j’oublie.

À quoi servent les “pre-days” ?

Les pre-days sont les journées qui précèdent l’ouverture officielle du Summit. Elles permettent à certains MVP, selon leur spécialité ou leur domaine, d’assister à des échanges ou à des sessions en amont de l’événement principal.

Ils servent à organiser des sessions spécialisées avant le Summit officiel, principalement pilotées par les Product Groups (PG) Microsoft.

Le Microsoft MVP Summit, vu de l’intérieur

Quand on évoque le MVP Summit, beaucoup imaginent immédiatement de grandes sessions techniques, des échanges privilégiés avec Microsoft, des annonces, des démonstrations, et un certain niveau d’exclusivité. Tout cela existe, bien sûr. Mais réduire l’événement à cela serait passer à côté de l’essentiel.

Le MVP Summit, c’est aussi une ambiance.

C’est le fait d’arriver sur le campus Microsoft, de retrouver des visages connus, d’échanger avec des personnes qu’on suit parfois depuis des années sans forcément les avoir croisées en vrai, de discuter dans un couloir, entre deux bâtiments, autour d’un café, d’un petit-déjeuner ou d’un retour de session. C’est ce mélange assez unique entre expertise, curiosité, passion et simplicité.

Lors des pre-days, on entre déjà dans le vif du sujet. Ce sont des journées un peu particulières, en amont de l’ouverture officielle, qui donnent déjà le ton. On sent que quelque chose commence. On prend la mesure de la richesse de l’événement, de la diversité des profils présents et de l’importance du dialogue entre les communautés et Microsoft. Et puis il y a le décor.

Le campus lui-même devient presque un personnage. Les bâtiments, les navettes, les studios, les espaces ouverts, les zones de restauration, les chemins piétons, les lieux de passage emblématiques… tout participe à l’expérience. Le campus Microsoft n’est pas simplement grand : il est pensé pour favoriser les connexions, les déplacements, les rencontres, la circulation des idées.

On sent aussi une culture de l’environnement de travail très différente. Tout semble organisé pour permettre aux collaborateurs et aux visiteurs d’avoir à la fois de la fluidité, du confort et des points de contact permanents entre technologie, vie quotidienne et collaboration.

C’est aussi cela qu’on retient du Summit : pas seulement ce qu’on apprend, mais le contexte dans lequel on l’apprend.

Ce que cet événement représente vraiment

Au fond, participer au MVP Summit ne se résume pas à “voir des nouveautés”. Bien sûr, il y a l’intérêt technologique. Bien sûr, il y a l’envie de mieux comprendre ce qui arrive, de prendre de la hauteur, d’échanger avec les équipes produit, de mieux relier ce que l’on voit sur le terrain avec les orientations Microsoft.

Mais pour moi, ce qui rend cet événement si particulier, c’est qu’il matérialise quelque chose de plus profond : la reconnaissance du partage.

Dans l’IT, on parle souvent de certification, d’expertise, de maîtrise technique, d’architecture, de sécurité, de performance. Tout cela compte. Mais il y a une autre dimension qui me tient particulièrement à cœur : la transmission.

Expliquer. Montrer. Documenter. Faire gagner du temps. Vulgariser sans simplifier à l’excès. Accepter qu’un sujet complexe demande parfois de la patience, des exemples, des schémas, des erreurs, des retours d’expérience.

Le programme MVP met précisément cela en lumière.

Et le Summit, quelque part, en est la traduction concrète. Pendant quelques jours, on se retrouve avec des personnes qui, chacune à leur manière, ont choisi de consacrer une partie importante de leur temps à aider les autres à mieux comprendre la technologie.

Mon parcours : de la “petite porte” à l’architecture cloud

Lors de l’interview avec Nicolas, nous avons beaucoup parlé de parcours. Je trouve toujours cela intéressant, parce que cela rappelle qu’il n’existe pas une seule bonne trajectoire.

Dans mon cas, l’informatique a commencé tôt. J’ai eu mon premier ordinateur personnel à l’âge de 8 ans. Avec le recul, je pense que cela a joué un rôle dans mon rapport aux outils, à la logique, au confort avec l’environnement technique. Pas forcément comme une vocation immédiate, mais comme une familiarité.

Plus tard, je suis entré dans l’IT par ce que j’appelle souvent “la petite porte” : une équipe support. Et je le dis sans aucun problème, parce que je pense au contraire que c’est une excellente école. On apprend la réalité du terrain, le contact, la contrainte, l’urgence, la rigueur, les limites, les attentes concrètes.

Ensuite, les choses évoluent. On progresse, on change de périmètre, on va plus loin sur l’infrastructure, puis sur le cloud, puis sur la conception, la projection, le design, l’estimation, la compréhension des besoins métiers et techniques.

Aujourd’hui, mon rôle d’Azure Cloud Architect consiste justement à aider des organisations à concevoir des architectures sur le cloud Microsoft, notamment autour des services VDI, mais pas uniquement. Il y a une dimension technique forte, bien sûr, mais aussi une dimension de traduction : comprendre le besoin, choisir les bonnes briques, anticiper les contraintes, estimer les coûts, donner de la lisibilité.

J’aime souvent utiliser une image très simple : le cloud, c’est un peu comme un grand jeu de Lego. On dispose de briques différentes, avec des rôles, des formes et des couleurs variés, et l’enjeu consiste à les assembler de manière cohérente pour construire quelque chose de solide, utile et durable.

Le cloud : la claque technologique qui change la trajectoire

Je suis arrivé au cloud après une longue expérience on-premises. Et c’est important de le dire, parce qu’on a parfois tendance à croire que tout le monde a suivi la vague naturellement.

En réalité, l’IT évolue constamment, et il est très facile de rester dans une zone de confort technologique. Ce n’est pas forcément un défaut : on maîtrise, on produit, on avance, on répond au besoin. Mais il y a des moments où une nouvelle approche arrive et change complètement la perspective.

Pour moi, le cloud a été cela. Une forme de claque technologique. Pas dans un sens négatif, mais dans le sens où l’on perçoit soudainement l’ampleur des possibilités. On voit ce que l’on faisait avant, et on comprend qu’une autre manière de concevoir, déployer, sécuriser, piloter et faire évoluer l’infrastructure est désormais possible.

C’est ce basculement qui m’a poussé à me repositionner, à apprendre davantage, à explorer de nouveaux sujets, et à accepter que l’évolution fasse partie du métier. Et c’est toujours vrai aujourd’hui.

La veille : une discipline, pas un hobby

S’il y a un point que l’on sous-estime souvent dans les métiers du cloud et plus largement dans les technologies Microsoft, c’est la place de la veille.

On pourrait croire qu’une journée type d’architecte ou de consultant se résume aux projets clients. Ce serait faux.

Bien sûr, il y a les clients. Il y a leurs besoins, leurs contraintes, leurs arbitrages, leurs architectures, leurs coûts, leurs incidents parfois, leurs ambitions aussi. Mais en parallèle, il y a un autre travail, beaucoup moins visible et pourtant essentiel : la veille technologique.

Lire. Tester. Comparer. Essayer de comprendre ce qui sort. Faire le tri. Identifier ce qui est structurant, ce qui est accessoire, ce qui est encore immature, ce qui peut déjà servir sur le terrain. Accepter aussi de ne pas tout comprendre immédiatement.

Parce que la nouveauté ne se laisse pas toujours apprivoiser en quelques minutes.

La veille demande de la régularité, de la rigueur, de la curiosité, et une certaine capacité à vivre avec l’incertitude temporaire. On lit parfois quelque chose sans en mesurer immédiatement toutes les implications. Puis quelques jours plus tard, une idée se connecte à une autre, un besoin client résonne différemment, et tout prend sens.

C’est l’un des grands paradoxes de nos métiers : pour bien conseiller, il faut souvent passer beaucoup de temps à apprendre sans finalité immédiate.

Former, expliquer, partager : la vraie fierté

Quand Nicolas m’a demandé ce dont j’étais le plus fier, je n’ai pas répondu un projet précis, une architecture, une mission ou un titre. Ce qui me rend fier, au fond, c’est la formation.

Former des personnes à utiliser des outils, des plateformes, des concepts, des environnements techniques… cela m’accompagne depuis longtemps. Et avec le temps, je me suis rendu compte que ce n’était pas simplement une compétence secondaire : c’était l’un des fils rouges de mon parcours.

J’ai longtemps eu peur de parler en public. Peur d’expliquer. Peur de mal faire. Peur de ne pas être à la hauteur.

Et pourtant, c’est précisément en affrontant cela que j’ai découvert quelque chose d’essentiel : le partage n’est pas réservé à ceux qui se sentent déjà parfaitement légitimes. Il se construit en faisant, en essayant, en apprenant à être clair, en acceptant d’être imparfait au départ.

L’informatique, pour moi, a toujours été liée au partage. Le MVP aussi.

Être MVP, ce n’est pas simplement connaître des produits. C’est accepter de prendre du temps pour les autres. C’est transformer une découverte technique en contenu utile. C’est répondre à une question qui semble simple mais qui demande une vraie pédagogie. C’est parfois écrire un article très détaillé pour éviter à quelqu’un plusieurs heures, ou plusieurs jours, de blocage.

Le blog, la francophonie, et l’importance du contenu en français

Quand j’ai décidé de vraiment me lancer dans l’écriture sur mon blog en 2021, ce n’était pas un hasard. Je trouvais important de produire du contenu en français.

L’anglais reste évidemment omniprésent dans la tech, et il est indispensable. Mais cela ne veut pas dire qu’il faut abandonner le reste. Il y a une vraie place pour des contenus francophones exigeants, détaillés, techniques, utiles, et capables d’accompagner des professionnels à différents niveaux de maturité.

Article après article, on construit quelque chose. Pas seulement un site. Pas seulement une vitrine. Mais une bibliothèque vivante, un espace d’explication, un fil conducteur. Avec le temps, ce travail devient visible, il circule, il est repris, partagé, commenté, et il finit aussi par vous faire rencontrer d’autres personnes qui partagent la même envie.

C’est aussi ce chemin-là qui m’a permis d’être repéré et d’entrer dans une dynamique menant au programme MVP.

Et je crois sincèrement que c’est un message important pour tous ceux qui hésitent encore : publier en français n’est pas une limite. C’est une contribution.

Le programme MVP : bien plus qu’un badge

Quand on entend parler du programme Microsoft MVP, on imagine parfois quelque chose de très lointain, presque inaccessible. La réalité est à la fois plus simple et plus exigeante.

Plus simple, parce qu’il ne s’agit pas d’un parcours réservé à une élite née “experte”. Les profils sont très variés, les chemins aussi, et il n’existe pas un modèle unique.

Plus exigeante, parce que cela demande de la durée, de la régularité et un engagement réel. On ne devient pas MVP “par hasard”, ni en faisant un coup ponctuel. Ce qui compte, c’est la somme des contributions, la cohérence dans le temps, la valeur créée pour la communauté.

Dans mon cas, j’ai commencé à me fixer cet objectif en 2020. Non pas comme une obsession, mais comme une direction. Un cap. Quelque chose qui me motivait et qui me poussait à structurer davantage mes contributions.

Le blog a joué un rôle central. Les échanges avec la communauté aussi. Puis viennent les rencontres, les discussions, les passerelles, les recommandations, et le moment où tout cela finit par former un dossier, une crédibilité, une continuité.

Ce qui est beau dans le programme MVP, c’est qu’il récompense une démarche profondément humaine : celle de donner avant de recevoir.

Une communauté qui rayonne aussi en français

L’un des points qui me tient particulièrement à cœur, et que nous avons aussi évoqué lors de l’interview, c’est la place de la communauté francophone.

On entend souvent que la communauté anglophone est plus visible, plus vaste, plus structurée. C’est vrai à bien des égards. Mais cela ne doit pas masquer une autre réalité : nous avons aussi, côté francophone, des experts, des passionnés, des créateurs de contenu, des organisateurs de meetups et des professionnels qui font un travail remarquable.

Il faut continuer à faire rayonner cela. C’est exactement dans cet esprit que des initiatives communautaires prennent forme, grandissent, s’ancrent localement et créent du lien. J’ai évoqué avec Nicolas l’aventure du Chalet Azure Romandie, créé avec Seyfallah, Eric et Chloé, et qui s’inscrit dans cette logique de continuité, de proximité et de partage en français, en Suisse romande.

Ce type d’initiative a une vraie valeur. Parce qu’il ne s’agit pas seulement de “faire un événement”. Il s’agit de créer des ponts entre les technologies, les personnes, les expériences et les niveaux de maturité. Il s’agit de rendre la communauté visible, accessible et vivante.

Et cela rejoint parfaitement l’esprit MVP.

L’IA : révolution, accélération, responsabilité

Impossible aujourd’hui de parler de technologie, de formation, d’évolution des métiers ou même de veille sans parler d’intelligence artificielle.

Mon regard sur le sujet est assez clair : nous vivons une vraie révolution. Peut-être comparable, dans ce qu’elle provoque, à ce qu’a représenté l’arrivée massive de l’informatique pour les générations précédentes.

La différence, c’est la vitesse. Tout semble aller plus vite. Les annonces, les outils, les usages, les débats, les démonstrations, les inquiétudes, les promesses, les projections. On a parfois l’impression qu’il ne se passe pas une semaine sans nouveauté marquante.

Mais cette accélération rend la pédagogie encore plus importante.

On ne peut pas demander aux gens d’adopter l’IA sans les accompagner. Il faut expliquer les bénéfices, les limites, les risques, les précautions, les cas d’usage, les mauvaises pratiques, les angles morts. Il faut montrer, contextualiser, démystifier.

Et pour les juniors, je pense qu’il y a là une opportunité majeure.

Non pas pour tout déléguer. Non pas pour croire que l’outil remplace l’apprentissage. Mais pour vulgariser, comprendre plus vite, explorer, tester, gagner en autonomie, obtenir un premier niveau d’explication, puis approfondir de manière plus rigoureuse.

L’IA ne dispense pas de penser. Mais bien utilisée, elle peut accélérer la montée en compétence.

Le vrai conseil aux juniors : ne pas être son propre frein

Quel conseil je donnerais à quelqu’un qui démarre ? Quelque chose que je crois profondément : nous sommes souvent notre propre frein.

Le syndrome de l’imposteur existe. Le doute existe. Le sentiment de ne pas être prêt, pas légitime, pas assez avancé, pas assez diplômé, pas assez expérimenté… existe.

Mais si l’on attend de se sentir totalement prêt, on risque d’attendre très longtemps.

Il faut évidemment apprendre, tester, progresser, pratiquer, lire, se former. Il faut respecter la complexité du métier. Mais il faut aussi accepter de commencer avant de se sentir parfait.

Personne ne construit une expertise en une semaine. Personne ne devient architecte, conférencier, créateur de contenu ou MVP d’un seul coup. Cela se fait progressivement, souvent dans l’ombre, parfois dans le doute, mais toujours dans le mouvement.

Croire un peu plus en soi, se fixer des objectifs réalistes, avancer étape par étape, accepter l’effort et la durée : c’est souvent là que les choses se débloquent.

Ce que je retiens de cette édition 2026

Si je devais résumer cette expérience en quelques idées, je dirais ceci : Le Microsoft MVP Summit est un concentré de technologie, de communauté et d’énergie.

C’est un moment où l’on prend du recul. Où l’on retrouve le sens du mot “partage”. Où l’on réalise que derrière les articles, les vidéos, les meetups, les blogs, les posts LinkedIn, les démos et les discussions techniques, il y a avant tout des personnes qui essaient sincèrement d’aider d’autres personnes à mieux comprendre le monde Microsoft.

C’est aussi un rappel que rien n’est figé. Les produits évoluent. Les métiers évoluent. Les communautés évoluent. Les trajectoires aussi. Et quelque part, c’est cela qui rend l’IT si passionnante.

Conclusion

Participer au Microsoft MVP Summit 2026 à Redmond a été bien plus qu’un déplacement ou qu’une suite de sessions.

C’était une immersion dans ce que la tech a de meilleur quand elle est portée par des personnes passionnées, curieuses, engagées et généreuses dans le partage.

À travers les échanges, les rencontres sur place, les discussions autour du programme MVP, de la communauté francophone, de la veille, de la formation et de l’IA, une idée ressort très clairement : l’expertise ne vaut vraiment que si elle circule. Et c’est sans doute cela, au fond, que le programme MVP incarne le mieux.

Pas seulement la maîtrise d’une technologie. Mais la volonté de la rendre plus accessible aux autres.

Encore merci de m’avoir lu jusqu’au bout, merci une nouvelle fois à TD SYNNEX pour cette seconde expérience inoubliable et au plaisir de vous retrouver une fois sur le campus 😎

Remote Display Analyzer

Dans les environnements de bureaux à distance modernes (Azure Virtual Desktop, Windows 365, Citrix …) l’expérience utilisateur dépend énormément du protocole d’affichage distant, du réseau, des ressources , … Quand tout fonctionne bien, personne ne s’en préoccupe. Mais dès qu’un utilisateur dit : « mon Cloud PC lag », « la vidéo est saccadée », « j’ai un délai quand je tape au clavier » … on entre immédiatement dans une zone grise. Bon courage pour comprendre la cause !

Un problème d’affichage distant peut venir de nombreux endroits : réseau, client, serveur, GPU, codec vidéo, politiques de compression et j’en passe.

C’est exactement pour cela que j’aime beaucoup un outil que j’utilise régulièrement lors de phases de troubleshooting : Remote Display Analyzer (RDA).

Cet outil permet de voir et tester en direct ce que fait réellement le protocole d’affichage distant :

Avant d’aller plus loin, je voulais remercier l’équipe RDA de m’avoir donné une licence pour réaliser mes tests.

Et pour vous guider plus facilement dans cet article très long, voici des liens rapides :

Qu’est‑ce que Remote Display Analyzer ?

Remote Display Analyzer (RDA) est un petit et très léger outil conçu pour analyser les protocoles d’affichage utilisés dans les environnements de virtualisation de poste de travail.

Il ne supporte pas que des environnements Microsoft, mais bon nombre de solutions présentes sur le marché, notamment :

  • Microsoft RDP
  • Azure Virtual Desktop
  • Windows 365
  • Citrix HDX
  • Omnissa / VMware Horizon Blast
  • Nutanix Frame

Combien coûte RDA ?

Remote Display Analyzer est décliné en plusieurs éditions afin de répondre à des besoins différents. En plus de l’édition Community, il existe une édition Personal ainsi qu’une édition Company, qui offrent des fonctionnalités avancées adaptées à des usages plus professionnels ou à grande échelle :

Il existe une version gratuite de RDA : l’édition Community permet d’accéder aux statistiques temps réel du protocole d’affichage, ce qui est largement suffisant pour de nombreux scénarios de diagnostic et de troubleshooting :

Voici un lien de téléchargement de la version gratuite de RDA. Enfin les deux autres versions payantes sont plus complètes, et remontent plus données :

Comment fonctionne RDA ?

Comme annoncé plus haut, Remote Display Analyzer ne nécessite aucune installation préalable. L’outil se présente sous la forme d’un simple exécutable qui peut être lancé directement à l’intérieur d’une session distante, sans configuration particulière.

Voici un lien vers ses fonctionnalités. Dès que RDA est lancé, il détecte automatiquement :

  • le protocole utilisé
  • le mode d’affichage actif
  • l’encodeur vidéo

Dans le cas d’Azure Virtual Desktop, Remote Display Analyzer permet également de vérifier si la session utilise RDP Shortpath.

  • RDP Shortpath est un mode de transport UDP qui permet d’améliorer les performances et de réduire la latence dans les sessions AVD.
  • Lorsque Shortpath est actif, le trafic RDP ne passe plus uniquement par le service de gateway Azure, mais peut établir un chemin direct entre le client et la machine virtuelle.

Remote Display Analyzer permet de vérifier immédiatement si la session utilise le transport TCP classique ou le mode UDP (RDP Shortpath) :

Il affiche également différentes métriques en temps réel, comme par exemple :

  • bande passante utilisée
  • latence réseau
  • nombre de frames
  • frames perdues
  • GPU

Il vous informe sur les statistiques portant sur les paquets envoyés et les contraintes potentielles sur ces derniers, mais également sur les FPS envoyés :

Enfin, il vous donne des informations utiles sur le GPU :

Dans les environnements Azure Virtual Desktop ou Windows 365 utilisant des machines virtuelles avec GPU (par exemple NV-series ou NVads), l’encodage vidéo peut être offloadé vers le GPU. Lorsque cette accélération est active :

  • la charge CPU diminue
  • l’encodage vidéo devient plus rapide
  • l’expérience utilisateur est plus fluide

Remote Display Analyzer permet de vérifier si l’encodeur vidéo GPU est réellement utilisé et d’observer en temps réel la latence de l’encodeur ainsi que le nombre de frames générées.

Cela permet notamment de vérifier que les politiques GPU sont correctement appliquées sur les session hosts AVD.

Comment interpréter les métriques de RDA ?

Certaines métriques sont particulièrement utiles pour comprendre l’expérience utilisateur.

  • FPS :
    • Un environnement fluide tourne généralement entre 25 FPS et 60 FPS
    • En dessous de 20 FPS, les utilisateurs commencent souvent à percevoir des saccades.
  • Latence round-trip :
    • < 40 ms → excellent
    • 40-80 ms → correct
    • 100 ms → visible
  • Video Encoder Latency
    • Une latence encodeur trop élevée peut indiquer : CPU saturé, GPU absent, codec mal configuré

Qu’est-ce que les « Skipped Frames » ?

Dans les protocoles d’affichage distants, toutes les images générées par l’application ne sont pas forcément envoyées au client.

Lorsque certaines ressources deviennent limitées, le protocole peut décider d’ignorer certaines images afin de maintenir une expérience utilisateur acceptable.

Remote Display Analyzer permet d’identifier trois types de frames ignorées :

Skipped frames – client

Cela signifie que le client ne peut pas décoder ou afficher les images assez rapidement. Les causes les plus fréquentes sont :

  • client peu puissant
  • GPU absent
  • décodage vidéo logiciel
  • écran haute résolution

Skipped frames – network

Dans ce cas, c’est le réseau qui devient le facteur limitant. Le protocole décide alors de réduire le flux graphique. Cela peut être causé par :

  • bande passante insuffisante
  • latence élevée
  • pertes de paquets
  • congestion réseau

Skipped frames – server

Ici le problème vient du serveur lui-même. Cela peut être dû à :

  • CPU saturé
  • GPU saturé
  • trop de sessions par host
  • encodage vidéo trop lourd

Quelques exemples de problèmes que RDA permet d’analyser :

Un premier cas fréquent concerne la latence élevée dans les sessions distantes. Les utilisateurs peuvent ressentir un délai entre l’action réalisée sur le clavier ou la souris et la réaction affichée à l’écran. Dans ce type de situation, Remote Display Analyzer permet de visualiser la latence réseau, le nombre de frames envoyées et les éventuelles frames perdues afin d’identifier si le problème vient du réseau, du serveur ou du client.

Dans l’exemple ci-dessous, RDA analyse une session Windows 11 dans Azure Virtual Desktop :

Comme la vidéo le montre, il peut être très instructif de simuler différents niveaux de latence réseau afin d’observer comment la session se comporte dans des conditions WAN plus difficiles. Remote Display Analyzer permet alors de suivre en temps réel l’impact de la latence sur la fluidité et la réactivité.

Un autre problème courant concerne les vidéos ou les animations qui deviennent saccadées. Les utilisateurs peuvent par exemple remarquer que Microsoft Teams, YouTube ou certaines applications graphiques ne sont pas fluides. Dans ce cas, l’outil permet d’analyser le nombre d’images par seconde, le codec vidéo utilisé ainsi que la bande passante réellement consommée par la session :

On rencontre également souvent des problèmes d’image floue ou de compression trop forte. Dans ces situations, le texte peut sembler légèrement dégradé ou certaines images peuvent apparaître très compressées. Remote Display Analyzer permet alors de tester différents niveaux de compression et différentes qualités d’image afin de trouver le bon compromis entre qualité visuelle et consommation réseau.

Enfin, certains environnements rencontrent des problèmes de charge CPU trop élevée sur les serveurs. Cela peut se produire lorsque l’encodage vidéo est effectué par le CPU plutôt que par le GPU. Dans ce type de scénario, RDA permet de vérifier si l’encodage GPU est réellement utilisé ou si le CPU est responsable du traitement graphique :

Peut-on modifier certains réglages graphiques avec RDA ?

Ce qui rend l’outil vraiment intéressant est une autre capacité. Remote Display Analyzer permet de modifier certains paramètres d’affichage en live pour les environnements Citrix. Cela permet de faire des tests très rapides pour comprendre l’impact réel d’une configuration. Par exemple :

  • codec vidéo
  • profondeur de couleur
  • compression
  • qualité d’image
  • frames par seconde

Comme le rappelle l’éditeur dans leur FAQ, RDA nécessite les droits administrateur pour pouvoir effectuer ces modifications.

Conclusion

Remote Display Analyzer est un outil extrêmement simple, mais particulièrement utile dans les environnements EUC.

Lorsqu’un utilisateur signale que son bureau distant est lent ou que la vidéo est saccadée, il est souvent difficile de savoir immédiatement si le problème vient du réseau, du client, du serveur ou du protocole lui-même.

Grâce à ses métriques en temps réel et à sa capacité à modifier certains paramètres graphiques à la volée, Remote Display Analyzer permet de mieux comprendre le comportement du protocole d’affichage distant.

Pour les administrateurs travaillant avec Azure Virtual Desktop, Windows 365, Citrix ou Horizon, c’est clairement un outil que je recommande d’avoir dans sa boîte à outils de troubleshooting.

Migrez de VMware vers Hyper-V grâce à Windows Admin Center

Le rachat de VMware par Broadcom a agi comme un électrochoc. Aujourd’hui, la question n’est plus faut-il migrer? , mais comment migrer sans tout casser ou y perdre tous ses cheveux?. Entre les solutions tierces payantes et les méthodes manuelles risquées, Microsoft a discrètement sorti une arme redoutable : l’extension VM Conversion pour Windows Admin Center (WAC).

Après avoir testé l’outil encore en préversion, je voulais partager avec vous mon expérience. Et pour vous guider plus facilement dans cet article très long, voici des liens rapides :

Pourquoi quitter VMware ?

Le rachat de VMware par Broadcom a agi comme un électrochoc. Beaucoup de clients ont vu les coûts augmenter fortement après le rachat, car Broadcom a changé le modèle de licences (par exemple passage d’une licence perpétuelle à un modèle d’abonnement) et restructuré les offres. Certains ont reçu des renouvellements jusqu’à plusieurs fois plus chers qu’avant pour les mêmes besoins.

Ces changements rapides dans la structuration des produits, des bundles et du support ont créé de l’incertitude sur la roadmap et l’avenir des produits VMware, ce qui amène les DSI à repenser leurs choix technologiques à long terme

On retrouve d’ailleurs pas mal de blogueurs parlant de cet exode :

Qu’est-ce que Windows Admin Center ?

Présent depuis des années, Windows Admin Center (souvent abrégé WAC) est un outil d’administration web développé par Microsoft pour gérer des serveurs Windows, des clusters et des environnements hyperconvergés, depuis une interface moderne accessible via navigateur.

Concrètement, Windows Admin Center vous permet d’administrer, sans passer par du RDP, un grand nombre de services Microsoft :

  • Windows Server
  • Hyper-V
  • Clusters (Failover Clustering)
  • Machines virtuelles
  • Serveurs distants (on-prem ou Azure)
  • Stockage (Storage Spaces Direct)

Qu’est-ce que l’extension VM Conversion ?

C’est un nouvel outil Microsoft intégré à Windows Admin Center qui permet de migrer des machines virtuelles depuis VMware vCenter/ESXi vers Hyper-V, en mode agentless :

Actuellement, Il s’agit d’une extension prévue pour minimiser le temps d’arrêt grâce à la réplication en ligne des disques.

Attention, cette extension n’est pas pour but de migrer vers Azure Local. Un autre article déjà écrit il y a plusieurs mois traite de ce type de migration : de VMware à Azure Local.

Combien coûte VM Conversion ?

L’extension est actuellement en préversion. Son usage n’implique aucun coût de licence supplémentaire, mais pas non plus de support garanti par Microsoft.

Quelles versions d’OS sont supportées ?

Microsoft annonce une large liste sur la compatibilité :

  • Tous les vCenter VMware 6.x, 7.x et 8.x sont pris en charge
  • Côté OS invités :
    • Windows Server 2025, 2022, 2019, 2016, 2012 R2
    • Windows 10/11
    • Ubuntu 20.04, 24.04
    • Debian 11, 12
    • Alma Linux
    • CentOS
    • Red Hat Linux 9.0

L’extension fonctionne également dans un environnement Hyper-V en cluster (WSFC) : elle est cluster-aware et détecte correctement les nœuds et ressources.

Il supporte la migration de VM depuis ESXi vers des clusters Windows Server Failover (WSFC) sous Hyper-V. Vous pouvez donc distribuer les VM migrées sur plusieurs nœuds Hyper-V pour HA ou performances.

Quels sont les prérequis pour VM Conversion ?

  • Côté Windows Admin Center :
    • WAC en version au moins v2410 build 2.4.12.10 ou supérieure
    • PowerShell et PowerCLI installés
    • VMware VDDK version 8.0.3 installé
    • Visual Studio 2013 et 2015 installés
  • Côté Hyper-V :
    • le rôle Hyper-V doit être installé sur le (s) hôte (s) cible
    • Le compte utilisé durant le processus doit être administrateur local ou membre du groupe Hyper-V Administrators).
    • Si des VMs migrées sont sous Linux, les modules Hyper-V (hv_vmbus, hv_netvsc, hv_storvsc) et Linux Integration Services (hyperv-daemons ou linux-cloud-tools) doivent être pré-installés dans l’initramfs avant migration.

Combien de VM puis-je migrer simultanément ?

Jusqu’à 10 machines virtuelles par lot. On peut grouper ces machines selon leur dépendance applicative, leur placement dans un cluster ou même selon des critères métier (ex : séparer environnement de test/prod). Cela facilite les migrations massives par workload.

Comment l’outil VM Conversion marche ?

Microsoft explique bien les deux phases présentes dans l’outil VM Conversion :

Synchronisation : l’extension effectue une copie complète initiale des disques de la machine virtuelle pendant que la VM source continue de fonctionner. Cette phase minimise les temps d’arrêt en vous permettant de planifier la migration finale à un moment qui vous convient.

Migration : l’extension utilise la fonctionnalité Change Block Tracking (CBT) pour rechercher et répliquer uniquement les blocs modifiés depuis la dernière synchronisation. Pendant la transition, la machine virtuelle source est mise hors tension et une synchronisation delta finale capture toutes les modifications restantes avant d’importer la machine virtuelle dans Hyper-V.

Microsoft Learn

Quid du temps d’arrêt ?

Pendant la phase de synchronisation, la VM source continue de tourner, pendant qu’une copie initiale des disques est envoyée sur l’hôte Hyper-V, via la création d’un snapshot pour suivre les changements.

Au moment de la bascule, la VM source est arrêtée pour un dernier delta-sync avant import; ce processus réduit donc au minimum la fenêtre d’arrêt.

Que devient VMware Tools sur le VM migré ?

La présence de VMware Tools dans une VM sous Hyper-V peut provoquer des conflits de pilotes, donc il vaut mieux les retirer.

  • Initialement, il fallait supprimer les outils VMware Tools manuellement après la bascule vers Hyper-V.
  • Depuis la version 1.8.0, l’extension supprime automatiquement VMware Tools sur les VM Windows migrées en fin de processus.
  • Pour les VM Linux, il est recommandé de ne pas réinstaller open-vm-tools sur la cible Hyper-V (on s’appuie uniquement sur les pilotes Hyper-V ajoutés).

Et enfin, comme toujours, je vous propose dans la suite de cet article d’effectuer ensemble un pas à pas pour couvrir la migration de machines virtuelles hébergées sur VMware vers Hyper-V :

Etape 0 – Rappel des prérequis :

Des prérequis sont nécessaires pour réaliser cet exercice dédié à la migration d’une machine virtuelle hébergée sur VMware vers Hyper-V via Windows Admin Center. Pour tout cela, j’ai utilisé :

  • Un environnement VMware
  • Un environnement Hyper-V
  • Une connexion réseau entre le réseau les deux hyperviseurs

Commençons par l’installation de Windows Admin Center sur une nouvelle machine hébergée sur VMware.

Etape I – Installation de Windows Admin Center :

Sur une machine virtuelle dédiée dans votre environnement VMware, téléchargez la dernière version de Windows Admin Center depuis la page officielle de Microsoft :

Choisissez l’installation avec l’option Express :

Dans cette démonstration, utilisez un certificat temporaire :

Lancez l’installation :

Une fois l’installation terminée, ouvrez la page de Windows Admin Center, puis authentifiez-vous avec votre compte :

Une fois connecté dans la console Windows Admin Center, attendez quelques minutes la fin de l’installation des extensions préinstallées :

Rendez vous dans les paramétrages dans WAC afin d’ajouter l’extension dédiée à la migration :

Etape II – Installation de prérequis WAC :

Comme indiqué dans la documentation Microsoft, certains prérequis doivent être installés sur la machine de Windows Admin Center.

Commencez par installer Visual C++ Redistributable Packages for Visual Studio 2013

Continuez en installant également Visual C++ 2015-2022 Redistributable 14.50.35719.0 :

Récupérez et décompressez VMware Virtual Disk Development Kit (VDDK), en version 8.0.3, dans le dossier WAC suivant :

Redémarrez ensuite votre machine virtuelle contenant Windows Admin Center.

Etape III – Connexion à Hyper-V depuis WAC :

Une fois la machine virtuelle WAC redémarrée, rouvrez la console, puis cliquez ici pour ajouter une connexion vers votre serveur Hyper-V :

Cliquez sur Ajouter :

Renseignez l’adresse IP de votre Hyper-V, les éléments d’identification, puis cliquez sur Ajouter :

La connexion est établie, cliquez dessus pour l’ouvrir :

Dans le menu de gauche, cherchez l’extension consacrée à la migration, cochez la case suivante pour installer PowerCLI, puis cliquez ici :

Attendez la fin de l’installation de PowerCLI :

Une fois l’installation terminée, cliquez ici ajouter une connexion à votre vCenter, renseignez vos informations de connexion, puis cliquez ici :

Une fois la connexion établie avec vCenter, les machines virtuelles s’afficheront :

Le protocole de test est maintenant en place. Commençons les tests par la migration d’une machine virtuelle fonctionnant sous Windows Server.

Etape IV – Test Windows : Synchronisation de la VM :

Toujours dans la liste des machines virtuelles, cochez sur une des VMs Windows disponibles, puis cliquez ici pour démarrer la synchronisation :

Renseignez le dossier de destination sur votre serveur Hyper-V, puis cliquez sur Synchroniser :

La phase de vérification préalable à la migration vient de démarrer (accessibilité, compatibilité matérielle, compatibilité OS, configuration réseau, …) :

La première copie des disques VMDK vers Hyper-V est en cours pour la création des fichiers VHDX par la suite :

Constatez d’ailleurs la création du dossier sur le serveur Hyper-V :

La migration passe en mode synchronisation différentielle afin de ne copier que les blocs modifiés depuis la synchronisation initiale, réduisant ainsi le volume de données à transférer avant le cutover :

Provisioning du disque cible Hyper-V (VHDX) : l’infrastructure prépare le stockage avant l’application des blocs synchronisés issus de la VM VMware :

Phase de delta sync : les blocs modifiés identifiés via CBT sont appliqués au disque Hyper-V afin d’aligner la VM cible avec l’état courant de la VM source :

Le monitoring de la carte réseau montre bien le transfert des données :

Synchronisation complète (100 %) : l’intégralité des données de la VM source est maintenant répliquée côté Hyper-V :

La VM cible est maintenant entièrement alignée avec la VM VMware et peut être basculée vers Hyper-V avec un dernier delta minimal.

Nous allons pouvoir procéder à la migration.

Etape V – Test Windows : Migration de la VM :

A ce stade, la machine virtuelle sous VMware est toujours allumée :

Testez le delta de migration en rajoutant sur votre machine virtuelle source de nouveaux fichiers :

Retournez ensuite sur Windows Admin Center afin de lancer la migration de celle-ci :

Choisissez ou non de désinstaller les outils VMware, puis cliquez ici :

Lancement de la migration : exécution des vérifications préalables avant bascule définitive vers la VM Hyper-V cible :

Vérifications pré-migration terminées : la synchronisation finale des blocs modifiés (delta sync) est en cours avant l’arrêt et la bascule de la VM :

Un snapshot est bien créé côté VMware :

Delta Sync en cours : application des derniers blocs modifiés afin d’aligner définitivement la VM cible avant le cutover final vers Hyper-V.

Arrêt de la VM source : la machine VMware est éteinte et la phase finale de synchronisation est lancée avant le démarrage côté Hyper-V :

La machine virtuelle est bien arrêtée côté VMware :

Migration terminée (100 %) : la VM cible Hyper-V est créée, synchronisée et prête à être démarrée en production :

La VM migrée s’exécute désormais sur Hyper-V, confirmant le succès du cutover depuis l’environnement VMware :

Windows détecte un arrêt inattendu lié au cutover, confirmant que la VM a bien été basculée depuis l’environnement VMware vers Hyper-V :


Erreur VMware Tools au premier démarrage : les anciens composants VMware, désormais incompatibles sous Hyper-V, doivent être désinstallés après la migration :

Désinstallez les VMware Tools devenus inutiles après le passage de la VM sous Hyper-V :

Les fichiers créés avant la commande Migrate sont bien présents après la bascule, confirmant l’intégrité de la synchronisation finale :

Notre serveur Windows a bien été migré depuis VMware vers Hyper-V avec succès. Testons maintenant la même opération avec un serveur Linux.

Etape VI – Test Linux : Synchronisation de la VM :

Exemple réalisé ici sur AlmaLinux / RHEL-like. Le but étant de :

  • Désinstaller VMware Tools
  • Installer composants Hyper-V
  • Recréer initramfs si nécessaire
  • Reboot

Pour cela créez une machine virtuelle Linux dont l’OS est compatible avec l’outil de Migration :

Avant la migration, ajoutez les pilotes Hyper-V à l’initramfs, reconstruction avec dracut, puis redémarrage pour assurer un démarrage correct sous Hyper-V.

echo 'add_drivers+=" hv_vmbus hv_storvsc hv_netvsc "' | sudo tee /etc/dracut.conf.d/hyperv.conf
sudo dracut -f --regenerate-all
sudo reboot

Toujours avant la migration, installez des services d’intégration Hyper-V (hyperv-daemons) afin d’optimiser les performances et l’interaction entre la VM Linux et l’hôte Hyper-V.

Exemple réalisé sur une distribution RHEL-like (AlmaLinux / Rocky / RHEL). (Adaptez la commande si vous êtes sur Ubuntu ou Debian) :

sudo dnf install hyperv-daemons -y

Vérifiez le chargement des modules Hyper-V (hv_*) dans le noyau Linux afin de confirmer la bonne prise en charge de l’environnement Hyper-V :

Toujours dans la liste des machines virtuelles, cochez sur une des VMs Linux disponibles, puis cliquez ici pour démarrer la synchronisation :

Renseignez le dossier de destination sur votre serveur Hyper-V, puis cliquez sur Synchroniser :

La phase de vérification préalable à la migration vient de démarrer (accessibilité, compatibilité matérielle, compatibilité OS, configuration réseau, …) :

La première copie des disques VMDK vers Hyper-V est en cours pour la création des fichiers VHDX par la suite :

Constatez d’ailleurs la création du dossier sur le serveur Hyper-V :

La migration passe en mode synchronisation différentielle afin de ne copier que les blocs modifiés depuis la synchronisation initiale, réduisant ainsi le volume de données à transférer avant le cutover :

Phase de delta sync : les blocs modifiés identifiés via CBT sont appliqués au disque Hyper-V afin d’aligner la VM cible avec l’état courant de la VM source :

Le monitoring de la carte réseau montre bien le transfert des données :

Synchronisation complète (100 %) : l’intégralité des données de la VM source est maintenant répliquée côté Hyper-V :

La VM cible est maintenant entièrement alignée avec la VM VMware et peut être basculée vers Hyper-V avec un dernier delta minimal.

Nous allons pouvoir procéder à la migration.

Etape VII – Test Linux : Migration de la VM :

Retournez ensuite sur Windows Admin Center afin de lancer la migration de celle-ci :

Lancement de la migration : exécution des vérifications préalables avant bascule définitive vers la VM Hyper-V cible :

Arrêt de la VM source : la machine VMware est éteinte et la phase finale de synchronisation est lancée avant le démarrage côté Hyper-V :

La machine virtuelle est bien arrêtée côté VMware :

Migration terminée (100 %) : la VM cible Hyper-V est créée, synchronisée et prête à être démarrée en production :

La VM migrée s’exécute désormais sur Hyper-V, confirmant le succès du cutover depuis l’environnement VMware :

Conclusion

La migration d’un environnement VMware vers Hyper-V n’est jamais une décision anodine. Elle est souvent motivée par des enjeux économiques, stratégiques ou organisationnels. Mais quelle qu’en soit la raison, elle doit rester avant tout une opération maîtrisée, structurée et techniquement fiable.

L’extension VM Conversion de Windows Admin Center n’est pas un simple assistant graphique. Elle propose une approche orchestrée et cohérente : synchronisation initiale, delta via CBT, puis phase de bascule contrôlée. Ce n’est pas “magique” et cela ne dispense pas d’une préparation sérieuse. En revanche, l’outil apporte un cadre clair qui simplifie fortement un processus historiquement complexe.

Dans mes tests, l’expérience s’est révélée stable et lisible. La gestion des clusters Hyper-V (WSFC), la logique de synchronisation progressive et l’interface unifiée dans WAC rendent la migration bien plus accessible qu’avec des méthodes artisanales. Cela reste une extension en preview, donc à évaluer sérieusement en environnement de test avant toute utilisation en production, mais la base technique est solide.

Ce qui est certain, c’est qu’une alternative crédible existe désormais pour les organisations qui souhaitent diversifier ou repositionner leur stratégie d’hyperviseur. La migration ne doit plus être perçue comme un saut dans l’inconnu, mais comme un projet structuré, pilotable et documenté.

Facilitez-vous la vie avec WVDAdmin

Combien de clics faut-il réellement pour capturer proprement une image AVD, la versionner dans une galerie, puis redéployer 10 hôtes sans erreur ? Si vous administrez Azure Virtual Desktop au quotidien, vous connaissez la réalité : le portail Azure fonctionne très bien… mais l’opérationnel est répétitif, chronophage, et parfois fragile. Image → Sysprep → Snapshot → Galerie → Version → Déploiement → Intégration au pool → Vérifications. Et on recommence !

Azure Virtual Desktop a énormément évolué ces dernières années. Builder, améliorations ARM/Bicep, automatisations natives… mais malgré tout, dans la vraie vie d’un admin ou d’un architecte, on cherche surtout à raccourcir la boucle opérationnelle.

C’est exactement là que WVDAdmin entre en jeu. Un outil communautaire, simple, direct, qui ne cherche pas à réinventer AVD, mais à compresser le quotidien.

Et pour vous guider plus facilement dans cet article très long, voici des liens rapides :

Qu’est-ce que WVDAdmin ?

WVDAdmin est un outil graphique communautaire pour administrer Azure Virtual Desktop (anciennement Windows Virtual Desktop) via une application installée localement. WVDAdmin a été développé par Marcel Meurer et est disponible via son blog ITProCloud.

Qui est Marcel Meurer ?

Marcel Meurer est un expert allemand spécialisé dans Azure Virtual Desktop (AVD) et l’automatisation Azure. Il a reçu une double nomination en tant que Microsoft MVP, et il fait partie de ce prestigieux programme depuis plus de onze années.

Marcel Meurer est également le créateur de Hydra for Azure Virtual Desktop. Nous reviendrons sur Hydra for Azure Virtual Desktop dans un prochain article.

Que peut-on faire avec WVDAdmin ?

Une bonne manière de comprendre WVDAdmin est la suivante : il ne cherche pas à « remplacer Azure Virtual Desktop », mais à compresser la boucle opérationnelle (image → déploiement → exploitation → mise à jour) en moins de clics et dans une interface unique.

Basé sur sa documentation officielle, voici un résumé de ce que WVDAdmin peut faire pour vous.

  • Workflow d’image golden : création d’images à partir d’un « golden master » sans détruire la VM maître/modèle, avec gestion de Sysprep, des applications modernes et des opérations de nettoyage.
  • Déploiement (rollout) : déploiement de plusieurs hôtes de session, choix des tailles de VM par déploiement, prise en charge des disques éphémères, et options telles que « AAD only / joint à MEM/Intune » (selon l’auteur).
  • Opérations sur les ressources AVD : création, ajout et suppression de pools d’hôtes, groupes d’applications, espaces de travail et hôtes de session.
  • Opérations sur les sessions : déconnexion, délogage, envoi de messages et shadowing.
  • Opérations générales sur les VM Azure : inventaire des VM sur plusieurs abonnements (via Azure Resource Graph, avec un délai signalé), exécution de scripts à distance, snapshots/restaurations, et même réduction de la taille des disques OS.
  • Opérations en simultané : WVDAdmin supporte plusieurs tâches en simultané afin de gagner en efficacité.

WVDAdmin vs Hydra for AVD ?

WVDAdmin est à l’origine un outil communautaire gratuit pour Azure Virtual Desktop. WVDAdmin est intéressant lorsqu’on cherche une méthode rapide pour faire de l’imaging et du déploiement AVD. C’est une application Windows utilisée de manière interactive, donc sans automatisation planifiée.

Hydra en est une évolution plus avancée et orientée production (autoscaling, multi-tenant, orchestration plus poussée, etc.). Hydra apporte l’automatisation complète, l’optimisation des coûts, le monitoring via l’Hydra Agent, et supporte aussi des scénarios Azure Local.

WVDAdmin est donc un choix pertinent si l’on veut éviter de déployer des ressources supplémentaires Azure comme celles nécessaires pour Hydra.

CritèreWVDAdminHydra
TypeOutil GUI localPlateforme SaaS
Autoscaling
Multi-tenantLimitéOui
CoûtGratuitPayant
Infrastructure supplémentaireNonOui

Est-ce que WVDAdmin est toujours maintenu ?

L’outil WVDAdmin existe maintenant depuis au moins 5 ans. WVDAdmin est toujours maintenu, mais n’est peut-être plus aussi activement développé comme avant (les efforts d’amélioration sont principalement concentrés sur Hydra).

Il reçoit encore des mises à jour, principalement pour prendre en compte les nouveaux SKUs Azure, corriger des bugs ou assurer la compatibilité avec certains changements d’API :

Quoi qu’on en dise, plusieurs dernières releases de WVDAdmin sont sorties en 2026, avec une dernière version publiée le 06/02/2026 :

Combien coûte WVDAdmin ?

Là encore nous pouvons lui dire merci, car WVDAdmin un outil licence-free pour Azure Virtual Desktop, utilisable sans frais supplémentaires pour l’administration des ressources AVD via une application Windows.

Comment WVD accède aux ressources du tenant ?

WVDAdmin accès aux ressources Azure par le biais d’un principal de service, protégé par un secret. Celui-ci dispose de permissions sur AVD et sur les ressources Azure. L

’objectif est notamment d’éviter toute confusion lorsque l’administrateur IT est un compte invité dans un tenant client et doit changer régulièrement de tenant.

Voici d’ailleurs un exemple de fonctionnement dans le cadre de plusieurs tenants :

Comment WVDInfra marche ?

Au travers de sa chaîne YouTube, Marcel a mis à disposition une playlist spécifiquement consacré à WVDInfra, de son installation à différentes qu’il peut faire sur votre environnement Azure Virtual Desktop :

Et enfin, comme toujours, je vous propose dans la suite de cet article d’effectuer ensemble un pas à pas pour couvrir l’installation de WVDInfra, sa mise en service, la capture d’une image Windows 11 custom et enfin la création d’une hôte dans un environnement AVD :

Etape 0 – Rappel des prérequis :

Pour réaliser ce test sur WVDInfra, il vous faudra disposer de :

  • Un abonnement Azure valide
  • Un tenant Microsoft

Commençons par l’installation de WVDInfra sur votre poste local.

Etape I – Installation de WVDInfra :

Utilisez la page officielle de WVDAdmin pour accéder au téléchargement :

Lancez l’installation en spécifiant le contexte d’utilisation de celle-ci, puis cliquez sur Suivant :

Acceptez les termes et conditions, puis cliquez sur Suivant :

Cliquez sur Suivant pour démarrer l’installation :

Une fois l’installation réussie, cliquez ici pour fermer :

Cliquez sur WVDAdmin présent dans dans le menu Démarrer :

WVDAdmin se charge et n’affiche pour le moment aucune ressource ou information de l’environnement Azure :

Pour cela WVDInfra vous demande les informations suivantes sur l’onglet « Welcome » :

  • l’ID de tenant
  • le secret client
  • l’ID client du principal de service

Mais avant d’aller plus loin, il est nécessaire de configurer ce nouveau principal de service sur votre tenant afin de donner à WVDInfra un moyen de s’y authentifier :

Etape II – Configuration Entra :

La création du principal de service via le centre d’administration Entra :

Nommez votre application, puis cliquez ici :

Pour permettre la résolution des utilisateurs et groupes, des permissions doivent être rajoutées :

Cherchez la permission suivante, puis cliquez sur Ajouter :

WVDInfra a besoin d’un consentement administration afin d’accorder les permissions demandées au nom de toute l’organisation :

Vérifiez le changement de statut des permissions :

Le client secret est l’équivalent d’un mot de passe pour l’application. Il sert à authentifier l’application lorsqu’elle demande un token OAuth à Microsoft Entra ID. Ajoutez un secret à votre application WVDInfra :

Copiez la valeur de votre secret immédiatement lors de sa création, car il ne sera plus affiché par la suite :

L’ID d’application (client) et l’ID du tenant doivent être conservés pour la suite :

Collez ces trois valeurs dans l’interface de WVDInfra, sauvegardez, puis lancez un rechargement de l’inventaire :

A ce stade, WVDInfra a bien accès au tenant mais pas encore au ressource Azure :

En l’état, l’application WVDInfra a le service principal, avec qui il peut s’authentifier avec son client ID et son secret, mais n’a par défaut aucun droit sur les ressources Azure. Il peut demander un token, mais ce token ne lui permet rien tant qu’on ne lui attribue pas un rôle RBAC.

Etape III – Configuration Azure :

WVD infra doit modifier des ressources Azure. Et attribuer un rôle RBAC au service principal WVDInfra revient à dire : “Cette application a le droit de faire telle action, sur tel périmètre.”

Pour cela, configurez avec le rôle RBAC de Contributeur sur l’application WVDInfra :

Sur WVDInfra, relancez un rechargement afin de voir apparaître l’inventaire des groupes de ressources et des VMs :

Etape IV – Test de capture d’une VM :

Microsoft recommande que tous les hôtes de session d’un pool soient issus de la même image afin de garantir une expérience utilisateur cohérente. WVDAdmin positionne l’imagerie comme une fonctionnalité centrale : création d’images à partir d’un golden master sans détruire la VM source.

Créez une machine virtuelle Azure :

Créez également une galerie d’images :

Sur WVDInfra, lancez la création d’image depuis votre machine virtuelle :

Les journaux de WVDInfra commence par montrer la création de ressources Azure temporaires (snapshot, VM temporaire, disque temporaire) :

Par la suite, les journaux de WVDInfra montre la généralisation de l’image, la création de la version dans la galerie :

Enfin, les journaux de WVDInfra montre le nettoyage complet des ressources Azure temporaires :

En quelques clics, nous avons une image prête à être déployée sur votre environnement Azure Virtual Desktop. La suite des étapes se fait toujours dans WVDInfra.

Etape V – Test de création d’un hôte :

Avant cela, créez les objets AVD de base (pools d’hôtes, groupes d’applications, espaces de travail) :

Retournez sur WVDInfra, sélectionnez la version d’image, puis lancez le processus de création d’hôtes AVD :

Renseignez le formulaire de déploiement :

  • le nommage des VM,
  • le nombre d’hôtes,
  • la version d’image,
  • le pool d’hôtes,
  • le sous-réseau,
  • les paramètres de disque,
  • la taille des VM,
  • les options de jointure Entra / Intune.

Puis lancez la création des machines virtuelle AVD :

Les journaux confirment la création de la VM et de son intégration au pool d’hôtes :

Constatez sur le portail Azure la création de ressources :

Votre pool d’hôtes affiche la nouvelle capacité disponible :

Dams mon cas, l’hôte de session apparait comme appareil joint à Entra ID :

Cette hôte de session est également enrôlés dans Intune :

Un test en session (nom de machine, version de l’OS, application installée) valide le bon fonctionnement :

Etape VI – Fonctionnalités annexes :

WVDAdmin couvre également beaucoup d’opérations IT sur les machines virtuelles Azure :

  • démarrage, arrêt, redémarrage, hibernation
  • changement de taille de la VM

Certains actions particulières, comme l’exécution de scripts, sont possibles :

Ou encore la création de snapshot ou le redimensionnement de disque OS :

D’autres sont propres aux machines virtuelles AVD :

  • gestion du mode drain
  • actions sur les sessions
  • suppression complète de l’hôte

Il permet aussi de modifier les affectations se font au niveau des groupes d’applications :

La gestion des applications publiées aussi possible :

Mon avis personnel

Je vais être clair. WVDAdmin n’est pas un remplacement du portail d’Azure Virtual Desktop.
Ce n’est pas non plus une solution d’architecture d’entreprise complète. C’est un accélérateur opérationnel.

Et dans certains un contextes, WVDAdmin est redoutablement efficace :

  • Lab
  • PoC
  • Environnement SMB
  • Client où l’on veut éviter de déployer une surcouche d’automatisation complète
  • Équipe IT réduite

La capture d’image est propre, le déploiement est rapide, L’interface centralise ce que le portail disperse. Besoin de plus ? Hydra for AVD sera peut être votre réponse.

Conclusion

Azure Virtual Desktop continue de se moderniser, les outils natifs progressent et l’automatisation devient centrale.

Mais entre la théorie et le terrain, il y a toujours l’opérationnel quotidien. WVDAdmin n’a jamais prétendu pas transformer votre architecture, mais il simplifie votre quotidien. Il évite les allers-retours dans le portail, réduit la friction et accélère les tâches répétitives.

Dans un monde où l’on parle beaucoup d’IA, d’automatisation avancée et de plateforme complexe, parfois un bon outil bien conçu fait simplement gagner du temps.

Et en tant qu’architecte AVD, je préfère toujours une solution claire, maîtrisée et comprise, plutôt qu’une sur-ingénierie inutile.

WVDAdmin ne remplace pas une stratégie, il optimise l’exécution. Et ça, pour un admin AVD, ça a énormément de valeur.

Tests du disque OS éphémère NVMe

Je voulais vérifier un point : un disque OS éphémère (Ephemeral OS Disk) peut être placé sur Temp, NVMe ou Cache selon la série de votre VM. La documentation Microsoft indique que l’option de placement ne change pas la performance ni le coût de l’Ephemeral OS Disk, car la perf dépend du stockage local disponible sur le SKU.

Dans la vraie vie (et dans mes chiffres) : même si les trois restent “OS + éphémère”, le placement change le chemin I/O réel, et donc le comportement sous pression : la différence la plus visible n’est pas toujours l’IOPS moyen, mais la distribution de latence (p95/p99/p99.9) et la stabilité en charge soutenue.

Plusieurs articles ont déjà été écrits sur les performances de stockages Azure :

Et pour vous guider plus facilement dans cet article très (trop?) long, voici des liens rapides :

Mais avant d’aller directement dans les tests, prenons le temps de parcourir ensemble quelques notions concernant le stockage temporaire local attaché une machine virtuelle.

Qu’est-ce qu’un stockage temporaire local ?

Certaines tailles de machine virtuelle Azure incluent un stockage local temporaire éphémère, certaines des tailles les plus récentes utilisant des disques NVMe locaux temporaires.

Le stockage temporaire local utilise des disques supplémentaires approvisionnés directement en tant que stockage local sur un hôte de machine virtuelle Azure, plutôt que sur le stockage Azure distant. Ce type de stockage convient le mieux aux données qui n’ont pas besoin d’être conservées définitivement, telles que les caches, les mémoires tampons et les fichiers temporaires. 

Microsoft Learn

Le disque temporaire (souvent D: sous Windows) est un disque local éphémère classique : les données sont potentiellement perdues en si maintenance/redeploy/deallocate. Un disque OS éphémère peut être placé dessus (Temp placement, NVMe, ou sur le cache disk) selon le SKU de la machine virtuelle :

Étant donné que les données stockées sur ces disques ne sont pas sauvegardées, elles sont perdues lorsque la machine virtuelle est libérée ou supprimée. Le stockage éphémère est recréé au démarrage. Les disques éphémères locaux sont différents des disques de système d’exploitation éphémères.

Microsoft Learn

Qu’est-ce qu’un disque OS éphémère ?

Un disque OS éphémère est un disque système stocké localement sur l’hôte Azure, et non sur un stockage distant Azure Storage. Le point le plus important est que celui-ci est non persistant : en cas de redéploiement, de recréation, le disque OS éphémère revient toujours à l’image de départ.

Les disques de système d’exploitation éphémères sont créés sur le stockage local de la machine virtuelle (VM) et ne sont pas enregistrés dans le Stockage Azure à distance.

Microsoft Learn

Pourquoi utiliser un disque OS éphémère ?

Le premier avantage concerne le prix : On ne paye pas le volume de stockage du disque éphémère. Celui-ci est intégré au prix de la machine virtuelle. De plus, les performances sont bien meilleures que la plupart des disques :

Les disques OS éphémères conviennent parfaitement aux charges de travail sans état, dans lesquelles les applications tolèrent les pannes de machines virtuelles individuelles tout en restant sensibles aux délais de mise en service ou à la réimagerie d’instances spécifiques.

Comparé à un disque de système d’exploitation standard, un disque éphémère offre une latence plus faible pour les opérations de lecture/écriture et permet une réinitialisation plus rapide des machines virtuelles.

Microsoft Learn

Pourquoi ne pas utiliser un disque OS éphémère ?

Comme annoncé plus haut, le disque OS éphémère ne doit pas contenir de la donnée critique. De plus, des fonctionnalités basiques ne sont pas disponibles :

  • Arrêt / Démarrage de la VM
  • Capture d’image VM
  • Captures instantanées de disque
  • Azure Disk Encryption
  • Échanges de disques système d’exploitation

Sur le portail Azure, certains menus sont tout simplement grisés pour ce type de VM :

Les fonctionnalités de sauvegarde et de reprise d’activité après sinistres sont elles aussi désactivés :

Comment savoir si le SKU de ma VM dispose d’un stockage temporaire local ?

La doc détaille trois placements possibles selon les VM :

  • NVMe Disk Placement (GA sur des séries récentes v6+)
  • Temp Disk / Resource Disk Placement
  • Cache Disk Placement

La nature et le volume du stockage temporaire local dépend en effet de la famille et du SKU de votre machine virtuelle :

Attention, certaines machines virtuelles n’ont tout simplement pas de stockage temporaire local :

Quid de la SLA d’une VM avec un disque OS éphémère ?

Le base disk influence l’engagement contractuel et certaines phases de provisioning, mais il ne modifie pas le chemin I/O steady-state de l’OS.

Depuis peu, Azure permet de choisir le type de “base disk” associé à un disque OS éphémère : Standard HDD, Standard SSD ou Premium SSD.

Attention cependant, ce “base disk” ne correspond pas au support physique sur lequel l’OS s’exécute.

Dans le cas d’un disque OS éphémère, le système fonctionne toujours sur le stockage local de l’hôte (NVMe / Temp / Cache selon le placement). Le type de base disk désigne le type de disque managé logique utilisé par Azure lors du provisioning et pour l’engagement contractuel.

La prise en charge SSD est une nouvelle option qui permet aux clients de choisir le type de disque principal utilisé pour le disque d’OS éphémère. Auparavant, le disque de base ne pouvait être qu’un HDD standard. À présent, les clients peuvent choisir entre les trois types de disques : HDD Standard (Standard_LRS), SSD Standard (StandardSSD_LRS) ou SSD Premium (Premium_LRS). En utilisant SSD avec disque de système d’exploitation éphémère, les clients peuvent bénéficier des améliorations suivantes :

  • Contrat SLA amélioré : les machines virtuelles créées avec SSD Premium fournissent un contrat SLA supérieur à celui des machines virtuelles créées avec hDD Standard. Les clients peuvent améliorer le contrat SLA pour leurs machines virtuelles éphémères en choisissant SSD Premium comme disque de base.

Microsoft Learn

Concrètement :

  • Le choix du base disk peut améliorer la SLA contractuelle de la VM.
  • Il peut également influer sur certaines phases spécifiques (provisioning, re-imaging, lectures liées au backing managed disk).
  • En revanche, il ne modifie pas les performances steady-state du stockage local sur lequel tourne réellement l’OS.

Autrement dit :

Choisir Premium SSD comme base disk améliore la SLA et certains scénarios liés au provisioning,
mais ne transforme pas un placement NVMe ou Temp en Premium SSD local.

Pourcentage de disponibilité (SSD Premium, SSD Premium v2 et Ultra Disk)Pourcentage de disponibilité (disque géré SSD standard)Pourcentage de disponibilité (disque géré HDD standard)Avoir Service
< 99,9 %< 99,5 %< 95 %10 %
< 99 %< 95 %< 92 %25 %
< 95 %< 90 %< 90 %100 %

Quid des performances d’une VM avec un disque OS éphémère ?

Les disques temporaires locaux ne sont pas comptabilisés par rapport aux IOPS et aux limites de débit de la machine virtuelle. De plus, Microsoft nous indique que les performances du disque OS éphémère dépendent de la machine et non du type de stockage local :

Le disque OS éphémère exploite le stockage local intégré à la machine virtuelle. Étant donné que différentes machines virtuelles ont différents types de stockage local (disque de cache, disque temporaire et disque NVMe), l’option de placement définit l’emplacement où le disque de système d’exploitation éphémère est stocké. Le choix du placement n’influence ni les performances ni le coût du disque OS éphémère. Ses performances reposent sur le stockage local de la machine virtuelle. Selon le type de machine virtuelle, trois modes de placement sont proposés.

  • Placement de disque NVMe (généralement disponible) : le type de placement de disque NVMe est désormais en disponibilité générale (GA) sur la dernière série de machines virtuelles v6 de la dernière génération, comme Dadsv6, Ddsv6, Dpdsv6, etc.
  • Placement de disque temporaire (également appelé Placement de disque de ressources) : le type de placement de disque temporaire est disponible sur les machines virtuelles avec un disque temp comme Dadsv5, Ddsv5, etc.
  • Emplacement du disque de cache : le type de placement du disque de cache est disponible sur les anciennes machines virtuelles qui avaient un disque de cache tel que Dsv2, Dsv3, etc.

Microsoft Learn

La performance théorique dépend du SKU, pas du placement. En revanche, comme chaque placement repose sur un support physique différent (NVMe, temp disk, cache disk), le comportement réel sous charge peut varier sensiblement.

Mais cette seconde partie de la documentation Microsoft m’intrigue quand même :

Amélioration des performances : en choisissant SSD Premium comme disque de base, les clients peuvent améliorer les performances de lecture du disque de leurs machines virtuelles. Bien que la plupart des écritures se produisent sur le disque temporaire local, certaines lectures sont effectuées à partir de disques managés. Les disques SSD Premium fournissent 8 à 10 fois plus d’IOPS que hDD Standard.

Microsoft Learn

J’ai créé plusieurs machines virtuelles avec le SKU Standard_D32ads_v7, dont voici les performances pour le stockage local :

Pourtant, les deux différents type de disque OS éphémère créés indiquent exactement les mêmes performances sur le portail Azure :

En extrapolant naïvement à partir de la capacité totale locale (440 Go x4), j’aurais pu m’attendre qu’en faisant un produit en croix basé sur la taille totale des 4 disques locaux attachés à ma VM, je m’attendais à trouver les performances suivantes sur mon disque OS éphémère :

  • IOPS max : 43296 IOPS
  • Bande passante max : 323 Mo/sec

Passons maintenant à l’approche utilisée pour mes tests.

Protocole de test que j’ai déployé :

  • Machines virtuelles Azure :

Pour éviter toute ambiguïté, les 4 VMs utilisent toutes un disque OS avec Windows Server 2022, mais sur des placements différents :

Nom de VMSKUType de disque OS
perftempStandard_D32ads_v5Ephemeral OS Disk – Temp placement
perfnvme-vmStandard_D32ads_v7Ephemeral OS Disk – NVMe placement
perfcacheStandard_D32ds_v4Ephemeral OS Disk – Cache placement
perfssdStandard_D32ads_v7OS Disk Premium SSD (référence)
  • Outils de mesure :

Plusieurs outils de mesures ont été utilisés afin de mieux comprendre les performances :

Nom de l’outilMesures effectuéesURL de téléchargement
fioIOPS (read/write), bande passante (MB/s), latence moyenne, percentiles (p95, p99), tests steady-state, profils personnalisés (4K, 64K, queue depth, etc.)https://github.com/axboe/fio
CrystalDiskMarkIOPS séquentiel et aléatoire, débit (MB/s), tests QD1/QD32, 4K/8K/1Mhttps://crystalmark.info/en/software/crystaldiskmark/
AS SSD BenchmarkIOPS 4K read/write, latence d’accès, score global (read/write/total), test copie (ISO, Program, Game), test incompressiblehttps://www.alex-is.de/PHP/fusion/downloads.php?cat_id=4

CrystalDiskMark – Smoke Test :

L’outil a été laissé dans sa configuration de base. Cela permet de provoquer :

  • Meilleur profit des caches (OS, contrôleur, stockage local, cache host)
  • Meilleur visu du burst (très bon pendant un court moment)
  • Ne force pas steady-state

Comme attendu, cela donne des chiffres parfois “spectaculaires”, notamment en lecture. Et c’est exactement le biais évoqué plus haut qui en ressort :

  • Tests courts
  • Pas de warm-up réel
  • Influence potentielle du cache

CrystalDiskMark confirme les tendances générales, mais ne permet pas de juger la stabilité sous charge soutenue.

AS SSD Benchmark – Latence & Incompressible :

AS SSD Benchmark va un peu plus loin que CrystalDiskMark et donne d’autres infos : Seq / 4K / 4K-64Thrd + “Acc.time”. Cela donne dans les résultats une meilleure visibilité des différences d’écriture, parfois très forts selon le disque.

AS SSD est connu pour être très sensible à :

  • la façon dont le chemin I/O gère les écritures (flush, cache, barrières)
  • la latence (et il la met en avant via “Acc.time”)
  • et la façon dont le driver/stack de stockage réagit

AS SSD peut donc apparaître comme plus sévère que CrystalDiskMark sur les écritures quand il tombe sur un scénario où le stockage/driver applique davantage de contraintes (flush/ordering).

Les tests faits via AS SSD nous apporte donc ici deux éléments intéressants :

  • Mesure directe de latence d’accès
  • Test incompressible (moins biaisé par cache/compression)

Dans notre cas, on peut donc en déduire que disque éphémère NVMe domine clairement en latence pure, que le disque éphémère temporaire reste très proche, que le disque éphémère cache montre une latence un peu plus élevée, et que le disque Premium SSD affiche la latence la plus importante.

Le score global reflète davantage l’expérience “ressentie” qu’un simple IOPS max.

fio – tests soutenus proches d’un workload :

Contrairement à CrystalDiskMark (smoke test court) et AS SSD (latence & incompressible), fio permet de :

  • contrôler précisément le pattern I/O
  • imposer une durée suffisante
  • forcer le bypass du cache OS (–direct=1)
  • introduire une phase de warm-up
  • mesurer les percentiles élevés (p95, p99, p99.9)

Autrement dit, fio mesure le comportement soutenu proche d’un workload réel.

Je suis passé par Chocolatey pour installer fio sur mes 4 machines virtuelles Azure grâce au script PowerShell suivant :

Set-ExecutionPolicy Bypass -Scope Process -Force

[System.Net.ServicePointManager]::SecurityProtocol = [System.Net.ServicePointManager]::SecurityProtocol -bor 3072
iex ((New-Object System.Net.WebClient).DownloadString('https://community.chocolatey.org/install.ps1'))

choco --version

choco install fio -y

fio --version

J’ai ensuite lancé le script fio suivant sur chacun des machines virtuelles pour générer et centraliser mes résultats sur un Azure file share. Dans ce script, fio teste :

  • Random 4K en montée de charge (sweep de queue depth QD1→64) en lecture/écriture
  • Un “peak” comparable : random 4K QD32, 8 jobs (lecture + écriture).
  • Un run plus long “steady-state” : random write 4K QD32, 8 jobs (soutenu).
  • Le coût de la durabilité/synchronisation : random write 4K QD1, 1 job, fsync=1.
  • Le débit séquentiel : read/write 1M, QD32, 4 jobs.
  • Et il fait un warmup au début.
# =========================
# FIO -> Z:\fio-results\ (NO subfolders)
# VM name only in OUTPUT (filename + header), not in folder structure
# Tests:
#  - Scaling (QD sweep) : randread4k / randwrite4k (for graphs, not for "max" headline)
#  - Peak controlled    : randread4k / randwrite4k @ QD32 NJ8 (reference "max comparable")
#  - Steady-state       : randwrite4k @ QD32 NJ8 (longer run)
#  - Sync durability    : randwrite4k QD1 NJ1 fsync=1
#  - Throughput         : seq read/write 1m @ QD32 NJ4
#
# Notes:
# - Uses --direct=1 (bypass OS cache)
# - Uses time_based + ramp_time (warm-up)
# - Emits a CSV summary you can aggregate across VMs
# =========================

param(
  [string]$OutDir   = "Z:\fio-results",
  [string]$Target   = "C:\fio_test.dat",   
  [string]$FileSize = "32G",               # Bigger => fewer cache illusions
  [int]   $Runtime  = 60,
  [int]   $RampTime = 10,
  [string]$FioExe   = "fio"                # Or full path: C:\fio\fio.exe
)

$VmName = $env:COMPUTERNAME

function Ensure-Dir {
  param([string]$Path)
  try {
    New-Item -ItemType Directory -Path $Path -Force | Out-Null
    return $true
  } catch {
    return $false
  }
}

# Prefer Z:\fio-results, fallback to C:\fio-results if Z: not available
if (-not (Ensure-Dir -Path $OutDir)) {
  $OutDir = "C:\fio-results"
  if (-not (Ensure-Dir -Path $OutDir)) {
    Write-Host "ERROR: Unable to create output directory (Z:\fio-results or C:\fio-results)." -ForegroundColor Red
    exit 1
  }
}

# Ensure fio exists
try { & $FioExe --version | Out-Null } catch {
  Write-Host "ERROR: fio not found. Put fio.exe in PATH or set -FioExe to its full path." -ForegroundColor Red
  exit 1
}

function Run-FioTest {
  param(
    [Parameter(Mandatory=$true)][string]$TestName,
    [Parameter(Mandatory=$true)][string]$TestType,
    [Parameter(Mandatory=$true)][string[]]$Args
  )

  $ts = Get-Date -Format "yyyyMMdd-HHmmss"
  $outFile = Join-Path $OutDir "$($VmName)_$($TestName)_$ts.txt"

  @(
    "VM: $VmName"
    "Date: $(Get-Date -Format 'yyyy-MM-dd HH:mm:ss')"
    "TestType: $TestType"
    "Test: $TestName"
    "Command: $FioExe $($Args -join ' ')"
    "----------------------------------------"
  ) | Out-File -FilePath $outFile -Encoding utf8

  & $FioExe @Args 2>&1 | Out-File -FilePath $outFile -Append -Encoding utf8
  return $outFile
}

function Parse-FioSummary {
  param(
    [Parameter(Mandatory=$true)][string]$FilePath,
    [Parameter(Mandatory=$true)][string]$TestType
  )

  $content = Get-Content $FilePath -Raw

  $readLine  = [regex]::Match($content, '^\s*read:\s*IOPS=([0-9\.]+[kKmM]?),\s*BW=([0-9\.]+[A-Za-z\/]+)', 'Multiline')
  $writeLine = [regex]::Match($content, '^\s*write:\s*IOPS=([0-9\.]+[kKmM]?),\s*BW=([0-9\.]+[A-Za-z\/]+)', 'Multiline')

  # fio prints percentiles when --percentile_list is used
    $p50  = [regex]::Match($content, '50\.00th=\[\s*([0-9]+)\]', 'Multiline')
    $p95  = [regex]::Match($content, '95\.00th=\[\s*([0-9]+)\]', 'Multiline')
    $p99  = [regex]::Match($content, '99\.00th=\[\s*([0-9]+)\]', 'Multiline')
    $p999 = [regex]::Match($content, '99\.90th=\[\s*([0-9]+)\]', 'Multiline')


  [PSCustomObject]@{
    VM         = $VmName
    TestType   = $TestType
    File       = Split-Path $FilePath -Leaf
    ReadIOPS   = if ($readLine.Success)  { $readLine.Groups[1].Value } else { "" }
    ReadBW     = if ($readLine.Success)  { $readLine.Groups[2].Value } else { "" }
    WriteIOPS  = if ($writeLine.Success) { $writeLine.Groups[1].Value } else { "" }
    WriteBW    = if ($writeLine.Success) { $writeLine.Groups[2].Value } else { "" }
    P50_usec   = if ($p50.Success)  { $p50.Groups[1].Value } else { "" }
    P95_usec   = if ($p95.Success)  { $p95.Groups[1].Value } else { "" }
    P99_usec   = if ($p99.Success)  { $p99.Groups[1].Value } else { "" }
    P999_usec  = if ($p999.Success) { $p999.Groups[1].Value } else { "" }
  }
}

# Common args (cache-light, more comparable)
$common = @(
  "--filename=$Target",
  "--size=$FileSize",
  "--direct=1",
  "--ioengine=windowsaio",
  "--runtime=$Runtime",
  "--ramp_time=$RampTime",
  "--time_based",
  "--group_reporting",
  "--thread",
  "--percentile_list=50:95:99:99.9"
)

$tests = @()

# ------------------------------------------------------------
# 0) Optional preconditioning (light warm-up) for consistency
# ------------------------------------------------------------
$tests += @{
  Type="warmup"
  Name="warmup_write1m_qd8_nj1_30s"
  Args=@(
    "--name=warmup",
    "--filename=$Target",
    "--size=$FileSize",
    "--direct=1",
    "--ioengine=windowsaio",
    "--bs=1m",
    "--iodepth=8",
    "--numjobs=1",
    "--rw=write",
    "--runtime=30",
    "--ramp_time=0",
    "--time_based",
    "--group_reporting",
    "--thread"
  )
}

# ------------------------------------------------------------
# 1) Scaling (QD sweep) - for graphs only
#    Keep it longer than micro-runs to reduce burst artifacts
# ------------------------------------------------------------
foreach ($qd in @(1,2,4,8,16,32,64)) {
  $tests += @{
    Type="scaling"
    Name="scaling_randread4k_qd$qd_nj8_90s"
    Args=@(
      "--name=rr_qd$qd",
      "--filename=$Target",
      "--size=$FileSize",
      "--direct=1",
      "--ioengine=windowsaio",
      "--bs=4k",
      "--iodepth=$qd",
      "--numjobs=8",
      "--rw=randread",
      "--runtime=90",
      "--ramp_time=15",
      "--time_based",
      "--group_reporting",
      "--thread",
      "--percentile_list=50:95:99:99.9"
    )
  }

  $tests += @{
    Type="scaling"
    Name="scaling_randwrite4k_qd$qd_nj8_90s"
    Args=@(
      "--name=rw_qd$qd",
      "--filename=$Target",
      "--size=$FileSize",
      "--direct=1",
      "--ioengine=windowsaio",
      "--bs=4k",
      "--iodepth=$qd",
      "--numjobs=8",
      "--rw=randwrite",
      "--runtime=90",
      "--ramp_time=15",
      "--time_based",
      "--group_reporting",
      "--thread",
      "--percentile_list=50:95:99:99.9"
    )
  }
}

# ------------------------------------------------------------
# 2) Peak controlled (reference values, comparable across disks)
# ------------------------------------------------------------
$tests += @{
  Type="peak"
  Name="peak_randread4k_qd32_nj8_120s"
  Args=@(
    "--name=peak_rr",
    "--filename=$Target",
    "--size=$FileSize",
    "--direct=1",
    "--ioengine=windowsaio",
    "--bs=4k",
    "--iodepth=32",
    "--numjobs=8",
    "--rw=randread",
    "--runtime=120",
    "--ramp_time=20",
    "--time_based",
    "--group_reporting",
    "--thread",
    "--percentile_list=50:95:99:99.9"
  )
}

$tests += @{
  Type="peak"
  Name="peak_randwrite4k_qd32_nj8_120s"
  Args=@(
    "--name=peak_rw",
    "--filename=$Target",
    "--size=$FileSize",
    "--direct=1",
    "--ioengine=windowsaio",
    "--bs=4k",
    "--iodepth=32",
    "--numjobs=8",
    "--rw=randwrite",
    "--runtime=120",
    "--ramp_time=20",
    "--time_based",
    "--group_reporting",
    "--thread",
    "--percentile_list=50:95:99:99.9"
  )
}

# ------------------------------------------------------------
# 3) Steady-state style (longer, to see sustained behavior)
# ------------------------------------------------------------
$tests += @{
  Type="steady"
  Name="steady_randwrite4k_qd32_nj8_180s"
  Args=@(
    "--name=steady_rw",
    "--filename=$Target",
    "--size=$FileSize",
    "--direct=1",
    "--ioengine=windowsaio",
    "--bs=4k",
    "--iodepth=32",
    "--numjobs=8",
    "--rw=randwrite",
    "--runtime=180",
    "--ramp_time=30",
    "--time_based",
    "--group_reporting",
    "--thread",
    "--percentile_list=50:95:99:99.9"
  )
}

# ------------------------------------------------------------
# 4) Sync durability penalty (OS-like durability semantics)
# ------------------------------------------------------------
$tests += @{
  Type="sync"
  Name="sync_randwrite4k_qd1_nj1_fsync1_60s"
  Args= $common + @(
    "--name=sync_rw",
    "--bs=4k",
    "--iodepth=1",
    "--numjobs=1",
    "--rw=randwrite",
    "--fsync=1"
  )
}

# ------------------------------------------------------------
# 5) Throughput (large blocks)
# ------------------------------------------------------------
$tests += @{
  Type="throughput"
  Name="seqread1m_qd32_nj4_60s"
  Args= $common + @(
    "--name=sr_1m",
    "--bs=1m",
    "--iodepth=32",
    "--numjobs=4",
    "--rw=read"
  )
}

$tests += @{
  Type="throughput"
  Name="seqwrite1m_qd32_nj4_60s"
  Args= $common + @(
    "--name=sw_1m",
    "--bs=1m",
    "--iodepth=32",
    "--numjobs=4",
    "--rw=write"
  )
}

# ------------------------------------------------------------
# Run + summary
# ------------------------------------------------------------
$results = @()

foreach ($t in $tests) {
  Write-Host "Running $($t.Type) / $($t.Name) ..." -ForegroundColor Cyan
  $file = Run-FioTest -TestName $t.Name -TestType $t.Type -Args $t.Args
  $results += Parse-FioSummary -FilePath $file -TestType $t.Type
}

$ts = Get-Date -Format "yyyyMMdd-HHmmss"
$summaryCsv = Join-Path $OutDir "fio_summary_$($VmName)_$ts.csv"
$summaryTxt = Join-Path $OutDir "fio_summary_$($VmName)_$ts.txt"

$results | Export-Csv -NoTypeInformation -Path $summaryCsv -Encoding UTF8
$results | Sort-Object TestType, File | Format-Table -AutoSize | Out-String | Out-File -FilePath $summaryTxt -Encoding utf8

Write-Host "Done. Outputs in: $OutDir" -ForegroundColor Green
Write-Host "Summary CSV: $summaryCsv" -ForegroundColor Green
Write-Host "Summary TXT: $summaryTxt" -ForegroundColor Green

Synthèse des résultats :

Cela nous donne les synthèses suivantes :

DiskPeak 4K ReadPeak 4K WriteSteady 4K WriteSeq ReadSeq WriteSync 4K Write
Temp (D32ads_v5)153k153k153k1951 MiB/s1950 MiB/s9.3k
Cache (D32ds_v4)98k93k94k1888 MiB/s1888 MiB/s7.9k
NVMe (D32ads_v7)146k60k60k1071 MiB/s536 MiB/s7.6k
Premium SSD10k4k3k152 MiB/s127 MiB/s507
DiskIOPSP50 (µs)P95 (µs)P99 (µs)P99.9 (µs)
Temp (D32ads_v5)153k212381523903
Cache (D32ds_v4)93k2694526281104
NVMe (D32ads_v7)60k2614376011048
Premium SSD4k40276110891827

Ce que peut en dire de ces tests :

Sur Temp, Cache et NVMe, on peut lire que Peak ≈ Steady. Cela signifie que :

  • Pas de burst artificiel
  • Pas d’effet cache court terme
  • Pas de chute après 30 secondes
  • Pas d’effondrement après warm-up

Le comportement observé est soutenu, et c’est extrêmement important, car beaucoup de benchmarks “rapides” montrent un pic initial qui s’effondre après 1 à 2 minutes.
Ici, ce n’est pas le cas.

  • NVMe vs Temp : contre-intuitif

Intuitivement, on pourrait penser que NVMe est supérieur à Temp. Or, en écriture 4K soutenue :

  • Temp : 153k IOPS
  • NVMe : 60k IOPS

Ce n’est pas un artefact. De plus : Peak = Steady sur NVMe Cela indique un plafond structurel, pas un effet transitoire. La performance dépend donc du chemin I/O exposé par le SKU, pas uniquement de la nature “NVMe” du support. C’est un point fondamental.

  • Premium SSD : changement de catégorie

Enfin, nous sommes dans un monde différent avec le premium ssd, En 4K write steady, le Premium SSD monte à 2 926 IOPS, avec un pique à 3500 IOPS. On n’est plus dans la même catégorie. Le disque managé respecte son cap IOPS contractuel :

Ce test montre très clairement la différence entre un stockage managé distant avec limite provisionnée et stockage local intégré au SKU.

Si un stockage persistant est nécessaire, à vous maintenant de voir quel disque correspondra mieux à vos besoins :

  • Pourquoi regarder p99/p99.9 et pas juste les IOPS ?

Microsoft documente les notions de limites cached/uncached et le fait qu’un workload peut être IO capped. Quand cela arrive :

  • Les IOPS plafonnent
  • La file d’attente sature
  • La latence augmente

Ton plateau write NVMe en 4K random (QD sweep) a exactement la signature d’une limite plateforme. Deux disques peuvent faire 100k IOPS :

  • L’un avec P99.9 à 10 ms
  • L’autre avec P99.9 à 50+ ms

Ils n’auront pas du tout la même sensation côté OS. Le P99.9 capture les moments où :

  • la queue est saturée
  • un flush bloque
  • un throttling intervient

C’est ce qui compte en production.

  • Comment le cache d’Azure nous trompe ?

Microsoft indique qu’un disque avec host caching peut temporairement dépasser la limite disque. Cela explique pourquoi :

  • CrystalDiskMark peut afficher des chiffres “incroyables”
  • Un bench court peut mesurer le cache plutôt que le support réel

Si un benchmark va “trop vite”, c’est souvent un cache. De plus :

  • Microsoft recommande un warm-up
  • Les cached reads atteignent leurs meilleurs chiffres après stabilisation

Le cache modifie donc la mesure. En write, ce n’est pas magique :

Quand le caching est en Read/Write, l’écriture doit être validée dans le cache et sur le disque.
Elle compte dans les limites cached et uncached. Le cache ne supprime pas la limite soutenue.

  • Pourquoi certains outils de mesure peuvent être trompeur lors de tests sur Azure ?

De ce fait, certains outils comme CrystalDiskMark, sont très bien pour un smoke test, mais :

  • Les durées courtes,
  • Les patterns,
  • et l’absence de phase de warm-up

font qu’ils mesurent souvent le cache, pas le support réel. Un chiffre « trop beau » est souvent… un cache.

  • La limite n’est pas le disque. C’est la VM :
VMvCPUPeak 4K ReadPeak 4K WriteSteady 4K WriteP99 Write (µs)P99.9 Write (µs)
D32ads_v732~146k~60k~60k~601~1048
D64ads_v764~291k~120k~120k~580~1010
VMSeq ReadSeq Write
D32ads_v7~1071 MiB/s~536 MiB/s
D64ads_v7~2144 MiB/s~1067 MiB/s

Ces nouveaux tests montrent un comportement très clair :

  • NVMe en D32 plafonne à ~60k IOPS write
  • Le même NVMe en D64 monte à ~120k IOPS
  • La latence reste comparable

Le support physique n’a pas changé. Le workload n’a pas changé. Le placement n’a pas changé.Ce qui a changé : le SKU, cela démontre que Le plafond de performance est imposé par la capacité I/O exposée par la VM, pas par le média NVMe lui-même.

Autrement dit, le NVMe ne “donne” pas 60k IOPS, la VM D32 expose 60k IOPS.

Mais attention, les chiffres donnés dans la documentation Microsoft décrivent le potentiel maximal du stockage local temporaire de la VM (souvent agrégé sur plusieurs disques). Un disque OS éphémère ‘NVMe placement’ n’est pas automatiquement équivalent à ce chemin I/O, et un test ‘fichier’ ajoute un overhead. On compare donc des plafonds de nature différente.

  • Pourquoi les tests “fsync=1” ne prouvent pas la durabilité ?

fsync=1 mesure le coût d’un flush côté OS, mais ne prouve pas la persistance réelle sur le média ou la résistance à un crash hôte. fio indique qu’en non-buffered I/O, il peut ne pas sync comme attendu :

  • fsync=1 force un flush côté OS
  • mais ça ne valide pas une persistance réelle côté hyperviseur / host
  • ce n’est pas un test de crash-consistency

Donc si tu veux un “durability test”, il faut une variante (ex : buffered ou job dédié) et mesurer la phase sync séparément.

Conclusion

Si je résume :

  • Les trois disques OS éphémères surpassent le Premium SSD managé
  • NVMe offre une latence très stable et évolue fortement avec le SKU
  • Temp placement reste le plus performant en écriture 4K soutenue dans ce test précis
  • Cache dépend davantage du comportement de file d’attente

Mais surtout, Microsoft a raison : la performance dépend du stockage local. Mais ce que la documentation ne met pas en avant, c’est que le stockage local n’est pas homogène selon le placement. Et c’est là que tout se joue :

  • Les différences ne sont pas toujours visibles sur l’IOPS moyen. Elles apparaissent dans les percentiles élevés (p99/p99.9)
  • C’est exactement ce que Microsoft ne détaille pas explicitement : la performance dépend du stockage local… mais le stockage local n’a pas la même nature physique selon le placement

D’un point de vue technique :

  1. Le placement ne change pas le coût
  2. Le placement ne change pas la “promesse marketing”
  3. Mais le placement change le chemin I/O réel

Et donc, en fonction de la charge de travail :

  • Pour une charge de travail sensible à la latence (SQL temporaire, build intensif, traitement parallèle), le NVMe placement est clairement le plus intéressant.
  • Pour des workloads stateless classiques, Temp reste un excellent compromis.
  • Le Cache placement, sur des générations plus anciennes, reste viable mais moins moderne.
  • Enfin, un Premium SSD managé reste plus simple opérationnellement, mais il est largement dépassé en performance pure par le stockage local éphémère.

Combinez Copilot Studio avec Windows 365 pour Agent

Depuis l’annonce d’Opal, Microsoft a franchi une nouvelle étape vers des assistants capables de réfléchir et d’agir. Windows 365 pour Agent prolonge cette vision en offrant un PC cloud entièrement géré pour les agents IA : il exécute des tâches réelles au sein de Windows en toute sécurité. Ce nouvel article vous montre comment, pas à pas, créer un Computer‑Using Agent dans Microsoft Copilot Studio, connecter ce nouvel agent à un Cloud PC, puis le déclencher depuis un flux Power Automate.

Pour vous donner une première idée sur Opal, voici le lien sur mon premier article parlant justement d’Opal et de ses fonctionnalités.

Ensuite, beaucoup d’informations présentes dans cet article sont issues de la documentation Microsoft.

Qu’est-ce que Windows 365 pour Agent ?

Windows 365 pour les agents fait partie des nouveautés récemment annoncées par Microsoft :

Windows 365 pour les agents fournit une nouvelle classe de PC cloud pour l’utilisation de l’agent, basée sur la même plateforme Windows 365 qui alimente Windows 365 pour les entreprises. Au cœur de la plateforme se trouve le PC cloud, un bureau virtuel Windows ou Linux dans le cloud Microsoft.

Microsoft Learn

En d’autres termes, il s’agit de machines virtuelles Windows, ou Linux, dans le cloud, gérées via Microsoft, auxquelles des agents d’IA peuvent accéder pour effectuer des tâches complexes de façon autonome ou semi-autonome :

Pourquoi faire ?

Imaginez votre entreprise disposant de nombreux Cloud PCs prêts à effectuer des tâches administratives, comme la création de notes de frais ou autres ?

Imaginez ensuite que ces agents puissent être sollicités par des humains, d’autres agents ou encore des déclencheurs automatiques ?

Une fois en marche, l’agent sait exactement ce qu’il doit faire, il dispose d’un environnement sécurisé, potentiellement connecté à des ressources Cloud ou on-premise.

Il est même capable de solliciter l’intervention humaine si nécessaire :

Tout cela ….

Qu’est-ce qu’un pool de Cloud PCs ?

Le pool de cloud PC offre des machines virtuelles à vos agents Copilot Studio pour effectuer des tâches informatiques sans avoir à configurer et gérer des machines physiques. Si vous développez des agents qui doivent interagir avec des applications Windows (comme ouvrir des fichiers, utiliser des logiciels ou naviguer sur des sites web), un pool Cloud PC gère l’infrastructure pour vous.

Microsoft Learn

Actuellement, Microsoft permet d’évaluer le pool de PC cloud en autorisant la création de maximum de deux pools de PC cloud par tenant, sans avoir besoin d’un plan de facturation Windows 365 pour les agents dans votre environnement Power Platform.

L’utilisation du pool de PC cloud n’est pas facturable lorsqu’elle est déclenchée à partir d’une conversation de test intégrée, et chaque tenant dispose de 50 heures d’utilisation gratuite du pool de PC cloud pour l’agent publié s’exécutant de manière autonome.

Pourquoi utiliser un Computer‑Using Agent ?

Un Computer‑Using Agent (CUA) associe l’intelligence d’un agent Copilot avec la capacité d’exécuter des actions réelles sur un PC cloud. Il peut effectuer des tâches répétitives ou multi-étapes : extraire des informations d’un PDF, remplir un formulaire web, mettre à jour un fichier Excel, etc.

L’intérêt est de décharger l’utilisateur final des tâches manuelles tout en respectant les contrôles de sécurité (liste d’URL autorisées, authentification via Entra ID, suivi des actions).

Windows 365 pour Agent vs Power Automate Unattended RPA ?

Windows 365 pour Agent introduit un changement de paradigme : ce n’est plus le flow qui pilote l’exécution, mais un agent IA disposant d’un PC cloud complet.

  • Automatisation agent-centric
  • Capacité de raisonnement contextuel
  • L’agent décide comment accomplir l’objectif, dans un cadre contrôlé

En opposition, Power Automate Unattended RPA était conçu pour exécuter des scénarios pré-définis, sans interaction humaine, sur une machine dédiée. Le flux décide quand et quoi exécuter, et le robot applique uniquement et exactement les étapes décrites.

Quels sont les prérequis pour Windows 365 pour Agent ?

Certains prérequis sont nécessaires pour profiter de ce service :

  • Licences : une licence Microsoft 365 Copilot avec accès au programme Frontier et un abonnement Windows 365 Enterprise ou Business.
  • Gestion de l’identité et des appareils : votre Cloud PC doit être joint à Entra ID et inscrit dans Intune (ou Configuration Manager) pour appliquer les stratégies de sécurité.
  • Environnement Power Platform : un environnement Power Platform avec Dataverse pour héberger votre agent Copilot Studio.
  • Power Automate Desktop : le machine runtime doit être installé sur le Cloud PC pour permettre l’automatisation de l’interface utilisateur.

Une fois ces prérequis atteints, la mise en place de ce nouveau type d’agent est très facile car elle passe par la plate-forme désormais très connue, Copilot Studio :

Quelles versions d’OS sont prises en charge ?

Les Cloud PC Windows 365 pour Agent sont disponibles sous Windows 11 et Linux.
Pour ce tutoriel, Windows 11 a été utilisé car les extensions du navigateur et Power Automate Desktop y sont pleinement supportées.

Comment la sécurité est-elle gérée ?

Le Cloud PC est isolé et rattaché à Entra ID, ce qui permet d’appliquer des politiques conditionnelles et de gestion des appareils via Intune.

Dans Power Automate, vous pouvez définir une liste d’URL autorisées pour limiter les sites que l’agent peut ouvrir. Les identifiants nécessaires aux actions (login Microsoft 365, mots de passe) sont stockés dans un coffre sécurisé :

Enfin, chaque exécution laisse une trace dans l’historique du Cloud PC et dans Copilot Studio › Activity, facilitant l’audit :

Combien coûte Windows 365 pour Agent ?

Durant la phase de préversion, l’utilisation d’un poste pour un agent Copilot est facturée cinq crédits Copilot.

Chaque exécution de l’utilisation de l’ordinateur s’appuie sur un modèle d’IA qui exécute une séquence d’étapes. Une étape peut impliquer une ou plusieurs actions de bas niveau (par exemple, cliquer, taper ou naviguer). Chaque étape consomme 5 crédits Copilot.

Microsoft propose un détail de la facturation via cet exemple :

Si vous configurez l’utilisation de l’ordinateur pour remplir un formulaire de feuille de temps en ligne, l’exécution peut effectuer les étapes suivantes :

  • Lancer le navigateur et accéder au portail de la feuille de temps.
  • Sélectionner Créer une nouvelle feuille de temps.
  • Remplir les champs Heure de début, Heure de fin et Code de projet.
  • Sélectionner le bouton Soumettre.

Dans cet exemple, l’utilisation de l’ordinateur exécute 4 étapes, consommant au total 20 crédits Copilot.

Puis‑je utiliser mon propre poste plutôt qu’un Cloud PC ?

Oui, lors de la configuration de l’outil Computer Use, vous pouvez choisir l’option Bring‑your‑own machine et installer le machine runtime sur un poste local.

C’est d’ailleurs ce que nous ferons dans l’Etape IIa :

Toutefois, l’utilisation d’un Cloud PC évite d’exposer votre machine de production et simplifie la gestion des permissions.

Comme pour les tests sur Opal, l’architecture repose sur trois entités :

  • Copilot Studio : le cerveau qui orchestre l’agent, gère les prompts et déclenche les outils.
  • Windows 365 pour Agent : le corps qui exécute les actions UI au travers du machine runtime.
  • Power Automate : le déclencheur qui surveille un événement (arrivée d’e‑mail, webhook, etc.) et invoque l’agent avec les paramètres nécessaires.

Voici les différentes étapes de notre test :

Ce test s’appuie sur la même base que l’exercice réalisé sur Opal. Ce nouvel exemple IA effectue les actions suivantes :

  • La réception d’un e‑mail notifiant l’arrivée d’une nouvelle facture
  • L’extraction des données d’un PDF
  • La saisie automatique un formulaire web
  • La saisie automatique un formulaire SharePoint
  • La saisie automatique un feuille Excel

Etape 0 – Rappel des prérequis :

Avant de commencer, assurez‑vous d’avoir :

  1. Un abonnement Windows 365 Enterprise
  2. Une licence Microsoft 365 Copilot

Commençons par configurer un tout nouvel environnement sur Power Platform.

Etape I – Configuration Power Platform :

Ouvrez le Power Platform Admin Center, puis cliquez ici pour créer un nouvel environnement :

Choisissez un type d’environnement adapté : Sandbox ou Production, activez Dataverse (Sans Dataverse, Copilot Studio ne pourra pas créer d’agent), puis assurez‑vous que la région est compatible avec Windows 365 pour Agent :

Cliquez sur Sauvegarder, puis attendez que ce dernier soit créé :

Une fois le nouvel environnement prêt, vous pouvez y accéder depuis une URL dans la forme suivante :

https://copilotstudio.preview.microsoft.com/environments

Vous devriez alors pouvoir sélectionner le choix suivant car maintenant dégrisé :

Avant d’aller plus loin sur Copilot Studio, il est nécessaire de s’intéresser au poste que va utiliser l’agent pour effectuer les opérations.

Plusieurs choix s’offrent à vous :

Les étapes IIa et IIb de cet article vous proposent de tester différentes alternatives.

Etape IIa – Utilisation d’un PC personnel :

Pour mes tests, j’ai décidé d’utiliser un Cloud PC Entreprise via Power Automate afin que ce dernier le considère comme une machine personnelle.

Si vous êtes dans le même cas que le mien, ouvrez une session Windows de votre Cloud PC :

Sur votre Cloud PC, ouvrez le portail de Power Automate, choisissez le bon environnement créé via Power Platform, puis allez dans vos machines :

Téléchargez le Power Automate machine runtime :

Installez‑le sur le Cloud PC :

Acceptez les conditions, puis démarrez l’installation :

Attendez quelques minutes la fin de l’installation :

Sélectionnez l’extension de navigateur (Edge, Chrome ou Firefox) selon votre usage :

Confirmez l’action d’installation :

Après cela, ouvrez l’application Power Automate machine runtime sur votre Cloud PC :

Connectez-vous avec vos identifiants Microsoft 365 :

Enregistrez la machine dans l’environnement Power Platform créé :

Attendez quelques minutes le message de succès de l’inscription de votre poste :

Dans la liste des machines doit figurer votre Cloud PC avec le statut Connecté :

L’option Computer use est pour le moment encore désactivée. Lisez attentivement l’avertissement : l’agent ne pourra accéder qu’aux sites autorisés et la machine sera contrôlée via l’interface utilisateur.

Si vous êtes d’accord, cliquez sur Activer pour confirmer :

Votre machine est maintenant prête à exécuter des instructions IA. Vous pouvez également configurer une liste d’URL autorisées (allowlist) pour restreindre les destinations.

À la place d’utiliser une machine personnelle, il est aussi possible d’utiliser un Pool de Cloud PC.

Etape IIb – Utilisation d’un Pool de Cloud PC :

Il est possible, durant cette phase de préversion, de tester la création d’un Cloud PC Pool, composé de machines virtuelles hébergées sur Azure.

Pour cela, rendez-vous dans la console d’administration de Power Platform afin d’autoriser Microsoft à créer des machines virtuelles aux US, potentiellement en dehors de votre région :

Ouvrez Copilot Studio, sélectionnez l’environnement créé, puis créez un nouvel agent comme ceci :

Ne renseignez rien, cliquez directement ici :

Cliquez ici pour créer un Pool de Cloud PCs :

Renseignez son nom, puis cliquez sur Créer :

La création du pool commence et déclenche également la création de deux Cloud PCs :

Environ 30 minutes plus tard, les Cloud PC dédiés à Copilot Studio sont correctement provisionnés :

Le Pool de Cloud PCs est visible dans la console de Power Automate :

Ces machines virtuelles provisionnées sont également visibles dans Intune :

Etape III – Configuration Entra :

Comme tous mes tests reposent sur des postes Windows 365, certains prérequis IT sont nécessaires pour assurer un bon fonctionnement :

  • Un tenant Intune et Microsoft Entra valides
  • Restrictions d’inscription des types d’appareils Intune configurées
  • L’authentification Microsoft Entra pour RDP est activée
  • Dialogue d’invite de consentement caché pour les groupes d’appareils cibles
  • Principaux de service requis créés (Windows 365 et Azure Virtual Desktop)

Afin de masquer la boîte de dialogue en configurant la liste des hôtes Windows 365 approuvés, je crée un groupe dans Entra ID contenant les hôtes de session :

Autorisez Microsoft Entra dans l’authentification pour Windows sur le tenant via Azure Cloud Shell depuis le portail Azure :

Importez les deux modules Microsoft Graph suivants, puis connectez-vous avec le compte aux permissions appropriées :

Import-Module Microsoft.Graph.Authentication
Import-Module Microsoft.Graph.Applications

Connect-MgGraph -Scopes "Application.Read.All","Application-RemoteDesktopConfig.ReadWrite.All"

Je récupère l’ID d’objet pour le principal du service Microsoft Remote Desktop :

$WCLspId = (Get-MgServicePrincipal -Filter "AppId eq 'a4a365df-50f1-4397-bc59-1a1564b8bb9c'").Id

Je modifie la propriété isRemoteDesktopProtocolEnabled sur True :

If ((Get-MgServicePrincipalRemoteDesktopSecurityConfiguration -ServicePrincipalId $WCLspId) -ne $true) {
    Update-MgServicePrincipalRemoteDesktopSecurityConfiguration -ServicePrincipalId $WCLspId -IsRemoteDesktopProtocolEnabled
}

Enfin, toujours dans la même session d’Azure Cloud Shell, j’ajoute l’ID de groupe à une propriété sur le principal du service SSO Microsoft Remote Desktop :

$tdg = New-Object -TypeName Microsoft.Graph.PowerShell.Models.MicrosoftGraphTargetDeviceGroup
$tdg.Id = "<Group object ID>"
$tdg.DisplayName = "<Group display name>"
New-MgServicePrincipalRemoteDesktopSecurityConfigurationTargetDeviceGroup -ServicePrincipalId $WCLspId -BodyParameter $tdg

Enfin, profitez-en pour exclur cette même application dans vos règles d’accès conditionnel Entra afin de ne pas bloquer votre Cloud PC avec un prompt de MFA :

Passons maintenant à la création de notre agent dans Copilot Studio.

Etape IV – Création de l’agent :

Si cela n’est pas déjà fait, ouvrez Copilot Studio, sélectionnez l’environnement créé, puis créez un nouvel agent :

Renseignez les informations suivantes :

  • Nom de l’agent : Invoicing Agent
  • Icône pour personnaliser l’avatar
  • Description :
Automates a deterministic invoice-processing workflow using Computer Use. The agent always executes the Invoice Entry tool once per trigger and never retries or reasons.

Choisissez le modèle d’IA suivant :

Renseignez ensuite la description suivante, puis sauvegardez :

When the trigger fires : 
- Do not ask questions.
- Do not reply to the user.
- Do not request clarification.
- Ignore the email content completely.
- Do not interpret the email.
- Do not extract data from the email.
- Immediately execute the tool "Invoice Entry" exactly once

Importez des documents (PDF, Word, sites SharePoint) qui aideront l’agent à répondre aux questions. Si votre scénario est purement déterministe, cette section peut rester vide :

Pour lancer l’agent à la réception d’un e‑mail de facture, ajoutez-lui un déclencheur :

Recherchez et sélectionnez le déclencheur When a new email arrives in a shared mailbox (V2) :

Saisissez l’adresse de la boîte partagée (ex. Invoices‑inbox@contoso.com), puis cliquez sur Créer :

Dans Settings › Generative AI, activez l’orchestration générative si vous souhaitez que l’agent puisse raisonner :

Dans Topics, désactivez tous les sujets système pour éviter les réponses conversationnelles :

L’outil Computer Use est le cœur de notre agent car il décrit exactement ce que l’agent doit faire sur le PC. Cliquez alors ici pour le créer :

Dans les outils disponibles, choisissez Computer use :

Rédigez des étapes claires et impératives. Utilisez le vous pour s’adresser à l’agent afin d’être cohérent avec le style formel du blog. Voici plusieurs exemples simples proposés par Microsoft :

ScenarioNameDescriptionInstructions
Invoice processingTransfer and submit invoice detailsTransfer invoice data from a PDF and submit it to another form.1. Go to https://computerusedemos.blob.core.windows.net/web/Contoso/invoice-manager.html, set the Date filter to Last 24 hours, and open the invoice PDF.
2. In a new tab, open https://computerusedemos.blob.core.windows.net/web/Contoso/index.html and fill out the form with the data from that PDF. Submit the invoice form, no confirmation needed.
Data entrySubmit inventory itemsAdd products to the inventory system.1. Go to https://computerusedemos.blob.core.windows.net/web/Adventure/index.html.
2. Submit a new entry for each of the following items:
Rear Derailleur, RD-4821, 50, 42.75, Tailspin Toys
Pedal Set, PD-1738, 80, 19.99, Northwind Traders
Brake Lever, BL-2975, 35, 14.50, Trey Research
Chainring Bolt Set, CB-6640, 100, 5.25, VanArsdel, Ltd.
Bottom Bracket, BB-9320, 60, 24.90, Tailwind Traders
Data extractionLook up portfolio manager and valueGet the manager name and value for a portfolio.1. Go to https://computerusedemos.blob.core.windows.net/web/Portfolio/index.html.
2. Find the row for Fourth Coffee and record the Portfolio Manager name and the current Portfolio Value exactly as shown.
3. Return those two values as the final output.

Cliquez ensuite sur Ajouter :

Nommez votre outil, puis indiquez-lui une description :

Processes exactly one invoice only. Runs once per trigger. Must not repeat under any condition.

Choisissez Computer‑Using Agent (Preview) :

Selon votre cas (IIa ou IIb), sélectionnez Bring‑your‑own machine ou Cloud PC Pool :

Fournissez les identifiants nécessaires de votre utilisateur de test :

Cliquez sur Ajouter :

Créez une nouvelle connexion à votre PC :

Renseignez les identifiants de votre utilisateur de test :

Attendez la validation de la connexion :

Enregistrez l’outil afin de pouvoir effectuer un premier test.

Etape V – Test de l’outil Computer‑Using Agent :

Toujours sur Copilot Studio, cliquez sur Test pour lancer un test interactif :

Copilot Studio ouvre alors un écran du Cloud PC et exécute chaque étape en votre présence :

  • Récupération de la dernière facture :
  • Saisie de la facture dans le formulaire web :
  • Saisie de la facture dans le formulaire Microsoft Office :
  • Saisie de la facture dans la feuille Excel :

Quand le test est terminé, la mention suivante apparaît :

Tous les lancements de l’agent sont visibles et traçables dans l’onglet suivant :

Afin de vous faire une meilleure idée du processus complet, voici un enregistrement accéléré de toutes les étapes :

Passons maintenant au dernier test incluant le test du déclencheur de notre agent via l’envoi d’un e-mail vide à l’adresse de messagerie partagée.

Etape VI – Test du déclenchement de l’agent :

Commencez par cliquer sur Publier dans l’en‑tête de l’agent pour le rendre disponible. Les utilisateurs autorisés pourront ainsi déclencher l’agent en lui envoyant un e‑mail ou via une commande spécifique :

Envoyez un e‑mail de test à la boîte partagée :

Dans les activités de Copilot Studio, observez une ligne indiquant que le déclencheur a été détecté :

Cliquez dessus pour ouvrir la vue détaillée de chaque action générant une copie d’écran :

La dernière copie d’écran nous indique la feuille Excel, preuve que le traitement a pu aller jusqu’au bout :

Conclusion

Windows 365 pour Agent marque une évolution importante dans la façon dont nous concevons l’automatisation : on ne parle plus simplement d’exécuter un scénario figé, mais de fournir à un agent IA un environnement Windows complet, sécurisé et gouverné, capable d’agir dans des interfaces qui n’exposent aucune API.

Dans cet article, nous avons volontairement construit un scénario déterministe afin de démontrer que cette approche n’est pas réservée aux cas d’usage “expérimentaux”. Lorsqu’il est correctement cadré, un Computer-Using Agent peut s’intégrer dans un SI existant tout en respectant les exigences de sécurité, de traçabilité et de gouvernance attendues en entreprise.

Cette solution reste toutefois en préversion. Elle implique une réflexion approfondie sur les coûts, la disponibilité régionale et la gestion des identités, et ne remplace pas les automatisations API-first ou les scénarios RPA classiques lorsqu’ils sont plus adaptés.

Windows 365 pour Agent ouvre cependant une voie nouvelle : celle d’agents capables d’opérer dans des environnements hérités ou fermés, là où aucune intégration moderne n’est possible. C’est probablement dans ces zones “grises” du système d’information que cette technologie prendra tout son sens.

Windows 365 Link : Gérer les restrictions d’enrôlement Intune

Lors des premiers déploiements de Windows 365 Link, un problème revient systématiquement, y compris dans des tenants Intune pourtant bien maîtrisé : l’échec de l’enrôlement Intune pendant l’OOBE. Ce blocage n’est généralement pas lié à Windows 365, ni à une erreur utilisateur, ni à un problème réseau. Dans la majorité des cas, il est provoqué par une politique de restriction d’enrôlement Intune parfaitement légitime, mais inadaptée au comportement spécifique de Windows 365 Link.

Un premier article a déjà été écrit sur Windows 365 Link afin de répondre aux questions suivantes :

Mais aussi d’effectuer la mise en route de votre premier Windows 365 Link :

Dans ce second article, je vous propose de passer en revue les trois méthodes possible pour intégrer votre Windows 365 Link à votre tenant tout en évitant les restrictions mise en place sur Intune. Nous prendrons le temps de comparer leurs avantages, leurs limites et les scénarios dans lesquels elles font réellement sens.

Pourquoi Windows 365 Link pose problème avec les restrictions d’enrôlement ?

Lors du tout premier démarrage, Windows 365 Link démarre en Out of Box Experience, l’utilisateur s’authentifie avec son compte Microsoft Entra ID, le poste est alors joint à Microsoft Entra, puis l’enrôlement MDM automatique Intune est déclenché.

Jusque-là, rien d’inhabituel… du moins en apparence :

Mais c’est précisément au moment où Intune évalue les restrictions d’enrôlement que les choses se compliquent. Windows 365 Link :

  • est vu comme Unknown
  • n’est pas encore identifié comme corporate
  • n’est donc pas encore classifié

Ce n’est qu’après la jonction Entra ID complète que le Windows 365 Link bascule en poste d’entreprise :

La conséquence directe de ce comportement est simple : l’enrôlement peut se retrouver bloqué si une restriction d’enrôlement Intune bloquant les postes personnelles est mise en place :

Cette restriction d’enrôlement bloque de façon logique, les postes personnels, inconnus, et donc bloque aussi Windows 365 Link, même s’il s’agit d’un poste Microsoft, managé et destiné à Windows 365 :

Pour y remédier, Microsoft documente trois approches officielles. Elles sont toutes valides, mais ne répondent pas aux mêmes contraintes opérationnelles. Et je souhaitais en rajouter une de plus :

Commençons par la première méthode.

Méthode I – Corporate Identifiers :

C’est l’approche la plus stricte et aussi la plus propre d’un point de vue sécurité :

  • Sécurité maximale
  • Aucun contournement des restrictions existantes
  • Comportement parfaitement déterministe

Les Corporate Device Identifiers permettent de dire à Intune que si un poste correspond à ces caractéristiques, il doit le considérer comme corporate dès le début de l’enrôlement.

Ainsi le device n’est jamais vu comme Unknown et les politiques bloquantes ne s’appliquent pas. Mais le seul souci reste la gestion et la manipulation de numéros de série des Windows 365 Link.

Pour cela, commencez par créer un fichier au format CSV contenant les champs suivants :

Manufacturer,Model,SerialNumber

Cela peut donner le fichier suivant :

Rendez-vous dans le menu d’Intune suivant :

Choisissez le type suivant, puis charger le fichier CSV précédemment créé :

Cliquez sur Ajouter :

Constatez l’apparition de votre poste dans les Corporate Device Identifiers :

Retournez sur votre Windows 365 Link afin de terminer la phase d’enrôlement :

Sur la console Intune, constatez le changement de statut de votre Windows 365 Link :

Cette fois, la phase d’enrôlement a pu aller jusqu’au bout, l’utilisateur peut maintenant se connecter à son Cloud PC :

Passons maintenant à une approche plus souple, mais tout aussi maîtrisable.

Méthode II – Autoriser Windows 365 Link via un filtre Intune :

Au lieu d’identifier chaque Windows 365 Link individuellement via des numéros de série, il est possible de définir une restriction d’enrôlement particulière à Windows 365 Link, avec une priorité plus haute, et ciblée uniquement sur Windows 365 Link via un filtre Intune.

Cette restriction d’enrôlement autorise l’enrôlement des Windows 365 Link, sans remettre en cause les restrictions pour les autres Windows.

Depuis le portail Intune, créez un filtre d’assignation pour les Windows 365 Link via le menu suivant :

Spécifie la règle de filtrage selon la propriété suivante afin de ne prendre en compte que les appareils Windows 365 Link :

Retournez ensuite dans la liste des restrictions d’enrôlement Windows afin d’en ajouter une nouvelle :

Nommez cette restriction, puis cliquez sur Suivant :

Cliquez sur Suivant :

Cliquez sur Suivant :

Assignez cette restriction à tous les utilisateurs, puis cliquez ici pour ajouter un filtre :

Reprenez le filtre créé spécialement pour les Windows 365 Link :

Cliquez sur Suivant :

Cliquez sur Créer :

Attendez quelques secondes la fin de la nouvelle restriction d’enrôlement :

La règle doit être au-dessus de toute restriction d’enrôlement bloquante, pour cela, effectuez un glisser-déposer afin de changer la priorité de la restriction d’enrôlement dédiée au Windows 365 Link :

Avec cette deuxième méthode, la phase d’enrôlement a pu aller jusqu’au bout, l’utilisateur peut maintenant se connecter à son Cloud PC :

Passons maintenant à la troisième méthode.

Méthode III – Device Enrollment Manager (DEM) :

En utilisant un compte disposant du rôle DEM, il est également possible de contourner ces restrictions dans certains scénarios :

Un gestionnaire d’inscription d’appareil (DEM) est un utilisateur non administrateur qui peut inscrire des appareils dans Intune.

Les gestionnaires d’inscriptions des appareils sont utiles lorsque vous devez inscrire et préparer de nombreux appareils pour la distribution. Un compte DEM peut inscrire et gérer jusqu’à 1 000 appareils, tandis qu’un compte non administrateur standard ne peut en inscrire que 15.

Microsoft Learn

Un DEM peut donc enrôler des devices même s’ils sont bloqués par des restrictions et aussi dépasser les limites de devices par utilisateur.

Configurez un ou plusieurs DEM sur le compte suivant :

Avec cette troisième méthode, la phase d’enrôlement a pu aller jusqu’au bout, le DEM a pu enrôler le Windows 365 Link et maintenant tous les utilisateurs peuvent se connecter à leur Cloud PC :

À noter que le DEM se retrouve en tant qu’utilisateur principal, et qu’il peut être remplacé :

Méthode IV – Windows Autopilot devices :

Lorsqu’on parle d’enrôlement Intune et de Windows 365 Link, une question revient très rapidement : Peut-on utiliser Windows Autopilot avec Windows 365 Link ?

Contrairement à un PC Windows classique, Windows 365 Link ne prend tout simplement pas en charge Windows Autopilot, quelle que soit la variante utilisée :

Autopilot : Windows 365 Link ne prend pas en charge autopilot ou la préparation des appareils Autopilot, notamment :

  • Inscription Autopilot
  • Configurations d’intégration
  • Actions d’appareil spécifiques à Autopilot, telles que la réinitialisation Autopilot.

Microsoft Learn

Étant curieux, j’ai quand même voulu tester Autopilot pour le Windows 365 Link :

Mais le résultat a été l’effet attendu, puisque je n’ai pas été contraint lors de l’enrôlement du Windows 365 Link sur un autre tenant différent de celui configuré pour Autopilot :

Autrement dit, aucun scénario Autopilot n’est supporté, même partiellement, pour Windows 365 Link. Cette limitation n’est pas un oubli ou une restriction arbitraire : elle est directement liée à la nature même du Windows 365 Link :

  • Pas un Windows client classique
  • Aucune application locale
  • OS dédié extrêmement verrouillé
  • Politique stricte de contrôle d’exécution (intégrité du code)

Conclusion

Les restrictions d’enrôlement Intune sont l’un des premiers pièges rencontrés lors des déploiements de Windows 365 Link. Ce n’est ni un bug, ni un comportement anormal, mais la conséquence directe :

  • du cycle d’enrôlement Intune,
  • et du positionnement très spécifique de Windows 365 Link.

Une fois ce cadre bien compris, la solution devient finalement assez simple :

  • choisir la méthode d’enrôlement adaptée (Corporate Identifiers, filtre dédié ou DEM),
  • ne pas chercher à appliquer des logiques PC classiques (Autopilot, apps, scripts),
  • et traiter Windows 365 Link comme ce qu’il est réellement :
    un point d’accès sécurisé, minimaliste et contrôlé vers Windows 365.

C’est à cette condition que l’enrôlement devient fiable, reproductible, et cohérent avec une stratégie Cloud-first autour de Windows 365.

Opal sur Windows 365 : quand un agent IA dispose enfin d’un vrai poste de travail

Ces derniers mois, on parle beaucoup d’agents IA, d’automatisation et de “copilots capables d’agir”. Mais dans la réalité du terrain, dès qu’un processus sort des APIs bien propres et documentées, tout s’arrête très vite. Formulaires web sans connecteurs, portails fournisseurs legacy, applications internes sans automatisation possible… C’est exactement là que, jusqu’à présent, l’IA savait quoi faire… mais ne pouvait rien exécuter. C’est précisément ce fossé entre “savoir quoi faire” et “pouvoir le faire” qu’Opal vient combler.

Avec Opal, Microsoft franchit un cap important : pour la première fois, un agent IA ne se contente plus de raisonner ou de proposer des actions : il dispose d’un véritable poste de travail Windows pour les exécuter.

Dans cet article, je vous propose un retour sur Opal, son lien étroit avec Windows 365, son mode de fonctionnement, ses limites actuelles, et surtout dans quels cas d’usage réels cette approche prend tout son sens.

Qu’est-ce que le projet Opal dans Microsoft 365 Copilot ?

Annoncé durant l’Ignite 2025, Opal est une nouvelle capacité de Copilot orientée vers l’automatisation de tâches concrètes et complexes, au-delà de la simple génération de texte ou de réponses. Cette fonctionnalité expérimentale est disponible via le programme Frontier de Microsoft 365 Copilot.

Opal n’est pas un nouveau Copilot de plus :

  • Opal n’est ni un chatbot, ni un simple outil de RPA, ni une extension de Power Automate.
  • C’est un agent IA qui opère dans un environnement Windows réel, avec les mêmes contraintes qu’un utilisateur humain.

Pour faire simple, il s’agit d’un agent IA qui exécute pour vous des tâches réelles et multi-steps dans un environnement sécurisé, en utilisant un PC cloud Windows 365 pour interagir avec des applications web ou systèmes comme le ferait un humain (cliquer, remplir des formulaires, naviguer, etc.).

Toutes les organisations sont confrontées au défi des tâches manuelles répétitives, qui prennent un temps précieux et les détournent de leurs priorités stratégiques, de leur créativité et de leurs activités à fort impact.

Pensez au temps nécessaire pour rassembler des informations provenant de plusieurs sites et outils dans le cadre d’un audit de conformité, pour intégrer de nouveaux employés avec des commandes d’équipement et des accès au système, ou pour valider des bons de commande.

Toutes ces tâches importantes doivent être accomplies, et c’est précisément le type de travail pour lequel Opal a été conçu.

Microsoft Techcommunity

Microsoft met également une FAQ disponible juste ici.

Dans quels cas Opal peut être utile ?

Les entreprises disposent encore de dizaines d’applications sans API, sans connecteur et sans automatisation possible. Opal cible précisément ce vide. Quand aucune API n’existe, Power Automate s’arrête. Opal, lui, continue via l’interface utilisateur.

Opal n’est ni Power Automate, ni un RPA classique : c’est un agent IA capable d’interagir avec un PC cloud Windows 365 :

  • Dès qu’un processus nécessite de cliquer dans une application web ou legacy
  • Télécharger une facture depuis un portail fournisseur, la renommer, puis la déposer dans SharePoint est un scénario typique Opal.

Par contre, Opal n’est pas conçu pour les processus temps réel ni transactionnels critiques.

Quel est le lien entre Windows 365 et Opal ?

Microsoft 365 Copilot sait raisonner, analyser et décider, mais il ne peut pas exécuter d’actions réelles sans poste de travail. Le lien entre Windows 365 et Opal est alors fondamental : Opal a besoin d’un véritable environnement Windows pour pouvoir agir.

Les actions Opal sont exécutées dans un Cloud PC dédié, sans accès direct au poste de l’utilisateur. Le PC cloud Windows 365 sert donc d’environnement sécurisé et isolé pour les actions de l’agent.

On peut résumer l’architecture ainsi :

  • Windows 365 = le corps
  • Opal = les mains
  • Copilot = le cerveau

Ici, Windows 365 fournit à votre IA :

  • une isolation complète du poste de l’utilisateur
  • un PC cloud dédié à l’agent IA
  • un navigateur Edge réel
  • un système de fichiers Windows
  • une session utilisateur contrôlée
  • une identité Microsoft Entra associée

Pourquoi Microsoft n’utilise pas un simple navigateur sandbox ?

Un simple navigateur sandboxé ne permet pas de couvrir les scénarios ciblés par Opal.
Opal n’est pas conçu pour exécuter une action isolée, mais pour enchaîner des tâches complexes, multi-applications et persistantes dans le temps.

Les agents Opal doivent parfois :

  • télécharger et stocker des fichiers localement,
  • ouvrir et manipuler des fichiers Excel, PDF ou CSV,
  • interagir avec plusieurs onglets et fenêtres,
  • conserver un état entre plusieurs étapes,
  • utiliser une identité utilisateur complète (cookies, sessions, certificats),
  • fonctionner avec des extensions navigateur ou des paramètres Edge spécifiques.

Un navigateur isolé et éphémère ne permet pas cela de manière fiable. Un système d’exploitation Windows complet est donc nécessaire pour garantir la continuité, la stabilité et la sécurité de l’exécution.

À quoi à accès Opal sur ces postes Windows 365 ?

Par défaut, Opal n’a accès à aucun site web.

Toute navigation sortante est bloquée tant qu’aucune URL n’a été explicitement autorisée dans le portail d’administration Opal. Sans cette configuration :

  • l’agent ne peut pas ouvrir de site web,
  • il ne peut pas effectuer de recherche internet,
  • il ne peut pas se connecter à une application SaaS.

Ce modèle repose sur une approche deny by default, essentielle pour limiter le périmètre d’action de l’agent IA et éviter toute dérive ou accès non maîtrisé.

Chaque URL autorisée devient ainsi un périmètre fonctionnel clairement défini pour l’agent Opal.

Quels sont les prérequis pour activer Opal sur son tenant ?

Les prérequis exacts ne sont pas encore officiellement figés par Microsoft. À ce jour, Opal est uniquement disponible :

  • dans le cadre du programme Microsoft 365 Copilot Frontier,
  • avec une licence Microsoft 365 Copilot active pour les utilisateurs concernés.

Les dépendances techniques observées incluent également :

  • Microsoft Intune (gestion des Cloud PC),
  • Windows 365 (provisionnement des postes agents),
  • Microsoft Entra ID (identité et accès),
  • Microsoft Graph (onboarding automatisé).

Combien coûte Opal ?

Microsoft n’a communiqué aucun tarif dédié pour Opal à ce stade. Opal n’est pas facturé comme une licence distincte.

Il est inclus, pour le moment, comme fonctionnalité expérimentale du programme Frontier, accessible uniquement avec une licence Microsoft 365 Copilot valide.

Le coût indirect à prendre en compte reste principalement :

  • les licences Windows 365 associées aux Cloud PC agents,
  • les licences Intune,
  • et la licence Microsoft 365 Copilot par utilisateur.

Où les utilisateurs trouvent-ils Opal ?

Les utilisateurs ne trouvent pas Opal comme une application classique dans leur menu Microsoft 365. Opal apparaît dans l’interface Copilot, une fois que l’administrateur a activé la fonctionnalité sur le tenant.

L’URL directe est https://opal.frontier.microsoft365.com peut aussi être utilisée.

Pas de promesses marketing ici : uniquement ce que j’ai pu tester, observer et configurer moi-même sur un tenant Microsoft 365 étape par étape :

Etape 0 – Rappel des prérequis :

Avant toute chose, assurez-vous :

  • d’avoir accès au programme Frontier,
  • de disposer d’un compte Administrateur général,
  • d’avoir Intune et Windows 365 fonctionnels sur le tenant,
  • d’avoir des licences Microsoft 365 Copilot assignées.

Etape I – Configuration du tenant :

Connectez-vous au portail d’administration de Microsoft 365, et depuis le menu de gauche, ouvrez les paramétrages de Copilot, puis sélectionnez Opal (Frontier) dans la liste des fonctionnalités Copilot :

Dans le panneau de configuration Opal, l’option Specific user groups permet de restreindre l’accès à Opal à des groupes Microsoft Entra ID précis, puis sauvegardez :

Etape II – Configuration d’Opal :

Puis cliquez ici pour vous rendre sur le portail d’administration d’Opal afin de continuer la suite de la configuration.

https://opal.frontier.microsoft365.com/admin

Si le message suivant apparaît, vérifiez que vous êtes bien authentifié avec un compte administrateur général, attendez quelques minutes, puis revenez sur le même portail :

Une fois sur le portail d’administration d’Opal, avant d’aller plus loin, prenez le temps de lire le message d’avertissement affiché en évidence :

Afin de mettre en route Opal sur votre tenant Microsoft, téléchargez le script PowerShell suivant via un clic droit :

Le script OpalOnboard.ps1 automatise l’onboarding d’Opal dans un tenant Microsoft 365 via Microsoft Graph, il :

  • installe/charge les modules Microsoft Graph nécessaires, puis se connecte à Graph avec des droits d’admin,
  • crée (si absents) 8 service principals (Opal, Windows 365, AVD, Windows Cloud Login, etc.) pour que le tenant ait les identités applicatives requises,
  • crée un groupe dynamique de devices (“Opal App Device Group”) basé sur une règle de type enrollmentProfileName == « Windows 365 Opal Device Pool »,
  • configure le service principal “Windows Cloud Login” pour activer le RDP et cibler ce groupe de devices,
  • télécharge une policy Edge au format JSON depuis une URL Microsoft, la crée côté Intune (Settings Catalog), puis assigne la policy au groupe de devices.

Sur votre poste local, installez et ouvrez PowerShell 7 :

winget search --id Microsoft.PowerShell

Ouvrez PowerShell 7 avec les droits d’administrateur, exécutez le script, confirmez l’action d’exécution, puis laissez-vous guider :

.\OpalOnboard.ps1

Après l’installation de module, le script se connecte à votre tenant grâce à un compte d’administrateur :

Acceptez les permissions nécessaires :

Si l’erreur suivante apparaît, fermez puis rouvrez simplement PowerShell :

Confirmez les actions d’exécution de création :

  • Création de principaux de services, si absents :
    • 03b184b5-8cb6-45d1-bef1-10db52790f06 Opal – Primary App
    • 90c719d1-2849-4e57-a1d1-0c9edb406be2 Opal Native (On-box agent)
    • 0af06dc6-e4b5-4f28-818e-e78e62d137a5 Windows 365
    • 9cdead84-a844-4324-93f2-b2e6bb768d07 Azure Virtual Desktop
    • a85cf173-4192-42f8-81fa-777a763e6e2c AVD Client
    • 50e95039-b200-4007-bc97-8d5790743a63 AVD ARM Provider
    • 270efc09-cd0d-444b-a71f-39af4910ec45 Windows Cloud Login
    • 351add99-7ff7-4e1f-870f-f98b509209c2 Cloud Device Platform
  • Création d’un groupe dynamique de machines :
    • Nom ame: Opal App Device Group
    • Type: groupe de sécurité
    • (device.enrollmentProfileName -eq « Windows 365 Opal Device Pool »)
  • Configuration du Windows Cloud Login avec notre nouveau groupe de machines :
  • Création de la police Microsoft Edge via Intune :
  • Assignation de la police au groupe dynamique de machines :

Une fois le processus correctement terminé, le message suivant apparaît :

Si cela n’est pas automatique, cliquez sur le bouton de rafraîchissement afin de constater la validation de cette étape :

Enfin, lancez la dernière étape d’onboarding :

Attendez quelques minutes la fin de l’étape suivante :

Quelques minutes plus tard, constatez le succès final de l’étape d’onboarding, puis cliquez sur Suivant :

Une fois l’onboarding technique terminé, vous devez configurer le pool de Cloud PC Windows 365 qui sera utilisé par Opal pour exécuter les tâches.

Etape III – Configuration du pool de machines Windows 365 :

Quelques points importants à retenir :

  • Le Cloud PC est le poste de travail de l’agent Opal, pas celui de l’utilisateur.
  • Toutes les actions (navigation, clics, téléchargements) sont exécutées dans ces Cloud PC Windows 365.
  • Les restrictions d’accès aux sites web permettent de contrôler précisément le périmètre d’action de l’agent.

Cette étape se réalise encore depuis le portail d’administration Opal.

Cette première section permet de définir où seront hébergés les Cloud PC et combien de machines Windows 365 seront créées. Il est recommandé d’utiliser la même région que vos utilisateurs Microsoft 365 :

La création du pool de machines peut prendre plusieurs minutes. Vous pourrez suivre l’état d’avancement directement dans cette section. Ce pictogramme vous indique l’état en cours du provisionnement, ou du re-provisionnement quand un traitement Opal est terminé :

Environ 30 minutes plus tard, les machines Windows 365 sont provisionnées sur votre tenant :

Vous pouvez même retrouver ces nouvelles machines Windows 365 sur votre portail Intune :

Le modèle de machines Windows 365 est d’ailleurs spécifique à ce service d’IA :

Comme attendu, le groupe dynamique de machines Windows 365 regroupe bien celles-ci :

Et la police créée via le script d’onboarding s’affecte bien sur les machines Windows 365 :

De retour sur la console d’administration, ajoutez le ou les sites auxquels les machines auront accès pour effectuer leurs tâches. Dans mon test, je vais ajouter le site suivant :

https://computerusedemos.blob.core.windows.net

L’écran Starters permet de créer des actions prédéfinies proposées aux utilisateurs d’Opal. Un starter correspond à une instruction prête à l’emploi, associée à un site web précis, que l’utilisateur pourra lancer en un seul clic :

Une fois un premier Starter créé, cliquez sur Suivant :

Microsoft recommande de créer un profil Enrollment Status Page (ESP) personnalisé, spécifiquement pour les machines Opal. Ce profil permet notamment de :

  • réduire le temps d’initialisation du Cloud PC,
  • éviter les écrans ESP bloquants,
  • empêcher l’attente d’applications non nécessaires.

Le profil ESP doit être assigné aux appareils correspondant au pool Opal, à l’aide du critère :

enrollmentProfileName = "Windows 365 Opal Device Pool"

Une fois la configuration entièrement complétée, cliquez ici pour terminer le processus :

La suite consiste désormais à créer vos premiers scénarios métier afin de transformer Opal en véritable agent opérationnel capable d’exécuter des tâches concrètes sur des applications web réelles.

Etape IV – Premiers tests d’Opal :

L’URL pour utiliser Opal est celle-ci :

https://opal.frontier.microsoft365.com

Il est aussi possible de retrouver Opal depuis la page d’accueil de Copilot :

Sur Opal, saisissez le prompt suivant afin d’effectuer plusieurs actions, puis cliquez sur Démarrer :

Navigate to https://computerusedemos.blob.core.windows.net/web/Contoso/invoice-manager.html. Filter the invoices by selecting "Last 24 Hours" to find the most recent invoice. Open the PDF of the most recent invoice. In a new browser tab, go to:
https://computerusedemos.blob.core.windows.net/web/Contoso/index.html Fill out the invoice submission form using the data extracted from the PDF. Submit the form without asking for confirmation.

Opal commence par se connecter à une des machines Windows 365 préalablement provisionnées :

Opal attend ensuite que Windows 11 finalise sa configuration OS :

Si besoin, cliquez sur l’image de la VM pour avoir plus de détail. Comme ici, Edge s’ouvre et affiche le site web contenant les factures :

La dernière facture est ouverte pour y récupérer toutes les informations :

Un nouvel onglet s’ouvre dans Edge afin de saisir la nouvelle facture dans le système de comptabilité :

Une fois la saisie complète, une notification apparaît à la fin du traitement de saisie :

Opal compare l’état obtenu aux actions demandées :

Une dernière phase de revue est déclenchée afin que l’utilisateur puisse contrôler le travail effectué :

L’utilisateur n’a qu’à confirmer pour que le travail soit considéré comme terminé :

Afin de vous faire une meilleure idée du traitement effectué par Opal, le voici en fonctionnement :

Etape V – Quelques remarques sur Opal :

Au travers de différents tests, plusieurs points méritent d’être soulignés :

  • Sans finalisation de la configuration d’Opal, le message suivant apparaît pour les utilisateurs :
  • Sans licence Microsoft 365 Copilot, l’accès à Opal retourne une erreur 403 :
  • Après chaque traitement, la machine Windows 365 utilisée est réinitialisée et repart sur un état propre :
  • Il faut attendre environ 15 minutes avant que la machine soit de nouveau disponible pour un autre traitement :
  • Le bouton Pause permet de suspendre temporairement l’exécution sans annuler le scénario, tout en conservant le contexte courant. Cela est très utile si l’utilisateur souhaite reprendre la main quand l’agent part dans une mauvaise direction :
    • l’agent arrête immédiatement d’exécuter des actions (clics, saisies, navigation, appels d’outils)
    • le contexte et l’état courant sont conservés (où il en est dans la tâche)
  • Opal peut décider de s’arrêter de lui-même s’il rencontre une situation ambiguë ou non résoluble, et attend alors une instruction humaine.
  • Durant la phase de traitement d’Opal, 3 autres actions sont possibles :
    • Répéter la requête initiale : Cette action relance exactement le même job depuis le début, en réutilisant la requête initiale, les mêmes instructions et le même contexte de départ. C’est comme cliquer sur “Rejouer le scénario”, sans modifier quoi que ce soit.
    • Terminer le travail : Cette action met fin au job en cours et empêche toute poursuite de ce run, mais le job reste disponible dans l’interface.
    • Supprimer le travail : Le job n’est plus visible ni relançable, mais cela ne désactive pas automatiquement un trigger externe (mail, événement, etc.) s’il existe.

Conclusion

Opal marque une rupture importante dans l’approche de l’automatisation chez Microsoft.
Là où Power Automate s’arrête faute d’API, Opal continue grâce à un véritable poste de travail Windows 365 piloté par une IA.

Nous ne sommes plus dans la simple génération de contenu, mais dans l’exécution réelle de tâches métier, au plus proche du travail humain.

Les premiers usages montrent un potentiel considérable, à condition de bien cadrer les périmètres, les accès et les scénarios. On ne parle pas encore d’autonomie totale, mais d’un changement profond dans la manière dont une IA peut interagir avec des systèmes existants.

Opal n’est pas encore prêt pour des processus critiques temps réel, mais il ouvre clairement la voie à une nouvelle génération d’agents opérationnels.