À bien des égards, l'IA offre à chacun d'entre nous des possibilités palpitantes de donner vie à de nouvelles idées. Microsoft prend de nouvelles mesures pour s'assurer que ces nouvelles technologies ne soient pas utilisées à mauvais escient. En tant qu'entreprise, nous nous engageons à adopter une approche solide, technique et globale pour protéger les individus, en nous appuyant sur le principe de la sécurité dès la conception. Notre solide architecture de sécurité est appliquée au niveau de la plateforme d'IA, du modèle et des applications. Elle comprend des aspects tels que l'analyse continue de l'équipe rouge, des classificateurs préemptifs, le blocage des invites abusives, des tests automatisés et l'interdiction rapide des utilisateurs utilisent le système à des fins malveillantes. La provenance durable des médias et le filigrane sont essentiels pour lutter contre les deepfakes de vidéos, d'images ou de sons. Nous avons recours à des méthodes cryptographiques pour marquer et signer le contenu généré par l'IA avec des métadonnées sur sa source et son historique. Microsoft a joué un rôle de premier plan dans la recherche et le développement de méthodes d'authentification de la provenance, notamment en tant que cofondateur du projet Origin et de la Coalition for Content Provenance and Authenticity (C2PA). Nous utilisons la technologie de la provenance, le filigrane et les techniques d'empreintes digitales pour déterminer rapidement si une image ou une vidéo est générée ou manipulée par l'IA. Nous nous engageons à identifier et à supprimer les contenus trompeurs et abusifs de ce type lorsqu'ils se trouvent sur nos services hébergés destinés aux consommateurs, tels que LinkedIn, notre réseau de jeux et d'autres services pertinents.