KI bietet in vielerlei Hinsicht faszinierender Möglichkeiten für uns alle, um neue Ideen zum Leben zu erwecken. Microsoft geht neue Wege, um zu gewährleisten, dass diese neuen Technologien nicht missbraucht werden können. Als Unternehmen haben wir uns einem robusten, technischen und umfassenden Ansatz zum Schutz von Menschen verpflichtet, der auf Sicherheit durch Design basiert. Unsere starke Sicherheitsarchitektur wird auf den KI-Plattform-, Modell- und Anwendungsebenen angewendet. Dazu gehören Aspekte wie die laufende Red-Team-Analyse, präventive Klassifikatoren, das Blockieren missbräuchlicher Prompts, automatisierte Tests und schnelles Sperren von Benutzer*innen, die das System missbrauchen. Dauerhafte Medienherkunft und Wasserzeichen sind unerlässlich, um Deepfakes in Videos, Bildern oder Audio zu bekämpfen. Wir verwenden kryptografische Methoden, um KI-generierte Inhalte mit Metadaten zu ihrer Quelle und ihrem Verlauf zu markieren und zu signieren. Microsoft war führend in der Forschung und Entwicklung von Methoden zur Authentifizierung der Herkunft, u. a. als Mitbegründer von Project Origin und der Coalition for Content Provenance and Authenticity (C2PA). Mit Provenienztechnologie, Wasserzeichen- und Fingerabdrucktechniken können wir schnell feststellen, ob ein Bild oder Video mit KI generiert oder manipuliert wurde. Wir verpflichten uns, irreführende und missbräuchliche Inhalte wie diese zu identifizieren und zu entfernen, wenn sie sich auf unseren gehosteten Verbraucherdiensten wie LinkedIn, unserem Gaming-Netzwerk und anderen relevanten Diensten befinden.