Der amerikanische Technologiegigant Microsoft hat eingeräumt, dass ein Fehler im Microsoft 365 Copilot Chat es der künstlichen Intelligenz ermöglichte, auf vertrauliche E-Mail-Nachrichten zuzugreifen. Die Störung erlaubte es den Algorithmen, Inhalte aus den Ordnern für gesendete Nachrichten und Entwürfe zu analysieren und zusammenzufassen, wobei Sicherheitsvorkehrungen zum Schutz sensibler Daten umgangen wurden. Das Problem, das im Januar identifiziert wurde, betraf hauptsächlich Unternehmenskunden, die das Cloud-Office-Paket nutzen.
Verletzung der Vertraulichkeit der Korrespondenz
Ein Fehler in Microsoft 365 Copilot ermöglichte es der künstlichen Intelligenz, Entwürfe und gesendete E-Mails ohne Zustimmung der Nutzer zu scannen.
Unwirksamkeit von DLP-Filtern
Sicherheitsvorkehrungen vom Typ Data Loss Prevention konnten nicht verhindern, dass KI-Algorithmen Informationen verarbeiteten, die als vertraulich gekennzeichnet waren.
Identifizierung der technischen Lücke
Das als CW1226324 bezeichnete Problem bestand vom 21. Januar bis Mitte Februar 2026, als Microsoft den Patch einführte.
Der Konzern Microsoft hat offiziell das Vorhandensein einer Sicherheitslücke in seinem KI-Assistenten Copilot bestätigt, die die Privatsphäre der elektronischen Korrespondenz vieler Geschäftsnutzer verletzte. Eine fehlerhafte Funktion der Copilot Chat-Komponente führte dazu, dass das Tool vertrauliche E-Mails lesen und anschließend Zusammenfassungen erstellen konnte, selbst wenn diese durch spezielle Datenschutzrichtlinien geschützt waren. Den Erkenntnissen zufolge betraf das Problem vor allem Nachrichten in den Ordnern „Gesendet” und „Entwürfe”, während der Posteingang als sicher erscheint. Der mit dem Code CW1226324 gekennzeichnete Fehler wurde bereits am 21. Januar 2026 bemerkt, doch die vollständige Dimension des Vorfalls und der Prozess der Patch-Einführung nahmen mehrere Wochen in Anspruch. Künstliche Intelligenz in Büro-Tools basiert auf großen Sprachmodellen, die ständigen Zugriff auf Nutzerdaten benötigen, was von Anfang an Bedenken von Experten hinsichtlich des Schutzes von Unternehmensgeheimnissen weckte. Obwohl Microsoft bereits im Februar ein entsprechendes Korrektur-Update implementiert hat, weisen Cybersicherheitsexperten darauf hin, dass diese Situation das Vertrauen in generative KI im Arbeitsumfeld untergräbt. Die DLP-Mechanismen, die die Übermittlung sensibler Informationen an das Sprachmodell blockieren sollten, erwiesen sich in diesem Fall als unwirksam. Unternehmen, die Microsoft 365 nutzen, wurden über die Notwendigkeit einer Überprüfung ihrer Datenschutzeinstellungen informiert. Microsoft betont, dass der Vorfall technischer Natur war und nicht das Ergebnis eines gezielten Hackerangriffs, sondern eines Fehlers bei der Integration des Assistenten mit den Outlook-E-Mail-Protokollen. dauerte der unkontrollierte KI-Zugriff auf E-Mails Die Einführung von Copilot in alltägliche Büroaufgaben sollte die Produktivität revolutionieren, doch Vorfälle wie dieser zeigen die Risiken, die mit einer übermäßigen Berechtigung von Automaten für digitale Ressourcen verbunden sind. Das Unternehmen aus Redmond versichert, dass es derzeit die Systeme auf ähnliche Anomalien überwacht. Endnutzern war möglicherweise nicht bewusst, dass ihre unvollendeten Nachrichtenentwürfe oder private gesendete Korrespondenz von Algorithmen verarbeitet wurden, um Antworten auf Anfragen von Kollegen zu generieren. Der Fehler führte dazu, dass das Tool Informationen aus Nachrichten, die in Entwürfen gespeichert waren, einigen Unternehmensnutzern anzeigte. [{"dataISO": "2026-01-21", "data": "21. Januar 2026", "tytul": "Fehlererkennung", "opis": "Erste Hinweise auf unbefugten Copilot-Zugriff auf E-Mail-Ordner."}, {"dataISO": "2026-02-18", "data": "18. Februar 2026", "tytul": "Microsoft-Bestätigung", "opis": "Das Unternehmen räumt offiziell die Existenz der Sicherheitslücke CW1226324 ein."}, {"dataISO": "2026-02-19", "data": "19. Februar 2026", "tytul": "Patch-Einführung", "opis": "Abschluss der Bereitstellung von Patches zur Behebung des Fehlers für Microsoft 365-Kunden."}] ["Ja, ich vertraue den Sicherheitsvorkehrungen", "Nein, ich vermeide KI bei sensiblen Daten", "Nur nach zusätzlicher Überprüfung"]Liberale Medien betonen die Notwendigkeit einer schnellen Technologieentwicklung bei gleichzeitiger Verstärkung der regulatorischen Aufsicht über IT-Giganten. | Konservative Medien heben die Gefahr für Datensouveränität und Privatsphäre des Einzelnen im Konflikt mit korporativen KI-Algorithmen hervor.