Amerykański gigant technologiczny Microsoft przyznał, że błąd w usłudze Microsoft 365 Copilot Chat pozwolił sztucznej inteligencji na dostęp do poufnych wiadomości e-mail. Awaria umożliwiła algorytmom analizowanie i podsumowywanie treści z folderów wiadomości wysłanych oraz wersji roboczych, omijając zabezpieczenia chroniące dane wrażliwe. Problem, który zidentyfikowano w styczniu, dotyczył głównie użytkowników korporacyjnych korzystających z pakietu biurowego w chmurze.

Naruszenie tajności korespondencji

Błąd w Microsoft 365 Copilot umożliwił sztucznej inteligencji skanowanie draftów oraz wysłanych e-maili bez zgody użytkowników.

Nieskuteczność filtrów DLP

Zabezpieczenia typu Data Loss Prevention nie zdołały powstrzymać algorytmów AI przed przetwarzaniem informacji oznaczonych jako poufne.

Identyfikacja luki technicznej

Problem oznaczony jako CW1226324 trwał od 21 stycznia do połowy lutego 2026 roku, kiedy to Microsoft wdrożył poprawkę.

Koncern Microsoft oficjalnie potwierdził istnienie luki bezpieczeństwa w swoim asystencie sztucznej inteligencji Copilot, która naruszyła prywatność korespondencji elektronicznej wielu użytkowników biznesowych. Wadliwe działanie komponentu Copilot Chat sprawiło, że narzędzie mogło odczytywać, a następnie sporządzać streszczenia poufnych e-maili, nawet jeśli były one objęte specjalnymi politykami ochrony danych. Z ustaleń wynika, że problem dotyczył przede wszystkim wiadomości znajdujących się w folderach „Wysłane” oraz „Wersje robocze”, podczas gdy skrzynka odbiorcza wydaje się pozostawać bezpieczna. Błąd oznaczony kodem CW1226324 został dostrzeżony już 21 stycznia 2026 roku, jednak pełna skala zjawiska i proces wdrażania poprawki zajęły firmie kilka tygodni. Sztuczna inteligencja w narzędziach biurowych opiera się na dużych modelach językowych, które wymagają stałego dostępu do danych użytkownika, co od początku budziło obawy ekspertów o ochronę tajemnicy przedsiębiorstwa. Mimo że Microsoft wdrożył już odpowiednią aktualizację naprawczą w lutym, eksperci ds. cyberbezpieczeństwa zwracają uwagę, że sytuacja ta podważa zaufanie do generatywnej AI w środowisku pracy. Mechanizmy DLP, które powinny blokować przesyłanie wrażliwych informacji do modelu językowego, okazały się w tym przypadku nieskuteczne. Przedsiębiorstwa wykorzystujące Microsoft 365 zostały poinstruowane o konieczności weryfikacji swoich ustawień prywatności. Microsoft podkreśla, że incydent miał charakter techniczny i nie był wynikiem celowego ataku hakerskiego, lecz błędu w integracji asystenta z protokołami pocztowymi Outlook. 30 dni — trwał niekontrolowany dostęp AI do e-maili Wprowadzenie Copilota do codziennych zadań biurowych miało zrewolucjonizować produktywność, jednak incydenty takie jak ten pokazują ryzyko związane z nadmiernym uprawnieniem automatów do zasobów cyfrowych. Firma z Redmond zapewnia, że obecnie monitoruje systemy pod kątem podobnych anomalii. Użytkownicy końcowi mogli nie zdawać sobie sprawy, że ich niedokończone szkice wiadomości lub prywatna korespondencja wysłana były przetwarzane przez algorytmy w celu budowania odpowiedzi na zapytania współpracowników. „Błąd spowodował, że narzędzie wyświetlało informacje z wiadomości przechowywanych w wersjach roboczych niektórym użytkownikom korporacyjnym.” — Rzecznik Microsoft Przebieg incydentu bezpieczeństwa Copilot: 21 stycznia 2026 — Wykrycie błędu; 18 lutego 2026 — Potwierdzenie Microsoftu; 19 lutego 2026 — Wdrożenie poprawki Media liberalne akcentują konieczność szybkiego rozwoju technologii przy jednoczesnym zwiększeniu nadzoru regulacyjnego nad gigantami IT. | Media konserwatywne podkreślają zagrożenie dla suwerenności danych i prywatności jednostki w starciu z korporacyjnymi algorytmami AI.

Sources: 7 articles from 7 sources