Microsoft 365 Copilot läste och sammanfattade konfidentiella mejl från slutet av januari. Ett kodfel spårat som CW1226324 lät AI-assistenten kringgå data loss prevention-policyer och konfidentialitetsmärkningar från 21 januari till sent februari, och bearbetade mejl som organisationer uttryckligen markerat som förbjudna för automatiserade verktyg.
Buggen påverkade Copilots ”Work Tab”-chattfunktion, som hämtade innehåll från användarnas Skickat-mappar och Utkast-mappar oavsett känslighetsmärkningar. Enligt BleepingComputer rapporterade kunder problemet först den 21 januari men började rulla ut en korrigering först i början av februari. Den 20 februari uppgav Microsoft att ”grundorsaken till detta problem har åtgärdats för de flesta kunder”, även om utrullningen fortfarande är ofullständig för vissa komplexa tjänstemiljöer.
Detta är precis den typ av fel i AI-styrningen som företagssäkerhetsteam fruktade när produktivitets-AI-verktyg började rullas ut i stor skala. När skyddsåtgärderna och AI:n sitter i samma plattform kan ett enda kodfel inaktivera alla kontroller samtidigt.
Kontrollerna fanns där – de fungerade bara inte
Microsoft bekräftade att drabbade mejl bar konfidentialitetskänslighetsmärkningar och skyddades av DLP-policyer specifikt konfigurerade för att blockera AI-bearbetning av innehåll. The Register rapporterade att Microsofts egen dokumentation erkänner att dessa kontroller ska utesluta innehåll från Copilot-åtkomst i Office-appar, även om den noterar att ”innehåll förblir tillgängligt för Microsoft 365 Copilot för andra scenarion” inklusive Teams och Copilot Chat.
Skillnaden spelar roll. Organisationer som tillämpade känslighetsmärkningar i tron att de skulle blockera AI-åtkomst heltäckande upptäckte att märkningarna fungerade inkonsekvent över Microsofts eget ekosystem — redan innan denna bugg slog till. Enligt Microsofts uttalande till The Register ”tillåter ett kodproblem att objekt i skickat-mappen och utkast-mappar plockas upp av Copilot trots att konfidentiella märkningar är på plats.”
Cybersecurity News rapporterade att Storbritanniens National Health Service flaggade incidenten internt som INC46740412, vilket indikerar verklig påverkan för offentliga sektoranvändare. Det drabbade innehållet inkluderade affärsavtal, juridisk kommunikation, regeringskorrespondens och skyddad hälsoinformation — exakt de kategorier som känslighetsmärkningar och DLP-policyer är designade att skydda.
Detta händer när AI-adoption överträffar styrning
Dr Ilia Kolochenko, VD på ImmuniWeb och medlem av Europol, sa till Cybernews att ”incidenter som denna kommer troligen att öka kraftigt 2026, möjligen bli den vanligaste typen av säkerhetsincident.” Hans bedömning speglar ett bredare mönster: organisationer distribuerar AI snabbare än de kan säkra det, med styrningsramverk som släpar efter produktivitetsvinster.
Microsofts egen forskning stöder denna syn. Företagets Cyber Pulse-rapport fann att mer än 80% av Fortune 500-företagen distribuerar AI-agenter, men endast 47% rapporterar att de har adekvata säkerhetskontroller för generativa AI-plattformar. Security Boulevard noterade att ”synligheten som organisationer har på agenterna är mycket begränsad”, enligt Microsoft Securitys corporate vice president Vasu Jakkal.
World Economic Forums rapport Global Cybersecurity Outlook 2026 visar att dataläckor genom generativ AI nu är den främsta cybersäkerhetsbekymringen bland VD:ar globalt, angiven av 30% av respondenterna. Bland cybersäkerhetsprofessionella ökade oron från 21% 2024 till 34% 2026. Enligt rapporten saknar ungefär en tredjedel av organisationerna fortfarande en process för att validera AI-säkerhet före distribution.
Vad organisationer bör göra nu
Kontrollera ditt Microsoft 365 Admin Center för uppdateringar under referens CW1226324 för att bekräfta att fixen har distribuerats till din tenant. eSecurity Planet rekommenderar att validera att DLP-policyer och känslighetsmärkningar verkställs korrekt inom Copilot genom att testa hur konfidentiellt innehåll hanteras över mejl- och dokumentarbetsflöden.
Granska Copilot-aktivitetsloggar för ovanlig åtkomst till märkt innehåll under den drabbade perioden. Fox News väckte också frågan om huruvida konfidentiella utkast till e-post behöver sparas överhuvudtaget, eller om en kortare lagringsperiod skulle minska exponeringensärskilt eftersom felet specifikt påverkade mapparna Skickade objekt och Utkast.
Överväg att begränsa Copilot-åtkomst med rollbaserade kontroller och conditional access-policyer tills du kan verifiera att styrningskontroller fungerar som avsett. Vissa organisationer kanske vill pausa Copilot-distribution helt för avdelningar som hanterar högreglerad data tills oberoende validering är klar.
Referenser
- BleepingComputer: Microsoft says bug causes Copilot to summarize confidential emails — https://www.bleepingcomputer.com/news/microsoft/microsoft-says-bug-causes-copilot-to-summarize-confidential-emails/
- The Register: Copilot Chat bug bypasses DLP on ’Confidential’ email — https://www.theregister.com/2026/02/18/microsoft_copilot_data_loss_prevention/
- Cybersecurity News: Microsoft 365 Copilot Flaw Allows AI Assistant to Summarize Sensitive Emails — https://cybersecuritynews.com/microsoft-365-copilot-bug/
- eSecurity Planet: Microsoft 365 Copilot Bug Circumvented DLP Controls — https://www.esecurityplanet.com/threats/microsoft-365-copilot-bug-circumvented-dlp-controls/
- Kiteworks: Microsoft Copilot Bug Bypassed Confidential Email Controls — https://www.kiteworks.com/cybersecurity-risk-management/microsoft-copilot-bug-confidential-email-ai-governance-data-layer-defense/
- Cybernews: Copilot was spying on confidential emails, Microsoft rushes to ship worldwide fix — https://cybernews.com/security/microsoft-copilot-confidential-email-data-leak/
This post is also available in:
English