Microsoft Recall – Übersicht und Risiken

Was ist Microsoft Recall?

Recall ist ein neues KI-Feature, das von Microsoft für Windows Copilot+ PCs angekündigt wurde. Dieses Feature kann am besten als eine Art fotografisches Gedächtnis für Windows-Computer beschrieben werden. Alle fünf Sekunden werden Screenshots erstellt, wobei ein neuer Screenshot nur dann aufgenommen wird, wenn es im Vergleich zum vorherigen Screenshot ausreichende Änderungen gibt. Auf diesen Screenshots ist, mit einigen Ausnahmen, alles sichtbar, was zum Zeitpunkt der Aufnahme auf dem Bildschirm angezeigt wurde. Nach der Erstellung eines Screenshots folgt eine Analyse, um zusätzliche Daten in einer Datenbank zu speichern und den Screenshot in eine Timeline einzufügen, auf die Nutzerinnen und Nutzer zugreifen können. Dabei wird unter anderem mithilfe von Optical Character Recognition (OCR) der auf den Screenshots sichtbare Text erfasst. Dieser erfasste Text ermöglicht sowohl eine textuelle Suche in der Timeline als auch das Kopieren von Text aus den Screenshots.

Microsoft gibt an, dass Recall den Nutzerinnen und Nutzern die Möglichkeit bieten soll, ihre Computeraktivitäten rückblickend zu durchforsten und vergangene Aktivitäten zu einem beliebigen Zeitpunkt wieder aufzunehmen. Nach unserer Ansicht könnte die nahezu lückenlose Aufzeichnung von Nutzeraktivitäten jedoch auch für andere Zwecke, wie etwa Überwachung, genutzt werden.

Kontroverse und Risiken

Wer von Recall gehört hat, kennt es vermutlich aus den zahlreichen negativen Schlagzeilen. Nach der Ankündigung von Recall hagelte es Kritik von allen Seiten – Datenschutz, Privatsphäre und Sicherheit standen im Mittelpunkt der Debatte.

Die größte Sorge betraf die sensiblen Daten, die Recall speichert. Da keine Content-Moderation stattfindet bzw. diese den Nutzerinnen und Nutzern überlassen wird, kann das Feature theoretisch alles erfassen, was auf dem Bildschirm angezeigt wird – ohne Rücksicht auf die Sensibilität der Informationen. Hinzu kamen Bedenken, dass die von Recall gespeicherten Daten nicht ausreichend geschützt sind.

Wie bereits erwähnt, liegt die Content-Moderation größtenteils in den Händen der Nutzerinnen und Nutzer. Diese können in den Einstellungen festlegen, welche Anwendungen und Webseiten von der Erfassung ausgeschlossen werden sollen. Diese Ausnahmen werden in einem speziellen Registry-Hive gespeichert. Die Einträge im Registry-Hive, die in Base64 kodiert gespeichert werden, lassen jedoch Rückschlüsse darauf zu, welche Anwendungen genutzt und welche Webseiten besucht werden, die die Nutzerinnen und Nutzer bewusst von der Aufzeichnung durch Recall ausschließen möchten. Darüber hinaus mussten wir feststellen, dass Recall, zumindest in der von uns getesteten Version, zwar keine Screenshots von den Anwendungen erstellt, für die eine Ausnahme angelegt wurde, jedoch trotzdem Einträge in die Datenbank schrieb.

Reaktion von Microsoft

Als Reaktion auf die Kritik entschied sich Microsoft dazu, Recall aus den Insider Builds zu entfernen und zu überarbeiten. Die wesentlichen angekündigten Änderungen umfassen:

  1. Recall wird nicht automatisch eingeschaltet sein.
  2. Windows Hello muss eingerichtet sein, um Recall nutzen zu können. Zusätzlich wird ein „Proof of Presence“ erforderlich sein, um die Timeline anzuzeigen.
  3. Der Suchindex der Datenbank und die Screenshots werden verschlüsselt. Die Entschlüsselung soll „just in time“ erfolgen, also nur dann, wenn die Nutzerinnen und Nutzer auf Recall zugreifen.
Nach der umfangreichen Kritik an Recall wird es für Microsoft eine Herausforderung sein, das Vertrauen in das Feature wiederherzustellen. Ob die angekündigten Änderungen genügen, um die Daten ausreichend zu schützen, wird sich erst zeigen, wenn die finale Version von Recall veröffentlicht wird.