Apples Strategien zum Schutz Ihrer Daten im Bereich der künstlichen Intelligenz
Es ist kein Geheimnis, dass Apple an künstlicher Intelligenz (AI) arbeitet, die mit iOS 18 und macOS 15 veröffentlicht werden wird. Wenn Sie Ihr iPhone, iPad oder Mac dieses Jahr aktualisieren, könnten Sie eine natürlicher klingende Siri erleben oder Emojis erstellen, die auf Ihrer Konversation in Messages basieren. Diese Updates sind spannend, aber wie sicherstellt Apple Ihre Informationen während der Verarbeitung dieser neuen Funktionen?
Während einige Berichte behaupten, dass Apple viele dieser Funktionen lokal ausführen wird, insbesondere mit seinen neuesten Produkten, gibt es Gerüchte, dass die Firma plant, vieles der Verarbeitung in die Wolke auszulagern. Das ist normal in der Branche, da die meisten AI-Verarbeitungen derzeit in der Wolke erfolgen, weil sie intensive sind. Unternehmen versuchen ständig, ihre NPUs (Neuronale Prozessoren) zu verbessern, die spezialisierte Prozessoren sind, die ausschließlich mit AI-Funktionen zu tun haben. Apple hat NPUs seit Jahren verwendet, aber machte einen großen Aufruhr über den neuen M4-Chip, der starke NPUs hat, und Microsoft brachte ein neues AI-PC-Standard mit seiner Copilot+-PC-Reihe ein.
Lokal ausgelagerte AI bietet eine sicherere Erfahrung
Egal, ob Ihre AI-Funktionen auf Ihrem Handy oder in der Wolke laufen, kümmern Sie sich wahrscheinlich nicht, sofern sie richtig funktionieren. Allerdings bietet die Ausführung dieser Funktionen auf dem Gerät eine erheblich sicherere Erfahrung. Durch das Auslagern der Verarbeitung in die Wolke setzen Unternehmen Ihre Daten gefährdet, insbesondere wenn der Dienst, der die Daten verarbeitet, sie zuvor entschlüsseln muss. Mögliche Lecks umfassen nicht nur die Mitarbeiter der Firma, sondern auch die Hacker, die versuchen, die Firma's Wolkenserver zu hacken.
Dies ist bereits ein großes Problem mit Diensten wie ChatGPT, und deshalb empfehle ich, persönliche Informationen mit den meisten cloudbasierten AI-Diensten nicht zu teilen: Ihre Gespräche sind nicht privat, und alle werden an diese Server gesendet, um sie zu speichern und die AI-Modell zu trainieren. Unternehmen, die den Nutzerprivatsphäre priorisieren, wie Apple, versuchen, solche Funktionen so oft wie möglich lokal zu realisieren, um sicherzustellen, dass Nutzerdaten isoliert bleiben.
Nutzung des 'Secure Enclave' zur Sicherung von AI-Daten
Egal, ob Apple's Hardware in der Lage ist, die AI-Funktionen, die sie entwickeln, auszuführen, könnten für ältere Geräte oder Funktionen, die zu viel Leistung benötigen, die Firma dazu gezwungen sein, auf Servern in den Wolken zu vertrauen, um diese Fähigkeiten anbieten zu können. Wenn ein Bericht von The Information, wie von Android Authority erwähnt, richtig ist, könnte Apple eine Lösung gefunden haben: den Secure Enclave.
Der Secure Enclave ist bereits in den meisten Apple-Geräten im Einsatz. Er ist Teil des SoC (System on a Chip), der unabhängig vom Prozessor arbeitet, und seine Hauptfunktion ist, Ihre am sichersten gespeicherten Informationen, wie Ihre Verschlüsselungsschlüssel und biometrische Daten, zu speichern. Dadurch bleibt die Daten unzugänglich, wenn der Hauptprozessor infiziert ist.
Nach The Information entwickelt Apple eine AI-Cloud-Lösung, die alle AI-Nutzerdaten an die Secure Enclaves der M2 Ultra und M4 Macs in den Apple-Datenzentren senden würde. Die Server-Macs in diesen Anlagen könnten die Anfrage verarbeiten, während sie die Verschlüsselung beibehalten, und dann die Ergebnisse zurück an den Benutzer senden. Dieser Prozess würde die Sicherheit der Benutzerdaten gewährleisten, während ältere Geräte Apple's neuesten AI-Funktionen nutzen können.
Wir wissen noch nicht, ob dies Apple's Strategie ist, bis sie es auf der WWDC bekannt geben, vielleicht. Wenn Apple so still über die Sicherheit der AI-Benutzerdaten ist, könnten wir vielleicht nie wissen. Allerdings, betrachtet man Apple als eine Firma, die sich für den Nutzerprivatsphäre einsetzt, würde eine Lösung, die sichergestellt, dass verschlüsselte Wolken-Daten verarbeitet werden, viel Sinn machen.