- Ein neuer Privacy-Bericht wirft Google vor, Chrome installiere ein rund 4 GB großes KI-Modell ohne klare Zustimmung der Nutzer.
- Der Autor sieht darin mögliche Verstöße gegen ePrivacy- und DSGVO-Grundsätze sowie erhebliche Umweltkosten bei globaler Verteilung.
Ein Bericht des Privacy-Autors Alexander Hanff bringt Google Chrome in eine unangenehme Lage. Der Vorwurf ist konkret: Der Browser soll ein rund 4 GB großes On-Device-KI-Modell auf Nutzergeräte laden, ohne vorher deutlich nach Zustimmung zu fragen.
Es geht also nicht nur um irgendein kleines Funktionsupdate, sondern um eine große Datei, die Speicherplatz, Bandbreite und Kontrolle über das eigene Gerät berührt.
Gemini Nano landet offenbar im Chrome-Profil
Im Zentrum steht ein Ordner namens „OptGuideOnDeviceModel“. Darin soll sich eine Datei namens „weights.bin“ befinden, rund 4 GB groß. Laut Hanff handelt es sich dabei um die Modellgewichte für Gemini Nano, also Googles lokale KI-Komponente für Chrome-Funktionen wie Schreibhilfen, Scam-Erkennung oder andere browsernahe KI-Dienste.
Der Bericht beschreibt den Vorgang nicht als sichtbare Installation, die Nutzer bewusst anstoßen.
Vielmehr soll Chrome das Modell im Hintergrund nachladen, wenn das Gerät als geeignet gilt und bestimmte KI-Funktionen oder Rollout-Einstellungen aktiv sind. Für viele Nutzer wäre das kaum erkennbar.
Sie sehen keinen klaren Dialog, keine einfache Frage wie „Möchten Sie ein 4-GB-KI-Modell herunterladen?“, und häufig wohl auch keinen direkten Hinweis in den normalen Einstellungen.
Genau hier liegt der Kern der Kritik. Ein Browser ist für die meisten Menschen keine beliebige App, sondern ein Grundwerkzeug des digitalen Alltags.
Er verwaltet Passwörter, öffnet Bankseiten, lädt Dokumente, synchronisiert Daten und läuft oft dauerhaft im Hintergrund.
Wenn eine solche Software große KI-Komponenten automatisch auf ein Gerät bringt, ist Transparenz nicht nur ein Komfortthema. Es geht um Vertrauen.
Besonders heikel ist laut Hanff auch das Verhalten nach einer manuellen Löschung. Wenn Nutzer die Datei entfernen, könne Chrome sie später erneut herunterladen, solange die zugrunde liegenden Funktionen oder Flags weiterhin aktiv seien.
Damit wirkt die Löschung nicht wie eine dauerhafte Entscheidung des Nutzers, sondern eher wie ein Zustand, den der Browser beim nächsten passenden Zeitpunkt wieder korrigiert.
Das erinnert an ein grundsätzliches Problem moderner Softwareverteilung. Viele Dienste behandeln lokale Geräte zunehmend als Erweiterung ihrer eigenen Infrastruktur. Modelle, Caches, Hintergrundkomponenten und Experimente werden ausgerollt, weil sie für künftige Funktionen nützlich sein könnten.
Aus Sicht des Anbieters ist das effizient. Aus Sicht der Nutzer kann es sich aber so anfühlen, als werde das eigene Gerät ungefragt zum Speicherort für Produktpläne des Unternehmens.
Datenschutzfrage trifft auf Umweltdebatte
Der Bericht geht weit über die Frage hinaus, ob 4 GB viel Speicherplatz sind. Hanff argumentiert, dass eine solche Modellverteilung bei Chrome-Größe enorme Bandbreiten- und Klimakosten verursachen könne. Chrome läuft auf sehr vielen Geräten weltweit.
Wenn auch nur ein Teil dieser Installationen ein 4-GB-Modell erhält, entstehen gewaltige Datenmengen. Rechenzentren müssen die Datei ausliefern, Netze müssen sie transportieren, Geräte müssen sie speichern und teilweise verarbeiten.
Das ist der Punkt, an dem eine scheinbar technische Browser-Funktion zu einer Infrastrukturentscheidung wird.
Ein einzelner Nutzer merkt vielleicht nur, dass Speicherplatz fehlt oder der Download im Hintergrund läuft. Bei Hunderten Millionen Geräten wird daraus aber eine globale Ressourcenfrage.
Gerade große Tech-Konzerne betonen inzwischen regelmäßig ihre Nachhaltigkeitsziele. Dann stellt sich zwangsläufig die Frage, ob massenhafte KI-Modellverteilung ohne sichtbare Zustimmung zu diesen Zielen passt.
Auch rechtlich sieht der Autor Probleme. Er verweist auf die ePrivacy-Richtlinie, auf DSGVO-Grundsätze wie Transparenz, Fairness und Rechtmäßigkeit sowie auf Datenschutz durch Technikgestaltung.
Die Argumentation ist nachvollziehbar: Wenn Software Informationen auf einem Endgerät speichert oder Zugriff auf dieses Gerät nimmt, braucht es in Europa besonders klare rechtliche Grundlagen.
Je größer und zweckgebundener die Komponente ist, desto schwerer wird es, sie als normales technisches Beiwerk zu behandeln.
Google dürfte dem entgegenhalten, dass lokale KI-Funktionen auch Datenschutzvorteile bringen können. Das ist nicht falsch. On-Device-AI kann verhindern, dass bestimmte Inhalte an Server gesendet werden müssen. Schreibhilfen, Betrugserkennung oder lokale Zusammenfassungen könnten theoretisch privater sein, wenn sie direkt auf dem Gerät laufen.
Aber genau deshalb ist die Umsetzung so wichtig. Lokale KI kann ein Datenschutzgewinn sein, wenn Nutzer verstehen, was installiert wird, wofür es genutzt wird und wie sie es ablehnen oder entfernen können.
Wird ein großes Modell dagegen still verteilt, kippt die Wahrnehmung. Dann wirkt die lokale Verarbeitung nicht wie ein Schutzversprechen, sondern wie eine Entscheidung, die bereits über den Kopf des Nutzers hinweg getroffen wurde.
Der Streit liegt also nicht nur bei Gemini Nano selbst. Er liegt bei der Kontrolle. Wer entscheidet, welche KI-Komponenten auf einem privaten oder geschäftlichen Gerät landen? Wie klar muss ein Browser erklären, was er speichert? Und reicht es, Funktionen irgendwo in experimentellen Einstellungen oder schwer auffindbaren Menüs abschaltbar zu machen?
Für Unternehmen kommt noch eine weitere Ebene hinzu. Wenn Chrome auf Arbeitsgeräten große KI-Modelle nachlädt, betrifft das nicht nur Speicherplatz.
Es berührt IT-Richtlinien, Compliance, Softwareinventar, Energieverbrauch und möglicherweise auch Datenschutz-Folgenabschätzungen. In regulierten Branchen ist ein still aktivierter KI-Baustein kein kleines Detail.
Der Bericht zeigt damit eine größere Spannung im KI-Zeitalter. Anbieter wollen KI-Funktionen so nahtlos wie möglich einbauen. Nutzer sollen sie möglichst ohne Reibung verwenden können.
Doch je unsichtbarer diese Integration wird, desto wichtiger wird echte Zustimmung. Bei einem Browser wie Chrome reicht es nicht, dass eine Funktion technisch nützlich sein könnte.
Nutzer müssen wissen, was auf ihrem Gerät passiert. Andernfalls wird aus On-Device-AI kein Vertrauensargument, sondern ein neues Misstrauen gegenüber Software, die ohnehin schon sehr tief im Alltag sitzt.







