Rasanter Datenmengenanstieg. Datenmengen und Energieverbrauch managen – Handlungsbedarf?

Der Bundesrat sagt nein

Rasanter Datenmengenanstieg. Datenmengen und Energieverbrauch managen – Handlungsbedarf?

Jürg Grossen von der GLP hat beim  Bundesrat eine Interpellation mit dem obenstehenden Titel eingereicht. Dabei geht es um die Problematik der übermässigen Datennutzung,  dem  damit verbundenen Energieverbrauch und den verbundenen Kosten:

Alle 18 Monate verdoppelt sich das gespeicherte Datenvolumen weltweit. Mit diesem Jahr haben wir erstmals die Situation, dass in den letzten 12 Monaten mehr Daten erzeugt wurden, als es weltweit seit Beginn der Menschheit gibt. Dies treibt den Bau von Rechenzentren weltweit und auch in der Schweiz weiter voran. Ein Treiber der sich stetig verdoppelnden Datenmenge ist neben günstigem Speicherplatz auch die hohe Redundanz, sprich dass Daten mehrfach gespeichert werden. Es stellen sich deshalb wichtige Fragen in Bezug auf Datenmanagement und damit einhergehendem Ressourcen- und Energieverbrauch.

Der Bundesrat wird gebeten folgende Fragen zu beantworten:

  1. Gibt es aus Sicht des Bundesrates regulatorischen Handlungsbedarf in Sachen Datenspeicherung und Energieverbrauch in der Schweiz? Wenn ja welchen? Wenn nein, weshalb?
  2. Welches Potential sieht der Bundesrat in der Möglichkeit, regelmässig die Daten zu bereinigen?
  3. Welche Möglichkeiten sieht der Bundesrat, um den rasanten Datenmengenanstieg und damit einhergehend den Ausbau weiterer Rechenzentren in der Schweiz in nachhaltige Bahnen zu lenken?

Der Bundesrat  sieht derzeit keinen Handlungsbedarf (Auszug):

  1. Der Bundesrat sieht derzeit keine Möglichkeiten, das Wachstum der Datenmenge zu bremsen, und auch keinen Grund, diesen Bereich zum jetzigen Zeitpunkt zu regulieren. Stattdessen wird der Bund weiterhin bestrebt sein, die Anforderungen an die Nachhaltigkeit sämtlicher IKT-Geräte und -Infrastrukturen zu verschärfen.

Wieso ist das Thema wichtig?

Die Interpellation basiert u.a. auf meinem Blog zum Thema Datenmengen und Energieverbrauch. Darin wird festgehalten, dass die Reduktion der Datenmengen einen wesentlichen Beitrag an die Vermeidung von CO2-Emissionen leisten kann.

Es stellt sich folglich die Gretchenfrage: Wer kann/soll/muss handeln, um diese Probleme anzugehen? Ist der Bundesrat/die Politik in der Pflicht?

Die Problematik der übermässigen Datenspeicherung wird durch die Anbieter von Rechenzentren und Cloud-Systemen regelmässig heruntergespielt. Denn Tatsache ist, dass diese Anbieter mit jedem Byte, das auf ihren Systemen gespeichert wird, zusätzliches Geld verdienen. Deshalb ist die Cloud- und Rechenzentrumsbranche bemüht, hervorzuheben, dass die Effizienz ihrer Systeme kontinuierlich zunimmt (jüngstes Beispiel ). Das ist natürlich korrekt, denn die Kosten pro gespeicherter Einheit sind tatsächlich rückläufig, was dem technischen Fortschritt geschuldet ist.

Doch damit ist auch gleich gesagt, dass mit neuen technischen Entwicklungen, wie zum Beispiel dem extensiven Einsatz von KI, der Datenhunger massiv zunimmt. Damit nimmt auch der Energieverbrauch zu und somit der damit gekoppelte CO2-Ausstoss.

Die Branche argumentiert in ähnlicher Weise, wie die Automobil-Anbieter jahrelang argumentiert haben (Zitat aus den 70ern): «Unsere modernen Autos brauchen nur noch 20 l Benzin, letztes Jahr waren es noch 22, also haben wir einen massiven Fortschritt erzielt!» Tatsache ist, dass die Effizienz der Rechner nur einen kleinen Faktor ausmacht. Es verhält sich hier ähnlich wie mit dem Transport von Gütern. Wir wissen seit Jahrzehnten, dass Leerfahrten ein Unding sind. Trotzdem sind die Fortschritte in diesem Bereich unbefriedigend (gemäss verschiedenen Quellen dürfte die Anzahl der Leerfahren im LKW Transport aktuell immer noch 20-30% betragen).

Im Wettbewerb bedeutet dies: Solange alle Anbieter oder Anwender ihre Systeme so ineffizient betreiben, erwirtschaften sie damit  keinen Wettbewerbsvorteil. Es wird sich auch niemand darum bemühen, Innovation zu betreiben oder zu unterstützen. Das ist leider ein Faktum und wir werden damit rechnen müssen, dass sich das Verhalten der Endbenutzer wie auch der Anbieter kaum ändern wird. Oder mit anderen Worten: der Effizienzstandard ist so gering, dass es kaum einen ökonomischen Anreiz gibt, diesen zu verbessern. Schlussendlich verkauft die Industrie auch lieber die Massivlösung (1970 wusste noch niemand was ein SUV ist…). Also lieber etwas mehr PS (aka «Speicher») , man weiss ja nie..

Hinzu kommt die Tatsache, dass die Kosten der Informationsverarbeitung nicht transparent sind. Oder anders gesagt: Niemand ist in der Lage, die realen Kosten der Informationsverarbeitung so aufzulisten, dass er die einzelnen Faktoren auch beeinflussen kann.


Wege aus dem Dilemma

Welche Wege gibt es aus diesem Dilemma? Der ordnungspolitische Hebel, also über speziellere Regulierungen vorzugehen, dürfte kaum zum Erfolg führen. Sicher kann man die Effizienzanforderungen an Technologien erhöhen und mehr Druck aufsetzen. Dies ändert aber nichts daran, dass 80 % der gespeicherten Daten nicht benötigt würden um die gewünschten Ergebnisse zu erzielen. Also bestünde eine Möglichkeit darin, Innovationen gezielt zu fördern, die eine effizientere Informationsverarbeitung zum Ziel haben.

Letztendlich gibt es Ansätze, die im wirtschaftlichen Wettbewerb durchaus einen Vorteil versprechen. So ist die Datenqualität für die meisten Organisationen für das Resultat ihrer Arbeit entscheidend. Kann die Datenqualität merklich verbessert werden, wird die Effizienz verbessert und die Kosten reduziert. Dies wiederum hat Auswirkungen auf das Nettobetriebsergebnis. Dies sehe ich momentan als einzigen Weg, wie man Organisationen motivieren kann, die Datenmengen zu reduzieren. Denn die Qualität zu verbessern bedeutet gleichzeitig auch, die Menge der Daten massiv zu reduzieren. Hinzu kommt, dass die Kosten für die Informationssicherheit weiter massiv zunehmen werden. Dies könnte zu einem so grossen Kostenblock werden, der zum Abbau der Datenmengen zwingt.

Aber auch hier stellt sich natürlich immer die Frage, wer diesen Inititalaufwand leisten will. Das Beispiel aus der Automobilwirtschaft hat gezeigt: Wenn es keinen Anreiz gibt, der für den einzelnen hohe monetäre Auswirkungen hat, dann wird sich kaum jemand genötigt fühlen, Verhaltensänderungen zu fördern (oder es passiert das Gegenteil).

Wir wissen um den Nutzen, welche weniger Daten und qualitätsbereinigte Daten haben. Die meisten Unternehmen, die eine hohe Dienstleistungsqualität bringen müssen, sind auf diese Qualität angewiesen. Ihre Motivation, Datenmengen zu reduzieren ist hoch. Dies kann man auch an konkreten Beispielen aufzeigen und den Nutzen für den Einzelnen berechnen. Nimmt die Anzahl der Organisationen zu, die diesen Weg gehen, führt dies zwangsläufig zur Verbesserung der Qualität wie auch der Betriebsergebnisse. Die Lehren aus dem Einsatz von KI werden zeigen, dass die heutige Euphorie ziemlich schnell verflacht, wenn klar wird, dass viele KI-Entscheidungen aufgrund von fehlerhaften und lückenhaften Daten entstehen. Auch hier gibt es also eine Motivation, die Situation bzw. die Datenlage zu verbessern. Das dürfte aber noch eine Weile dauern, denn die ersten Initiativen in Richtung XAI (Explainable AI), nehmen zwar permanent zu, sind aber in der aktuellen Euphorie noch kaum hörbar. Wir stellen insbesondere fest, dass bei KI-Anwendungen, welche direkte Auswirkungen auf Personen (z.B. Bewertung von Mitarbeitenden) oder Resultate haben, deren Entstehung je länger je mehr hinterfragt wird. Die Nachvollziehbarkeit der Resultate wird zu einem Schlüsselfaktor werden. Abgesehen davon, dass die Datenschutzgesetze die Grundsätze der Datensparsamkeit und der Transparenz bereits enthalten.


Fazit:

  • Ordnungspolitisch dürfte der Weg über die gesetzlichen Vorgaben für  Technologie in Bezug auf den Energieverbrauch zielführend sein. Hier weitere Massnahmen zu treffen, scheint mir derzeit eher wenig sinnvoll.
  • Die Forschung sollte sich das Thema Datensparsamkeit und Effizienz vermehrt auf die Agenda schreiben. Hier wäre es angebracht, dass die verantwortlichen Stellen solche Vorhaben fördern.
  • Für die einzelnen Datennutzer bedeutet dies, dass sie sich in erster Linie selbst darum kümmern müssen, wie sie die Qualität ihrer Informationsverarbeitung und damit auch die Menge der Daten steuern wollen. Weniger ist mehr oder:

Wer einen Wettbewerbsvorteil erzielen will,  muss seine Datenmenge reduzieren!

0 Kommentare

Einen Kommentar abschicken

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Ähnliche Beiträge

Der Angriff auf die GeBüV – ein Lehrstück in 2 Akten  (Akt 1: Wie man mit eigennutzorientierten Partikularinteressen den Gesetzgebungsapparat zu Lasten der Steuerzahler beschäftigt)

Der Angriff auf die GeBüV – ein Lehrstück in 2 Akten  (Akt 1: Wie man mit eigennutzorientierten Partikularinteressen den Gesetzgebungsapparat zu Lasten der Steuerzahler beschäftigt)

Jede/r von uns hat sich vermutlich schon einmal darüber Gedanken gemacht, welche mehr oder weniger sinnvollen Vorstösse im Parlament eingebracht werden und welche Motivation dahinter steckt. Man ist sicher gewohnt, dass auf lokaler Ebene partikulare Interessen mit...

mehr lesen