Schlagwort-Archive: Interview

Interview-Projekt zu Künstliche Intelligenz und Nachhaltigkeit

Die Klimakrise und das Artensterben fordern Gesellschaften heraus: Sie müssen jetzt möglichst schnell klima- und ressourcenfreundliche Lebens- und Produktionsweisen fördern, um die Risiken für Menschen in naher Zukunft möglichst klein zu halten. Mit dem Urteil des Bundesverfassungsgerichts im März 2021 zur Generationengerechtigkeit im Klimaschutz hat diese gewaltige Aufgabe an rechtlicher Verbindlichkeit gewonnen.

Die vom Wissenschaftlichen Beirat der Bundesregierung Globale Umweltveränderungen (WBGU) bereits vor einem Jahrzehnt ausgerufene Große Transformation muss möglichst sozial erfolgen, ökonomische Prozesse werden sich verändern. Eine resiliente Gesellschaft basiert auf der Zusammenarbeit und Vernetzung der unterschiedlichsten Sektoren und Disziplinen. Intelligente Governance-Ansätze können dazu beitragen, dass soziotechnische Lösungsansätze rasch und agil weiterentwickelt werden.

Dies ist die Ausgangslage der vorliegenden 15 explorativen Interviews, die ich von September 2020 bis April 2021 für die “Plattform Lernende Systeme” von Acatech im Auftrag des Bundesministeriums für Bildung und Forschung führen durfte.  Explorativ bedeutet im Rahmen dieses Projekts, dass es zwar für jedes Interview vorbereitete Leitfragen gab, dass jedoch im journalistischen Sinne nachgehakt und aufgebrachte Fragestellungen weiterverfolgt und eingeordnet werden konnten. Im Ergebnis handelt es um eine eigenständige Arbeit in dem Sinne, dass inhaltliche Vorgaben oder Bewertungen seitens der Auftraggeber nicht stattfanden. An dieser Stelle möchte ich mich bei allen Beteiligten für das Vertrauen, vor allem aber die wertschätzende und konstruktive Zusammenarbeit herzlich bedanken!

Ausgehend von der technikzentrierten Frage, was KI-gestützte Methoden für unterschiedliche Prozesse rund um Fragen der sozialökologischen Nachhaltigkeit beitragen können, sprach ich mit Menschen aus Unternehmen, Wissenschaft und Zivilgesellschaft mit theoretischem wie praktischem Domänenwissen im Bereich der Informatik und Ingenieurwissenschaften, der Ökologie und Geografie, der Energie- und Landwirtschaft, Psychologie und Philosophie, Rechts- und Politikwissenschaft sowie Ökonomie. Die Interviews wurden in zwei Stufen geführt: Die Gespräche wurden telefonisch geführt und aufgezeichnet. Im Rahmen der Verschriftlichung wurden einzelne Details und Sachfragen geklärt und mit weiterführenden Quellen und Literaturhinweisen sowie Begleittexten, Projektbeschreibungen und Grafiken ergänzt. Zu jedem Interview gibt es als „Essential“ eine Zusammenfassung des Gesprächsinhalts; für die Veröffentlichung im Internet wurden überdies Kurzvorstellungen auf Video aufgezeichnet.

Beim Versuch einer Standortbestimmung zeigt sich, dass domänenspezifische Anwendungen oftmals noch in den Kinderschuhen stecken und ihre Transformationskraft erst im Zusammenspiel mit weiteren Faktoren entwickeln können. Ordnet man die angesprochenen Themen den 17 Nachhaltigkeitszielen der UN (SDGs) zu, erkennt man, wie übergreifend alle Ansätze sind. Die Hauptherausforderung besteht offenbar weniger in der konkreten Entwicklung und Anwendung der KI-Methoden, sondern eher in der kooperativen Entwicklung von interdisziplinären Konzepten, die in ihren jeweiligen Wissensdomänen auf eine überschaubare und effektive Weise umsetzbar sind.

Herausforderung Interdisziplinarität

Wohl daher rührt ein häufiger Beweggrund vieler Gesprächspartnerinnen und -partnern, über die eigenen Fachgrenzen hinweg in Kooperation mit anderen schneller und vor allem effektiver etwas zur Abmilderung der Klima- und Biodiversitätskrise beitragen zu wollen. Dabei nehmen sie als Wissenschaftlerin und Institutsleiterin, Aktivist und Konferenz-Initiator, Entwickler und Unternehmensgründerin oftmals mehrere Rollen ein. So divers die in dieser Publikation angesprochenen Themen und Problemstellungen sind, so vielfältig sind auch die Menschen, die sich mit ihnen befassen.

In der Praxis verändert sich so eine möglicherweise technikzentrierte, solutionistische Handlungsorientierung zu Beginn eines Projekts in eine problemzentrierte und vielfältige Herangehensweise, die versucht verschiedene Problemkreise aus unterschiedlichen Domänen zu adressieren. In diesem Zusammenhang erinnert Jessica Heesen an den augenfälligen Unterschied zwischen technik- und problemzentrierten Problemzugängen: Während der technikzentrierte Zugang  fragt, was die Vor- und Nachteile einer bestimmten Technik für die Lösung eines Problems seien, stellt ein problemzentrierter Zugang die Aufgabe, für die eine Lösung gefunden werden soll, in den Vordergrund.

Die so notwendige interdisziplinäre Verständigung benötigt jedoch Raum und Zeit, die jede und jeder Beteiligte sich oftmals erst schaffen muss. Um Brücken zwischen der Informatik und den Ingenieurwissenschaften einerseits und Disziplinen wie den Klimawissenschaften und der Ökologie, der Rechts- und Politikwissenschaft sowie Ökonomie andererseits zu schlagen, wurden in den letzten Jahren neue Dialog- und Diskursplattformen etwa in Form von Mailinglisten, Call for Papers, Tagungen und Konferenzen organisiert. Lynn Kaack und Rainer Rehak setzten hier maßgebliche Impulse.

In den Gesprächen geht es denn nicht nur darum, KI-gestützte Konzepte und Prototypen mit Bezug auf Klima und Biodiversität aus Sektoren Landwirtschaft, Energiewirtschaft und Verkehr vorzustellen und zu diskutieren. Es werden auch neue Ansätze zur nachhaltigen Gestaltung ökonomischer Wertschöpfungsprozesse diskutiert, die beispielsweise Wege in eine resiliente Kreislaufwirtschaft bahnen oder die Entkopplung von unternehmerischer Wertschöpfung von der Emissionsintensität befördern. Dabei interessiert nicht allein die technische Umsetzbarkeit, sondern auch das Transformationspotenzial mit Blick auf die ökonomischen und politischen Rahmenbedingungen – wobei in allen Fällen nur eine „schwache KI“ zum Einsatz kommt.

Was ist smart?

Ribana Roscher erläutert mit Blick auf eine sogenannte Smart Earth Governance, dass mit wissensbasierten Modellen, die bestehendes Domänenwissen formalisieren, meist ein Kompromiss zwischen Detailgrad und der Skala eingegangen werden müsse. Dabei sei eine datengetriebene Modellierung mit KI-gestützten Methoden vor allem auf großer räumlicher Skala schwer zu verallgemeinern und stoße bei der Sicherstellung der wissenschaftlichen Konsistenz und Plausibilität an Grenzen. Aussagen zur Datenunsicherheit und Modellunsicherheit seien daher wichtig, um Unsicherheiten in den Ergebnissen besser einordnen zu können.

Rainer Rehak wiederum weist darauf hin, dass KI-gestütztes Monitoring kein Selbstzweck bleiben dürfe. Das Smart Sensing des Waldzustands, der Landnutzung sowie der Wasserverteilung und -nutzung sei nur dann sinnvoll, wenn die gewonnenen Erkenntnisse mit konkreten Handlungen zum Schutz der Biodiversität und des Klimas verknüpft werden. Es genüge nicht, aus einem abstrakt wissenschaftlichen Interesse heraus immer mehr und immer detaillierter etwas über die Biodiversität von Wäldern erfahren zu wollen. Wie Smart Sensing, Nachhaltigkeitszertifizierung und gesetzliche Regulierung in diesem Sinne zusammenwirken können, schildert Philipp Kanstinger am Beispiel der bis vor kurzem nur schwer beobachtbaren Hochseefischerei und dem Bemühen, Fischfang nachhaltiger zu gestalten.

Fragen der Governance

Wiederholt zeigt sich in den Interviews, dass klassische, gleichwohl hochaktuelle Digitalisierungsfragen mit Blick auf KI-Anwendungen eine zentrale Rolle spielen: so ziehen sich die Problematik der Data Governance im Sinne von Datenzugriffs- und verwertungsrechten und die hiermit verbundenen Monopolisierungstendenzen von Plattformen durch etliche Interviews. Ralf Kalmar beispielsweise erläutert zur Frage von Big-Data-Ownership in der Landwirtschaft, wie ein Agrardatenraum bewusst auf die Entwicklung der Referenzarchitektur der International Dataspace-Initiative aufsetzen kann, um Landwirte bei der Durchsetzung ihrer Interessen gegenüber Saatgut- und Landmaschinenkonzernen zu unterstützen.

Das Thema Nudging gehört ebenfalls zu den Klassikern der Digitalisierung: Kai Purnhagen erklärt, wie Menschen rechtskonform mit KI-gestützten Nudging-Methoden zu einem nachhaltigeren, gesünderen Leben „gestupst“ werden dürfen.

Zum Thema „nachhaltige KI“ erläutert Thomas Liebig, wie Datenmengen, -strukturen, -speicherung und -kommunikation die Effizienz eines Verfahrens und damit den CO2-Fußabdruck beeinflussen. Die Anwendung ressourcensparsamer Verfahren werde vor allem von regulatorischen Vorgaben zur Datensparsamkeit, den Energiekosten des Gesamtsystems sowie das Einfordern bestimmter Systemeigenschaften in Ausschreibungen motiviert. Kerstin Fritzsche erklärt dazu, welche regulatorischen Rahmenbedingungen und Anreize perspektivisch für eine grüne, nachhaltigere KI sorgen können.

Auf dem Weg zur Kreislaufwirtschaft

Matthias Gotsch hält ökologisch orientierte KI-Anwendungen für eine sinnvolle Ergänzung und Fortentwicklung für diverse Anwendungsfälle im urbanen Raum, wie beispielsweise im individuellen und öffentlichen Personennahverkehr, in der dezentralen Energieversorgung, in der urbanen Landwirtschaft oder in der Abfall- und Recyclingwirtschaft. An seinen Schilderungen wird deutlich, dass eine KI-gestützte urbane Kreislaufwirtschaft möglich wäre, doch die Konzeptentwicklung einer sozialökologischen Smart City steht noch am Anfang. Für den Energiesektor erklärt Philipp Richard am Beispiel eines CO2-Mapping-Projekts für Kommunen, wie wichtig die Verbesserung der Datenqualität ist, um eine zuverlässige und glaubwürdige Planungsgrundlage für politische Entscheidungen erarbeiten zu können.

Im Gespräch mit Janina Nakladal wird deutlich, dass KI-gestützte Process-Mining-Methoden mit Bezug auf ökologische Nachhaltigkeit in den Unternehmen noch nicht entlang der gesamten Wertschöpfungskette betrieben werden. Gleichwohl veranschaulicht eine Reihe von Kundenbeispielen, dass dies mit entsprechender unternehmerischer Zielsetzung technisch möglich wäre. Noch gibt es keinen Kunden, der mit einer werterhaltenden Aufarbeitung von Altteilen die Verbindung zur Kreislaufwirtschaft schließen würde. Allerdings zeigt das von Pinar Bilge vorgestellte Projekt EIBA, dass dies KI-assistiert nicht nur technisch, sondern vermutlich auch gewinnbringend machbar wäre.

Ein wesentlicher Anreiz zu mehr Nachhaltigkeit besteht für große Unternehmen darin, im Zuge der Lieferkettengesetzes ihre Lieferketten nachhaltig zu gestalten. Nakladal schildert, dass der Aufbau einer entsprechenden Datenbasis erst am Anfang steht. Hannah Helmke erklärt, welche Rolle die von ihr entwickelte Klima-Kennzahl X-Degree Compatibility (XDC) dabei spielen könnte, nicht nur Unternehmen, sondern auch KI-Anwendungen auf eine ökonomische Emissionsintensität zu optimieren – um das 1,5°C bzw. 2°C-Ziel des Pariser Klimaabkommens zu erreichen.

Humane KI

In mehreren Interviews wird das Thema der sogenannten „menschenzentrierten KI“ angeschnitten. Im Gespräch mit Pinar Bilge geht es etwa darum, den Menschen in eine KI-gestützte Aufarbeitung von industriellen Altteilen so einzubinden, dass er besser informiert Entscheidungen treffen kann. Julia Arlinghaus wiederum erinnert daran, dass der Mensch selbst gerne am System vorbei eigene Entscheidungen treffe und dabei auch die Überregulierung eines Systems verursachen könne. Auch überoptimistische Absatzprognosen könnten Produktionsprozesse fehlsteuern. KI-unterstützt und menschen-zentriert könnte aber der Widerspruch zwischen Effizienz, Flexibilität und Nachhaltigkeit aufgelöst werden. Daher widmet sich das Gespräch mit Jessica Heesen der „menschenzentrierten KI“. Heesen bevorzugt übrigens den Begriff der „humanen KI“, um das am Gemeinwohl und der Menschwürde orientierte Menschenbild unmissverständlicher zu kommunizieren.

Reale KI

So faszinierend die Vorstellung von KI-Systemen ist, die im Sinne ihrer Erfinder und Entwicklerinnen funktionieren, so vertraut sind die geschilderten Hürden auf dem Weg dahin. Die Gespräche sind denn auch von einem optimistischen, aber realistischen Blick auf regelmäßige Handlungs- und Umsetzungsgrenzen geprägt: Unsicherheiten aufgrund mangelnder Datenqualität und begrenzter Rechenpower; Schwierigkeiten in der interdisziplinären Kooperation aufgrund strukturell bedingter Abgrenzungen von Wissensgebieten und Kompetenzen; Herausforderungen seitens etablierter Marktmechanismen und regulatorischer Rahmenbedingungen, die als unzureichend wahrgenommenen werden.

Das Thema der Überprüf- und Korrigierbarkeit von automatisiert generierten Handlungsempfehlungen mittels Transparenzmechanismen wird von mehreren Gesprächspartnern und -partnerinnen angeschnitten – wie auch der Umgang mit Unsicherheit sowohl als Gegenstand jüngerer Forschung wie auch als praktisches Problem. Ein Dauerthema bei allen Entwicklerinnen und Anwendern ist schließlich nicht nur der Aufbau von qualitativ guten Datensätzen, wie Lynn Kaack und Ribana Roscher an Projektbeispielen veranschaulichen, sondern auch die Pflege von KI-Modellen. Die Praktikerinnen verweisen hier auf begrenzte personelle und finanzielle Strukturen.

Nahezu alle Gesprächspartnerinnen und -partner bestätigen eine der Kernaussagen des WBGU-Hauptgutachtens „Unsere gemeinsame digitale Zukunft“: Es kommt wesentlich auf eine vorausschauende Schwerpunktsetzung von Förderung und Regulierung an, in welche Richtung sich KI-Anwendungen in Zukunft weiterbewegen. Wie die Digitalisierung sind sie ambivalenter Natur: Weitgehend ungerichtet treiben sie die Übernutzung natürlicher Ressourcen an, basierend auf einer klaren sozialökologischen Policy können sie aber die Große Transformation entscheidend voranbringen. Dabei wirken sie sogar, wie Lynn Kaack für den Energie-, Verkehrs-, Finanz- und Gebäudesektor anschaulich erklärt, bei der Policy-Entwicklung und -Evaluierung direkt mit.

Damit sind nur einige, aber bei weitem nicht alle inhaltlichen Punkte und Querbezüge der 15 Interviews benannt. Viele angesprochenen Fragestellungen verdienen eine weitere Vertiefung, steht doch hinter jedem Interview eine domänenspezifische Herangehensweise. Im Rahmen dieser Veröffentlichung kann letztlich aber nur eine Ahnung darüber vermittelt werden, welche Ansätze sich unter welchen Bedingungen zu wirksamen Hebeln der Großen Transformation entwickeln können. Letztlich kommt es auf Sie, den interessierten Leser, die mitdenkende Leserin an, neue, andere, eigene Querbezüge zu entdecken. Ich wünsche Ihnen eine interessante, vor allem aber inspirierende Lektüre!

Zum Digitalgipfel der Bundesregierung im November 2020 sind bereits vorab folgende vier Interviews online erschienen:

Lynn Kaack erforscht im Rahmen der Forschungsgruppe „Energy Politics Group“ an der Eidgenössischen Technischen Hochschule (ETH) Zürich Methoden des maschinellen Lernens für Policy-Analysis. Dabei arbeitet sie an Projekten im Energie-, Verkehrs-, Finanz- und Gebäudesektor. Sie ist Co-Leiterin der internationalen Experten/-innen-Gruppe „Climate Change AI“.

Der Meeresbiologe Philipp Kanstinger befasst sich für den WWF mit der Zertifizierung von Sea Food und wendet für das Monitoring von Fischereiaktivitäten auf hoher See KI-Auswertungsmethoden an.

Die Psychologin Hannah Helmke gründete das Frankfurter Start-up right.based on science, um mit der X-Degree Compatibility (XDC) eine Klima-Kennzahl zu entwickeln, welche die Entkopplung von unternehmerischer Wertschöpfung von der Emissionsintensität misst. Die Kennzahl kann dazu genutzt werden, um in KI-Anwendungen auf die ökonomische Emissionsintensität zu optimieren.

Matthias Gotsch am Kompetenzzentrum Nachhaltigkeit und Infrastruktursysteme am Fraunhofer-Institut für System- und Innovationsforschung ISI sieht ökologisch orientierte KI-Anwendungen als sinnvolle Ergänzung und Fortentwicklung für diverse Anwendungsfälle im urbanen Raum, wie beispielsweise im individuellen und öffentlichen Personennahverkehr, in der dezentralen Energieversorgung, in der urbanen Landwirtschaft oder in der Abfall- und Recyclingwirtschaft.

Bis Juli werden noch folgende Interviews veröffentlicht:

  • Kai Purnhagen von der Universität Bayreuth über Nudging und effizienteres Regieren,
  • Thomas Liebig von der TU Dortmund über Zusammenhänge zwischen “Grüner KI” und Datenschutz,
  • Ralf Kalmar vom Fraunhofer IESE über Big-Data-Ownership in der Landwirtschaft,
  • Pinar Bilge von der TU Berlin über Kreislaufwirtschaft in der Produktion.
  • Rainer Rehak vom Weizenbaum Institut und FIfF über “Big Tech” und digitale Gemeingüter,
  • Ribana Roscher von der Universität Bonn über Smart Earth Governance
  • Kerstin Fritzsche vom ITZ über Hebel für sozial-ökologische Transformationsprozesse,
  • Janina Nakladal von Celonis über KI-getriebenes Process Mining für Nachhaltigkeit in Unternehmen,
  • Julia Arlinghaus, Fraunhofer IFF und Wissenschaftsrat, über resiliente Lieferketten, instandhaltungsfreie Produktion und “sich selbst heilende” Netzwerke,
  • Philipp Richard, dena, über KI für dezentrale Erneuerbare Energien,
  • Jessica Heesen von der Universität Tübingen über die Frage, was “gemeinwohlorientierte” und “menschenzentrierte” KI für Nachhaltigkeit eigentlich bedeutet.

Aktuelle Artikel von mir zu diesen Themenkomplexen finden sich auf dieser Seite.

“Mehr echte Kontrolle”

Interview mit Spiros Simitis. Der Jurist und Datenschutzexperte hält eine radikale Überprüfung der Bestimmungen für unvermeidbar.

Der Bundestag behandelt in den nächsten Wochen eine ganze Reihe von Datenschutzvorhaben. Ist das ein gutes Zeichen für den Datenschutz?

Vordergründig sicherlich, weil eine Reihe durchaus akuter Probleme angegangen wird. Längst fällig ist aber weit mehr: Die geltenden gesetzlichen Anforderungen an die Verarbeitung personenbezogener Daten müssen radikal überprüft und über weite Strecken neu gestaltet werden.

Wie meinen Sie das?

Den Anfang machten in den 70er Jahren allgemeine Datenschutzgesetze. Sehr bald zeigte sich allerdings, dass sich ein effizienter Datenschutz an konkreten Problembereichen orientieren und auf sie einwirken muss. Doch die mittlerweile immer zahlreicheren bereichsspezifischen Regelungen sind nicht aufeinander abgestimmt und, schlimmer noch, willkommene Ansätze, den Datenschutz gezielt zurückzunehmen. Die offene Zulassung der mit einem der unverzichtbaren Grundsätze des Datenschutzes, der Zweckbindung, unvereinbaren Vorratsdatenspeicherung ist ein Musterbeispiel dafür.

Was wäre Ihrer Meinung nach die Lösung?

Wir brauchen eine allgemeinen Regelung, in der die generell geltenden Datenschutzgrundsätze festgeschrieben werden müssen sowie daran immer wieder gemessene und konsequent aufeinander abgestimmte bereichsspezifische Regelungen.

Die vom jetzt wiedergewählten Bundesdatenschutzbeauftragten Peter Schaar vor kurzem zur Diskussion gestellte Charta für digitalen Datenschutz und Informationsfreiheit geht doch schon in diese Richtung?

Ohne Zweifel ein wichtiger Ansatz. Mehr denn je kommt es aber unabhängig davon beispielsweise darauf an, unmissverständlich klarzustellen, dass der Zugriff auf personenbezogene Daten immer die Ausnahme bleiben muss und stets eine gesetzliche Regelung voraussetzt. Erst recht gilt es anders als bisher die Einwilligung der Betroffenen nicht den gesetzlichen Vorschriften gleichzustellen.

Warum?

Allein schon die Erfahrungen mit den Allgemeinen Geschäftsbedingungen in den Alltagsgeschäften hätten genügt, um Misstrauen zu wecken. Denken sie zudem an die Abhängigkeit derjenigen, die wie etwa bei einem Arbeitsverhältnis, ihre Daten weitergeben sollen. Und schließlich: Die Einwilligung hat sich als das wirksamste Instrument einer Verarbeitungsstrategie erwiesen, die dazu verhilft, nahezu alle gesetzliche Schranken zu umgehen und alle Daten zu bekommen, die man nur möchte. Sie muss daher auf gesetzlich definierte Fälle beschränkt bleiben.

Die jetzt vorgesehene Novelle des Bundesdatenschutzgesetzes will Verbrauchern mehr Rechte hinsichtlich des von Auskunfteien betriebenen Scorings geben. Genügen die nun vorgesehenen Regelungen aus Ihrer Sicht?

Nein. Scoring muss lediglich im Kreditbereich akzeptiert und nicht etwa ebenso selbstverständlich bei Arbeitsverhältnissen hingenommen werden. Die Betroffenen müssen zudem immer wissen, wer ihre Daten bekommt, weil sie nur dann sich darauf einstellen und reagieren können. Ausnahmen zugunsten von Auskunfteien sind so gesehen völlig fehl am Platz.

Wie sehen Sie die Verarbeitung von Geodaten?

Geodaten sind genau genommen ein weiterer Schritt in einer längst klar gewordenen Richtung. Sie vervollständigen die Informationen über die Betroffenen, indem diese geortet werden und so auch einen Einblick in weitere Daten wie etwa zu den Vermögensverhältnissen und zum sozialen Umfeld vermitteln.

Inwiefern?

Spätestens hier zeigt sich, dass wir einen Punkt in der Verarbeitung personenbezogener Daten erreicht haben, der zu wenig zu Kenntnis genommen wird. Als wir in den 70er Jahren begonnen haben, ging es darum, welche Daten überhaupt verarbeitet werden dürfen. Das ist heute sinlos, weil alles schon verarbeitet worden ist.

Welche Konsequenzen hat das?

Mehr und mehr rückt die Vernetzung in den Mittelpunkt der Datenverarbeitung. Mehr und mehr wird sie aber vor diesem Hintergrund auch dafür genutzt, das Verhalten des Einzelnen präventiv zu steuern. Denken Sie an die heftigen Diskussionen über die Gesundheitskarte oder die sich mittlerweile verdichtenden Erfahrungen mit den Informationserwartungen an die Biobanken, Gleichviel, ob es um öffentliche Institutionen oder private Versicherungen geht, der Akzent liegt durchweg auf einer kontinuierlichen Verarbeitung der Daten aktueller oder potentieller Patienten, die primär auf ein Verhalten gerichtet ist, das Krankheitsrisiken möglichst gar nicht erst aufkommen lässt.

Datenschutzkonforme Verfahren und Produkte sollen künftig über ein Audit geprüft werden. Wie beurteilen Sie die geplante Umsetzung?

Der Vorteil liegt auf der Hand. Mit dem Audit wird ein Verfahren anerkannt und gesichert, das eine verlässliche Überprüfung der datenverarbeitenden Stellen gewährleistet. Eben deshalb ist es aber nicht verständlich, wieso es ein Audit nur geben soll, wenn es die verarbeitende Stelle nicht bei den üblichen Anforderungen belässt, sondern die Verarbeitungsvoraussetzungen erhöht. Soll das Audit wirklich den Datenschutz verbessern, muss es immer möglich sein, sich dafür zu entscheiden.

Im Bundesrat gibt es eine SPD-Initiative, die die Einführung eines Arbeitnehmerdatenschutzgesetzes vorschlägt. Wie notwendig sehen Sie dieses?

Die Forderung ist alt. Gleich mehrmals hat sich zudem der Bundestag in der Vergangenheit leider vergeblich für ein entsprechendes Gesetz ausgesprochen. Detaillierte Vorschläge hat auch die Internationale Arbeitsorganisation vorgelegt. Wie wichtig eine solche Regelung ist, kann man an Einzelfragen, wie etwa der Erhebung genetischer Daten, ebenso sehen wie an der Notwendigkeit, generell und verbindlich die Grenzen einer Erhebung von Arbeitnehmerdaten bei Dritten oder einer Weitergabe an Außenstehende festzulegen.

Herr Simitis, vermissen Sie angesichts der Fülle der geplanten Gesetzesvorhaben noch etwas?

Eine Reform, die diesen Namen verdient, muss bei der Kontrolle im nicht-öffentlichen Bereich ansetzen, ja sie in den Mittelpunkt stellen. Wie im öffentlichen Bereich muss es keinen Zweifel daran geben, dass es die ureigenste Aufgabe der Datenschutzbeauftragten und Aufsichtsbehörden ist, die nicht-öffentlichen Stellen bei der Verarbeitung personenbezogener Daten konstant zu überwachen und, wann immer sich Unregelmäßigkeiten andeuten, sofort und nachhaltig einzugreifen. Interne Beauftragte erfüllen so gesehen nur eine Hilfsfunktion, müssen daher mit der externen Kontrollinstanz zusammenarbeiten und sie keineswegs lediglich “in Zweifelsfällen” anrufen.

Wären Bußgelder eine Lösung?

Noch so hohe Bußgelder sind kein Ersatz für eine echte Kontrolle. Der Datenschutz ist im Zeichen der Vorbeugung entstanden, Bußgelder hingegen sind späte Reaktionen. Kurzum, wenn man nicht die Reform vor allem als Aufgabe versteht, nun endlich eine echte Kontrolle auch im nicht-öffentlichen Bereich zu sichen, kann man den Datenschutz vergessen.

In: Das Parlament. Nr. 50-51 / 08.12.2008 (nicht mehr online)