Unsere Kritik am ThürPAG


Der Entwurf für eine Reform des Thüringer Polizeiaufgabengesetzes (ThürPAG) enthält einige Maßnahmen aus dem Überwachungsbaukasten autoritärer Regime – dies ist an sich schon Grund genug, diesen Gesetzesentwurf abzulehnen. Wenn man sich allerdings vergegenwärtigt, dass die rechtsradikale AfD in mehreren ostdeutschen Bundesländern auf Koalitionen oder gar absolute Mehrheiten zusteuert, dann muss erst recht dafür gesorgt werden, dass eine ohnehin schon von rechten „Einzelfällen“ durchsetzte Polizei unter einem blauen Innenminister Klimaaktivist*innen keine elektronischen Fußfesseln anlegen darf, engagierten Gewerkschafter*innen die Teilnahme am Streik verunmöglicht, bei der nächsten Demo mittels Drohnen alle Handydaten ausliest, statt eines Schlagstocks gleich den Taser zückt oder die KI in deinen Urlaubsfotos auf Instagram Personen identifizieren lässt. Denn all das wird mit dem jetzigen Gesetzesentwurf legal möglich sein.

Was genau steht drin?

Zunächst ist wichtig klarzustellen, dass das Thüringer Polizeiaufgabengesetz keine Ermittlungsbefugnisse wegen einer bereits begangenen mutmaßlichen Straftat regelt. Vielmehr soll es der Polizei erlauben, Gefahren für die öffentliche Sicherheit und Ordnung abzuwehren und Straftaten „vorbeugend zu bekämpfen“.

1. Taser

Nach dem Entwurf der Gesetzesnovelle soll der Thüringer Polizei der Einsatz von Tasern (oder auch im Polizeisprech „DistanzElektroImpulsGerät“ (DEIG)) erlaubt werden. Das sind Waffen, die mit Widerhaken bestückte Drähte auf eine Person schießen, über die dann ein starker elektrischer Impuls ausgelöst wird. Dadurch werden die Muskeln gelähmt und die getroffene Person bricht zusammen.

Taser werden oft als milderes Mittel gegenüber dem Schusswaffengebrauch angepriesen, womit die Bürger*innen geschützt würden. Dies ist aus zweierlei Gründen kein überzeugendes Argument:

Erstens sieht der Gesetzesentwurf den Taser explizit auch als milderes Mittel gegenüber dem Schlagstock vor, „wenn dieser erhebliche Gesundheitsbeeinträchtigungen hervorrufen würde“. Man fragt sich, welcher Schlagstockgebrauch gegen Menschen keine erheblichen Gesundheitsbeeinträchtigungen hervorrufen kann? Zudem ist bekannt, dass man es mit den Eingriffsvoraussetzungen im polizeilichen Alltag oft nicht allzu genau nimmt: Wenn ein Instrument einmal verfügbar ist, dann wird es auch bei Lappalien genutzt.

Zweitens ist der Taser kein „mildes Mittel“: Die Folgen reichen von Verbrennungen, Taubheitsgefühlen, Harnstörungen und psychischen Traumata bis zu Fehlgeburten bei schwangeren Menschen. Sekundäre Sturzverletzungen aufgrund der Muskellähmung können insbesondere bei älteren Mensch schwere Schäden hervorrufen. Tödlich ist der Taser oft, wenn Betroffene an Erkrankungen des Herz-Kreislaufsystems leiden. Amnesty International zählt entsprechend schon zehn Todesfälle in Deutschland seit 2021, die im Zusammenhang mit dem Einsatz von Tasern stehen. Der Gesetzesentwurf sieht dementsprechend vor, dass der Taser im Regelfall (außer bei einer gegenwärtigen Gefahr für Leib und Leben) nicht gegen erkennbar Schwangere oder erkennbar Herz-Kreislauf-Erkrankte eingesetzt werden soll. Welche überragenden medizinischen Fertigkeiten die Einsatzkräfte haben, um Herz-Kreislauf-Erkrankungen auf einen Blick zu diagnostizieren, bleibt ihr Geheimnis.

2. KI-Analyse von Aufnahmen bei öffentlichen Veranstaltungen und Ansammlungen sowie an besonderen Orten

Die Polizei darf auch jetzt schon Bild- und Tonaufnahmen anfertigen, soweit „tatsächliche Anhaltspunkte die Annahme rechtfertigen, dass Gefahren für die öffentliche Sicherheit oder Ordnung entsteht“. Neu ist allerdings, dass eine Künstliche Intelligenz diese Aufnahmen in Echtzeit analysiert und auf Verhaltensmuster hin untersucht, die auf die Entstehung einer Gefahrensituation oder die Begehung einer Straftat hindeuten.

Gegen diese Maßnahme sprechen eine ganze Handvoll Argumente:

  • Die KI arbeitet nicht diskriminierungsfrei, da sie mit verzerrten Daten trainiert wird – das betrifft insbesondere Schwarze Menschen und People of Colour. Diese werden eher als ,gefährlich‘ oder ,auffällig‘ eingestuft. Arme und kranke Menschen laufen zudem ebenfalls Gefahr, eher in den Fokus zu geraten – man denke nur an eine Person, die Pfandflaschen sammelt und sich deswegen an einem Mülleimer zu schaffen macht.
  • Die KI ist nicht besonders gut darin, Gefahren zu erkennen. Sie kann oft einen Angriff nicht von einer Umarmung oder eine Ohrfeige nicht von einem High-Five unterscheiden.
  • Auch die Art und Weise, wie die Kameraüberwachung jetzt schon eingesetzt wird, ist nicht diskriminierungsfrei: Orte, die als Kriminalitätshotspots gelten, sind Orte, an denen sich oft arme und migrantisierte Menschen aufhalten. Dort wird entsprechend mehr kontrolliert und logischerweise fallen dadurch auch mehr Straftaten auf. Das Label als „gefährlicher Ort“ wird somit zur selbsterfüllenden Prophezeiung. Dass arme Menschen überproportional von solchen Maßnahmen betroffen sind, zeigt sich beispielsweise schon daran, dass die Kameras auf dem Erfurter Anger die Außengastronomie als „geschützten Privatbereich“ nicht einsehen können. Wer im Außenbereich eines Restaurants sein Hefeweizen trinkt ist also in seiner Privatsphäre geschützt, wer fünf Meter daneben auf der Bank ein Bierchen zischt aber nicht?
  • Allein das Wissen darum, gefilmt zu werden bewirkt, dass Menschen sich auf eine ,sozial erwünschte‘ Art verhalten. Das wird ,chilling effect‘ genannt und bedeutet, dass die tausenden Betroffenen, welche am Tag an einer Videokamera vorbeilaufen, in eine Art Selbstzensur verfallen und sich nicht so entfalten, wie sie das eigentlich gern tun würden. Wer sich nicht anpassen kann oder will, wer auf irgendeine Art ,aus der Norm fällt‘, fällt auf und erregt die Aufmerksamkeit der KI.
  • Noch ist die automatische Gesichtserkennung durch Kameras im öffentlichen Raum nicht da – aber der Weg dahin ist durch die Nutzung von KI zur Bildauswertung beschritten.

3. KI-gestützte Gesichtserkennung und Stimmabgleich mittels öffentlich frei zugänglichen personenbezogenen Daten aus dem Internet

Die Polizei soll zukünftig biometrische Daten, über die sie verfügt, durch KI mit öffentlichen Bildern im Netz abgleichen können. Die Polizei nutzt also Profilfotos auf sozialen Netzwerken, Videos und so weiter, um durch Technik zur Gesichts- & Stimmerkennung Personen zu identifizieren. Zwangsläufig werden dabei unzählige Bilder von Unbeteiligten durchforstet, deren Privatsphäre dadurch missachtet wird. Da die KI zudem gerade bei People of Colour nicht besonders gut funktioniert, besteht insbesondere bei diesen Personengruppen die Gefahr falscher Verdächtigungen.

Auch hier hat allein die Möglichkeit dieser Maßnahme eine enorme abschreckende Wirkung: Gehe ich auf eine Demonstration, nehme ich an einem Streik teil, wenn ich nachträglich identifiziert werden kann? Poste ich noch Urlaubsbilder für meine friends, wenn mein Gesicht darauf zu sehen ist?

4. Palantir-artige, KI-gestützte Big-Data-Analyse

Hinter der harmlos klingenden juristischen Floskel der „[a]nlassbezogenen[n] automatisierte[n] Datenanalyse“ verbirgt sich eine der größten Gefahren des Entwurfs für demokratische Gesellschaften: Es geht um Software wie Palantir Gotham von dem rechten US-Techmilliardär, großen Trump-Supporter und Demokratieskeptiker Peter Thiel oder vergleichbare Werkzeuge.

Solche Tools erlauben es, verschiedene strukturierte wie unstrukturierte Datenbanken zusammenzuführen und darin Muster zu erkennen. Theoretisch könnte also so ziemlich alles Denkbare einbezogen werden: Daten, die der Polizei oder anderen Behörden – also zum Beispiel Melde- oder Ausländerbehörden, Sozial- und Finanzämtern – ohnehin vorliegen, Gesundheitsdaten, Standort- und Kontaktdaten aus Social Media, Verbindungs- und Funkzellendaten von Telekommunikationsanbietern oder Daten aus (Echtzeit-)Videoüberwachung. Damit soll dann sogenanntes Predictive Policing betrieben werden: es sollen im Vorfeld Personen identifiziert und ins Visier der Polizei gebracht werden, die möglicherweise irgendwann einmal straffällig werden könnten. Ebenso sollen vermeintliche gefährliche Orte identifiziert werden, an denen vermehrt Straftaten begangen werden könnten, wie bereits der Anger, der Willy-Brandt-Platz oder die Magdeburger Allee in Erfurt.

Das Problem dabei: dem Ganzen liegen allein Entscheidungen einer KI zugrunde, die niemand mehr nachvollziehen kann. Sozialwissenschaftliche und psychologische Theorien werden dabei über den Haufen geschmissen, denn die Vielzahl an Daten reicht ja aus, um allein der Statistik zu vertrauen. Ob die einzelne Polizeibeamt*in das Ergebnis der KI-Analyse tatsächlich nochmal überprüft, wird in den meisten Fällen wohl zu bezweifeln sein. Das Ganze birgt erhebliches Diskriminierungspotential, denn die vermeintlichen Gefahrenzonen werden zur selbsterfüllenden Prophezeiung: Wo viel kontrolliert wird und sich ohnehin zahlreiche Menschen aufhalten, werden auch tatsächlich mehr Straftaten festgestellt. Es ist zu anzunehmen, dass dies primär sozial schwächere oder migrantisch geprägte Viertel treffen wird.

Wohin dies führen kann, sehen wir bereits heute in den USA, wo die Abschiebebehörde ICE Software von Palantir verwendet, um vermeintlich illegalisierte Migrant*innen zu identfizieren, deren Aufenthaltsorte zu ermitteln, sie gewaltsam festzunehmen und abzuschieben. Auch das Mullah-Regime im Iran soll in Kombination mit Gesichterkennungssoftware ähnliche Werkzeuge zur Massenüberwachung der eigenen Bevölkerung und Identifizierung von Oppositionellen und deren Umfeld verwendet haben.

Ganz so weit sind wir in Thüringen dem aktuellen Entwurf nach natürlich noch nicht – vorerst sollen nur Daten aus Polizeibeständen einfließen. Gleichzeitig werden diese Datenbanken – wie allein dieser Gesetzesentwurf zeigt – immer umfangreicher. Zudem reichen für den Einsatz dieser Software bereits Gefahren für „sonstige Anlagen mit unmittelbarer Bedeutung für das Gemeinwesen“, was sich beliebig weit ausdehnen ließe. Und wer soll eigentlich kontrollieren, welche wie gewonnenen Daten die Polizei tatsächlich in die Analyse einfließen lässt? Zudem ist zu befürchten, dass solche Analysen, sobald die Software einmal da ist, routinemäßig bei zahlreichen Kleinstdelikten zur Anwendung kommen.

Hinzu kommt, dass in den Polizeidatenbanken keineswegs nur Informationen über tatsächliche Kriminelle gespeichert sind – auch Daten von Zeug*innen oder Opfern von Straftaten werden zwangsläufig in solche Analysen einfließen. Die Betroffenen werden von diesen Maßnahmen nie mitbekommen und haben keinerlei Rechtsschutz, sich dagegen zu wehren, wodurch das Grundrecht auf informationelle Selbstbestimmung weiter ausgehöhlt wird. Da die Polizei damit per Knopfdruck vermeintliche Gefahrensituationen konstruieren kann, droht zudem eine immense Entgrenzung ihrer Eingriffsbefugnisse.

Gerade in Thüringen, wo die AfD in aktuellen Umfragen auf bis zu 38% kommt und eine zukünftige Regierungsbeteiligung nicht gänzlich unrealistisch scheint, ist es unglaublich naiv, die Polizei bereits im Vorfeld mit Werkzeugen zur Identifizierung potentieller politischer Gegner auszustatten. Unabhängig davon ist jedoch klar, dass solche Software immer enorm gefährlich, diskriminierend, grundrechts- und demokratiefeindlich ist und von gar keiner Regierung eingesetzt werden sollte – egal, ob sie von Palantir oder „digital-souveränen“ von einem europäischen Anbieter kommt.

5. Kennzeichenüberwachung

Geht es nach dem Gesetzesentwurf, soll es der Polizei künftig erlaubt sein, Fahrzeugkennzeichen im Verkehr per Kamera zu scannen und auch mit polizeilichen Datenbanken abzugleichen. Tausende Unbeteiligte, die an der Kontrollstelle vorbeifahren, werden durch diese Art von Schleppnetzfahndung gescannt. In besonderen Fällen können auf diese Weise sogar Bewegungsprofile erstellt werden.

Ein Datenabgleich mit polizeilichen Fahndungsdatenbanken ist dabei bei Personen möglich, die zum Zwecke der Gefahrenabwehr und zum Zweck der Durchführung ausländerrechtlicher Maßnahmen ausgeschrieben sind. Bemerkenswert daran ist, dass die Durchführung ausländerrechtlicher Maßnahmen hier gesondert erwähnt wird. Bisher ist eine Ausschreibung zur Fahndung zum Zwecke der Gefahrenabwehr möglich, „wenn die Gesamtwürdigung der Person und ihrer bisher begangenen Straftaten erwarten lässt, dass sie auch künftig Straftaten von erheblicher Bedeutung begehen wird“. Offenbar scheint in den Augen des Gesetzgebers ein Ausländer, dessen Abschiebung nicht vollzogen werden konnte, genauso gefährlich zu sein.

6. Elektronische Fußfessel

Dieses Vorhaben wird als großer Wurf für den Schutz vor häuslicher Gewalt angepriesen. Oft fällt dabei das Schlagwort ,Spanisches Modell‘. Das ist jedoch eine Mogelpackung:

Zwar stimmt es, dass in Spanien Erfolge im Kampf gegen häusliche Gewalt erzielt wurden und dabei unter anderem auch elektronische Fußfesseln zum Einsatz kamen, die ein Warnsignal an die gefährdete Person aussenden, sobald die Träger*in der Fußfessel sich ihr nähert. Allerdings sollte in Thüringen zunächst nur die Polizei gewarnt werden, nicht aber die Betroffene. Dies wurde erst nach massiver Kritik in den nun veröffentlichten Gesetzesentwurf aufgenommen. Der Vergleich mit Spanien hinkt aber schon allein deshalb, weil in Spanien das Recht auf vielen Ebenen angepasst wurde. So gibt es dort unentgeltliche Rechtsberatung und medizinische Versorgung für Betroffene, soziale Leistungen und massive Investitionen in Krisenzentren, Schutzunterkünfte und langfristige Aufnahmeeinrichtungen, etc. Von alledem sind wir hier weit entfernt: Frauenhäuser sind chronisch unterfinanziert und müssen regelmäßig Schutzsuchende abweisen. Der Gesetzesentwurf des ThürPAG greift allein das repressive Element des spanischen Modells auf – dass häuslicher Gewalt mit einem breiten, ganzheitlichen Ansatz begegnet werden muss, fällt unter den Tisch.

Problematisch ist zudem, dass die elektronischen Fußfessel nicht auf das Einsatzfeld häuslicher Gewalt beschränkt bleibt, sondern nach der Begründung auch gegen „gewaltbereite Extremisten“ genutzt werden soll. So soll die elektronische Fußfessel auch Gefahren für „Anlagen der kritischen Infrastruktur oder sonstige Anlagen mit unmittelbarer Bedeutung für das Gemeinwesen“ abwehren. Insbesondere diese Formulierung ist dabei so unscharf, dass darunter sehr viele Sachverhalte fallen können: rivalisierende Fußballfans, Klimaproteste oder ein gewerkschaftlich angekündigter Streik mit Auswirkungen auf Verkehrsadern (Siehe die Stellungnahme der Fraktion von Die Linke im Thüringer Landtag).

Fazit

Die Reform des Thüringer PAG würde nicht mehr Sicherheit schaffen, sondern bloß mehr Überwachung und Repressionsmöglichkeiten. Keine Regierung sollte so weitreichende Befugnisse haben – aber erst recht keine, die bald von der AfD angeführt werden könnte.