Verhaltensscanner – Was steckt dahinter?

In immer mehr deutschen Städten sollen Überwachungskameras mit Algorithmen gekoppelt werden, die automatisiert erkennen, welche Aktionen Personen ausführen. Die Software legt ein schematisches Strichmännchen über die Gliedmaßen der Aufnahmen und interpretiert die daraus resultierenden Vektoren. Anhand vordefinierter Kategorien – zum Beispiel Schläge, Tritte, Schubser oder liegende Personen – wird ein Alarm ausgelöst, sobald ein verdächtiges Verhalten erkannt wird.

Der aktuelle Stand in Deutschland

Bereits in Mannheim, Hamburg und den Bremer Tram-Bahnen kommt die Technologie zum Einsatz. Berlin plant sie an kriminalitätsbelasteten Orten, Baden‑Württemberg will sie auf Heidelberg ausweiten, und in Niedersachsen, Sachsen, Schleswig‑Holstein und Thüringen befinden sich Gesetzentwürfe in der Abstimmung. Der Trend ist eindeutig: Künstliche Intelligenz soll künftig in immer mehr öffentlichen Räumen prüfen, ob sich Menschen „artig“ benehmen.

Ein Gespräch mit Davy Wang

Davy Wang, Jurist bei der Gesellschaft für Freiheitsrechte, warnt eindringlich vor den Folgen. Für ihn bedeutet die flächendeckende Erfassung aller Passant*innen zunächst einen Generalverdacht. „Damit wird das Grundrecht auf informationelle Selbstbestimmung massiv eingeschränkt“, erklärt er. Jeder soll selbst entscheiden können, wer seine Daten sammelt und nutzt – das wird durch die Verhaltensscanner aber faktisch verhindert.

Ein Gefühl ständiger Beobachtung

Wang beschreibt das Resultat als ein „subtiles Gefühl des Überwacht-Seins“. In belebten Bereichen wie dem Görlitzer Park oder an belebten U‑Bahnhöfen entsteht ein unsichtbarer Druck, der das Verhalten der Menschen beeinflussen kann. Die Angst vor Fehlinterpretationen könnte dazu führen, dass Menschen bestimmte Orte meiden – ein direkter Angriff auf die Versammlungsfreiheit.

Fehlalarme und fehlende Evidenz

Ein weiteres Problem sind die sogenannten False Positives. Ohne festgelegte Obergrenzen für die Fehlerrate können Behörden selbst entscheiden, wie viele falsche Verdachtsmomente akzeptabel sind. In Berlin wurde zwar ein Höchstwert von 25 % angegeben, doch er stammt aus einer Ausschreibung und nicht aus nachweislichen Tests. Die Pilotprojekte liefern bislang keine belastbaren Zahlen, die die Wirksamkeit belegen. Ohne transparente Evaluation bleibt die Technologie ein riskanter Eingriff in die Grundrechte.

Risiko einer autoritären Wende

Die Kombination aus massiver Datenaufnahme, undurchsichtiger KI‑Entscheidungsfindung und kaum überprüfbarer Wirksamkeit schafft ein Umfeld, in dem staatliche Kontrolle leicht außer Kontrolle geraten kann. Wang betont, dass solche Systeme einen gefährlichen Präzedenzfall für weitergehende Überwachungsmaßnahmen bilden könnten – ein Schritt, der die demokratische Grundordnung gefährdet.

Source: https://netzpolitik.org/2026/verhaltensscanner-eine-reale-gefahr/

Related Articles