Polizei will stärker von KI profitieren

5. Mai 2023

Mehrwert für innere Sicherheit durch KI

Eine Umfrage der Strategieberatung Strategy& von PwC und des „Behörden-Spiegels“ unter rund 500 Mitarbeitern deutscher Sicherheitsbehörden ergab, dass 83% der Befragten den Einsatz von Künstlicher Intelligenz (KI) befürworten und mehr als 80% davon einen großen Mehrwert für die innere Sicherheit erwarten.

Vertrauen in KI schwindet

Eine Umfrage von PwC und „Behörden-Spiegel“ zeigt, dass etwa 83 Prozent der rund 500 befragten Mitarbeiter deutscher Sicherheitsbehörden den Einsatz von Künstlicher Intelligenz (KI) befürworten und etwa 80 Prozent davon sogar große Mehrwerte für die innere Sicherheit erwarten. Diese Zustimmung zum Einsatz von KI in Behörden hat sich erst nach dem Erfolg des Chatbots ChatGPT und dessen dahinterstehenden Sprachmodellen entwickelt.

Allerdings warnt Robert Engels, Cheftechnologe der IT-Beratung Capgemini, dass KI-Systeme sehr gefährlich sein können, da sie wie ein Vierjähriger nur vor sich hin brabbeln, wenn der Kontext nicht klar definiert wird.

„individuelle Freiheit“ wahren

Viele Algorithmen in KI-Systemen sind nicht veröffentlicht, was bedeutet, dass es schwierig sein kann, ihre Funktionsweise zu verstehen. Trotzdem gibt es viele Anfragen von Sicherheitsbehörden, die wissen wollen, ob sie ein bestimmtes Programm oder eine bestimmte Technik nutzen können. Einige Projekte wie das von Capgemini, das ein System gebaut hat, das über die Autobahn Nummernschilder erkennt und Mobiltelefone ausliest, um Muster von Kriminellen zu entdecken, wurden jedoch eingestellt, da die Eingriffe in die „individuelle Freiheit“ der Betroffenen zu groß waren.

 

„Anti-Bias-Lösung“ sollen helfen

Die Zentrale Stelle für Informationstechnik im Sicherheitsbereich (Zitis) beschäftigt sich auch intensiv mit Mustererkennung, und ihre Präsidenten haben erklärt, dass die Behörde eine Algorithmen-Bewertungsstelle aufgebaut hat, um darzustellen, wie ein KI-System trainiert wird und wie es technisch funktioniert. Das Vertrauen in KI schwindet jedoch, da Sprachmodelle wie GPT vielfach diskriminierend eingesetzt werden können und automatisiert beleidigende Tweets sowie andere Postings hervorbringen können. Die IT-Sicherheitsfirma Secunet hat eine „Anti-Bias-Lösung“ entwickelt, um dem Einbezug von Vorurteilen und daraus folgenden Diskriminierungen schon in Trainingsdaten entgegenzuwirken: „Wir können über künstliche Identitäten nachweisen, dass die Modelle fair funktionieren“.

 

Textzusammenfassung: ChatGPT

Originalartikel: KI im Polizeieinsatz: „Das ist so ein Wildwuchs“ | heise online