Zwischenmenschliche Kollaboration ist der Schlüssel

Artikel vom 10. August 2022
Software für

KI-basierte Anwendungen werden mittelfristig Einzug im Bereich der öffentlichen Sicherheit und damit in den Rettungsdienst halten. Ein unterstützendes KI-Konzept, bei dem der Mensch im Mittelpunkt steht, ist jedoch der effektivste Weg, um hier Fallstricke zu vermeiden.

Videoanrufe und Verfahren der Künstlichen Intelli-genz sind aktuell in Leitstellen erst vereinzelt imple-mentiert. (Bild: Hexagon Safety & Infrastructure GmbH).

Videoanrufe und Verfahren der Künstlichen Intelli-genz sind aktuell in Leitstellen erst vereinzelt imple-mentiert. (Bild: Hexagon Safety & Infrastructure GmbH).

Künstliche Intelligenz (KI) wird zunehmend allgegenwärtig und hat das Potenzial, die Möglichkeiten der Gesellschaft im Bereich der öffentlichen Sicherheit zu revolutionieren. Dennoch ist die Öffentlichkeit der Implementierung dieser Technologie gegenüber skeptisch: Bei einer Umfrage von Bristows aus dem Jahr 2018 sagten 47,4 % der Befragten, dass KI einen negativen Einfluss auf die Gesellschaft haben wird 1).  Besondere Bedenken gibt es im Bereich der Privatsphäre, möglicher Befangenheit und entsprechenden Verantwortlichkeiten. Der Schlüssel, dass die Technologie dem öffentlichen Wohl dient, liegt darin, KI als unterstützende Maßnahme im Rahmen von starken operativen Richtlinien einzusetzen.

KI und ML: eine Definition

KI ist eine von Maschinen demonstrierte Form von Intelligenz – im Gegensatz zur natürlichen Intelligenz, wie sie bei Menschen vorzufinden ist. Im Prinzip geht es darum, menschliche Eigenschaften und Fähigkeiten wie Analysieren, Abwägen, Entscheiden, Lernen oder Sprechen zu imitieren. Maschinelles Lernen (ML) ist eine Sparte und Anwendungsform von KI, welche es Software-Systemen erlaubt, aus ihrer Erfahrung zu lernen und sich selbst zu verbessern, ohne explizit dahingehend programmiert zu werden. Mit anderen Worten: ML ist eine Form von KI.

Nutzen und Grenzen von KI in der öffentlichen Sicherheit

Die potenziellen Möglichkeiten, wie KI und ML die öffentliche Sicherheit transformieren können, sind weitreichend. Zum Beispiel können Behörden und Organisationen mit Sicherheitsaufgaben (BOS) Künstliche Intelligenz einsetzen, um Prozesse zur Bilderkennung innerhalb von Datenbanken zu verbessern. Die Technologie kann auch benutzt werden, um Muster und Daten zu analysieren, insbesondere im Bereich der Gefahrenerkennung. Dies beinhaltet die Nutzung von Computersystemen, um große Mengen an Daten zu verarbeiten, welche wiederum die Einsatzplanung unterstützen. Andere Anwendungsmöglichkeiten sind sonarbasierte Bildgebung und biometrische Systeme, Audiotranskriptionen sowie verstärkte Cyber Security.

Es gibt aber auch Bedenken bezüglich unkontrollierter Implementierungen von KI-Technologien in der öffentlichen Sicherheit. Durch das Entfallen des menschlichen Faktors beispielsweise bei einem Notruf könnte es vorkommen, dass KI wichtige soziale, kulturelle und politische Kontexte nicht erkennt – Faktoren, die die Entscheidungsfindung im Bereich der öffentlichen Sicherheit beeinflussen.

Zusätzlich gilt, dass ML-basierte Entscheidungsfindung nur so genau sein kann, wie die Daten, die ihr zugrunde liegen. In diesem Bereich haben sich KI-Systeme bislang als anfällig für »Vorurteile« gezeigt: Wenn Daten ohne Kontext eingespeist werden und bei den entsprechenden Verantwortlichen Befangenheiten vorhanden sind, kann dies dazu führen, dass die KI selbst ungerechte »Vorurteile« entwickelt. Denn in der Tat kann menschliche Voreingenommenheit ohne Weiteres in den Entscheidungsprozess implementiert werden, wenn die Daten selbst ihren Ursprung in menschlicher Interpretation haben. Dies kann durch sogenannte Blackbox-Modelle von algorithmischem ML sogar verstärkt werden – so sehr, dass selbst die Entwickler*innen von KI-Programmen unschlüssig sind, welche Daten verwendet wurden, um Entscheidungen zu untermauern. Die Implikationen des Effekts, den ein solches Modell auf das Vertrauen der Öffentlichkeit haben kann, sind eindeutig.

Die Probleme liegen innerhalb eines größeren Spannungsfelds zwischen Verantwortlichkeit, Transparenz und Vertrauen sowie dem ethischen Gebrauch von KI-Technologie. Deshalb muss KI vorsichtig eingesetzt werden, vor allem wenn es wie im Bereich der öffentlichen Sicherheit um Menschenleben geht.

In Anbetracht der zahlreichen Problemfelder, die von KI in der öffentlichen Sicherheit entstehen können, ist es wichtig, entsprechende Technologien unter menschlicher Aufsicht einzuführen – sprich, als sogenannte assistierende oder unterstützende KI. Unterstützende KI ist ein transparenter und am Menschen ausgerichteter Ansatz, KI in ein operatives System einzubinden und dabei den Fokus auf die Unterstützung menschlicher Entscheidung und Intuition in Echtzeit zu legen.

Die Vorteile dieses Modells sind, dass es das Personal unterstützt – arbeitsintensive Aufgaben werden beschleunigt, die Belastung der Notfalldienste wird gemildert. Die letzte Entscheidungshoheit wird jedoch dem Menschen überlassen. Das hilft den Fachleuten im Bereich der öffentlichen Sicherheit, bessere Entscheidungen zu treffen, bietet der Intuition mehr Raum und beschleunigt den Echtzeit-einfluss der handelnden Kräfte. Es hilft auch dabei, ein Schlüsselphänomen der öffentlichen Sicherheit zu adressieren, den sogenannten operativen toten Winkel.

Von einem operativen toten Winkel spricht man, wenn die handelnden Kräfte einer Organisation Echtzeitdaten und Erkenntnisse nicht effektiv nutzen können und ihnen dadurch möglicherweise wertvolle Informationen über Hintergründe und Zusammenhänge einer Notfallsituation entgehen. Solche Notfallsituationen sind schnelllebig und komplex und verlangen häufig eine koordinierte Reaktion verschiedener Behörden und Einrichtungen. Die eingehende Menge an Informationen zum Vorfall in solchen Situationen ist groß. Zudem besteht immer eine Zeitverzögerung zwischen dem Erfassen von Einsatzdaten und deren Verarbeitung und Analyse. Das Personal in Einsatzleitzentralen hat mit traditionellen Mitteln keine Kapazität, sämtliche relevanten Daten zu analysieren und adäquat in die Einsatzbewältigung einfließen zu lassen.

In solchen Szenarien kann unterstützende KI wie ein Kraftmultiplikator wirken für die handelnden Einheiten. Sie unterstützt durch Echtzeitdatenanalyse die Entscheidungsfindung, kann Informationslücken schließen und Datensilos überbrücken, indem sie durch den Informationsaustausch mit benachbarten Kommunen oder Regionen und anderen an der Einsatzbewältigung beteiligten Organisationen eine einheitliche Wahrnehmung bzw. ein gemeinsames Lagebild schafft. Der letzte und vielleicht wichtigste Punkt ist, dass das Wohlbefinden des Personals verbessert wird, indem es der Ermüdung der Mitarbeiter*innen entgegenwirkt, ihr Urteilsvermögen durch Echtzeiteinblicke erweitert und die Einarbeitung neuer Kolleg*innen beschleunigt.

Eine kollaborative Zukunft

Es liegt viel Nutzen im Gebrauch von KI und ML im Bereich der öffentlichen Sicherheit. Aber die Implementierung dieser Technologien kann ein signifikantes gesellschaftliches Risiko mit sich bringen. Dies gilt vor allem, wenn der Gebrauch unvorsichtig und ohne zwischenmenschliche Zusammenarbeit geschieht. KI ermöglicht dem Personal in Leitstellen und Vor-Ort-Teams, schneller, kooperativer und besser geschützt auf eine Krise zu reagieren. Ein unterstützendes KI-Konzept, bei dem der Mensch im Mittelpunkt steht, ist jedoch der effektivste Weg, um die ethischen Fallstricke zu vermeiden, die die KI-Debatte im Bereich der öffentlichen Sicherheit bestimmen.

Autor:
Fabian Zwimpfer
Sales Account Manager / Senior Public Safety & Security
Hexagon Safety & Infrastructure GmbH
85737 Ismaning

Teilen
PDF-Download
Weiterempfehlen
Drucken
Anzeige Hersteller aus dieser Kategorie
Vomatec Innovations GmbH
Riegelgrube 7
D-55543 Bad Kreuznach
0671 796140-0
info@vomatec.de
www.vomatec.de
Firmenprofil ansehen
Eurocommand GmbH
Schnackenburgallee 217-223
D-22525 Hamburg
040 2396963-0
contact@eurocommand.com
www.eurocommand.com
Firmenprofil ansehen