Wie gefährlich ist eine „Bedrohungslage“?

Die Polizei in Wien warnt vor einem möglichen Anschlag oder Attentat für die Zeit zwischen den Jahren. Wieviel Risiko für die Bevölkerung sollen die Behörden in Kauf nehmen - oder sofort reagieren? Eine Antwort mit Hilfe der Mathematik.

Einige Aufklärungsszenarien im Vergleich

Gehen wir zunächst einmal davon aus, dass es fast keine falschen Positiven gibt, also fast kein Fehlalarm-Signal (die Wahrscheinlichkeit für ein falsch-positives Signal betrage 1%). Als Schwellwert geben wir uns selbst vor, einen Alarm auszulösen, wenn die Wahrscheinlichkeit für eine tatsächliche Bedrohung mindestens 50% beträgt. Wir ziehen also erst die Reißleine, wenn die Wahrscheinlichkeit für einen Anschlag größer ist als dafür, dass es keinen gibt. In der Realität wird unser kritischer Wert sicherlich wesentlich niedriger liegen, aber man kann an diesen Zahlenwerten den Zusammenhang besser erkennen.

Wir schicken nun Polizisten und Agenten los, um nach Hinweisen zu suchen. Der erste kommt zurück und bringt einen konkreten Hinweis. Wie groß ist jetzt die Bedrohung? Nach dem Satz von Bayes (dessen Formel ich hier einfach weglasse und nur die Zahlenwerte angebe) beträgt nach dieser Information die Gefährdungswahrscheinlichkeit etwa 45%. Das ist zwar viel, aber gerade noch unter unserer Schwelle von 50%. Wir warten also auf den nächsten Polizisten. Der kommt auch gehetzt hereingestürmt und berichtet ebenfalls von einer Gefährdung. Unser Algorithmus schlägt jetzt voll aus und springt auf 98% Gefährdung. Aber das bedrohte Fußballspiel findet erst übermorgen ab, wir können also noch auf die Ergebnisse weiterer Feldagenten warten.

Wie viele müssen uns berichten, dass sie zwar genau gesucht, aber nichts gefunden haben, damit wir wieder unterhalb unserer Alarmschwelle liegen? In dem Zahlenbeispiel sind es drei: Wenn die nichts gefunden haben, dann sinkt unserer Gefährdungswert wieder auf 35%. Besonders dieser Teil des Ergebnisses wird viele überraschen, weil man immer das Gefühl hat, dass Nicht-Finden viel weniger informativ ist als Finden. Vermutlich ist das bei uns eine angeborene Schutzvorrichtung, die uns hier intuitiv lieber auf der sicheren Seite handeln lässt. Aber wie gesagt, das Modell vereinfacht stark; vielleicht gibt es wirklich gute Gründe, die Entwarnungen nicht so ernst zu nehmen wie Warnungen. Daher ignorieren wir hier einmal diesen Teil und kümmern uns nur darum, wie viele unabhängige Warnsignale wir brauchen, um unseren Alarm-Schwellwert zu überschreiten.

Ein mathematischer Hebel

Die Konstellation von eben (1% Wahrscheinlichkeit für falsche Warnsignale) war fast eine Idealwelt in Bezug auf die Alarmauslösung. Denn die Polizei entdeckt die meisten Anschlagversuche vorher und fällt fast nie auf falsche Hinweise herein. Was aber, wenn die falschen Hinweise wahrscheinlicher werden? Erhöhen wir die Wahrscheinlichkeit für falsche Hinweise einmal auf 10%. Erstaunlicherweise tut sich erst einmal nicht sehr viel, sondern wir brauchen lediglich eine Beobachtung mehr, bevor wir einen Alarm auslösen.

Was aber wenn die Wahrscheinlichkeit für einen falschen Alarm auf 50% hochgeht? Wir brauchen jetzt insgesamt 10 Warnhinweise, bevor wir uns zu mehr als 50% sicher sein können, dass tatsächlich ein Anschlag geplant ist; erst bei 16 Hinweisen sind wir zu 90% sicher. Wir können den Hinweisen nicht mehr trauen.

Das ist sehr viel schlimmer als es zunächst aussieht. Denn im ersten Fall konnten wir uns einigermaßen gut gegen Anschläge schützen; bei einer hohen Fehlerquote in den Bedrohungssignalen geht das nicht mehr. Denn jetzt müssen die Verteidiger überall mit einem Anschlag rechnen. Wichtig ist, dass dies bei gleicher Qualität der eigentlichen Aufklärungsarbeit gilt; unser Geheimdienst liefert uns nach wie vor mit 80% Wahrscheinlichkeit ein Warnsignal vor einem tatsächlichen Anschlag. Aber eben leider auch zu 50%, wenn gar keiner stattfinden wird.

Besonders unangenehm ist das, weil die zweite Größe ja nicht zufällig entsteht, sondern durch die Terroristen gesteuert wird. Einen Anschlag zu verüben ist „teuer“ für die Terroristen; einen vorzutäuschen hingegen nicht. Deshalb ist das Legen falscher Spuren die Größe, mit der sie die Wirkung der echten Anschläge vervielfachen können. Es ist das prototypische Beispiel eines mathematischen Hebeleffekts.

Was kann man tun?

Was hier vorliegt, ist der Effekt des „Feindes in den eigenen Reihen“. Das Hauptproblem für die Verteidiger besteht darin, dass die eigene Aufklärungsarbeit durch Fehlsignale gestört wird. Daher ist es kein Wunder, dass Desinformation eine wichtige geheimdienstliche Vorgehensweise ist. Durch Desinformation kann man mit verhältnismäßig einfachen und billigen Mitteln die Wirkung auch einer sehr guten Aufklärungstätigkeit der Gegenseite empfindlich herabsetzen.

Durch diese Störungen kommt es für die Verteidiger auf einmal nicht mehr allein darauf an, bevorstehende Angriffe zu erkennen, sondern es kommt ebenso stark darauf an, die Vortäuschung eines Angriffs zu erkennen. Am Ende hängt die Wirksamkeit der eigenen Aufklärung davon ab, wie groß der Wahrscheinlichkeitsabstand zwischen den „richtigen Positiven“ und den „falschen Positiven“ ist.

Wie schützt man sich gegen Desinformation? Die naheliegende und verbreitete Methode besteht darin, dass sich Menschen, die in einem Team zusammenarbeiten, durch Merkmale kennzeichnen, die nicht leicht durch andere imitierbar sind. In einer Armee wird zum Beispiel ein Codewort vereinbart, das leicht durch Muttersprachler der eigenen Sprache verwendet werden kann, aber nur schwer für einen mit anderer Sprache. Es wird zum Beispiel ein Wort wie „Sommerwind“ vereinbart, von dem der Fragende nur „Sommer“ sagt und der Antwortende „Wind“ ergänzt. Eine gemeinsame Sprache oder gleichartiges Aussehen ist hier ein effektiver Schutz. Deshalb war es für die DDR auch viel einfacher in Westdeutschland Desinformation zu betreiben als für Russland.

Das gibt es auch bei Tieren. Der Verhaltensforscher Konrad Lorenz beschreibt, dass sich Ratten einer Familie am Geruch erkennen. Damit vermeiden sie die Infiltration durch Ratten einer fremden Gruppe (und greifen diese erbarmungslos an, wenn sie sich im fremden Revier befinden).

Einfache Erkennungsmerkmale von „Freund und Feind“ sind eine gute Abwehrstrategie gegen Desinformation, weil sie die Kosten für das Legen falscher Fährten erheblich erhöhen. Das gefährlichste andere Extrem ist der Bürgerkrieg, in dem die beiden Parteien auch von innen kaum noch voneinander zu unterscheiden sind. Hier sind falsche Fährten nicht nur sehr viel überzeugender zu legen, sondern die Fährtenleger werden auch bei der Handlung selbst viel schwerer erkannt. Man stelle sich ein Fußballspiel vor, bei dem beide Mannschaften das gleiche Trikot tragen. Es würden sich garantiert Spieler darauf konzentrieren, durch ihr Verhalten die Zugehörigkeit zur anderen Mannschaft vorzutäuschen – nur um dann im entscheidenden Augenblick wieder im Sinne ihrer eigentlichen Mannschaft zu handeln.

 

Unterstützung
oder

Kommentare ( 5 )

Liebe Leser!

Wir sind dankbar für Ihre Kommentare und schätzen Ihre aktive Beteiligung sehr. Ihre Zuschriften können auch als eigene Beiträge auf der Site erscheinen oder in unserer Monatszeitschrift „Tichys Einblick“.
Bitte entwerten Sie Ihre Argumente nicht durch Unterstellungen, Verunglimpfungen oder inakzeptable Worte und Links. Solche Texte schalten wir nicht frei. Ihre Kommentare werden moderiert, da die juristische Verantwortung bei TE liegt. Bitte verstehen Sie, dass die Moderation zwischen Mitternacht und morgens Pause macht und es, je nach Aufkommen, zu zeitlichen Verzögerungen kommen kann. Vielen Dank für Ihr Verständnis. Hinweis

5 Comments
neuste
älteste beste Bewertung
Inline Feedbacks
Alle Kommentare ansehen