Dan Gudmundson, Cheftechnologe (CTO) der kanadischen Firma Optosecurity, sollte eigentlich das erste optische Bedrohungserkennungssystem auf dem Fall Microprocessor Forum in San Jose, Californien, vorstellen. Es handelt sich hierbei um eine massiv parallellisierte Prozessorarchitektur, die bereits seit einigen Wochen auf dem Flughafen von Ottawa ihren Dienst versieht. Nun hat Dan Gudmundson aus Zeitgruenden das Flugzeug gewaehlt, um von seiner kanadischen Heimat nach Californien zu gelangen und dabei Bekanntschaft mit seiner eigenen Schoepfung gemacht. Das erste optoelektronische Bedrohungserkennungssystem entdeckte (faelschlicherweise) Sprengstoffspuren and Gudmundsons Kleidung, was natuerlich sofort das Sicherheitspersonal des Flughafens auf den Plan rief. Da die Beamten jedoch dem System mehr Glauben schenkten, als den Unschuldsbeteuerungen seines Schoepfers verpasste dieser den Flug nach San Jose und sein Vortrag musste ausfallen.
Ein solches Ereignis nennt man 'false-positive'. Jedes automatische Erkennungssystem – sei es ein Fingerabdruckscanner oder Iriserkennungssystem – produziert zwangslauefig zwei Arten von Fehlern, die hier kurz am Beispiel eines Zugangskontrollsystems erlaeutert werden sollen:
Oder um beim Beispiel von Gudmundsen zu bleiben: Gudmundson war ein 'false positive', weil bei ihm nicht vorhandener Sprengstoff detektiert wurde. Ein 'false negative' am Flughafen von Ottawa waere ein tatsaechlich mit Sprengsroff bewaffnetes Individuum, das aber keinen Alarm ausloest.
Sowohl Zugangserkennungssysteme, als auch Aids-Tests etc. verfuegen in der Regel ueber eine Vorgabe, wie hoch der jeweilige Prozentsatz von false-positives und false-negatives sein darf. Dieser Prozentsatz ist i.d.R. im Promillebereich anzusiedeln. Denn ein Flughafen mit rund dreieinhalb Millionen Passagieren jaehrlich schleust pro Tag fast 10.000 Menschen durch die Kontrollanlagen. Eine false-positive-Rate von einem Promille wuerde bedeuten, dass es pro Tag zehn derartige Vorfaelle gibt, wie er nun Dan Gudmundson selbst widerfahren ist – was unterm Strich untragbar ist. Andererseits duerfen die false-negatives (also die vorhandenen aber nicht erkannten Bedrohungsszenarien) ebenfalls nur einen Bruchteil eines Prozentsatzes ausmachen, weil sonst die Chancen fuer Terroristen, unerkannt durch die Kontrollen zu kommen, steigen wuerden.
Technisch liegt das Problem oftmals darin, dass durch entsprechende Kalibrierung des Systems die false-Positives reduziert werden koennen, was aber praktisch immer mit einem stiegenden Anteil von false-negatives einhergeht. Umgekehrt gilt selbstverstaendlich dasselbe.
Was passiert jedoch, wenn immer mehr Menschen durch eine immer groesser werdende Anzahl an Systemen kontrolliert werden?
Zwangslaeufig werden viele false-positives und false-negatives produziert. D.h. Arbeitsablaeufe werden behindert und unschuldige Menschen geraten in den Blickpunkt der Ermittlungsbehoerden. Wenn in der EU von 450 Millionen Menschen nur 200 Millionen einer taeglichen Kontrolle ausgesetzt werden, wuerde ein System, das 0,1 Promille false positives produziert taeglich 20.000 Buerger zu Verdaechtigen machen.
hit any key 2 continue
-m*sh-
Nu genau….und da fragt hier einer…..sind Blogs Vertrauenswürdig….Big Brother lässt Grüssen….lol