Albtraum “Künstliche Intelligenz” – Teil 1

Manche Menschen sind der Meinung, Künstliche Intelligenz (KI) wird unser aller Leben verbessern. Selbstfahrende Autos würden schon bald die Sicherheit im Straßenverkehr erhöhen, jegliche Logistik würde sicherer, schneller und verlässlicher, und auch der Traum von Intelligenten Städten wäre nicht mehr weit. Andere dagegen sind fest davon überzeugt, dass KI sämtliche Arbeitsplätze Schritt für Schritt wegrationalisieren und uns alle zu Bittstellern eines wie auch immer gearteten Grundeinkommens machen wird. Wieder andere glauben, KI sei Zukunftsmusik, eine Technologie, die noch lange nicht marktreif sei und sie deshalb nicht beträfe. Während die ersten beiden Gruppen zumindest im Ansatz recht haben, liegt die dritte Gruppe leider voll daneben. Die KI, die für die meisten Menschen eine Black Box ist, und dies auch für immer bleiben wird, ist nicht nur längst unter uns, sie wird auch immer übergriffiger und ist deshalb brandgefährlich: Für unsere Freiheitsrechte, unsere Privatsphäre, unsere körperliche Integrität, und letztlich sogar für unser physisches Leben.

Nur wer versteht, was KI ist und wie sie eingesetzt werden soll, ist in der Lage, sich gegen die geplanten Übergriffe durch diese Art von Technologie zu wehren. Was also ist KI? Es gibt unterschiedliche Definitionen für KI, immer geht es aber darum, etwas zu programmieren, zu konstruieren und zu bauen, das “intelligent” reagiert oder sich wie “ein Mensch” verhält.

Und genau hier liegt der Denkfehler: Denn egal wie raffiniert ein Algorithmus auch sein mag, er wird sich niemals wie ein Mensch verhalten können. Selbst anspruchsvolle KIs, die auf neuronalen Netzen basieren oder visuelle Reize ähnlich wie Hirnzellen verarbeiten sollen, werden niemals menschlich handeln können.

Denn Menschen sind keine rationalen Wesen, sie besitzen zwar einen logischen Verstand, werden aber unbewusst von Gefühlen und Emotionen gesteuert. Daniel Kahnemann, der 2002 für seine Arbeiten zur Psychologie des Urteilsvermögens und der Entscheidungsfindung sowie zur Verhaltensökonomie mit dem Nobelpreis für Wirtschaftswissenschaften ausgezeichnet wurde, hat die Mähr vom Homo Oeconomicus, also dem rein rational entscheidenden Individuum, ein- für allemal ad Acta gelegt.

Ein Mensch entscheidet nicht rein rational wie eine KI dies tut, er agiert und reagiert fast ausschließlich emotional. Denn nichts durchdringt die Pforten der Wahrnehmung, was nicht zuvor die limbischen Strukturen passiert hat, um dort emotional aufgeladen zu werden. Und nur das, was als emotional relevant angesehen wird, schafft es schließlich in unsere Aufmerksamkeit. Die Tatsache, dass Entscheidungen im Gehirn weitgehend unbewusst und immer emotional fallen, werden heute auch im Neuromarketing erfolgreich genutzt. 

Dass KI den Menschen ersetzen kann, ist also ausgemachter Blödsinn, eine perfide Manipulation, die dazu genutzt wird, uns glauben zu machen, KI wäre uns überlegen.

Denn wer dies glaubt, könnte allzu leicht dazu gebracht werden, die Kontrolle an eine scheinbar “allwissende” KI abzugeben, was angesichts der aktuellen Entwicklungen fatal wäre. Denn in einer Welt, in der Maschinen als allwissend und dem Menschen überlegen eingestuft werden, sterben das eigene Denken, die Skepsis und jede Art von freier Entscheidung.

Datendiebstahl wird patentiert

Leider wird allzu oft verschwiegen, dass es KI ohne riesige Mengen von Daten nicht gäbe und dass sie mit dem, was wir unter Intelligenz verstehen, rein gar nichts zu tun hat. KI benötigt Big Data und wie ein Artikel auf der Website Biometric Update zeigt, bemächtigen sich KI-Technologien bereits – ohne Konsequenzen fürchten zu müssen – privater Daten. Der Artikel “Clearview AI makes face biometrics service available to Ukraine Ministry of Defense.” (deutsch: Clearview AI stellt dem ukrainischen Verteidigungsministerium einen biometrischen Gesichtserkennungsdienst zur Verfügung) zeigt das wahre Ausmaß der illegalen Datensammelwut.

Im Artikel kündigt die Firma Clearview AI (Clearview) an, ihre biometrische App, der eine Datenbank mit Milliarden Fotos von Internetnutzern zugrunde liegt, dem ukrainischen Verteidigungsministerium kostenlos zur Verfügung zu stellen. Mehr als zwei Milliarden der über 10 Milliarden Fotos von Internetnutzern sollen dabei von der russischen Social-Media-Website VKontakte stammen.

Dass die Menschen, die im Netz so sorglos ihre Bilder teilen, Clearview die Genehmigung erteilt haben, diese in einer riesigen Datenbank zu speichern und sie wahllos an Jedermann zu verteilen, bezweifle ich stark. Was ich aber nicht bezweifle, ist, dass das US-Unternehmen wohl auch sämtlich Fotos aus den Sozialen Medien in Europa rechtswidrig in seiner Datenbank abgelegt hat und von seiner KI verwalten lässt.

Der Mitbegründer der Firma, Hoan Ton-That, ein autodidaktischer Ingenieur vietnamesischer und australischer Abstammung, schlug zudem vor, dass die App auch zur Identifizierung russischer Agenten genutzt werden könne. Das ist schon deshalb höchstgefährlich, weil in einem Krieg jeder wie auch immer geartete Gegner zu einem Agenten degradiert werden kann. Wer zu den Guten und wer zu den Bösen zählt, entscheiden einige wenige. Und was mit denjenigen geschieht, die man als Böse erkannt haben will, ist aus der Historie hinlänglich bekannt.

Wer glaubt, KI wäre nur dazu da, unser Leben einfacher und besser zu gestalten, der wird spätestens jetzt eines Besseren belehrt. Eine Technologie, die es ermöglicht, private Daten eines Menschen – ohne dessen Wissen – in Datenbanken zu speichern und Menschen bei Bedarf willkürlich als Feinde zu definieren, ist nicht nur unverantwortlich, sie ist auch in höchstem Maße gefährlich.

Die zivilgesellschaftliche Gruppe Surveillance Technology Oversight Project weist in obigem Artikel daraufhin, dass Technologien, die auf dem Schlachtfeld eingesetzt werden, missbraucht werden können. Ich gehe sogar noch einen Schritt weiter, und sage, dass die Kriegspropaganda sie mit an Sicherheit grenzender Wahrscheinlichkeit missbrauchen wird.

Weshalb die Gründer dieses Unternehmens nicht längst hinter Schloss und Riegel sitzen, ihr Laden geschlossen und ihre illegalen Datenbanken gelöscht wurden, ist ein Rätsel. Schließlich sieht sich Clearview schon länger mit Vorwürfen der Massenüberwachung und der Verletzung der Geschäftsbedingungen von sozialen Netzwerken wie Twitter sowie der Privatsphäre der Nutzer konfrontiert.

Trotz dieser Vorwürfe wurden die Datendiebe von Clearview am 15. Februar 2022 sogar noch mit einem Patent mit dem Titel “Methods for Providing Information About a Person Based on Facial Recognition” (Verfahren zur Bereitstellung von Informationen über eine Person auf der Grundlage von Gesichtserkennung) belohnt.

Und das, obwohl das Patent ein System zur Anwendung von Gesichtserkennung beschreibt, dessen Informationen aus dem öffentlichen Internet stammen. Die US-Firma nutzt persönliche Daten von Menschen, ohne deren Einwilligung eingeholt zu haben, und verkauft diese, ebenfalls ohne Einwilligung, an Strafverfolgungsbehörden und andere Institutionen. Es ist ein Skandal, dass ein derartiges Produkt auch noch patentiert werden kann.

Der Kommentar des Geschäftsführers Hoan Ton-That ist eine Farce: “Diese Auszeichnung ist mehr als ein Schutz des geistigen Eigentums; sie ist eine klare Anerkennung der technologischen Innovation von Clearview AI in der Branche der künstlichen Intelligenz.”

Eine KI, die die Welt verändert

Doch Clearviews Projekt erscheint noch harmlos, vergleicht man es mit der autonomen KI des in Israel beheimateten Unternehmens Cortica. Der Geschäftsführer Igal Raichelgauz begann seine Karriere in einer Eliteeinheit des Nachrichtendienstes der Israel Defence Forces (IDF), weshalb es auch nicht verwunderlich ist, dass sich unter Corticas Mitarbeitern, neben führenden KI-Forschern, auch zahlreiche Veteranen der israelischen Eliteeinheiten des Militärgeheimdienstes finden lassen.

Der KI, die die Welt verändern soll, liegen viele Jahre firmeneigener Hirnforschung an Teilen eines Rattenhirns zugrunde. Denn die KI, so das Unternehmen, sei der Neuronenaktivität und den Lernmechanismen des Säugergehirns nachempfunden. Die Überlegenheit der KI beruhe darauf, dass sie zur visuellen Datenverarbeitung nicht die Konzepte bisheriger Deep Learning Systeme nutze, sondern den gleichen Prozess wie das menschliche Gehirn. Aus diesem Grunde könne die KI, die durch 200 Patente abgesichert ist, nicht nur Konzepte und Kontexte verstehen, sondern daraus auch Schlussfolgerungen ziehen.

Bisher wurde die KI vor allem für die Steuerung autonomer Autos oder für die Vorhersage von komplexen Systemen wie dem Wetter beworben, doch in der “Neuen Normalität” soll sie auch in der Videoüberwachung zum Einsatz kommen. Das erste Projekt dieser Art läuft seit 2017 in Indien. In einer Partnerschaft mit der Best Group analysiert die Cortica-KI die Daten sämtlicher CCTV-Kameras im öffentlichen Raum. 2018 gab Cortica öffentlich bekannt, seine KI könne – ganz im Stil des Science Fiction Streifens Minority Report – Verbrechen vereiteln, noch bevor diese verübt würden.

Dieser im Fachjargon als Predictive Crime bezeichnete Ansatz wird weltweit zwar schon länger in diversen Pilotprojekten getestet, doch Corticas Technologie ist ausgefeilter, weil sie sich auf den Menschen an sich fokussiert. So will die KI potenzielle Verbrecher durch sogenannte “Verhaltensanomalien” in der Mikromimik ausfindig machen.

Die verräterischen Zeichen, die darauf hindeuten könnten, dass eine Person im Begriff sei, ein Gewaltverbrechen zu begehen, sind so winzig, dass sie nur vom unbestechlichen Auge einer KI erkannt werden können, erklärt das Unternehmen.

Die Software soll aber nicht nur Verhaltensunterschiede zwischen gesetzestreuen Bürgern und möglichen Kriminellen erkennen, sie soll auch zwischen einem friedlichen, überfüllten Markt und einer politischen Demonstration, die gewalttätig zu werden droht, unterscheiden können.

Wohin führen uns derartige Ansätze? Wollen wir die Überwachung des öffentlichen Raumes tatsächlich einer Software überlassen, deren Programmierung wir nicht kennen und deren Lernprozesse und Entscheidungen wir nicht nachvollziehen können? Wollen wir die Absichten eines komplexen Wesens wie dem Menschen von einem, im Vergleich zu uns, primitiven Algorithmus einschätzen lassen? Und wie wollen wir uns gegen mögliche Anschuldigungen wehren, wenn eine KI erst einmal als allwissend und unfehlbar eingestuft wurde?

Was, wenn ein totalitäres Regime ein solches System missbraucht, um abweichende Meinungen zu unterdrücken und Menschen zu verhaften, bevor diese überhaupt die Möglichkeit hatten, einen Protest zu organisieren?

Wem derart dystopische Aussichten nicht schon gruselig genug erscheinen, für den hat Cortica noch ein weiteres Anwendungsbeispiel parat: Die KI könnte in Zukunft in autonomen Taxen das Verhalten von Fahrgästen überwachen, um potenziell gefährliche Situation zu erkennen und die Strafverfolgung einzusetzen, bevor Menschenleben verloren gingen.

Sie hatten eine schlechten Tag, sind wütend auf ihren Partner oder ihren Boss? In diesem Falle, begeben sie sich in Zukunft besser nicht in den öffentlichen Raum, vermeiden sie die Nutzung eines Taxis oder verbergen sie zumindest ihr Gesicht vor dem allsehenden Auge der KI. Denn die kleinste Muskelzuckung in ihrem Gesicht, die etwa Wut, Ärger oder vielleicht sogar Hass ausdrückt, könnte dazu führen, dass sie als Gefahr für die Allgemeinheit identifiziert und präventiv festgenommen werden.

Eine KI für das Maskenzeitalter

Wie weit KI auf Abwege geraten kann, zeigt das Beispiel Corsight AI (Corsight). Das 2019 in Tel Aviv gegründete Privatunternehmen ist eine Tochtergesellschaft der Firma Cortica. Im Beirat des Unternehmens sitzen James Woolsey, ein ehemaliger CIA-Direktor, und der ehemalige stellvertretende FBI-Direktor Oliver Revell.

Die ebenfalls auf Gesichtserkennung spezialisierte autonome KI Fortify zeichnet sich dadurch aus, dass sie auch unter schwierigen Verhältnissen valide Ergebnisse liefern soll. Menschenmengen, schlechte Lichtverhältnisse und teilweise verdeckte Gesichter sollen für Fortify keine Probleme darstellen.

Die Corsight KI soll für die Einhaltung der neuen Normalität sorgen. Quelle: Website Corsight AI

Die Corsight KI soll für die Einhaltung der neuen Normalität sorgen. Quelle: Website Corsight AI

Die Überwachung des öffentlichen Raumes soll wie im Vorbild China zu unser aller Realität werden. Quelle: Screenshot Website Corsight AI

Die Überwachung des öffentlichen Raumes soll wie im Vorbild China zu unser aller Realität werden. Quelle: Screenshot Website Corsight AI

Aus diesem Grunde bewirbt das Unternehmen das Werkzeug auch explizit zur Überwachung von Pandemie-Maßnahmen: “Wir leben in einer beispiellosen Zeit mit neuen sozialen Normen und Herausforderungen. Da Gesichtsmasken allgegenwärtig werden, sind neuartige Lösungen erforderlich, um Sicherheitsstandards aufrechtzuerhalten.”

Um diese Sicherheitsstandards – ein Euphemismus für totale Kontrolle – aufrechtzuerhalten, soll Fortify die Einhaltung aller Quarantäneanordnungen überwachen. Dazu prüft die Software, ob Menschen keine Maske tragen, in Bereichen, in denen dies gefordert ist; sie stellt fest, ob Menschen Fieber haben; überwacht berührungslose Zugangskontrollen in bestimmten Einrichtungen, die Einhaltung von Abstandsregelungen sowie die Rückverfolgung von Kontakten zur Sicherung von Arbeitsplätzen und zur Verhinderung der Verbreitung von Infektionen. Würde beispielsweise eine die Sicherheit bedrohende Person, die die Maske nicht korrekt trägt, erkannt, könne Fortify eine Warnmeldung in Echtzeit ausgeben.

Das “DNA to Face” Projekt

Doch bei konventioneller Gesichtserkennung soll es nicht bleiben. Wie aus einer Präsentation für die Imperial Capital Investors Conference 2021 hervorgeht, arbeitet das Unternehmen an einem Projekt, das es als “DNA to Face” bezeichnet. Wie der MIT Technology Review berichtete, wird bei diesem Ansatz nicht das Gesicht eines Menschen zur Identifizierung herangezogen, sondern sein Erbmaterial, seine DNA.

Anhand der individuellen DNA soll ein Modell des Gesichts erstellt werden, welches anschließend mit einer Gesichtserkennungssoftware auf KI-Basis das physische Pendant aus einer Datenbank herausfiltert. Zusätzlich zu “DNA to Face” umfasst die Produkt-Roadmap auch noch die Gangbiometrie sowie auf Stimmerkennung basierende Gesichtsmerkmale, welche die Gesichtserkennungsfähigkeiten der KI noch erweitern sollen.

Nach aktuellem Wissensstand ist eine zweifelsfreie Gesichtserkennung über die individuelle DNA zwar noch nicht möglich, denn mit den verschiedenen Verfahren zur Phänotypisierung (worunter man die Untersuchung der Gene versteht, die für die die äußeren Merkmale eines Individuums verantwortlich sind) lassen sich bisher nur auf Abstammung und Geschlecht schließen, und mit einer bestimmten Wahrscheinlichkeit lassen sich Augen-, Haar- und Hautfarbe ermitteln.

Ob eine valide Gesichtsrekonstruktion anhand des Erbgutes jemals möglich sein wird, steht in den Sternen, doch es wird mit Hochdruck an der Realisierung dieser Idee gearbeitet. Der Bürgerrechtsanwalt und Geschäftsführer des Surveillance Technology Oversight Project (STOP), Albert Fox Cahn, bezeichnet die Idee als “Pseudowissenschaft.” Doch wie die Coronakrise gezeigt hat, sollte dies kein Grund sein, uns diese Technik – wenn nötig – als absolut seriöse Wissenschaft zu verkaufen.

Dass derartige Verfahren in Zukunft weitreichend genutzt werden sollen, dafür spricht auch, dass in Deutschland relevante Gesetze zu diesem Thema bereits geändert wurden. Die DNA-Phänotypisierung war bis Ende 2019 in Deutschland auf Grund der rechtlichen Beschränkungen in der Strafprozessordnung verboten.

2018 wurde die forensische DNA-Analyse durch den Koalitionsvertrag von 2018 erweitert: “Die DNA-Analyse wird im Strafverfahren auf äußerliche Merkmale (Haar, Augen, Hautfarbe) sowie Alter ausgeweitet (§ 81e StPO).” Am 15. November 2019 wurde die Änderung vom Bundestag verabschiedet und trat am 12. Dezember 2019 in Kraft.

Der § 81e StPO Absatz 2, Satz 2 ist nun wie folgt gefasst: “Ist unbekannt, von welcher Person das Spurenmaterial stammt, dürfen zusätzlich Feststellungen über die Augen-, Haar- und Hautfarbe sowie das Alter der Person getroffen werden.” In Bayern ist sogar erlaubt, mittels Phänotypisierung die biogeographische Herkunft zu ermitteln.

Es wurden also gerade zur rechten Zeit die notwendigen Gesetze geändert, um eine Gesichtserkennung mittels DNA später auch Schritt für Schritt auf unbescholtene Bürger auszuweiten. Denn wer ein potenzieller Straftäter sein könnte, entscheidet vielleicht schon bald nicht mehr ein Mensch, sondern ein “selbstlernender” Algorithmus.

Überwachungstechnologie soweit das Auge reicht

Trotz aller Bedenken bezüglich der immer invasiver werdenden Überwachungstechnologien, wächst der Markt für die Identifizierung von Menschen mit Hilfe von KI. Schon heute zeichnen die neuen Fahrzeuge das individuelle Fahrprofil ihres Besitzers auf, ohne dass dieser etwas davon bemerkt: Beschleunigung, Bremsen, Geschwindigkeit, Reaktion auf Hindernisse, all das lässt eindeutige Rückschlüsse auf den Fahrer zu. Offiziell heißt es zwar, diese Daten würden lediglich erhoben, um mögliche Unfälle rekonstruieren zu können, bzw., die Leistung des Fahrzeuges zu optimieren, doch das dürfte nur die halbe Wahrheit sein.

Die Ergebnisse eines Projektes, das Menschen alleine an ihrem Herzschlag erkennen will, wurden jüngst auf der Website der Universität Carlos III in Madrid veröffentlicht. Gemeinsam mit der Shahid Rajaee Teacher Training University of Iran haben die spanischen Forscher eine Software entwickelt, die zur Identifizierung die individuellen Merkmale des Herzschlags nutzt, die einem einfachen Elektrokardiogramm (EKG) entnommen werden können. Aus diesen Merkmalen analysiert der Algorithmus Dynamik, Rhythmus, Klangfarbe, Tonhöhe und Tonalität – also Faktoren, die üblicherweise zur Charakterisierung von Audiodateien verwendet werden. Die Kombination dieser Parameter sollen für jede Person einzigartig sein und eine Genauigkeit von 96,6 Prozent besitzen.

Dieses relativ einfache Konzept wäre bereits heute umsetzbar: Hätte Jeder die neueste Apple-Watch, die bereits ein einfaches EKG aufzeichnen kann, am Handgelenk, müsste in die Uhr lediglich der Identifizierungsalgorithmus integriert werden.

Doch bei Wearables wie Fitnesstrackern und Uhren wird es wohl nicht bleiben, sie dürften lediglich eine Übergangstechnologie sein und in absehbarer Zeit obsolet werden. Wohin die Reise geht, zeigt die in Austin, Texas, ansäßige Firma Chaotic Moon Studios. Die Firma, die 2015 von Accenture, einer weltweit tätigen Managementberatung mit mehr als 336.000 Mitarbeitern, übernommen wurde, will mit ihren Tech Tats – elektronische Tätowierungen – schon eine geräteunabhängige Alternative zur totalen Überwachung entwickelt haben.

Ein besonders interessanteres Tattoo, das hervorragend in die geplante Gesundheitsdiktatur passen würde, basiert auf einer Technik, die Informationen aus dem menschlichen Körper analysieren und sammeln kann. Das Spezial-Tattoo lässt sich mit Hilfe leitfähiger Tinte sogar in die Haut einbetten. Die leitfähige Farbe ermöglicht die Schaffung eines Schaltkreises, der Gesundheits- und andere biometrische Daten aus dem Körper und der Umgebung aufnimmt. Der in 2015 vorgestellte Prototyp kann wie FitBit, Jawbone oder die Apple Watch, Daten über die Gesundheit und die Umgebung des Trägers sammeln, in die Cloud laden und an jedes Gerät oder jede Einrichtung senden.

Chaotic Moon Tatoo überwacht die Gesundheit. Quelle: Screenshot YouTube

Chaotic Moon Tatoo überwacht die Gesundheit. Quelle: Screenshot YouTube

Wen wundert es, dass bei dieser Art von Technologie auch Bill Gates nicht weit ist. Gates glaubt, die Technologie von Chaotic Moon Studios könnte in absehbarer Zukunft Smartphones ersetzen.

Hier geht es zu Teil 2 des Artikels.

Der Artikel erschien auch im Online Magazin Rubikon.
 

Don't be shellfish...Share on Google+Share on LinkedInTweet about this on TwitterEmail this to someoneShare on Facebook