Maschinen sind schlimm, mkay?

matrix1

Nein, es geht nicht um diesen blödsinnigen Film, es geht um einen blödsinnigen FAZ-Artikel. Ihr kennt mich doch.

Wir müssen jetzt handeln

fordert Yvonne Hofstetter, und hat damit unzweifelhaft recht. Womit sie weniger recht hat, das erkläre ich unter dem Trennstrich. Kommt jemand mit?

Wie bei der FAZ üblich, wird der Unfug schon ganz oben offensichtlich. Frau Hofstetter warnt uns davor, dass unser Verhalten nicht nur berechnbar wird, wenn Computer große Datenmengen über uns sammeln, sondern sogar „schlimmstenfalls“ sogar steuerbar. Ja, klar, und? würde ich dazu natürlich sagen, aber dazu später. Jetzt erstmal eine kleine Kritik, die meines Erachtens einen zwar scheinbar unwichtigen, andererseits aber bezeichnenden Aspekt dieses Artikels betrifft:

 Es soll so viele IP-Adressen geben, dass jedem Atom auf der Erdoberfläche hundert davon zur Verfügung stehen.

raunt faz.net, und will offenbar, dass wir uns davon bedroht fühlen, liefert aber natürlich keinerlei Erklärung. Es ist eine in diesem Zusammenhang völlig unnütze Information, die nichts zur Sache tut, aber für jemanden, der vom Thema keine Ahnung hat, mordsbedrohlich klingen mag, zumindest, wenn er sich wie die FAZ-Redaktion sowieso schon von allem bedroht fühlt, was mit dem Internet zu tun hat. Und so geht es eben auch die ganze Zeit weiter. Frau Hofstetter entwirft abstruse Bedrohungsszenarien, erklärt sie nicht richtig, und hofft, dass wir uns hinreichend gruseln, um ihren Anweisungen zu folgen. Mir fällt gerade das richtige Zitat nicht ein, aber es gibt doch diese alte Weisheit, dass, wer ein Volk kontrollieren will, ihm nur Angst machen muss. Aber vielleicht denke ich da schon zu macchiavellistisch. Ich könnte mir auch vorstellen, dass Frau Hofstetter einfach nur ohne hintergründige Absichten ihre eigenen dystopischen Fantasien vor uns ausbreitet.

Und dabei geht sie natürlich so vor, wie das für solche Artikel üblich ist: Sie zeigt uns, dass falscher Input zu falschen Ergebnissen führt, und leitet daraus die Unbrauchbarkeit der Methode ab:

Hat ein Mann mit Namen „Fritz“, dessen Nachname unbekannt ist, in München-Schwabing einen Einbruch begangen, heißen Sie zufällig auch Fritz und wohnen in Tatortnähe, könnten Sie auf einer maschinengenerierten Verdächtigenliste gespeichert werden – eine Information, die Sie ganz sicher nicht über sich gespeichert sehen wollen, denn ohne Not geraten Sie in einen Verdacht, den Sie praktisch nicht mehr ausräumen können.

Ähnlich wie oben: Klingt vielleicht furchtbar, aber zumindest mir ist nicht ersichtlich, inwiefern das ein grundsätzlicher Einwand gegen Rasterfahndung sein soll. Wie sonst soll die Polizei denn ermitteln, wenn sie nicht möglichst viele Informationen über den Täter sammeln und dann die Personen überprüfen soll, auf die diese zutreffen? Genau so macht sie es doch heute auch schon, nur dass es nicht so transparent und unvoreingenommen abläuft wie in einem Computer, sondern wohl größtenteils noch so unordentlich und vorurteilsbelastet wie in einem menschlichen Gehirn? Wobei natürlich offensichtlich ist, dass die bloße Vornamensgleichheit keinen ernsthaften Verdacht begründet, weshalb Frau Hofstetter dieses Beispiel gewählt hat, und weshalb es auch Stuss ist. Natürlich produziert ein absurder Algorithmus absurde Ergebnisse. Das spricht aber nicht gegen die Anwendung von Algorithmen und hat auch nichts damit zu tun, wie groß die verarbeitete Datenmenge ist.

Kommen wir zur höchsten Stufe der maschinellen Bedrohung, die Frau Hofstetter ausgemacht hat:

Auf Grundlage der festgestellten Lageinformationen treffen spieltheoretische Modelle – sogenannte intelligente Kontrollstrategien – eine Entscheidung oder geben eine Handlungsempfehlung ab, die unser Verhalten beeinflussen soll.

Ähm. Warum genau ist das noch mal gefährlich?

Ja, schon klar, wenn die Algorithmen nicht gut arbeiten und wir uns trotzdem auf sie verlassen, dann ist das schlecht. Ist es aber heute auch schon. Wir wenden ja heute bereits Algorithmen an, die unser Verhalten beeinflussen. Die sind nur – wie oben – nicht so transparent wie die in einem Computer es sind. Der eine liest Horoskope, der nächste fragt seinen Anlageberater, und wieder ein anderer analysiert vielleicht jetzt schon Daten aus der Vergangenheit. Solange es bei einer Empfehlung bleibt, sehe ich das Problem nicht. Diese sind dann eben ein Werkzeug, und die Frage lautet, wie wir damit umgehen.

Selbstregulierende Netze sortieren und organisieren uns. Künstliche Intelligenz klassifiziert unser Verhalten. Lernende Maschinen berechnen, was voraussichtlich als Nächstes geschieht. Und Kontrollstrategien geben uns Anweisungen, was wir als Nächstes tun sollen. Besonders dann, wenn wir uns bei einer Entscheidung unsicher sind, nehmen wir die Entscheidungshilfe sogar noch dankbar an.

Da könnt ihr sagen, was ihr wollt, ich finde sowas einfach unredlich. Für mich tut Frau Hofstetter hier nichts anderes, als möglichst viele möglichst bedrohlich klingende Begriffe („Künstlicher Intelligenz“, „Lernende Maschinen“) aneinanderzureihen und so einen völlig okayen Vorgang ohne echte Argumente total entsetzlich und gefährlich klingen zu lassen. Wenn die Empfehlungen schlecht sind, sollten wir sie natürlich nicht annehmen. Aber werden sie dann besser, wenn sie auf weniger Daten basieren? Wohl kaum. Was hat das also mit der Frage zu tun, ob die Sammlung von Daten gefährlich ist? Und wenn die Empfehlungen gut sind, wo ist das Problem? Ja, hab ich gemerkt, sie spricht nicht mehr von Empfehlungen, sondern von „Anweisungen“. Sicher, wenn das so wäre, hätte ich damit gegebenenfalls auch ein Problem. Ich möchte schon gerne meine eigenen Entscheidungen treffen. Aber auch das ist ja keine Frage von Datensammlung und Algorithmus, sondern davon, ob wir die Freiheit anderer noch respektieren, oder sie zwingen, sich so zu verhalten, wie wir es gerne hätten. Und so unterstellt Frau Hofstetter hier das, was sie eigentlich herleiten wollte: Dass zu große Datensammlungen in die Diktatur führen. Jemand mit unzeitgemäßen Vorstellungen von logischen Trugschlüssen würde das vielleicht petitio principii nennen, aber im Rahmen eines aktuellen Datenschutzpanikbeitrags ist es einfach nur erwartbarer Standard.

Besonders schön finde ich ja immer die nun folgende Argumentation:

Die Nutzung dieser Algorithmen durch staatliche Stellen ist nur ein Problem, vielleicht sogar das kleinere. 

Aber sicher. Die Leute, die für sich das Recht reklamieren, uns im Bedarfsfall einfach eine Kapuze über den Kopf zu ziehen, in ein exterritoriales Lager zu verschleppen und dann so lange, wie sagt man? Richtig: robust zu verhören, bis wir die richtigen Antworten geben, sind das kleinere Problem.

Das größere Problem sind die, die um jeden Blick, jeden Klick, jeden Kauf von uns betteln müssen. Was sind im Vergleich mit denen die Leute mit den Maschinenpistolen und den Panzern? Schließlich unterliegen

Selbst Geheimdienste […] immerhin einer parlamentarischen Kontrolle

Ist es okay, wenn ich ein paar Minuten Auszeit nehme, um prustend kichernd unter meinen Schreibtisch zu fallen?

Morgen werden wir integraler Teil der Maschinen sein, die uns Entscheidungshilfe geben, uns anleiten und steuern – und dann kontrollieren, ob wir ihren Handlungsanweisungen auch nachkommen. Falls nicht, werden sie nachregulieren.

Ist das so? Und wenn ja, ist das schlimm? Warum? Und da Frau Hofstetter offenbar davon ausgeht, dass wir es nicht wollen, und es schlimm ist, stellt sich mir gleich wieder die Frage: Wenn wir befürchten, dass uns jemand zu etwas zwingt, das wir nicht wollen, warum sollen wir denn dann weniger Angst vor den Leuten haben, deren Hauptaufgabe und tägliches Geschäft bereits heute genau darin besteht, uns zu Dingen zu zwingen, die wir nicht wollen, und mehr vor den Leuten, deren schärfste Waffe eine aufdringlich blinkende Flash-Anzeige ist?

Morgen, das ist bald, in etwa zehn, fünfzehn Jahren.

Aha. Na, wenn sie das sagt …

Datensparsamkeit ist eine Strategie, die uns immer wieder anempfohlen wird. 

Ja, hab ich auch schon mal gehört. Nicht unbedingt mein Ding, aber darf von mir aus jeder halten, wie er will.

Das zu tun, was alle tun und vorsorglich alles über unsere Privatsphäre zu veröffentlichen, bloß um nicht aufzufallen, ist eine andere, die wir als „Post privacy“- Zeitalter titulieren. 

Ach wissen Sie was, Frau Hofstetter, Sie sollten sich schämen. Ganz im Ernst. Sie können für Datensparsamkeit plädieren – nee, stimmt nicht, können Sie anscheinend nicht, aber Sie dürfen es von mir aus jedenfalls gerne versuchen -, das ist okay, aber was echt nicht geht, ist so zu tun, als gäbe es nur die zwei Alternativen entweder Sparsamkeit oder Post Privacy aus Angst und Angepasstheit. Das ist wieder nicht anständig. Manche von uns sind einfach überzeugt von Post Privacy. Manche von uns glauben, dass es uns gut täte, wenn wir offener miteinander umgingen und weniger Geheimnisse hätten. Sie finden das falsch und glauben, dass wir uns irren. Wir glauben umgekehrt dasselbe von Ihrer Position. Aber unterstellen wir Ihnen deshalb niedere Motive? Na gut, ja, muss ich zugeben, habe ich schon ein bisschen, aber ich habe immerhin noch dazu geschrieben, dass ich mich da irren könnte. Ist immerhin mehr, als Sie tun.

Während keine der beiden Strategien uns ein Entkommen vor der Algorithmik erlaubt, da ihre Macher mit beiden Verhaltensweisen rechnen, ist die Datensparsamkeit dennoch das Mittel der Wahl.

Soso. Warum denn eigentlich?

 Je mehr Daten und digitale Spuren wir hinterlassen, desto effektiver die Maschinen.

Mhm. Ach so. Ja. Klar. Ähm. Effektive Maschinen ist das, was wir nicht wollen? Verstehe ich Sie da richtig? Wir wollen, dass unsere Maschinen möglichst wenig effektiv arbeiten?

Nur keine Daten führen zu keinen Ergebnissen. 

Oder zu falschen. Oder zufällig auch mal zu richtigen. Aber tendenziell zu falschen. Und das wollen wir?

Die Klassifizierung und Lageinformation wird umso teurer, je weniger Daten zur Auswertung bereitstehen.

Argumentieren Sie noch für Datensparsamkeit, oder habe ich nicht aufgepasst?

Das Monster Maschine wächst und gedeiht nur, wenn wir ausreichend Datenfutter zuführen.

Mhm … Das Monster Maschine. Frau Hofstetter, Sie wissen aber, dass die Matrix-Trilogie keine Doku ist, oder?

Maschinen können uns kriminalisieren oder uns diskriminieren, ohne dass wir das verhindern, beeinflussen oder rückgängig machen könnten.

Im Ernst jetzt? Meine Güte! Wenn ich das gewusst hätte! In dem Fall sollten wir natürlich sofort aufhören, mit ihnen zu arbeiten, und alles Menschen überlassen, denn die würden sowas bekanntermaßen niemals tun. Völlig ausgeschlossen. Wer könnte auch nur ein einziges Beispiel nennen, in dem ein Mensch einen anderen kriminalisiert oder diskriminiert hätte? Und zum Glück sind die Verhaltensweisen und Vorurteile anderer Menschen ja auch viel leichter beeinflussbar als die von Maschinen. Klarer Fall.

Heute können wir die Frage noch nicht beantworten, ob wir Schwarzmalerei betreiben […] Sicher ist, dass so oder so unser bekanntes System von Freiheit, Grundrechten und Demokratie gefährdet ist und zerbrechen kann.

Ja. Stimmt. Ist es, und kann es. Aber was können wir daraus ableiten? Erst mal gar nichts. Das System (von dem ich jetzt der Einfachheit halber mal so tue, als fände ich es erhaltenswert) kann zerbrechen, weil wir zu viele Maschinen einsetzen, oder zu wenige. Es kann zerbrechen, wenn wir jetzt nicht handeln, oder wenn wir jetzt falsch handeln, oder eben nicht. Und damit bin ich wieder bei dem Zitat, das mir oben schon nicht einfallen wollte: Ob sie es nun vorsätzlich macht oder nicht, hier zeigt Frau Hofstetter mustergültig dieselbe Bullshit-Argumentation, der wir zum Beispiel auch den Krieg gegen den Terror zu verdanken haben: Wir wissen zwar nichts, aber wir müssen was tun. Wir sind in Gefahr! Seht ihr nicht, was uns droht! Schnell, lasst uns handeln! Was? Nee, wir haben auch keine Ahnung, was eigentlich los ist, aber wir müssen handeln, und zwar jetzt!

Beides ist gleich falsch. Beides ist gleich unanständig. Beides sollten wir nicht hinnehmen, sondern kritisieren und bekämpfen. Und zwar jetzt.

Advertisements

10 Responses to Maschinen sind schlimm, mkay?

  1. TakeFive sagt:

    Also zumindest dieser Aspekt der FAZ (ich nenne ihn mal polemisch den „Schirrmacher-Komplex“) erinnert fortschreitender Zeit immer mehr an diese etwas ranzigen Leute in Fußgängerzonen mit Schildern a la „Das Ende ist nah!“, deren Anzahl (gefühlt) in den letzten 10 Jahren abgenommen hat.
    Ob die einfach durch einen zynischen HR-Manager direkt von der Straße in die FAZ-Redaktion rekrutiert werden? Oder stimmt einfach mit dem Algorithmus des Online-Bewerbungssystems der FAZ etwas nicht?

  2. Muriel sagt:

    @TakeFive: Ich fand es ja erschütternd, dass die Frau angeblich Geschäftsführerin der Teramark Technologies GmbH ist, also gewisse Grundkenntnisse über die Materie haben dürfte. Wer weiß, vielleicht werden wir uns alle noch sehr wundern in 10 Jahren, wenn so ein komischer Typ mit Sonnenbrille und affigem Ledermantel uns die Wahl aus zwei verschiedenen Pillen anbietet.

  3. TakeFive sagt:

    So lange musst du nicht warten..
    http://popstrip.com/full-version

  4. Dennis sagt:

    Die Maschinen sind nicht intelligent, die Algorithmen werden von Menschen geschrieben und das „Verhalten“ von Menschen in den Algorithmus gestrickt.

    Nach allem gerechne werden die Ergebnisse wiederum von Menschen in konkrete Handlungen umgesetzt. D.h. wenn mir das was die „Maschinen“ tun nicht gefällt, sollte ich wenn ich handeln möchte dafür plädieren bei den Menschen anzusetzen und nicht mit „Datensparsamkeit“.

    Mir fällt gerade kein besseres Beispiel ein – aber im dritten Reich wäre das so gewesen wie vorzuschlagen den gelben Stern abzunehmen, dann wird schon alles gut, die Maschinerie hat dann keine Macht mehr über uns.

    Die Einstellung den Algorithmen und deren Ergebnissen blind vertrauen ist eher ein Problem. Das Beispiel mit dem Fritz ist so eines – nur weil noch ein Fritz im gleichen Stadteil existiert kann man darauf auf verschieden Arten reagieren. Bspw. ihm gleich ein SEK Team ins Wohnzimmer stellen.

  5. Muriel sagt:

    @Dennis: Ich bin da ganz auf deiner Seite und bin als großer Freund von Nazi-Vergleichen auch sehr angetan von deiner Idee mit dem gelben Stern.

  6. JohTho sagt:

    Yvonne Hofstetter betreibt selber ein Datenunternehmen, Teramark Technologies, das auch mit dem Militär zusammenarbeitet.

    Auf der Homepage steht unter anderem:

    „Intelligence

    THREAT ANALYSIS

    September/11 put criminal detection on governmental agendas to top priority. Since, it is even more important for governmental agencies to better assess and effectively merge their distributed knowledge and data to get an efficient threat analysis for criminal focus point identification. Our natural language processing project helped a state agency to extract important information from a heterogeneous and scattered data environment and gave them real insight into where criminal focus points were existing.“

    (http://teramarktechnologies.com/government_and_military.php)

    D.h. dieses Unternehmen verkauft Systeme, die in der Lage sind, menschliche Sprache oder Text (aus abgehörten Daten) auszuwerten im Hinblick auf kriminelle Absichten. Und so jemand schreibt empört über Überwachungspraxis und „Nutzung unserer persönlichen Daten durch private Unternehmen“?? Ich glaub ich bin im Zoo!

  7. rolandschwarzer sagt:

    Seltsam finde ich die Behauptung, daß man quasi nur die Wahl zwischen virtueller Selbstentblößung und strenger Datenburka haben soll. Ich bediene mich schon seit jahren sehr erfolgreich einer dritten Methode. Lügen. Das funktioniert übrigens auch offline.

  8. Muriel sagt:

    Nicht so sehr mein Ding, aber ich hab auch nicht prinzipiell was dagegen.

  9. […] aber das eigentliche Problem macht er wie erstaunlich viele Artikler zum Thema Datenschutz nicht bei denen aus, die uns schwarze Säcke über den Kopf […]

  10. […] Vergleich mit anderen Beispielen ist das heutige dabei gar nicht mal preisverdächtig, aber die paar enthaltenen Kritikpunkte sind […]

Gib's mir!

Trage deine Daten unten ein oder klicke ein Icon um dich einzuloggen:

WordPress.com-Logo

Du kommentierst mit Deinem WordPress.com-Konto. Abmelden / Ändern )

Twitter-Bild

Du kommentierst mit Deinem Twitter-Konto. Abmelden / Ändern )

Facebook-Foto

Du kommentierst mit Deinem Facebook-Konto. Abmelden / Ändern )

Google+ Foto

Du kommentierst mit Deinem Google+-Konto. Abmelden / Ändern )

Verbinde mit %s

%d Bloggern gefällt das: