AI = artificial intelligence = künstliche Intelligenz = KI
Bisher habe ich mich in diesem Blog nie mit meinem ehemaligen Beruf oder den Themen meiner Ausbildung beschäftigt. Als Elektroingenieur lernt man wie digitale und analoge Systeme entwickelt werden. Bei den digitalen Systemen muss man sich zwangsläufig auch mit der Programmierung beschäftigen, denn ein Mikroprozessor ohne Firmware/Software tut rein gar nichts, außer Strom verbrauchen. In dem Beruf ist man sehr im Faktischen und Praktischen verhaftet und fühlt sich nicht unbedingt dazu berufen die Politik oder die Gesellschaft zu beeinflussen. Inzwischen gibt es aber so einige Themen, bei denen die Grundlagen der Elektrotechnik für die Diskussion gesellschaftspolitischer Themen ganz hilfreich wären. Danisch tut das ab und zu auch, wenn er die aktuellen Themen aus der Sicht des Informatikers betrachtet, was ich sehr schätze.
Ich könnte mich auf das Thema „alternative Energien“, bzw. „Energiewende“ im Zusammenhang mit dem sog. Klimawandel stürzen. Aber zum einen gibt es dazu schon ein gehöriges Stimmenwirrwarr, in dem ich kaum Chancen hätte noch durchzudringen. Ich halte es auch für riskant und einäugig, wenn man bei den „alternativen Energien“ sich durch die Politik wieder in zentralisierte Systeme hinein treiben lässt, anstatt lokale und individuelle Systeme voranzutreiben. Zum anderen sehe ich die Dringlichkeit nicht, da ich dem Thema Klimawandel (als Ersatzwort für die angeblich globale, durch den Menschen verursachte Erderwärmung) nur zweifelnd gegenüber stehen kann. Es fängt schon damit an, dass die Temperaturmessdaten teilweise korrigiert (gefälscht?) und teilweise nur selektiv erfasst und ausgewertet werden. Was soll ich, als Ingenieur, mit diesem Datenmüll anfangen?
Ein anderes Thema wäre „alternative Antriebe“, also den guten alten Verbrennungsmotor durch fast genauso alte Elektromotoren zu ersetzen. Vor lauter Begeisterung über Tesla ist in Vergessenheit geraten, dass die ersten praktisch nutzbaren Elektroautos schon um die 1880 herum fuhren und zeitgleich die ersten Fahrzeuge mit Diesel- und Ottomotor gebaut wurden. Wir wissen alle, wer diesen Wettbewerb gewonnen hat, und der Hauptgrund war (und ist es heute noch), dass beim Verbrennungsmotor die Antriebsenergie einfach in einen Kanister gefüllt werden kann, während man sich beim Elektromotor mit dem Energiespeicher Batterie herumschlagen muss. Mit der Batterietechnik beschäftigen sich vor allem Physiker und Chemiker, nicht unbedingt Elektroingenieure.
Das Thema künstliche Intelligenz ist für mich viel ergiebiger. Ich hatte vor langer Zeit mal etwas mit Radar-Sensoren zu tun, die in der Autoindustrie für mehr Sicherheit sorgen sollten, als Abstandswarner und ggf. automatische Bremssysteme. Bei der Weiterentwicklung zu vollautomatisch fahrenden Autos stieß man dann auf das gute alte Trolley-Problem. Schon bei einem sehr speziellen System, welches nur eingeschränkt als ‘intelligent’ bezeichnet werden kann, soll eine Software mit einem Ethik-Unterprogramm zwischen Leben und Tod entscheiden. Selbst wenn man das Ethik-Unterprogramm juristisch festlegt, stellt sich die Frage wer für einen Tod verantwortlich ist, wenn die Elektronik oder das Programm nicht richtig funktioniert, oder gar – wie beim Abgas-Skandal – absichtlich unterminiert wird. An dieser Stelle wurde ich schon mal hellhörig, denn das Problemfeld ist nur an der Oberfläche ethisch oder juristisch.
###
In den letzten Wochen wurden jedoch zwei Themen in die Öffentlichkeit gespült, die in Kombination weitreichende gesellschaftliche Auswirkungen haben werden und weitaus wichtiger sind als Windfarmen, Elektroautos und selbstfahrende Fahrzeuge. Zum einen war das der sog. Prozessorbug, zum anderen der Einsatz von AI zur Zensur der sozialen Medien.
Meltdown und Spectre haben mich jetzt nicht sonderlich überrascht. Wer, wie ich seit der Schulzeit, Mikroprozessoren einsetzt lernt ganz schnell, dass die Herstellerbeschreibung nicht unbedingt exakt der wirklichen Funktion entspricht. Als kleiner Spezialanwender, der nur einige zig- bis hunderttausend Chips kauft kann man sich die Hufe blutig trampeln bis der Prozessor-Hersteller mal auf eine Fehlermeldung reagiert. Meist werden die erkannten Fehler nur in eine ‘Errata’ aufgenommen, damit das halt mal dokumentiert ist. Es gibt keine Garantie, dass der Fehler bei der nächsten Version behoben ist. Diese Hersteller haben immer einen oder einige wenige Leitkunden, und wenn die nicht Sturm laufen, passiert gar nichts. Wenn man keinen alternativen Prozessor einsetzen kann (und das ist meist mit einem riesigen Aufwand verbunden) dann müssen halt die Elektroniker herhalten und entweder Designänderungen machen und/oder (wir nannten das damals so) einen ‘Balkon’ um das Problem herum programmieren. Genau das geschieht nun auch mit den Änderungen im Betriebssystem (MS, Linux, Apple, Android), die das Problem verhindern oder umgehen, im Zuge dessen aber das System ggf. erheblich langsamer machen.
Zum weiteren Verständnis möchte ich hier nun zwischen einem speziellen System und einem universellen System (auch wenn das oft unscharf ist) unterscheiden. Man kann – nur als Beispiel – einen Musik-CD Spieler aus Einzelbauteilen aufbauen und damit nur genau die, sagen wir mal 50 Funktionen, des Geräts implementieren. Das gibt einem die Garantie, falls man keine Fehler macht, dass das Gerät nur diese 50 Funktionen ausführen kann und nie in einen undefinierten Zustand kommt. Selbst wenn man, bei entsprechenden Stückzahlen, die Einzelbauteile in einem ASIC integrieren kann, ist diese Lösung meist teurer, als wenn man Universalbausteine, wie z.B. einen gebräuchlichen Mikroprozessor einsetzt. Das heißt solche speziellen Elektronik-Systeme gibt es heutzutage kaum mehr. Selbst in einem speziellen System hat man mit Einflüssen bzgl. EMC (electromagnetic compatibility) und anderen Umwelteinflüssen, wie Temperatur, Feuchtigkeit und Schwankungen in der Stromversorgung zu kämpfen, die manchmal zu unvorhersehbaren Systemzuständen führen.
Der Mikroprozessor selbst ist also als Grundbaustein ein universelles System. Um ein spezielles System damit zu bauen, trimmt man die vielen Funktionen des Prozessors auf die wenigen herunter, die man z.B. für den Musik-CD Spieler braucht. Das Problem dabei ist nicht nur, dass der Chip die Dinge die er machen soll manchmal nicht macht (wie im vorletzten Absatz beschrieben), sondern manchmal auch Dinge macht, die er nicht machen soll. Letzteres kann oft jahrelang unerkannt bleiben. Ein PC, Laptop oder Tablet ist auch ein spezielles System, wenn auch erheblich universeller als ein CD-player. Mit der Vernetzung via Internet kommt dann noch mal ein weiterer Umwelteinfluss hinzu, dessen Varianten praktisch unendlich sind. Selbst das beste Sicherheitssystem kann nur die Fehler, Viren, Trojaner, usw. erkennen, die es schon kennt oder welche sehr ähnlich sind wie die, die es schon kennt.
Der kleine Ausflug in die Prozessortechnik wirkt hoffentlich nicht zu sehr wie eine Vorlesung. Der Punkt der Exerzitien war, klar zu machen, dass ein relativ universelles System, wie eine CPU oder ein handelsüblicher Computer IMMER fehleranfällig ist. Es ist völlig unrealistisch zu erwarten, dass solche Systeme jemals fehlerfrei laufen oder jedweder Internet-Angriff abgewehrt werden könnte.
###
Nun zum Thema künstliche Intelligenz und ‘machine learning’, die von Google, Twitter, Facebook usw. eingesetzt werden. Über die ersten Ausprägungen dieser AI haben wir uns bisher meist gefreut. Das ist der Spam-Filter, der unser E-mail-Postfach und unsere Kommentarbereiche vor allem vor Werbemüll schützt. Vielleicht kann sich der ein oder andere noch an die Frühzeiten der Spamerkennung erinnern, wo man selbst per Hand sein Postfach von dem Mist bereinigen musste. Gute, insbesondere zentralisierte, Spam-Filter sind heute schon selbstlernend und damit AI. Und wessen Emails dieser Tage immer mal wieder im Spam-Filter eines Adressaten landen, der regt sich vielleicht darüber auf, wie unintelligent und vielleicht ungerecht diese KI ist. Das liegt u.A. daran, dass die Spam-Verbreiter immer wieder nach Lücken im System suchen um ihren Mist zu verbreiten, und die Leute die den Filter programmieren/konfigurieren immer erst nachträglich reagieren (und manchmal überreagieren) um die Lücke zu schließen.
Nun sahen sich die Betreiber der Internet-Plattformen mit der Forderung von ‘lupenreinen Demokraten’ und ihren eigenen Befindlichkeiten konfrontiert, sogenannten „hate speech“ aus dem Netz zu entfernen. Die dazu nötige Technologie haben sie zum Großteil schon. Der Spam ist jetzt nicht mehr nur unerwünschte Werbung, sondern konservative oder rechtslastige Meinungen und Fakten. Wie beim Spam-Filter dauert es einige Jahre, bis das Filtern zuverlässig und mit niedriger Fehlerquote funktioniert. Deshalb stellen die o.g. Plattform-Betreiber derzeit tausende von Leuten ein, die den „Hate speech Filter“ von Hand justieren.
Wie das Team um James O’Keefe im Project Veritas derzeit dokumentiert, versteckt sich Twitter beim zensieren hinter dem Begriff ‘Algorithmen’. Die haben noch Schwierigkeiten ihre Zensur effizient und möglichst fehlerfrei durchzuführen. Was sie benutzen ist aber KI und ‘machine learning’ auf Basis der modernen Spam-Filter. Auch dort haben die Mitarbeiter ein ethisches Problem identifiziert. Man kann nicht einerseits mit Meinungsfreiheit (free speech) Werbung für die Plattform machen, und andererseits so offensichtlich zensieren. Das würde auf viele Nutzer abschreckend wirken. Deshalb haben sie sich den Trick des shadow-banning einfallen lassen, wobei der ‘delinquente’ Nutzer gar nicht merkt, dass niemand außer eine handvoll seiner Fans seine Nachrichten empfangen können.
Wie James Damore mit seiner Klage gegen Google ausführlich dokumentiert und auch Project Veritas bei Twitter festgestellt hat, wird bei den großen Silicon Valley Internetfirmen schon bei der Mitarbeiterauswahl darauf geachtet, dass die möglichst links und politisch korrekt sind. Konservative werden erst gar nicht eingestellt oder kurzfristig weg-gemobbt. Bei Facebook, insbesondere für Deutschland, ist es auch nicht anders. Wer im Löschzentrum nicht pariert und nicht total gegen die AfD ist, der fliegt raus. Damit ist sichergestellt, dass die Filter der KI mit Daten bestückt werden, die alles was nicht so links ist wie diese Typen, ins digitale Nirwana befördern. Das gilt mehr und mehr nicht nur für konservative oder ‘rechte’ Meinungen, sondern auch für Fakten, die solche Meinungen begründen könnten. Es gibt inzwischen genug Fälle, wo Leute die nur einen Bericht über einen Flüchtilanten, der sich als Vergewaltiger oder Mörder hervorgetan hat, mit einem Link verbreiten, razz fazz gesperrt werden oder komplett gelöscht.
Klar ist das reine Willkür und man sollte sich des Ethik-Problems annehmen. Aufgrund der Tatsache dass diese Plattformen Quasi-Monopole sind, plädiere ich auch für eine klare juristische Regelung. Doch der politische Wille hierfür ist derzeit noch dünn gesät. Meist regen sich nur die auf, die gerade gesperrt oder gelöscht wurden. Die große Masse der Nutzer von Internet-Schminktipps, Katzenvideos und ‘Celebrity’ Interessierten kümmert sich einen Dreck um Meinungsfreiheit. Und wenn die juristische Regelung so aussieht wie das Maassche NetzDG, dann kommt das der Meinungsfreiheit leider gar nicht zu gute.
###
Doch selbst wenn wir uns vorstellen, dass es eine akzeptable juristische Regelung gäbe (um z.B. terroristische Aktivitäten zu unterbinden), muss man sich fragen, ob das ausreicht. Die AI ist immer noch da, genauso wie die politisch korrekten Mitarbeiter bei den großen Plattformen. Selbst wenn die Löschorgien auf ein Minimum begrenzt würden, gibt es weiterhin das shadow-banning und sehr wahrscheinlich in Zukunft weitere Methoden, die ähnlich unterschwellig arbeiten. Die AI muss selbstlernend seine Filter anpassen können, sonst taugt sie nichts. Man kann die nicht standardisieren und ein für alle Mal festlegen.
Wie die Spam-Filter zeigen, kann man die auch immer wieder umgehen. Der Judenhasser von heute plädiert auf seiner Webseite nicht mehr für Gaskammern, aber er macht drei runde Klammern um den (((Namen))) des Betroffenen. Und wie muss der Spam-Filter erst aufgebohrt werden, wenn die Islamisten Allerweltsworte als Code für ihre Aktivitäten nutzen. Wenn das Opfer ‘Katzen’ heißt, der Sprengstoffgürtel ‘Cornflakes’ und das töten heißt ‘frühstücken’. Das kann einige Wochen bis Monate dauern, bis sowas eingefangen ist und in der Zwischenzeit beklagen sich alle Katzenliebhaber und Cornflakes-Frühstücker dass ihre Mails und Kommentare auf dem Internet-Friedhof landen. Bei solchen Aktionen kann dann schon wieder einer der alten ‘Algorithmen’ in den Filter hinein rutschen, wenn es dem links-grünen Facebook-Mitarbeiter so beliebt.
Selbst wenn die AI in den Griff zu kriegen wäre (was utopisch ist), dann gäbe es immer noch die unbekannten, oder kaum bekannten Fehler in den Prozessoren, Computern und Betriebssystemen, die einen Hack ermöglichen. Es wäre sicher mal lustig zu sehen, wenn einer die Twitter oder Facebook Filter-Datenbank hackt und alles um 180 Grad umdreht. Dann wäre vielleicht nur noch der ‘Daily Stormer’ am Netz, jedes Bild mit einer Hakenkreuz-Fahne unterlegt und die Googler würden jeden einzelnen ihrer Server zur ‘Wartung’ abschalten 😀 😀 😀
Unter diesem Hinblick kann ich mich nur über die Technologie-Phantasten wundern, die mit Marien-anbetendem Blick auf die kurz bevor stehende ‘Energiewende’ oder den selbstfahrenden elektrischen LKW in <20 Jahren weisen. Die Wahrscheinlichkeit, dass Tesla in den nächsten Jahren pleite geht ist um Größenordnungen höher, als dass sie Weltmarktführer werden. Wenn die ‘Kulturbereicherung’ in Europa noch einige Jahre so weiter geht ist es auch wahrscheinlicher, dass wir in 20 Jahren wieder mit Holz heizen, anstatt mit Solarstrom. Das Thema AI, künstliche Intelligenz, steckt noch halbwegs in den Kinderschuhen. Zweifellos wird sich da in den nächsten 20 Jahren erhebliches tun. Wir sehen aber heute schon, was mit relativ mickrigen AI-System für Schindluder getrieben wird. Dem Missbrauch und der Willkür sind Tür und Tor geöffnet. Die Ethik-Probleme können wir nur sehr oberflächlich und juristisch lösen. Das tiefer liegende technische Problem universeller Systeme, die immer fehleranfällig sein werden, ist aus heutiger Sicht nicht lösbar.
###
Trotz des vielleicht gegenteiligen Eindrucks des ein oder anderen Lesers, ist das kein Artikel der Kategorie Weltuntergangs-Porno. Wenn ich bei McDoof mein happy meal auf einem Tablet bestelle, statt bei einem Mitarbeiter, werde ich nicht verhungern müssen, wenn die AI durch ideologische Programmierung nichts an weiße (oder braune) Männer verkauft. Wenn die AI im Kollisionssystem der S-Klasse lieber einen alten weißen (oder braunen) Mann überfährt, als eine schwarze (oder weiße) Frau, dann ist das zwar tragisch aber nicht weltbewegend. Doch die Einschränkung der Meinungsfreiheit wird katastrophale Auswirkungen haben, mit oder ohne AI. Ich wollte hier nur mal den Leuten den Zahn ziehen, die meinen mit AI lösen sich die Probleme der Menschheit in Wohlgefallen auf, oder dass die AI menschenfreundlich und gerecht sei. Nein, die AI ist genauso dumm und fies, wie der Mensch der sie programmiert oder die Filterdatenbank erstellt. Sie kann sogar noch dümmer und noch fieser als der Programmierer sein, und wir kriegen es meist nicht mal mit.
OK, schönen Feierabend noch.
[end of very long rant]
PS: Das Bild ist heute wieder von pixabay
Reblogged this on Nicht-Linke Blogs.
LikeLike
Excellent!
LikeLiked by 1 person
Hervorragender Artikel
– Teil I: The Gost in the Machine
– Teil II: Zauerlehrling & die Geister die er rief
Mal ein positives Beispiel für den Einsatz wäre Deep Learning für KI-basierte Übersetzung: https://www.deepl.com/translator
Steckt Google und Co locker in die Tasche.
LikeLiked by 1 person
Super Kommentar, und den translator hab ich gleich mal ausprobiert.
LikeLiked by 1 person