Tech-News

Archiv — 2022

← Tech-News — Aktuell

Leben mit Maschinen Ⅷ
Von HAL über »Battlestar Galactica« bis »Westworld« — Maschine gegen Mensch (und umgekehrt)

+

1968 lernten Millionen Kinogänger, was sie in Zukunft von technischen Entwicklungen zu erwarten hatten. Open the pod bay doors, HAL, sagte damals Dave (gespielt von Keir Dullea) im Film »2001: A Space Odyssey« zu dem ikonischen, rot leuchtenden Auge der Künstlichen Intelligenz HAL. Und die KI antwortete: I’m sorry, Dave. I’m afraid I can’t do that. Sie weigerte sich, einen Befehl auszuführen. Bis heute ist das Gefühl einer potenziellen Bedrohung, die von Computerhirnen ausgeht, geblieben.

Der Computer hat, aus seiner Sicht, einen guten Grund für seine Weigerung: I know that you and Frank were planning to disconnect me. And I’m afraid that’s something I cannot allow to happen. Klar, wer lässt sich schon gern abschalten? In einer Situation, in der die eigene Existenz bedroht ist, würde wohl jede*r von uns sich verteidigen. Notwehr nennt sich das – aber die Frage ist, ob Maschinen dazu imstande sein dürfen.

Der ganze Dialog lässt sich bei Wikiquote nachlesen, und bis heute ist das Szenario natürlich Fiktion. Immerhin hatte ja der Science-Fiction-Autor Isaac Asimov schon 1942 seine Three Laws of Robotics formuliert, die sinngemäß lauten: Ein Roboter darf erstens Menschen nicht schaden, er muss zweitens den Befehlen von Menschen gehorchen, wenn dies nicht dem ersten Gesetz widerspricht, und er muss drittens seine eigene Existenz schützen, wenn dies nicht den ersten beiden Gesetzen zuwiderläuft.

HAL hat eindeutig den Schutz seiner eigenen Existenz über das Gehorchen gestellt.

Ebenso wie die Cylons (deutsch: Zylonen) in der Neuauflage der Serie »Battlestar Galactica«, die einen Krieg gegen die Menschen anzetteln und auch gewinnen; die Serie setzt danach ein und folgt der Widerstandsbewegung; und wie in der Serie »Westworld« die extrem menschenähnlichen Androiden, Hosts genannt, die den menschlichen Besucher*innen des gleichnamigen Vergnügungsparks für alle denkbaren Wünsche (auch perverse, einschließlich Mordgelüste) zur Verfügung stehen – und sich allmählich immer brutaler gegen die Menschen auflehnen.

Vielleicht unter anderem aus dieser unbewussten Angst vor Maschinen rührt die Gewalt, die wiederum manche Menschen den heute bereits eingesetzten Robotern entgegenbringen. Schon 2018 berichtete das Hamburger Abenblatt, das die Lieferroboter einer estnischen Firma des öfteren mit Fußtritten attackiert würden – allerdings nicht in Deutschland, zumindest bis dahin nicht. Die Menschen in der Hansestadt testeten nur gelegentlich, ob die Maschinen ausweichen würde, wenn sie sich ihr in den Weg stellten. Auch mit den Modellen, die die Lebensmittel-Einzelhandelskette REWE seit diesem Jahr im Einsatz hat.

Andernorts leiden Roboter schon deutlich mehr; das Online-Magazin 1E9 zählt eine ganze Reihe von aggressiven Attacken auf und sucht nach Erklärungen. Die US-Philosophin Susan Schneider zum Beispiel kommt mit der These zu Wort, dass Angst eines der Motive sein könnte, zum Beispiel vor dem Verlust des Arbeitsplatzes. Und die Neurowissenschaftlerin Agnieszka Wykowska aus Italien sieht vor allem die Fremdheit der Maschine als Grund, die einen psychologischen Mechanismus der sozialen Ausgrenzung auslöse. Was zum Beispiel dazu führte, dass in einer Versuchsreihe in Japan Kinder einen Roboter quälten – aus Spaß und Neugier.

Andererseits geben manche Einsatzbereiche für Roboter auch durchaus Grund zur Besorgnis, nicht zuletzt die in Kriegsgebieten bereits eingesetzten bewaffneten Drohnen.

Zunehmen wird die Sorge mit Sicherheit, wenn ein Gesetzentwurf aus San Francisco doch noch Wirklichkeit wird: Dort wollte die Polizei Maschinen zur Tötung von Verbrechern einsetzen. Geplant war, Bomben-Räumroboter mit Waffen auszustatten. Der Vorstoß wurde nach massiver Kritik von Bürgern und Interessenverbänden zunächst zurückgenommen und auf Wiedervorlage gesetzt, wie The Verge berichtete. Ganz aus der Welt ist die Idee allerdings noch längst nicht.

Leben mit Maschinen Ⅶ
Vom selbstfahrenden Auto zur Kriegsdrohne — Autonome Maschinen

+

Bisher war’s eigentlich immer so gewesen: Mensch denkt und lenkt, Maschine führt Kommandos aus. Eine relativ neue Entwicklung im Spannungsfeld zwischen Mensch und Technik ist seit einer kurzen Weile dabei, dieses Paradigma umzudefinieren: Mensch erfindet Maschine, Maschine macht dann, was sie für richtig hält. Und – wie läuft das so?

August ’22: Erneut tödlicher Tesla-Unfall mit aktiviertem Autopiloten, Januar ’23: Wieder ein Tesla mit Fehlfunktion beim Autopilot-System, Mai ’23: Tesla rast unkontrolliert durch die City, und schließlich August ’23: Video zeigt, wie selbstfahrender Tesla ungebremst in Polizeiauto kracht.

Man könnte fast meinen, dass dieses System noch nicht so recht ausgereift ist. Die Firma selbst warnt denn auch, man solle sich keinesfalls vollständig auf den Autopiloten verlassen. Aber vermarktet die Autos weiterhin als »selbstfahrend«. Chef Musk selbst kündigt immer wieder vollmundig das Full Self-Driving an, aber der oben zuletzt verlinkte Artikel im österreichischen Standard schreibt zutreffend, es handele sich auch im Jahr 2023 noch immer um ein etwas besseres Fahrassistenzsystem.

Potenziell noch weitaus gefährlicher als verwirrte oder verirrte Autos sind allerdings Geräte, die einzig zu dem Zwecke gebaut wurden, Menschenleben auszulöschen.

Immer mehr Militärs, von den Supermächten bis hin zu Kleinstaaten setzen auf Drohnen und zunehmend autonomere Waffensysteme, heißt es in einer aktuellen Dokumentation des ZDF. Die Deutsche Gesellschaft für die Vereinten Nationen e. V. schrieb schon vor anderhalb Jahren: Autonome Waffensysteme: keine Regulierung in Sicht. Und weiter: Zwar werden Angriffe in der Regel noch durch einen menschlichen Befehl ausgelöst, es ist jedoch nur eine Frage der Zeit, bis Maschinen eigenständig entscheiden, wann sie wen angreifen. Möglicherweise sei das sogar 2020 in Libyen schon passiert.

Das International Committee of the Red Cross (ICRC) kommt daher zu der Empfehlung, that States adopt new legally binding rules. Das Komitee begründet sie so: After initial activation or launch by a person, an autonomous weapon system self-initiates or triggers a strike in response to information from the environment received through sensors and on the basis of a generalized target profile. (…) This loss of human control and judgement in the use of force and weapons raises serious concerns from humanitarian, legal and ethical perspectives. Kurz zusammengefasst: Nach der Aktivierung sucht sich das Waffensystem sein Ziel mittels Sensordaten und beschießt es auf der Basis eines gerenellen Zielprofils. Dabei wirft der Verlust der menschlichen Kontrolle erhebliche Bedenken aus humanitärer, rechtlicher und ethischer Sicht auf.

Auch im seit bald schon zwei Jahren andauernden Krieg in der Ukraine werden autonome Systeme eingesetzt; heise online hat eine Analyse veröffentlicht, die zeigt: (…) selbst die modernsten autonom agierenden Waffensysteme [sind] derzeit kaum in der Lage, Zivilisten und Kombattanten zu unterscheiden. Menschliche Operatoren müssen ihre Entscheidungen häufig anhand verpixelter Aufnahmen und einiger Metadaten treffen. In Kampfsituationen bleiben ihnen dazu oft nur wenige Sekunden Zeit, wodurch das Risiko tödlicher Fehlentscheidungen steigt.

Trotzdem gibt es offenbar längst Bestrebungen, das »Human-out-of-Loop-Konzept« (HOOL) umzusetzen, bei dem menschlicher Eingriff weder vorgesehen, noch möglich ist, zumindest [i]n Situationen mit extrem hohem Tempo (…) in denen der Mensch nicht mehr in der Lage ist, ein fundiertes Urteil zu fällen, wie die Wikipedia schreibt.

Aber ansonsten läuft’s doch gut mit der Maschinenautonomie, oder?

Naja, Liefergigant Amazon arbeitet kontinuierlich daran, lästige Arbeitskräfte immer weiter zu ersetzen, was angesichts der miserablen Arbeitsbedingungen wahrscheinlich eine ebenso gute wie schlechte Nachricht ist. Bei der Zubereitung von Fastfood kommen immer häufiger vollautomatische Roboterköche zum Einsatz – vielleicht auch eine eher positive Entwicklung; wenngleich der eigentlich beste Weg wohl wäre, auf diese Art von »Ernährung« ganz zu verzichten.

Und autonome Systeme sind – zumindest noch – weit davon entfernt, in irgendeiner Art von Alltag klarzukommen. Das liegt nicht zuletzt daran, dass es ihnen extrem schwer fällt zu sehen, wie die Süddeutsche Zeitung vor drei Jahren berichtete; angesichts solcher Unwägbarkeiten ist es zumindest nicht ganz leicht, die Meldung Autonomer Roboter erledigt komplizierte Operation besser als Ärzte, die die Website Forschung und Wissen vor knapp zwei Jahren veröffentlichte, mit einem eindeutigen ❗ oder 👏 zu versehen.

Leben mit Maschinen Ⅵ:
Vom Dampfradio zum »Smart Home« — Maschinen im Zuhause

+

Die Älteren werden sich vielleicht noch erinnern: »Das bisschen Haushalt« sang Johanna von Koczian 1977 als satirische Kritik am männlichen Blick auf die überkommene, traditionelle Frauenrolle. Eine Zeitreisende aus dem 19. Jahrhundert hätte den Songtitel aber womöglich ganz und gar unironisch beim Wort genommen – denn seit dem Beginn des vergangenen Centenniums hat eine große Zahl elektrischer Helferlein den Weg in menschliche Wohnungen gefunden. Und der Trend ist ungebrochen.

Los ging’s in Deutschland nach dem Ende des Ersten Weltkriegs, als die ersten großen Dampfkraftwerke günstigen Strom in die Haushalte zu liefern begannen; elektrische Bügeleisen und Nähmaschinen traten damals als erste stromgetriebene Maschinen in privaten Häusern und Wohnungen ihren Siegeszug an. Laut Wikipedia ist es nicht zuletzt den Nazis zu verdanken, dass bald darauf auch Radios (Volksempfänger) zum guten Ton und in die gute Stube gehörten – schließlich war das Gerät außerordentlich gut als Propaganda-Instrument zu gebrauchen.

Nach Kriegs- und Naziregime-Ende, Währungsreform und Wirtschaftswunder sanken die Strompreise weiter, wodurch sich in der Folge weitere Elektrogeräte verbreiteten: Herd, Wasch- und Geschirrspülmaschine, Kühlschrank, Staubsauger und natürlich der – erstmal nur in schwarz-weiß empfangende - Fernseher waren, neben vielen anderen, bald nicht mehr aus dem Zuhause wegzudenken.

Mitte der Fünfzigerjahre kamen zum Beispiel Kaffeemaschine, Tiefkühltruhe und Musiktruhe dazu, zehn Jahre später die Stereoanlage, in den Siebzigern die Mikrowelle, und all diese Geräte wurden beständig weiterentwickelt. Waren beispielsweise Fernseher bis zum Jahrtausendwechsel noch klobige Klötze mit gewaltigen Bildröhren, hat sich seitdem der Flachbildschirm durchgesetzt.

Immer wieder erlebten Technologien eine Blüte, manchmal nur kurzlebig, manchmal auch trotz Schwächen gegenüber Alternativen: Der »Formatkrieg« der Videorekorder zwischen VCR, VHS, Video 2000 und Betamax in den ’70er- und ’80er-Jahren ist nur ein Beispiel dafür, wie ein eigentlich unterlegenes System trotzdem die größte Verbreitung erlangen konnte.

Viele Ideen vor allem aus dem Bereich der Unterhaltungselektronik sind längst vergessen; DAT-Casetten, MiniDiscs, Kasettenrekorder und ihr tragbarer Verwandter, der Walkman® – fast vom Erdboden verschwunden. Manches kommt wieder, wie zum Beispiel Vinyl, anderes ist sehr wahrscheinlich auch schon bald vergessen, wie DVDs oder CDs (was angesichts der Tatsache, dass das Material eigentlich in den Sondermüll, mindestens aber in die Wertstofftonne gehört, vielleicht auch ganz gut ist.)

Und ständig werden neue Dinge erfunden. Seitdem es smarte Telefone gibt, ziehen auch andere Bereiche nach: Uhren, Fernseher, Autos, Häuser, selbst ganze Städte bekommen das »Smart«-Label aufgeklebt.

In diesem Zusammenhang bedeutet der Zusatz meist vor allem zwei Dinge: Das Gerät ist mit künstlicher »Intelligenz« ausgestattet, oft auch mit Sprachsteuerung, und es ist vernetzt. Darunter fallen auch zahlreiche Erfindungen aus dem sogenannten Ubiquitous Computing oder Internet der Dinge (kurz IoT für das englische Internet of Things).

Dabei gilt, wie leider immer: Wo Fortschritt ist, ist auch Versuchung. Puppen und anderes Spielzeug übertragen Daten aus dem Kinderzimmer auf Server irgendwo in der Welt, Internet-TV-Geräte wissen alles über unsere Sehgewohnheiten und Vorlieben, Alexa und Siri speichern unsere Stimmen im Netz, Staubsauger senden Bilder von Menschen auf der Toilette ins WWW – die Liste könnte noch eine Weile so weitergehen.

Wo die früheren Gerätegenerationen schlimmstenfalls für mehr Faulheit und Müllberge sorgten (oder die Ozonschicht aufrissen, was mit dem Montreal-Protokoll eigentlich in den Griff bekommen worden war), können also die allgegenwärtigen, oft unscheinbaren Computer des Alltags eine deutliche Bedrohung für Privat- und Intimsphäre bedeuten.

Und, wie es mitterweile genügend Filme demonstriert haben: zu verbrecherischen Zwecken gehackt werden. Selbstfahrende Autos, die ferngesteuert über die Klippe in den Abgrund stürzen, Smart Homes, in die einzubrechen es jetzt nur noch eines kleinen Programms aus dem Darknet bedarf, Erpressung mit kompromittierenden Fotos, Videos oder Audiodateien, Identitätsdiebstahl – der kriminellen Phantasie sind kaum noch Grenzen gesetzt.

Kleiner Tipp also: Weniger ist mehr. Weniger smart, mehr sicher. Und: Wo es nicht anders geht, sollte man zumindest die Mühe auf sich nehmen, sich durch die Sicherheitseinstellungen zu klicken und alles auszuschalten, was nicht wirklich gebraucht wird.

Ja, auch auf dem Smartphone. Dazu gibt es zum Beispiel hier und hier brauchbare Hinweise.

Leben mit Maschinen Ⅴ:
Von »Opas Pfleger*in« zu »Omas Carebot« — Maschinen in der Altenpflege

+

Bye-bye Boomer: Mehr als ein Fünftel aller Deutschen ist über 65 Jahre alt, viele von ihnen werden demnächst ihre Erwerbstätigkeit beenden. Und schon jetzt sind über 2,7 Millionen Menschen im Land über 85 Jahre alt. Gleichzeitig geht die Zahl der Beschäftigten in der Pflege zurück. Sind Roboter die Antwort auf dieses Problem?

Die Zahlen oben stammen von einer Übersichtsseite des Statistischen Bundesamts; in einem anderen Beitrag prognostiziert das Amt: Bis 2035 wird die Zahl der Menschen ab 67 Jahre um 22 % steigen.

Auch das Frankfurter Zukunftsinstitut, 1998 von Matthias Horx gegründet, schreibt auf seiner Website, dass in fünfzehn Jahren die Anzahl von pflegebedürftigen Menschen um die Hälfte ansteigen werde, und fährt fort: Was heute noch wie Zukunftsmusik klingt und heftige ethische Debatten hervorruft, wird dann Realität sein: der Einsatz von Robotern in der Altenpflege.

Im Bayerischen Rundfunk gab’s schon kurz vor Corona einen Beitrag, dessen Tenor zunächst recht positiv ist, in dem der Leiter des dort vorgestellten Pilotprojekts, Professor Sami Haddadin von der TU München, aber auch sagt: (…) die kognitiven, sozialen Fähigkeiten, ich glaub’, darüber müssen wir gar nicht reden (…) jede Maschine ist absolut nicht in der Lage, das zu ermöglichen (…)

In sofern scheint also die Debatte um die »menschlichen« Qualitäten solcher Roboter in der Altenpflege vielleicht sogar müßig, und im Begleittext zu dem Video heißt es denn auch: Medikamente geben, aus dem Sessel helfen, Waschen und Anziehen: In Zukunft könnten Roboter diese Aufgaben von Altenpflegern übernehmen. Pflegekräfte hätten dann wieder Zeit für eine Sinn stiftende Begleitung der Senioren.

Das klingt erst einmal gut. Aber die Entwicklung macht – fast möchte man sagen: natürlich – hier nicht halt. In einem Bericht der Tagesschau von 2020 heißt es: (…) Wie verhalten sich die Menschen? Was erzählen sie? Wie interagieren sie miteinander? Die Roboter sammeln Daten, erkennen Verhaltensmuster, damit Algorithmen diese interpretieren und das Verhalten gegenüber den Patienten anpassen können. Das wirft Fragen auf. (…)

Der Datenschutz und die Ethik sind zwei wichtige Aspekte, aber wie sieht es mit der psychologischen Seite aus? Selbst wenn die Roboter »nur« Hilfsarbeiten verrichten, hat ihre Anwesenheit doch Einfluss auf die Betreuten, oder?

Eine Patientin streichelt eine wie eine flauschige Robbe gestaltete Maschine und sagt: Ich weiß, du hast mich lieb und ich hab dich lieb – so gesehen in diesem Video des Wiener Gesundheitsverbunds vom August 2023 aus dessen Einrichtung im Bezirk Rudolfsheim-Fünfhaus. »Sopherl« nennen die Mitarbeiter*innen den »therapeutischen Roboter«, eingesetzt wird er in Pflegeheimen, Krankenhäusern, Tageszentren, der Behindertenbetreuung und Sterbebegleitung. Und unter dem weißen Robbenfell steckt eine lernende KI: (…) umso mehr man mit ihr arbeitet, entwickelt sie eine eigene Persönlichkeit. Sie erkennt auch ihren Namen (…) und reagiert dann auch darauf. (…)

Und auch der Pflegeroboter Pepper sorgt für Abwechslung, heißt es in einem Artikel aus dem Wissenschaftsverlag Elsevier. Ob in der Kinderklinik, im Krankenhaus oder in einer Pflegeeinrichtung. Pepper ist vielseitig einsetzbar, singt, tanzt und verbreitet gute Laune.

Daher warnte der Ethikrat schon 2020 gegenüber dem Deutschlandfunk: Robotik könne von großem Nutzen sein, aber nicht als Ersatz für menschliche Zuwendung.

Keine große Überraschung: China ist längst deutlich weiter als Deutschland, wie der Weltspiegel vor zwei Jahren berichtete. Senioren werden zentral überwacht, Infrarotsensoren schlagen an, wenn im Laufe von 24 Stunden keine Bewegung registriert wird, Smartwatches, verbunden mit einem Miniroboter, messen verschiedene medizinische Werte. Datenschützers schlaflose Nächte.

Und auch im technikaffinen Japan sind Roboter schon länger im Pflege-Dienst; aber die Zeitschrift JAPAN­DIGEST gab 2021 zu bedenken: Pflege braucht Menschlichkeit. Kann das menschliche Gesicht einer Maschine dieser Anforderung überhaupt gerecht werden und kann zu ihr je eine Beziehung aufgebaut werden, die in ihrer Tiefe an eine zwischenmenschliche heranreicht?

Und die Süddeutsche Zeitung zitierte im Februar ’23 die Ethik- und Anthropologie-Professorin Constanze Giese: Wenn Technik Pflege nicht ergänze, sondern ersetze, könne pflegebedürftigen Menschen der letzte menschliche Kontakt verloren gehen.

Das stellt auch die Website MediRocket, die medizinisches Fachpersonal vermittelt, fest: Roboter ersetzen nicht die menschliche Interaktion. Wenn sie falsch eingesetzt werden, kann es zu sozialer Isolation kommen. Und sie fügt noch hinzu: Einen Pflegeroboter zu kaufen, ist eine große Investition, denn die Maschinen und auch deren Wartung sind teuer. Dadurch kann dann Geld an anderen Ecken fehlen – zum Beispiel, um weitere Pflegekräfte einzustellen.

Anmerkung: Die Videos in diesem Text stammen von YouTube, sind aber über Invidious mit dem zusätzlichen URL-Parameter &local=true verlinkt und dadurch werbe- und trackingfrei.

Kurzer Einschub:

+

Wir unterbrechen unsere aktuelle Serie »Leben mit Maschinen« für eine längst überfällige Meldung. Nämlich die, dass sich KI konstant und in rasender Geschwindigkeit weiterentwickelt.

Vergessen sind die apokalytischen Mahnungen, künstliche Intelligenz werde schon bald den Untergang der Menschheit herbeiführen, vergessen auch die Forderung nach einer Entwicklungspause.

Hier also die Meldung: Mittlerweile kann ChatGTP sprechen. Vor gut zwei Wochen unterhielt sich Jakob Steinschaden, CEO der News-Website Trending Topics, mit dem Automaten, und der klang, man muss es einfach so sagen, äußerst überzeugend und natürlich; abgesehen vielleicht von einem leichten amerikanischen Akzent im Deutschen, einigen seltsam gesetzten Pausen und hier und da ungewöhnlichen Betonungen.

Dazu passt, dass schon im April dieses Jahres in einem TED Talk Tom Graham, Chef von Metaphysic, und TED-Host Chris Anderson demonstrierten, wie nahezu perfekt inzwischen Deepfakes sogar live funktionieren.

Für »normale Menschen« wird es schon sehr bald völlig unmöglich werden, zwischen »echt« und »künstlich«, zwischen »real« und »Fake« zu unterscheiden.

Leben mit Maschinen Ⅳ:
Von »Herr Ober!« zu »R2D2 wünscht guten Appetit!« — Maschinen im Service

+

Weiter geht’s mit unseren Betrachtungen über die Veränderungen, die unser menschliches Dasein durch die wachsende Zahl von Automaten, Robotern, Computern und Software erfährt. Diesmal im Fokus: Wie sieht die Zukunft von Restaurant- und Cafébesuchen aus? Und wo ist diese Zukunft schon Gegenwart?

Wer die leicht versnobte, immer akkurate und gepflegte Nonchalance liebt, wie sie vor allem in Wiener Cafés lange Tradition hat, muss sich auf was gefasst machen. Auch wer die gutgelaunte, ärmelhochgekrempelte Freundlichkeit studentischer Mindestlohn-Jobber in Bratkartoffel-Kneipen schätzt, wird ihr wohl bald schon hinterhertrauern. Und selbst jene, die an der professionellen Distanz von erfahrenen Servierer*innen in hochklassigeren Etablissements ihre Freude haben, dürften sich umstellen müssen.

Denn die Branche hat ein Problem.

Das Bayerische Zentrum für Tourismus (BZT) schrieb im Januar: Das Gastgewerbe steht aktuell vor diversen Herausforderungen – eine der größten ist der Arbeits- und Fachkräftemangel. Bereits vor der Corona-Pandemie hatte die Branche mit sinkenden Mitarbeiterzahlen zu kämpfen, allerdings hat die Abwanderung in andere Branchen während der Corona-Lockdowns die Situation verschärft. Besonders stark leidet die Gastronomie, wo ausgebildete Fachkräfte fehlen (…)

In Deutschland gab es im August 2021 laut der Website ktchnrebel.com 20 686 offene Stellen in der Gastronomie und 7 678 offene Stellen in der Hotellerie. Und zwei Jahre später – also kürzlich – ergab eine Studie des Instituts der deutschen Wirtschaft (IW): Im Bereich der Hotellerie können aktuell 42,8 Prozent der offenen Stellen nicht besetzt werden. Am zweitstärksten betroffen ist der Bereich Gastronomie mit 40,1 Prozent, gefolgt vom Bereich Speisenzubereitung mit 36,6 Prozent.

Des Dilemmas Lösung heißt, zumindest aus Sicht vieler Gastronomen: Serviceroboter.

Die oben schon verlinkte Website ktchnrebel.com schrieb vor zweieinhalb Jahren: Anstatt Ruhezeiten brauchen Roboter nur einige Stunden Ladezeit am Stromnetz, bevor sie wieder einsatzfähig sind. Durch Krankheit, Urlaub oder Kündigung fallen die Maschinen nie aus, höchstens eine Wartung muss miteinberechnet werden. Im Idealfall löst ein Roboter so mehrere menschliche Fachkräfte ab beziehungsweise steigert die Produktivität verschiedener Abläufe, Bots brauchen keine Anlernzeit.

Nun könnte man der Branche natürlich auch raten, attraktivere Löhne zu zahlen, denn neben Pandemien, die ja nicht sooo häufig auftreten, sind prekäre Arbeitsverhältnisse ein zentraler Grund der Abwanderung. Aber Prozesse, die einmal begonnen haben, nehmen meist ihren Lauf, und so hat das asiatische Restaurant Momoda im österreichischen Graz schon seit einer Weile einen Roboter in Betrieb, der die Getränke an den Tisch liefert. Passend zum leicht futuristischen Ambiente mit einem Flugzeugrumpf als Blickfang. Und seit 2022 gehört auch in einem Kölner Sushi-Lokal ein Roboter namens Miaomiao zum Servicepersonal, fährt autonom zu den Tischen, wie heise berichtet.

Und apropos, Asien ist da ohnehin schon weiter. Die Autorin Shoko Bethke berichtete vor einem Monat in der taz von Robotern in japanischen Restaurants. Die sehen auf jeden Fall lustiger aus als das – an den Sechzigerjahre-Charme ausdünstenden Bremshey-Servierwagen »Dinett« erinnernde – Modell aus Graz. Und sie geben sogar Töne von sich. Zielstrebig und mit immer der gleichen Melodie rollt der Roboter unentwegt durch die Gänge, heißt es in dem Text, auf dem Rücken leuchtet die angestrebte Tischnummer. Am Ziel bleibt er stehen, richtet den ›Blick‹ auf den Tisch und bittet die Gäste, ihm die Gerichte abzunehmen und dann den ›Essen-angenommen‹-Knopf zu drücken.

So possierlich das vielleicht erstmal klingen mag – Shoko Bethke schreibt auch: Mit der flächendeckenden Einführung der Roboter in gewöhnlichen Restaurants reduziert sich das menschliche Miteinander beim Auswärtsessen auf ein Minimum. Denn das ist der Preis, den Gastrogäste für die Automatisierung zahlen: Das Persönliche geht flöten.

Immerhin hat man ja noch die anderen, mit denen zusammen man Essen geht, mögen manche argumentieren, und das stimmt ja auch; die meisten Gastronomie-Besuche finden wohl immer noch zu zweit oder mehreren statt. Aber die Roboter machen nicht beim Bedienen halt. Ein paar Praxisbeispiele aus dem oben verlinkten Artikel des BZT: Im Café X in San Francisco bereitet ein Roboterarm Kaffee in einer voll automatisierten Kaffeebar zu. Bei Creator in San Francisco werden Burger voll automatisiert von einem Roboter gebraten und belegt. In Paris eröffnete 2021 mit Pizza Pazzi ein vollautomatisiertes Pizza-Restaurant, in dem ein Roboter die Pizzen belegt, in den Ofen schiebt, schneidet und abholfertig verpackt – alles direkt vor den Augen der Kund*innen (…) Die Liste geht noch eine Weile so weiter.

Aus dem definitiv nicht mehr zeitgemäßen, sexistischen und gar ansatzweise misogynistischen »Futtern wie bei Muttern« könnte also demnächst ein »Mampfen wie beim Menschen« werden, das dann auf Essen hinweist, das noch in Handarbeit gefertigt und auf dem Fuß-Weg an den Tisch gebracht wird.

Na Mahlzeit.

Leben mit Maschinen Ⅲ:
Vom Landarzt zum OP-Roboter — Maschinen in der Medizintechnik

+

Im dritten Teil unserer Serie über den Einfluss der vielen technischen Entwicklungen auf das menschliche Dasein geht es um die massiven Um- und Durchbrüche in der Heilkunst. Sie betreffen einerseits die Diagnose und Behandlung von Krankheiten, andererseits aber auch den Kontakt zwischen Heilenden und Patient*innen.

Wenn mesopotamische Heilkundige des 3. Jahrtausend vor Christus, Schamanen aus der Mongolei, Medizinmänner der nordamerikanischen Indigenen, jemand wie Paracelsus oder auch Hildegard von Bingen sehen könnten, was die moderne Medizin zu leisten vermag, wären sie sehr wahrscheinlich sprachlos.

Vielleicht kämen sie zu dem Schluss, es geschehe Übersinnliches, denn immerhin ist ja wahr, was Arthur C. Clarke 1973 in seinem dritten Gesetz postulierte: Any sufficiently advanced technology is indistinguishable from magic, jede ausreichend fortgeschrittene Technologie ist von Magie nicht zu unterscheiden.

Ausreichend fortgeschritten dürfte es wohl sein, dass es gerade kürzlich gelungen ist, ein komplettes Auge zu transplantieren; dass schon seit den 1960er-Jahren, zunehmend erfolgreich aber seit den Achtzigern Herzen transplantiert werden; dass 2001 die vollständige DNA-Sequenzierung des menschlichen Genoms gelang, also des Bauplans menschlicher Organismen, und 2012 erstmals die CRISPR/Cas-Methode zur Bearbeitung von Genen vorgestellt wurde.

Gelähmte können wieder gehen, Blinde wieder sehen, Roboter in Operationssälen sind längst Alltag in der Medizin, und der humanoide Pepper wird nach wie vor als potenzieller Ersatz für Pflegekräfte beworben. Auch vom DRK.

Und wenn der Gedanke, dass Opa und Oma nicht mehr von Menschen, sondern von Maschinen versorgt werden, auch einen sehr schalen und traurigen Beigeschmack hat, stimmt doch zweierlei: Es gibt immer weniger Pflegepersonal und immer mehr Senioren. Oder besser gesagt: Es gibt immer weniger Anreize für Menschen, einen Beruf in der Pflege zu ergreifen; das Klatschen vom Balkon aus der Corona-Lockdown-Zeit ruft inzwischen unter Pflegenden nur noch verächtliches Ausschnauben hervor. Sie fänden es wesentlich attraktiver, angemessen bezahlt und nach vernünftigen Dienstplänen eingeteilt zu werden.

Es geht nämlich, oh Wunder, auch im medizinisch-pflegerischen Bereich immer mehr ums Geld. Die meisten Einrichtungen sind privatisiert und daher gewinnorientierte Betriebe.

Ähnliches spielt sich auch im weiten Feld niedergelassener Arztpraxen ab – ihre Wirtschaftlichkeit steht angesichts immer geringer werdender Krankenkassen-Zahlungen, steigender Energiekosten, steigender Personalkosten, steigender Kosten für Labormaterialien und für Praxisbedarf nicht selten vor dem Kollaps. Anfang Oktober streikten viele Praxen und mahnten auch einen noch relativ neuen Trend an: Zunehmend kauften Finanzinvestoren Praxen auf und trimmen sie dann als Ketten auf Gewinn, heißt es in einem Bericht der Tagesschau.

Und noch eine weitere »Sparmaßnahme« verändert zunehmend das Verhältnis zwischen Praxen, Patient*innen und Ärzt*innen: Immer öfter geht führt Weg zum Termin nicht mehr übers Telefon, sondern über Doctolib. Das Portal verwaltet für rund 80 Millionen Europäer die Daten, darunter 14 Millionen Deutsche. Leider ist keine Online-Software wirklich sicher, und so überrascht es nicht, dass auch Doctolib gehackt wurde, Daten beim US-Konzern Amazon ablegte, an Facebook und Outbrain weitergegeben hat, gegen Patientengemeimnis und Datenschutz verstößt; und all das sogar mit den Daten von Patienten, die Doctolib gar nicht nutzen – wer zynisch ist, mag sagen: das Übliche halt. Nur eben mit Daten, die grundsätzlich als besonders heikel und schützenswert angesehen werden. Und das zu recht.

Der Verein Digitalcourage hat eine FAQ-Seite eingerichtet, die Betroffenen bei vielen Fragen zu und Problemen mit Doctolib und Ärzt*innen Unterstützung bietet.

Leben mit Maschinen Ⅱ:
Vom Callcenter zur KI — Maschinen im Kundenkontakt

+

Ein Teilaspekt des Lebens mit Maschinen, unseres aktuellen Serienthemas, ist der Kontakt mit Kunden. Einst, in grauer Vorzeit, waren es tatsächlich mal Firmenmitarbeiter*innen, die ans Telefon gingen, wenn Kund*innen mit ihren Problemen, Fragen oder ihrer Kritik anriefen. Dann entschieden sich zumindest größere Firmen, das sei zu teuer, zu unbequem, zu kundenfreundlich. Sie »outsourcten« das Problem.

Call-Center hieß das Zauberwort (mittlerweile zu Callcenter eingedeutscht), mit dem unangenehme Kundenkontakte aus dem Tagesgeschäft entfernt und ausgelagert wurden. Nun gut, es gibt auch eine positive Definition: Das Ziel eines Callcenters ist eine möglichst hohe Erreichbarkeit zu gewährleisten, Kunden bestmöglich zu beraten und die Kundenzufriedenheit somit zu steigern. Tatsächlich sind die Erfahrungen mit solchen »Customer-Care-Centers« aber zumindest durchwachsen. Egal, ob es sich um sogenannte »Inhouse-Callcenter« handelt, also solche, die von der Firma selbst betrieben werden, oder externe Dienstleister.

Noch vor zehn Jahren schrieb das Manager Magazin: [M]it Telefonauskünften und fernmündlichem Marketing verdient die Call-Center-Branche noch immer Milliarden. Und nach wie vor läuft das Geschäft gut – aber es wandelt sich gerade fundamental. Künstliche Intelligenz hat auch hier Einzug gehalten.

Zunächst einmal werden KI-System mittlerweile eingesetzt, um Kundengespräche auszuwerten. Mensch spricht mit Mensch, aber Maschine hört mit: Eine aktuelle Recherche des Bayerischen Rundfunks hat gezeigt, dass die Computer zur Emotionserkennung genutzt werden. Datenschützer kritisieren das, schreibt der Sender. Zwar wird vorab häufig abgefragt, ob Kund*innen mit der Aufzeichnung des Gesprächs einverstanden sind, allerdings meist vage formuliert zur Prüfung und Verbesserung unserer Servicequalität. Und: Selbst, wenn Kunden der Aufzeichnung widersprechen, werden Emotionen ausgewertet.

Wie in so vielen Bereichen der Digitalen Revolution ist auch hier die Rechtslage noch nicht geklärt; immerhin ist eine Debatte im Gange, der europäische Datenschutzbeauftragte Wojciech Wiewiórowski bezeichnet den KI-Einsatz zur Emotionserkennung als äußerst unerwünscht, der Grünen-Europaabgeordnete Sergey Lagodinsky als pseudowissenschaftlich, und er sagt: Jeder Mensch hat das Recht auf Innenleben und darauf, seine Emotionen nicht zu teilen.

Unterdessen aber geht die Entwicklung munter voran: In einem Artikel aus dem Jahr 2020 schrieb das Wirtschaftsmagazin Forbes, dank der massiven Verbreitung von Smartphones seit 2007 und theoretisch unendlich verfügbarer, Cloud-gestützter Rechenleistung seien sowohl die Erwartung an den Kundenservice, als auch die Einsetzbarkeit von KI massiv gewachsen. KI-gestützte Konversationsagenten zum Beispiel werden bis 2022 voraussichtlich 20 % aller Kundenanfragen bearbeiten. Als ein Beispiel nennt der Artikel den Gesundheitsversicherer Humana, der mit Unterstützung von IBM und KI-Experten ein System einsetzt, das grundsätzliche Kundenfragen völlig ohne menschliche Interaktion beantworten kann. IBMs Software für das Verständnis natürlicher Sprache, NLU (natural language understanding), das sieben Sprach- und zwei akustische Modelle verwendet, übersetzt jetzt über 90 % der gesprochenen Sätze, die es von Kunden ›hört‹.

Auf der Ebene des geschriebenen Wortes sind Chatbots längst allgegenwärtig, die selbstlernend Kundenanfragen beantworten, wie das Handelsblatt schon 2019 berichtete; und nachdem »Duplex« vor fünf Jahren die Besucher der Google/IO-Konferenz mit einem Reservierungsanruf bei einem Restaurant beeindruckte, werden die Einsatzmöglichkeiten von KI-gestützter synthetischer Sprache stetig erweitert. Das Magazin Futurezone hat schon 2018 ein paar Tips veröffentlicht, wie sich Sprach-Roboter enttarnen lassen. Bei der gegenwärtig rasanten Entwicklung ist es allerdings nicht ausgeschlossen, dass auch diese bald hinfällig sind. Und wir (»Menschen aus Fleisch und Blut«) nicht mehr werden unterscheiden können, ob wir uns gerade mit einer anderen biologischen Einheit unterhalten – oder einer aus Bits und Bytes.

Vielen Menschen wird das vermutlich auch recht egal sein. Mit Maschinen zu sprechen, ist seit Alexa, Siri und Co. ohnehin schon fast selbstverständlich geworden.

Hier sei ausnahmsweise mal ein Filmtipp gestattet: Ebenso unterhaltsam wie bedenkenswert beleuchtet »Her« von Spike Jonze mit Joaquin Phoenix in der Hauptrolle und Scarlett Johansson als Computerstimme das Thema.

Leben mit Maschinen Ⅰ:
Von den Webern zu den Autobauern – Maschinen in der Produktion

+

In der Einleitung zu unserer neuen Serie hatten wir festgestellt, dass die Nutzung von Steinkeilen als Werkzeug drei bis fast dreieinhalb Millionen Jahre zurückreicht; heute bringen wir im Schnelldurchlauf einige Jahrmillionen hinter uns und landen schließlich im neunzehnten und frühen zwanzigsten Jahrhundert.

Der nächste große Schritt in der menschlichen Entwicklung war geprägt von der Entdeckung des Feuers – oder genauer gesagt: von der Fertigkeit, selbst Feuer zu entfachen und zu kontrollieren. Die Wikipedia sagt: Die ältesten gesicherten Feuerstellen, die zweifelsfrei durch Menschen (Homo erectus) angelegt wurden, stammen aus der Wonderwerk-Höhle in Südafrika und sind rund eine Million Jahre alt.

Für die kulturelle Entwicklung der Menschheit sind natürlich auch die Künste wichtig; erste Höhlenmalereien datieren nach gegenwärtigem Stand rund 35.000 Jahre zurück, teils auch mit Anzeichen für kultischen Tänze. Zu den wohl beeindruckendsten und auch ältesten Fundstellen zählt die Höhle von Lascaux.

Ein weiterer zentraler Entwicklungsschritt – auch im Hinblick auf unser eigentliches Thema, die Nutzung von Maschinen – war dann vor rund 7000 Jahren die Entwicklung des Rades. Laut Wikipedia war dabei der indische Subkontinent federführend: Das drehbar befestigte Rad, also ›unendlich‹ drehbar um eine Achse, konnte mit Steinwerkzeugen angefertigt werden. Als Erste wendeten anscheinend im 5. Jahrtausend v. Chr. Töpfer am Indus dieses Prinzip bei der Keramikherstellung als Töpferscheiben an.

Als dann schließlich vor etwa 5000 Jahren erstmals Eisen zur Werkzeugherstellung benutzt wurde, waren alle Grundlagen geschaffen für das, was sich später Industrielle Revolution nennen sollte.

Ganz grundsätzlich wird mit diesem Begriff der Übergang von der Agrargesellschaft in die Industriegesellschaft bezeichnet, oder noch stärker vereinfacht, vom Bauern- zum Arbeiterstaat. (Yup, pun intended.)

Begonnen hat dieser vielleicht größte gesellschaftliche Umbruch in der Menschheitsgeschichte in der zweiten Hälfte des 18. Jahrhunderts; erst im 19. Jahrhundert allerdings nahm die Industrialisierung richtig Fahrt auf, zunächst in England, dann in Westeuropa und den USA, und schließlich gegen Ende des Centenniums auch in Japan, dem restlichen Europa und Asien.

Ohne den Erfinder James Hargreaves wäre vielleicht alles anders gekommen; er entwickelte 1764 die Spinnmaschine »Spinning Jenny«, und nach einer Reihe von Weiterentwicklungen war schließlich, wie die Wikipedia schreibt, das Ergebnis, dass ein Spinner zu Beginn des 19. Jahrhunderts soviel Garn erzeugen konnte wie 200 Arbeiter vor der Erfindung der ›Jenny‹. 1784 legte dann der Londoner Pfarrer Edmond Cartwright mit dem mechanischen Webstuhl nach, der zwar ein halbes Jahrhundert lang erbittert bekämpft wurde, bis hin zum Niederbrennen von Fabriken, sich aber letztlich doch durchsetzte.

Mit dem Ergebnis, dass sich das Leben vieler Menschen massiv änderte. Die Arbeitsbedingungen waren seinerzeit so hart, dass William Blake für die überall neu entstehenden Fabriken den Begriff »dark Satanic mills« prägte. In jener Zeit vor dem Entstehen von Gewerkschaften waren die Arbeiter der Willkür der Fabrikbesitzer nahezu schutzlos ausgeliefert. Effizienz und maximalen Ausnutzung der Produktionskapazitäten waren die einzigen Regeln, [a]ls Druckmittel dienten Strafen, Lohnabzüge gemäß Bußgeldkatalog der Fabrikordnung, bei Kindern auch die körperliche Züchtigung, heißt es in dem oben verlinkten Wikipedia-Artikel. Nicht allzu anders wird es auch in den ab den 1890er-Jahren entstehenden Autofabriken ausgesehen haben.

Nicht zuletzt auch deswegen wurden dann während der Märzrevolution 1848/49 erste Gewerkschaften gegründet, die es bis zum Ende des Zweiten Weltkriegs immerhin schafften, die Arbeitszeit von teils über 16 Stunden am Tag auf 48 Wochenstunden (6 × 8) herunterzuverhandeln. Zwischen den Fünfziger- und Siebzigerjahren des 20. Jahrhunderts wurde dann in Deutschland – unter anderem mit Hilfe des Slogans »Samstags gehört Vati mir« – nach und nach die 40-Stunden-Fünftagewoche eingeführt.

Auch in den nächsten Folgen werden wir sicherlich noch auf das Phänomen zu sprechen kommen, dass die Einführung von Maschinen das Leben vieler Menschen zunächst nicht erleichtert hat – wie es ja immer wieder eines der großen Versprechen der Mechanisierung war –, sondern massiv verschlechtert. Immerhin haben viele Urvölker erheblich weniger gearbeitet als moderne Menschen, und einige tun das noch heute: Die Cuiva in Kolumbien und Venezuela arbeiten 15 bis 20 Stunden pro Woche, schreibt Survival International. Und Paul Lafargue, Schwiegersohn von Karl Marx, forderte schon 1880 in seinem Pamphlet »Das Recht auf Faulheit« die Rückkehr zum Drei-Stunden-Tag, den der britische Ökonom John Maynard Keynes in seinem 1930 erschienenen Aufsatz »Economic Possibilities for our Grandchildren« sogar für ungefähr unsere Gegenwart voraussah …

Neue Serie: Leben mit Maschinen

+

Heute hat das verspätete Sommerloch bei den Tech-News ein Ende, und wir starten in den Herbst mit einer neuen Serie. Sie könnte etwas länger werden, denn das Thema ist sehr weit gefasst: Wie hat sich das menschliche Dasein durch den Einsatz von Werkzeugen verändert? Welchen Einfluss haben Maschinen auf unseren Alltag? Zum Einstieg schauen wir doch zunächst mal etwas weiter zurück.

Nach dem gegenwärtigen Stand der Forschung dürfte es knapp dreieinhalb Millionen Jahre her sein, dass unsere Vorfahren erstmals Steinkeile verwendeten. Das war zugleich auch das allererste Modell des schweizer Taschenmessers, denn so ein Keil funktioniert als Hammer, Beil, Brech-, Stemm- und Schnitzeisen, Messer, Nussknacker und sicherlich noch einiges mehr. Die Einführung dieses Universalwerkzeugs wird als so bedeutend angesehen, dass ein ganzes Erdzeitalter danach benannt wurde: die Steinzeit mit den Abschnitten Paläolithikum (vom griechischen παλαιός [palaios], »alt«, und λίθος [lithos], »Stein«), Mesolithikum (μέσος [mésos], »mittel«), und Neolithikum (νέος [neos], »neu, jung«).

Werkzeuggebrauch ist zwar auch bei Tieren durchaus verbreitet; vor allem Schimpansen, Orang-Utans, Gorillas und einige Affenarten verwenden regelmäßig Gegenstände als Hilfsmittel, aber auch bei Bären, Delfinen, Elefanten, einigen Vogelarten und manch anderen kann dies beobachtet werden. Aber die gezielte Herstellung von Werkzeugen ist hauptsächlich Primaten vorbehalten.

Dass die Werkzeugnutzung – zusammen mit den längeren, opponierbaren Daumen und dem aufrechten Gang – zu den wichtigen Evolutionsvorteilen der Vor- und Frühmenschen zählte, ist wohl unumstritten. Aber der menschliche Fortschritt ist nicht bei solch rudimentären Hilfsmitteln stehengeblieben. Über einige Millionen Jahre haben Menschen ihre Werkzeuge beständig weiterentwickelt und verfeinert, bis schließlich spätestens mit der Industriellen Revolution aus einfachen Geräten komplexe Maschinen wurden.

Hilfreich dabei war sicherlich auch die Entdeckung von Eisen als Grundlage für die Werkzeugherstellung; besser formbar, flexibler, dabei aber nicht weniger haltbar, hat das Material etwa seit 1200 vor Christus einen Siegeszug angetreten, der zu einer weiteren Zeitalterbenennung führte: In Nordeuropa dauerte die Eisenzeit ungefähr von 750 vor Christus bis 1025 nach Christus.

Im ersten Teil dieser Serie werden wir uns mit der Entwicklung von Maschinen in der Produktion beschäftigen – von mechanischen Webstühlen und Dampflokomotiven bis zu Autofabriken.

Wer die frühgeschichtliche Entwicklung noch eingehender betrachten möchte, mag vielleicht diesen Links folgen:

Offline – was nun?

+

Der Verfasser dieser Zeilen befindet sich zur Zeit im Exil. Im sozialen, informationellen, beruflichen, ja – emotionalen Exil. Und es ist kein selbstgewähltes, wohlgemerkt: Er ist schlicht von der Welt abgeschnitten, weil sein Internet-Provider beschlossen hat, es sei mal wieder an der Zeit, am hellichten Tag Reparaturen durchzuführen. Und was 1999 schon echt sch***e war, ist im fast vollendeten ersten Viertel des neuen Jahrtausends eine mittlere Katastrophe.

Zumindest, das sei einschränkend vorausgeschickt, wenn es um Dinge geht, die sich nicht mobil erledigen lassen. Handy-Nutzern stehen neben Mobilfunknetzen auch noch lokale WiFi-Verbindungen zur Verfügung, und umgekehrt; das Risiko, komplett abgeschnitten zu sein, ist deutlich geringer. Aber es gibt nun mal Anwendungen, die mobil nicht zur Verfügung stehen oder deren mobile Nutzung zumindest stark eingeschränkt ist. (Es gibt sogar Menschen, die kein Mobilgerät besitzen; 2021 waren es rund elf Prozent der deutschen Bevölkerung ab 14. Und immerhin sechs Prozent aller Deutschen zwischen 16 und 74 Jahren waren noch nie online.)

Das Offline-Sein beschränkt sich heutzutage auch nicht mehr auf das Computernetz; aus Kostengründen haben inzwischen alle Anbieter ihre Telefonverbindung auf VoIP (Voice over IP) umgestellt, was im Klartext heißt: kein Internet, kein Festnetz-Telefon. Auch da wieder: Die meisten telefonieren ohnehin fast ausschließlich über ihre Mobilgeräte, aber Firmen zum Beispiel (und auch kleine gallische Dorfbewohner ohne Handy, siehe oben) sind dann aufgeschmissen. Wer kein Mobiltelefon zur Hand hat, kann beim Ausfall noch nicht mal die Provider-Hotline anrufen und den Fehler melden – da heißt es dann geduldig sein, und vor allem: hoffen.

Fast hätte dieser nächste Abschnitt mit den Worten begonnen: »Wer aufs Internet angewiesen ist, …« – aber mal ehrlich, wer ist das heute nicht? Im Beruf sowieso, da geht ohne VPN-Serverzugriff, ohne MS® Teams oder Zoom (mehr dazu übrigens in unserer vorigen News), ohne WhatsApp-Gruppe, und ja, auch ohne die gute, alte E-Mail, gar nichts. Aber auch im Privatleben können wir kaum noch auf das WWW verzichten. Kurz was in der Wikipedia nachschlagen, sich schnell mal bei SPIEGEL oder taz über die aktuelle Weltlage informieren – das kann man vielleicht noch aufschieben. Schwieriger wird’s bei dringenden Arztterminen (immer mehr Praxen gehen dazu über, das Telefon nur noch als Anrufbeantworter mit Verweis auf die Online-Terminplanung von Doctolib zu betreiben), bei eiligen Bankgeschäften (längst sind die Papier-Überweisungsbelege abgeschafft, was ja für die Umwelt auch eine Erleichterung bedeutet¹), selbst bei privaten Absprachen (»Ich schaff’s nicht rechtzeitig zum Bahnhof!«)

Ganz abgesehen von den schweren Entzugserscheinungen, die sich schnell einstellen, wenn die sozialen Netzwerke plötzlich nicht mehr erreichbar sind …

Kurz: Wir alle sind aufs Internet angewiesen, ohne online geht kaum noch was. Zurück also zu unserer Überschrift: Was tun, wenn der Router streikt?

Einerseits gibt es die Möglichkeit, mit einem UMTS-Stick (auch Surfstick genannt) den Computer zum stationären Handy zu machen. Per USB wird der Rechner dann mit dem mobilen Internet verbunden – vorausgesetzt allerdings, dass der Stick auch über Guthaben verfügt. Außerdem bieten einige Anbieter in bestimmten Tarifen Router an, die sich zusätzlich zum DSL- oder Kabelanschluss drahtlos mit dem 3-, 4- oder 5G-Netz verbinden können; das ist oftmals nicht ganz billig, aber immerhin auch eine Option, vor allem bei beruflich genutzten Anschlüssen.

Und schließlich: Wer Glück hat, findet vielleicht in der Liste von WiFi-Verbindungen auch eine von Freifunk.net zur Verfügung gestellte. Das Projekt hat es sich zum Ziel gesetzt, Internet für alle zu ermöglichen; Freiwillige betreiben die offenen WLAN-Router, allerdings ist ein wenig Vorsicht geboten – denn ein offenes Wireless LAN ist natürlich auch offen für Angriffe. Ob man darüber ins Online-Bankkonto gehen sollte, wäre zumindest gründlich zu überlegen.

¹ Wenn man allerdings die Umweltbelastung durch Internet, Server, Laptop- oder Computerbetrieb etc. mit einberechnet, wird das schon wieder deutlich un-eindeutiger.

Was ist sicherer: Closed- oder Open-Source-Software?

+

Die Debatte flammt regelmäßig immer wieder auf, seit es quelloffene Programme gibt. Und kommerzielle Anbieter, die ihren Sourcecode geheim halten, versuchen immer wieder, Argumente für ihre Vorgehensweise zu finden; was ein bisschen einleuchtet, denn schließlich wollen sie damit nach Möglichkeit sehr viel Geld verdienen. Aber kürzlich hat die FOSS-Idee (was für Free and Open Source Software steht) erheblichen Auftrieb erhalten.

Bitte beachten Sie: Der folgende Text kann deutliche Spuren von Ironie und eventuell auch Sarkasmus enthalten. Zu Risiken und Nebenwirkungen befragen Sie eine*n IT-Beauftragte*n Ihres Vertrauens.

Erinnern Sie sich noch, damals, als dieses Virus um die Welt ging – was sich ja zum Glück erledigt hat –, da erlebten plötzlich Programme ihren globalen Siegeszug, von denen die meisten zuvor noch nicht gehört hatten. Zoom gehörte dazu, das es Kollegen, Familienmitgliedern und Freunden erlaubte, im Lockdown weiterhin audiovisuellen Kontakt zu halten, sich beim Sprechen auch zu sehen.

Schade nur, dass es nicht auditiert¹ war, sonst hätte man vielleicht früher die Schwachstellen entdeckt, die – neben anderen Problemen – zu Zoombombing, Datenlecks Richtung Facebook oder auch dem Weiterleiten von Schlüsseln über chinesische Server geführt haben.

Das Magazin All Things Security schrieb, und zwar nicht etwa damals im Jahre 2020, sondern vor zweieinhalb Monaten: »Hören Sie auf, Zoom zu benutzen«. Interessanterweise gar nicht so sehr wegen möglicherweise existierenden Sicherheitslücken, sondern – weil die Firma ihre Kunden belogen hat, indem sie behauptete, Ende-zu-Ende-Verschlüsselung zu verwenden, was so einfach nicht stimmte. Damit habe sie, so der Artikel, Glaubwürdigkeit und Vertrauenswürdigkeit verloren.

Das ist einer der entscheidenden Knackpunkte in der Debatte um die Sicherheit von Open- versus Closed-Source-Software: Nutzer können nicht selbst überprüfen, ob das Programm wirklich tut, was die Herstellerfirma behauptet. Bei FOSS ist das anders: Der Quelltext ist für jede*n öffentlich einsehbar, und vor allem bei sicherheitsrelevanten Programmen werden auch tatsächlich Audits durchgeführt, wie zum Beispiel bei dem Datei- und Festplatten-Verschlüsselungstool VeraCrypt.

Natürlich führen auch kommerzielle Anbieter Sicherheitsüberprüfungen durch, allerdings meist intern und nicht unter den Augen der Öffentlichkeit. Deswegen kommt jüngst eine Studie zu dem Schluss: Proprietäre Software kann nicht sicherer sein als Open-Source. Der heise-Artikel zu dem Thema zitiert den Studienautor, den Bonner Informatiker Marc Ohm, mit den Worten: Open-Source-Projekte werden in der Regel von mehreren Entwicklern betreut und gepflegt, und: Da zudem jeder Nutzer Verbesserungen einreichen kann, erhält die Software regelmäßige Updates und vor allem Sicherheitspatches. Anders dagegen bei geschlossenem Quelltext: Die Sicherheit von proprietärer Software hängt allein vom Hersteller ab. Anwender müssen warten, bis ein entsprechender Patch zur Verfügung gestellt wird.

Immerhin lässt sich beobachten, dass zunehmend auch kommerzielle Softwareentwickler den Open-Source-Gedanken verfolgen; Vishnu Pankajakshan Panicker, Entwickler bei Boeing, fragte kürzlich eindringlich: SAP & Open Source: Are we prepared enough?. Er schreibt: SAP hat die potenziellen Vorteile von Open-Source-Software erkannt und verschiedene Schritte unternommen, um Open-Source in seine Cloud-Angebote einzubinden.

Ach, und wer jetzt gern auf Zoom verzichten möchte – es gibt zahlreiche Videocall-Alternativen, von denen Jitsi Meet mit am vielversprechendsten scheint. Das Bundesamt für Sicherheit in der Informationstechnik (BSI) gibt auf seiner Website allianz-fuer-cybersicherheit.de in einem umfangreichen PDF ausführliche Hinweise, wie sich Jitsi sicher einsetzen und betreiben lässt. Denn ja – wer will, kann es sogar auf dem eigenen Server installieren. FOSS eben.

¹ auditieren: etwas als externer Prüfer auf die Erfüllung bestimmter [Qualitäts]standards hin bewerten und anschließend zertifizieren (Duden)

Streik um die Existenz

+

Der »News Cycle«, also die Halbwertzeit einer Meldung, ist derartig kurz, dass viele schon wieder fast vergessen haben dürften, dass die US-amerikanischen Film- und TV-Gewerkschaften SAG-AFTRA und WGA sich im Streik befinden. Besonders daran, und deswegen wollen wir heute gern noch einmal kurz daran erinnern, ist, dass es nicht allein um mehr Geld geht, sondern um die Lebensgrundlage vieler Beschäftigter in der Filmindustrie – die wie viele andere auch von KI bedroht sind.

Der britische Guardian zitiert einen der Verhandler auf Gewerkschaftsseite, Zeke Alton, mit den Worten: Sie zwingen uns, um unsere nackte Existenz zu verhandeln und zu feilschen. Es geht ums Überleben, denn nicht nur Drehbuchautoren könnten schon bald durch ChatGPT-ähnliche Anwendungen komplett überflüssig werden. Auch Schauspieler sind durch generative KI ersetzbar. Schon heute werden Monstren und Superschurken oft im Computer erzeugt; längst gibt es virtuelle Popstars wie Polar (mit fast zwei Millionen Followern auf TikTok) oder Hatsune Miku. Einen lesenswerten Artikel zu dem Thema hat Bernard Marr für das Magazin Forbes verfasst.

Für die Pop-, TV- und Filmindustrie ist das natürlich ein gefundenes Fressen: Virtuelle Darsteller werden nie krank, fordern keine höheren Vergütungen und sind ständig verfügbar. Vor diesem Hintergrund hat eine Stellenanzeige von Netflix eine Welle der Empörung aufbranden lassen, die in ihrer ursprünglichen Version (inzwischen wurde der Text geändert) laut SPIEGEL folgende Formulierung enthielt: Maschinelles Lernen/künstliche Intelligenz steckt hinter Innovationen in allen Geschäftsbereichen, angefangen beim Kauf und der Produktion großartiger Inhalte (…)

Schon jetzt werden Schauspieler*innen mithilfe von KI künstlich verjüngt, wie Harrison Ford im jüngsten »Indiana Jones« oder Carrie Fisher in »Star Wars: Rogue One«. Und in der (zwar fiktionalen, aber äußerst realistischen) »Black-Mirror«-Folge »Joan is awful« sieht sich die Protagonistin abends eine Zusammenfassung ihres Tages an – gespielt von Salma Hayek.

Die Sorge ist also berechtigt. Und die Einschätzung, dass der Streik in Hollywood den Kampf gegen KI revolutionieren wird, wie es The Wire in einem Artikel schreibt, dürfte absolut zutreffend sein. Darin wird Lilly Wachowski zitiert, eine der beiden Schöpferinnen von »The Matrix«: Ich bin absolut überzeugt, dass der Kampf, in dem sich unsere Industrie gerade befindet, ein Mikrokosmos einer viel größeren und kritischen Krise ist.

Heißt Raider jetzt Twi-X?

+

1991 wurde ein Schokoriegel umbenannt; die Älteren werden sich noch an den Slogan erinnern, den die Marketing-Abteilung des Zucker-Giganten Mars sich damals ausgedacht hat. Da sich ansonsten nichts an der Kalorienbombe geändert hatte, wurde er schnell zum Synonym für oberflächliche Veränderungen ohne inhaltliche Neuerungen. Seither sagt man gern Raider heißt jetzt Twix, wenn wieder einmal nur kosmetische Nuancen angegangen wurden. Aber – gilt das auch für das Rebranding von Twitter zu X?

Offiziell ist Elon Musk ja schon länger nicht mehr der CEO von Twitter. Den Posten hat jetzt Linda Yaccarino inne, und die twitterte (oder, wie es neuerdings heißen soll, »xitterte«) kürzlich noch mal die großen Pläne. Was das chinesische WeChat schon lange ist, nämlich eine Audio-, Video- und Messaging-Plattform mit Abo-, Bestell-, Termin-, Reservier-, Kauf-, Banking- und Bezahlfunktion, inklusive einer Office-Variante und einem App-Store, KI-gestützt und grenzenlos in der Überwachung seiner Kund*innen – das will X auch gern werden. Eine Plattform für alles.

Leider (naja, zumindest für den Multimilliardär) gibt es ein paar kleine Probleme, denn erstens steht der Buchstabe im Internet für allerlei Schmuddelkram (weswegen der Staat Indonesien Musks Domain x.com, die bereits auf Twitter weiterleitet, gesperrt hat). Und zweitens haben sowohl Microsoft, als auch Musks Lieblingsgegner Meta den Buchstaben X für Social-Media- und Kommunikationszwecke markenrechtlich geschützt. Microsoft hat den Schutz erst vor knapp zwei Wochen erneuert.

Musk besitzt die Domain allerdings schon eine Weile und hat den Mutterkonzern von Twitter mittlerweile in The X Corporation umbenannt, wie DER SPIEGEL berichtet, in Anlehnung an die Firma X.com, die er 1999 gegründet hatte und aus der später der Zahlungsdienstleister PayPal hervorgegangen war. Seine Raumfahrtfirma heißt SpaceX, und mit x.ai will er OpenAI Konkurrenz machen.

SPIEGEL-Autor Sascha Lobo hat den Verdacht, dass uns Musk, sozusagen, ein X für ein I vormachen möchte; er schreibt: Aus Marketing- und Weltgeltungssicht hat Steve Jobs Apple zu einer Firma rund um einen ikonischen Buchstaben gemacht: i. iMac. iPod. iPhone. iPad. (…) Was für Jobs das i, soll für Musk das x werden.

Wenn er damit Erfolg haben sollte, wird der Buchstabe in Zukunft nicht mehr nur für Internet-Porno stehen, sondern auch für Rechtsextreme und Kinderschänder; zuletzt hat Musk nämlich den gesperrten Account von Pop-Produzent Kanye West wieder freigeschaltet – der hatte immer wieder mit antisemitischen Aussagen, Hitler-Lob und Hakenkreuz verstört, bis schließlich sein Vertriebspartner Adidas die Zusammenarbeit aufkündigte (keine Sorge, die Firma hat mit dem Abverkauf der Ye-Restbestände rekordverdächtige Umsätze erzielt) – und auch das Konto von Dominick McGee wieder geöffnet, einem rechten Troll und Verschwörungsideologen, dem der Account gesperrt worden war, nachdem er zwei Screenshots aus einem Video gepostet hatte, in dem die sexuelle Misshandlung eines Kleinkindes zu sehen war, wie DER SPIEGEL schreibt.

Um also die Eingangsfrage jetzt endlich zu beantworten: Sollte es Elon Musk gelingen, trotz aller existierenden und möglicherweise weiterer Probleme die Marke X als Twitter-Nachfolger zu etablieren, dann ist das weit mehr als nur die Umbenennung von Raider in Twix. Es wäre vielmehr, wie Sascha Lobo im oben verlinkten Artikel schreibt, ein weiterer Schachzug in der Mission des reichste[n] Mann[es] der Welt mit der machtvollsten Nachrichtenplattform der Welt gegen das woke mind virus, also Wokeness, die er für eine Art ansteckender Gehirnwäsche hält. Und schlimmer noch, die wichtigsten Werte, die mit Wokeness assoziiert werden, sind Antirassismus und Feminismus (…) man kann ohne jede Übertreibung sagen, dass Black Lives Matter und MeToo ohne Twitter niemals so wirkmächtig geworden wären, vielleicht nicht einmal existieren würden.

Leider hat Lobo mit seiner Einschätzung sehr wahrscheinlich sehr recht; schon lange gilt, dass Technologie sehr wohl politisch benutzt werden kann und auch wird.

Is Threads a Threat?

+

Von Nicht-Muttersprachlern gern verwechselt, heißt das englische »threat« übersetzt »Bedrohung«; »thread« ist wörtlich übersetzt ein Faden, aber schon lange wird der Begriff bei Twitter und anderen Social-Media-Anwendungen auch für mehrere aneinandergereihte Postings verwendet – die wegen der Begrenzung auf zunächst 140, dann 280 Zeichen schnell Verbreitung fanden, um längere Gedanken aufschreiben zu können. Und gerade ist der Begriff in aller Munde, weil Mark Zuckerbergs Meta-Megakonzern am 5. Juli seine neue Anwendung namens Threads als direkten Twitter-Konkurrenten gestartet hat.

Aber jetzt erstmal ein kleiner Blick in die jüngere Tech-Geschichte. Eingefleischte Meta-Fans werden sich wahrscheinlich erinnern: Im Oktober 2019 stellte der Facebook- und Instagram-Konzern schon einmal eine Anwendung mit dem Namen Threads vor, deren Schwerpunkt mobiles Messaging war, bei dem die Handy-Kamera im Vordergrund stand. Als Snapchat-Konkurrenz konzipiert, hatte Threads damals nur wenig Erfolg; Ende 2021 wurde das Thema begraben. Die Neuauflage, die im Grunde aussieht wie ein Klon von Twitter, hat dieses Problem nicht: Schon nach ein paar Stunden verkündete Mark Zuckerberg zehn Millionen Nutzer, und nach nur fünf Tagen waren es bereits 100 Millionen. Damit stellte Threads einen neuen Rekord auf und wächst schneller als ChatGPT, wie DER SPIEGEL berichtete.

Das liegt unter anderem sicherlich an zwei Dingen: Elon Musk fährt, erstens, Twitter immer weiter gegen die Wand – und wer, zweitens, schon ein Instagram-Konto hat, kann die Kontodaten mit einem Klick in Threads übernehmen. Kein langwieriger Aufbau einer Freundesliste, kein Neu-Lernen von Funktionen – wer Twitter zumindest flüchtig kennt und ein Instagram-Konto hat, kann direkt einsteigen.

Naja – es sei denn, sie*r ist Europäer*in. Da scheint noch zu viel unklar zu sein, was die Datenschutz-Richtlinien angeht; dazu gleich noch mehr. Ein paar Tage lang funktionierte der Zugriff für deutsche Threads-Nutzer*innen trotzdem, über die Anmeldung im App Store mit einem US-Account (mit dem iPhone) oder eine zusätzlich installierte .apk-Datei (auf Android-Phones) – aber mittlerweile scheint Meta die Deutschen mit mehr Nachdruck auszusperren.

Das ist aber vielleicht auch ganz gut, denn was Threads so alles an Daten abgreift, könnte ebenfalls rekorverdächtig sein. Ein*e Nutzer*in der Open-Source-Reddit-Alternative Lemmy hat einen Screenshot der »App Privacy« gepostet; mit Privatsphäre hat das nichts mehr zu tun. Mehrere Warnlichter sollten gleichzeitig blinken, wenn neben »Health & Fitness« auch »Financial Info«, »User Content« und die beiden doch eher allgemein gefassten Kategorien »Sensitive Info« und »Other Data« aufgelistet werden; letzteres kann letzlich alles beeinhalten. Zwar versicherte Metas Datenschutzchef Rob Sherman vor wenigen Tagen, dass der neue Dienst die Vorgaben der Datenschutz-Grundverordnung (DSGVO) erfülle, schrieb DER SPIEGEL gestern. Im vergangenen Jahr hatte Brüssel aber zudem den Digital Markets Act (DMA) auf den Weg gebracht, der strenge Vorgaben für sehr große Internetplattformen macht. Wie zum Beispiel Metas Instagram-Threads-Duo.

Um also auf die Eingangsfrage zurückzukommen: Ja, Threads ist eine Bedrohung – für Twitter einerseits, das offensichtlich einen deutlichen Rückgang erlebt, wie CNBC am Montag meldete, und für den Datenschutz seiner Nutzer andererseits.

Allerdings ist das ganze noch sehr neu; gestern schrieb NBC News, dass schon am Dienstag und Mittwoch die Zahl der aktiven Nutzer*innen, also derjenigen, die nicht nur ein Konto haben, sondern die App auch tatsächlich benutzen, um 20 % zurückgegangen sei, und die Zeit, die sie darauf verbrachten, sank von 20 auf zehn Minuten.

Wiederum andererseits ist für Threads aber auch noch viel Luft nach oben: Die 100 Millionen sind weniger als zehn Prozent der Gesamtzahl von Instagram-Nutzern und damit potenziellen »Threadern«: 1,35 Milliarden sind das nämlich. Ein Sechstel der gesamten Weltbevölkerung.

Invidi-wie?!

+

Für viele war eine Meldung, die in den letzten wenigen Wochen durchs Netz geisterte, immer mal wieder hier und da auftauchte, vermutlich eine, die stark nach böhmischen Dörfern klang: Die Rechtsabteilung von YouTube hat Invidious eine Mail geschrieben und die weitere Nutzung ihrer API verboten. Was das im einzelnen bedeutet, wollen wir uns heute mal genauer ansehen.

Invidious ist laut der englischsprachigen Wikipedia (frei übersetzt) »ein freies und open-source-basiertes Frontend für YouTube (…) Es ist als leichtgewichtige und die Privatsphäre respektierende Alternative zur offiziellen YouTube-Website gedacht.«

Der Grund für die Existenz von Invidious liegt auf der Hand: Wer die Website des Video-Anbieters besucht, wird – um es salopp zu sagen – ausspioniert. YouTube gehört zum Alphabet-Konzern, ist ein Tochter- oder Schwester-Unternehmen (wer blickt schon noch so genau durch bei den Tech-Giganten) von Google, und die ursprünglich 1998 als Suchmaschine gestartete Firma wiederum steht seitdem immer wieder im Kreuzfeuer der Kritik; als unermüdlicher Speicherer und Weiterverkäufer von Kundendaten – Stichwort »Datenkrake« –, oder auch wegen der Manipulation von Suchergebnissen, dem Setzen von »ewigen«, persönlich identifizierbaren Cookies, Benutzer-Tracking und vielem mehr.

Seit YouTube am 9. Oktober 2006 von Google aufgekauft wurde, wird diese Kritik auch gegen die Video-Plattform geäußert. Und 2018 wurde dann, als Reaktion auf dieses auch »Datensammelei« genannte Vorgehen von YouTube und Google, Invidious veröffentlicht. Die Software – die öffentlich verfügbar ist und die Menschen mit ausreichend technischem Geschick auf ihrem eigenen Server installieren können – gibt YouTube-Videos wider, blockiert aber Googles Cookies und Tracking und verhindert das Ausspielen von Werbung. Vor allem der zweite Punkt ist natürlich den YouTube-Betreibern ein Dorn im Auge, denn Werbung ist bekanntlich die Hauptfinanzierungsmethode des Konzerns.

Am 8. Juni postete ein Invidious-Projektmanager den Screenshot einer E-Mail, in der YouTubes Rechtsabteilung die Entwickler aufforderte, die Entwicklung und Veröffentlichung des Projekts einzustellen; sie gab Invidious sieben Tage Zeit, der Aufforderung nachzukommen. So etwas nennt sich auf Englisch »cease and desist letter« und kann nach Ablauf der Frist eine Klage nach sich ziehen. Da aber YouTubes E-Mail sich auf die Verwendung der API (Programmierschnittstelle) bezog, die Invidious laut ihren Entwicklern gar nicht verwendet, wurde das Schreiben ignoriert. Zu dem Zeitpunkt berichtete auch DER SPIEGEL darüber.

Im nächsten Schritt hat nun offensichtlich der Konzern begonnen, einzelne Invidious-Server zu blockieren, die dann eine Fehlermeldung ausgeben. Allerdings ist das Verfahren nicht allzu erfolgversprechend, da Invidious nicht von einem zentralen Server aus operiert, sondern – siehe oben – auf zahlreichen unabhängigen Servern installiert ist. Momentan scheint es ein Wettrennen zu geben; sobald ein Server blockiert wird, wird ein neuer installiert.

Ein weiteres Argument von YouTube ist allerdings weniger uneindeutig als die Frage der API-Nutzung: Einige der Invidious-Instanzen erlauben auch den Download von YouTube-Videos; da viele von diesen urheberrechtlich geschützt sind, ist solch ein Download häufig nicht legal. Dass dieser Aspekt juristisch mit Nachdruck verfolgt wird, zeigt unter anderem auch ein Verfahren, in dem die drei Major-Musikfirmen Sony Entertainment, Universal Music und Warner Music Group gegen den deutschen Web-Hoster Uberspace klagten, weil der die Website des YouTube-Download-Tools youtube-dl hostet – oder besser gesagt, gehostet hat, denn am 31. März verkündete das Landgericht Hamburg sein Urteil: Der Provider darf die Website nicht länger anbieten, wie heise online berichtete. Allerdings heißt es in dem Artikel auch: Es dürfte sich aber um einen Pyrrhussieg handeln, da Youtube-DL einfach auf einen anderen, in fernen Ländern liegenden Server umziehen könnte und das GitHub-Entwicklerverzeichnis weiter verfügbar ist. Das gilt umso mehr, als es neben Invidious und youtube-dl noch eine ganze Reihe weiterer, ähnlicher Projekte gibt.

Und der Vollständigkeit halber sei daran erinnert, dass YouTube selbst es mit dem Urheberrecht gar nicht so genau nimmt: Im Jahre 2011, da gehörte der Video-Streamer längst zum Google-Konzern, blockierte die Firma lange Zeit eine Einigung über urheberrechtliche Vergütungen; schlicht gesagt, hatten die Amerikaner keine große Lust, der deutschen Verwertungsgesellschaft GEMA angemessene Tantiemen zu zahlen, wie ein damaliger Artikel auf heise online belegt. Die Hamburger Anwaltskanzlei Rasch schrieb 2015, Jahre später, in einem Beitrag über das damals umstrittene Portal Popcorn Time: YouTube beispielsweise war seit jeher kaum etwas anderes als ein Downloadportal. Und auch noch vor zwei Jahren bemühte sich Google/YouTube darum, von der sogenannten »Plattformhaftung« für (urheberrechtlich geschützte) Inhalte, die von Nutzern hochgeladen wurden (»User Uploaded Content«), befreit zu bleiben, wie der Bundesverband Musikindustrie (BVMI) seinerzeit ausführte.

Da ist es doch wohl durchaus angebracht, von einer Doppelmoral des IT-Riesen im kalifornischen Mountain View zu sprechen. Und zu vermuten, dass es – wie so oft – hauptsächlich um eines geht: um Geld. Genauer: die durch Projekte wie Invidious entgangenen Werbeeinnahmen und die indirekt ebenfalls bare Münze bedeutenden Nutzerdaten.

UNO-Generalsekretär: KI braucht Regulierung

+

Er bemühte einen Begriff aus dem Star-Trek-Universum: Mit Warp Speed entwickelten sich neue Technologien, und ebenso die Bedrohungen, die damit einhergehen, sagte António Guterres gestern bei der UN-Pressekonferenz.

Alarm bells over the latest form of artificial intelligence – generative AI – are deafening, die Alarmglocken anlässlich der jüngsten Form von KI seien ohrenbetäubend, fuhr er in seiner Rede fort, womit er all jene Algorithmen meinte, die mittels einer Text-Eingabe – dem sogenannten »Prompt« – Bilder, Musik, Videos, Texte und vieles mehr erzeugen können. Die Warnungen seien am lautesten von denen, die sie geschaffen haben. Diese Wissenschaftler und Experten haben die Welt aufgefordert zu handeln und KI zu einer existenziellen Bedrohung für die Menschheit erklärt, im selben Maß wie das Risiko eines Atomkriegs. (Wir hatten berichtet.)

Interessant ist auch der nächste Absatz, der nicht auf eine abstrakte Bedrohung in der Zukunft verweist, sondern auflistet, welche Folgen der Umgang mit Computern, insbesondere in den Sozialen Medien, heute schon konkret hat:

Die Verbreitung von Hass und Lügen in der digitalen Sphäre richtet weltweit großen Schaden an – jetzt.
Sie befeuert Konflikte, Tod und Zerstörung – jetzt.
Sie bedroht die Demokratie und die Menschenrechte – jetzt.
Sie untergräbt das Gesundheitswesen und die Klimaschutzmaßnahmen – jetzt.

Um all diese komplexen Probleme anzugehen, wollen die UN auf mehreren Ebenen vorgehen; Guterres dazu: Der von uns vorgeschlagene Globale Digitale Pakt, die Neue Agenda für den Frieden und die Vereinbarung über die globale Steuerung der KI werden multilaterale Lösungen auf der Grundlage der Menschenrechte bieten.

Speziell für den Umgang mit Falschinformationen, Hass und anderen missbräuchlichen Anwendungen von Sozialen Medien schlägt er die Schaffung von Rahmenbedingungen für die Informationsintegrität auf digitalen Plattformen vor.

Bleibt zu hoffen, dass die Umsetzung all dieser Vorschläge und Ideen mit ähnlicher »Warp Speed« vonstatten geht wie die technologische Entwicklung.

KI gut? KI böse?! KI beides!

+

Einerseits vollbringt sie Wunder, wie sie weiland Heiligen und Propheten vorbehalten war, andererseits droht sie die Menschheit auszurotten – mittlerweile bewegt sich die Einschätzung von Künstlicher Intelligenz zwischen solchen Extremen.

Anfang des vergangenen Jahres hatten wir über »The Link« berichtet, ein Projekt von Elon Musks Firma Neuralink, die Brain-Machine-Interfaces entwickelt, also Schnittstellen zwischen dem menschlichen Gehirn und Computersystemen. Die Richtung dabei ist vom Gehirn ins Gerät; in einem Experiment konnten Makaken ohne Joystick das Computer-Tischtennisspiel Pong spielen. Ganz aktuell geht’s sogar schon in beide Richtungen: vom Gehirn ins Gerät und von dort aus wieder in den Körper, genauer: zum Muskel. Ein vierzigjähriger Mann, dessen Rückenmark bei einem schweren Fahrradunfall verletzt wurde und der seitdem gelähmt ist, kann dank Künstlicher Intelligenz wieder gehen.

Mithilfe von Algorithmen, die auf adaptiven KI-Methoden basieren, können Bewegungsimpulse in Echtzeit aus Hirnmessungen dekodiert werden, zitiert ein aktueller Artikel aus Neuroscience News einen der beteiligten Forscher*innen. Im Klartext: Ein elektronisches Implantat im Gehirn und ein weiteres am Rückenmark kommunizieren kabellos miteinander, wobei das Implantat am Rücken die Impulse aus dem Gehirn in Muskel-Aktivierungen übersetzt. Bemerkenswerterweise, so heißt es in dem Artikel, erlebte der Patient signifikante Verbesserung von Sinneswahrnehmungen und motorischen Fähigkeiten, selbst wenn das Interface ausgeschaltet war. Das Team hofft, die Anwendung der Technologie auf die Wiederherstellung von Arm- und Handfunktionen auszuweiten und Schlaganfallpatienten zu unterstützen.

Soweit, so gut – und nun zum »bösen« Teil: Mehrere hundert Wissenschaftler*innen und Tech-Spezialist*innen warnen in einem gemeinsamen Statement vor der Auslöschung der Menschheit, verursacht von Künstlicher Intelligenz. Das Statement besteht aus nur einem Satz, den wir hier übersetzen wollen: Das Risiko des Aussterbens infolge von KI zu verringern, sollte neben anderen Risiken von gesellschaftlichem Ausmaß, wie Pandemien und Atomkrieg, eine globale Priorität sein. Überraschend daran ist zweierlei¹: erstens die Drastik natürlich – und andererseits der Kreis der Unterzeichner*innen. Unter ihnen sind nämlich erstaunlich viele führende Köpfe der IT-Branche, die sich selbst mit der Entwicklung von Künstlicher Intelligenz beschäftigen und teilweise durchaus auch ein finanzielles Interesse daran haben.

Hier ein paar Namen: Demis Hassabis (CEO, Google DeepMind), Sam Altman (CEO, OpenAI), Dario Amodei (CEO, Anthropic), Ilya Sutskever (Mitgründer und Chief Scientist, OpenAI), Kevin Scott (CTO, Microsoft), Eric Horvitz (Chief Scientific Officer, Microsoft), zahlreiche weitere Google-Mitarbeiter, etliche Professoren, Taiwans Digitalministerin Audrey Tang, die Electro-Musikerin Grimes und nicht zuletzt, als Erstunterzeichner, die mit dem Turing Award ausgezeichneten KI-Forscher Geoffrey Hinton und Yoshua Bengio.

Sie alle sagen im Grunde nichts anderes als: Die KI-Branche und ihre Entwicklungen müssen genauestens beobachtet, kontrolliert und reguliert werden. Ein bisschen zynisch sei die Frage gestattet, warum sich nicht eben diese Menschen, die sozusagen »an der Quelle« sitzen, auf funktionierende Methoden der Selbstbeschränkung einigen können. Es klingt, mit Verlaub, ein wenig heuchlerisch zu konstatieren: Was wir hier machen, ist brandgefährlich, aber jetzt haben wir’s euch gesagt und machen damit einfach weiter wie bisher.

Ähnlich wirkte auch schon die Erklärung einer teilweise identisch besetzten Gruppe von Promintenten (einschließlich Elon Musk) und KI-Expert*innen aus dem März, in der sie eine sechsmonatige Traningspause für neue KI-Systeme forderten. Oder wie die Warnung von »KI-Godfather« Geoffrey Hinton (siehe oben), der Anfang Mai bei Google kündigte und direkt im Anschluss sagte:

Ich bin zu dem Schluss gekommen, dass die Art von [Künstlicher] Intelligenz, die wir entwickeln, sich sehr von der Intelligenz unterscheidet, die wir [selbst] besitzen. Wir sind biologische Systeme, jenes sind digitale Systeme. Und der große Unterschied besteht darin, dass es bei digitalen Systemen viele Kopien desselben Gewichtungssatzes, desselben Modells der Welt gibt. Und all diese Kopien können getrennt voneinander lernen, aber ihr Wissen sofort weitergeben. Es ist also so, als hätte man 10 000 Menschen, und wenn eine Person etwas lernt, wissen es automatisch alle. Und so können diese Chatbots so viel mehr wissen als ein einzelner Mensch.

¹ Vielleicht drittens auch noch überraschend, dass die Klimakatastrophe hier nicht mit genannt wird, die für viele an oberster Stelle der Liste potenzieller Gründe fürs Aussterben steht.

Solarenergie: Luft nach oben

+

Einen Schritt vor, zwei zurück – so könnte man die Vorgehensweise der deutschen Politik in Sachen »Erneuerbare« beschreiben. Unabhängig von politischer Großwetterlage wird allerdings weiter geforscht. Mit spannenden Ergebnissen!

Zu Beginn des neuen Jahrtausends wurden mit dem Erneuerbare-Energien-Gesetz (EEG) zwar Förderprogramme für Solarenergie aufgelegt, 2010 aber viele wieder gekürzt. 2021 ist der Anteil konventioneller Energieträger laut Statistischem Bundesamt deutlich gestiegen (Kohle war in dem Jahr der wichtigste Energielieferant), und der Ausbau der Windkraft geht seit 2017 stetig zurück, wie die Tagesschau berichtet. Momentan gibt es einen neuen Schub, da das EEG in seiner neuen Fassung seit Januar 2023 gültig ist, wie die verbraucherzentrale erklärt.

Da kommen neue Forschungsergebnisse gerade recht: Die Technische Universität der südholländischen Stadt Delft meldet, dass Wissenschaftler einer chinesischen Tech-Firma die Effizienz von Solarzellen um über 25 % gesteigert haben. Und zwar, das ist besonders beeindruckend, unter Verwendung derselben Materialien, aus denen auch 95 % aller momentan im Einsatz befindlichen Zellen hergestellt werden. Das Modelling, das diese Effizienzsteigerung ermöglicht hat, kam aus Delft.

Und vielleicht sogar noch beeindruckender ist die Meldung aus The Brighter Side of News, dass neuartige Solarzellen bis zu 1000-fach erhöhte Effizienz haben könnten. Das neue Material ist nahezu unsichtbar und kann daher auch auf Fenstern, Windschutzscheiben oder – wie der Artikel schreibt – menschlicher Haut aufgebracht werden.

Der Artikel zitiert einen der Autoren der Studie, Toshiaki Kato von der nordjapanischen Tohoku University, mit den Worten: Die Art, wie wir die Solarzellen geformt haben, resultierte in einer Energieumwandlungs-Effizienz 1000 mal höher als die von Geräten, die die üblichen ITO-Elektroden verwenden. In technische Details zu gehen, würde hier zu weit führen, aber die Vorstellung von elektrischen Fahrzeugen, deren Fenster die Energie erzeugen, die sie benötigen, ist natürlich ausgesprochen überzeugend …

Apple in Erklärungsnot

+

Eine Firma, die Geräte verkauft, die ein Leben lang halten und, wenn sie denn doch mal kaputt gehen, leicht zu reparieren sind – solch eine Firma hat keinen ausgeprägten Geschäftssinn. So sieht es zumindest der kapitalistisch ausgerichtete Markt. Schließlich ist dessen Maxime die vom ewigen Wachstum. Also bauen Hersteller lieber Dinge, die nach ein, zwei Jahren kaputtgehen. Der Apple-Konzern steht deswegen jetzt im Visier der französischen Behörden.

In unserer Serie »Zu kaputtbar« hatten wir im vergangenen Jahr schon einmal die sogenannte »geplante Obsoleszenz« unter die Lupe genommen. Wir zitierten damals das Magazin CHIP mit einem Artikel aus dem Oktober 2017: Die geplante Obsoleszenz ist eine Produktstrategie, die bewusst Schwachstellen in ein Produkt einbaut. (…) Nachweisbar ist die geplante Obsoleszenz leider nicht. Die Konzepte sind ausgeklügelt und so gestrickt, dass eine Abgrenzung zum normalen Verschleiß nicht möglich ist.

Wie das Magazin DER SPIEGEL nun kürzlich berichtete, hat die Pariser Staatsanwaltschaft schon im vergangenen Dezember Ermittlungen gegen Apple wegen irreführender Geschäftspraktiken und geplanter Obsoleszenz eingeleitet. Konkret wirft die französische Verbraucherschutzorganisation Hop dem Multi-Milliarden-Konzern vor, die iPhone-Reparatur durch nicht autorisierte Werkstätten einzuschränken. Und zwar, indem er Seriennummern von iPhones mit den Seriennummern der darin enthaltenen Einzelteile verknüpft. DER SPIEGEL zitiert Hop: Damit erhalte Apple die Möglichkeit, iPhone-Reparaturen durch nicht autorisierte Werkstätten einzuschränken – oder Smartphones, die nicht mit Originalersatzteilen repariert wurden, aus der Ferne zu beschädigen.

Die Verbraucherschutzorganisation will erreichen, dass Apple den Käufern das Recht auf Reparatur der Geräte garantieren muss. Eigentlich eine Selbstverständlichkeit, denn immerhin hat das EU-Parlament schon im Spätherbst 2020 beschlossen: Im Interesse der Nachhaltigkeit müssen Produkte reparierbar sein, damit sie so lange wie möglich auf dem Markt bleiben können. (Quelle: ORF.) Wir werden sehen, wie ernst es die Politik mit dieser Forderung tatsächlich meint; immerhin ist das eingeleitete Verfahren der französischen Staatsanwaltschaft ein Schritt in die richtige Richtung.

Artificial Intelligence Act

+

Eigentlich wäre es richtiger, vom dritten Akt zu sprechen – denn der »AI Act« stammt ursprünglich vom 21. April 2021, und er war die Konsequenz aus zwei Papieren der EU-Kommission von 2018, die an das EU-Parlament adressiert waren. Jetzt aber ist der »Artificial Intelligence Act« endlich von den EU-Abgeordneten abgenickt worden.

Am 25. April 2018 veröffentlichte die Kommission ihre Mitteilung an das Parlament mit dem Titel »Künstliche Intelligenz für Europa«, in der auch die Gewährleistung eines geeigneten ethischen und rechtlichen Rahmens angemahnt wurde. Am 7. Dezember ’18 legte die EU-Kommission dann mit einer weiteren Mitteilung nach, betitelt »Koordinierter Plan für künstliche Intelligenz«. Beide Papiere behandeln umfangreich die Konzepte für künftige Nutzung von KI, Infrastruktur, Ausbildungsförderung, Hardware-Entwicklung und vieles mehr; auch im zweiten Dokument wird die Aufstellung von Ethik-Leitlinien mit globaler Perspektive und Schaffung eines innovationsfreundlichen Rechtsrahmens thematisiert.

Am 21.4.2021, vor etwas mehr als zwei Jahren also, wurde dann ein – Achtung, Behördensprech! – »Vorschlag für eine Verordnung des Europäischen Parlaments und des Rates zur Festlegung harmonisierter Vorschriften für Künstliche Intelligenz (Gesetz über Künstliche Intelligenz) und zur Änderung bestimmter Rechtsakte der Union« vorgelegt. Und diesem Vorschlag haben Abgeordnete des EU-Parlaments im Binnenmarkt- und Innenausschuss gestern grundsätzlich zugestimmt, so dass er nun in die nächste Verfahrensstufe weitergeleitet werden kann, wie DER SPIEGEL schreibt.

Die Wikipedia fasst die Verordnung so zusammen: KI-Technologien werden demnach in verschiedene Kategorien zwischen kein Risiko und hohes Risiko sortiert und daran verschiedene Compliance- und Informationspflichten gekoppelt. Technologien mit einem nicht akzeptablen Risiko wie Social Scoring oder Teile von biometrischer Videoüberwachung und subtiler Verhaltensbeeinflussung sollen komplett verboten werden.

Auch das Rechts-Magazin National Law Review schreibt, zwar sei der endgültige Gesetzestext noch Gegenstand intensiver Verhandlungen zwischen EU-Kommission, -Rat und -Parlament, aber: Es ist jedoch klar, dass von Organisationen erwartet wird, dass sie erklären können, wie ihr Einsatz von KI funktioniert, und dass sie beim Erstellen angemessener Aufzeichnungen über Datensätze, Entscheidungen, Strategien und Protokolle im Zusammenhang mit dem Output von KI Transparenz zeigen.

Es gibt allerdings nicht wenige, denen die gestern bestätigte Verordnung längst nicht weit genug geht. Schon 2021 hatte Dr. Benedikt Kohn, Technologie-Experte der Anwaltskanzlei Taylor Wessing, geschrieben, dass in dem Entwurf nur ein Minimalkonsens an Regulierung umgesetzt wurde. Bürgerrechtler*innen etwa bemängelten, dass eine automatische Erkennung sensibler Merkmale wie Geschlecht, Sexualität und Herkunft untersagt werden und das Verbot der Fernerkennung, das derzeit nur Echtzeit-Fernerkennungssysteme erfasse und zahlreiche Ausnahmen vorsehe, deutlich verschärft werden müsse.

In sofern ist also das grüne Licht für den Entwurf ein richtiger und wichtiger Schritt, aber er hat womöglich schon zu lange gebraucht und ist allem Anschein nach nicht groß und entschlossen genug.

Ist das echt — oder KI?

+

Seit im vergangenen Jahr das »AI Race« begann, seit also KI-Anwendungen für alle zugänglich gemacht wurden und zugleich ein Rennen der Anbieter um den »heißesten Scheiß« begann, wurde damit auch eine vermutlich unaufhaltsame Veränderung der Wirklichkeit losgetreten. Aktuell gibt es neue Beispiele.

Seit zehn Jahren hört man nichts mehr vom Formel-1-Rekordweltmeister Michael Schumacher, der damals durch einen Ski-Unfall schwer verletzt wurde. Da ist natürlich eine Schlagzeile wie Michael Schumacher, das erste Interview eine mittlere Sensation. So titelte die jüngste Ausgabe der Yellow-Press-Zeitschrift »Die Aktuelle« – aber das sogenannte »Interview« ist tatsächlich ein KI-generierter Text. Schumachers Familie will gegen das Wochenmagazin rechtliche Schritte einleiten, berichtet der SPIEGEL.

Seit knapp einer Woche geistert ein neuer Song durchs Internet, eine Kollaboration von Rapper Drake und Sänger The Weeknd – die allerdings gar keine ist, sondern mithilfe einer KI entstand. Keiner der beiden hat auch nur eine Silbe zu dem Track beigetragen, aber mittlerweile ist die Stimmen nachahmende KI schon so weit, dass Fans der beiden Stars die Single feiern, als wäre es ein Original. Die Universal Music Group (UMG), die beide Künstler unter Vertrag hat, forderte Social-Media- und Streamingplattformen auf, den Titel zu löschen, was diese auch taten – aber bekanntlich vergisst das Netz nicht. Und so haben inzwischen zahlreiche weitere Nutzer den Song erneut hochgeladen. Auch jetzt noch wird man mit einer YouTube- oder TikTok-Suche nach »heart on my sleeve« schnell fündig.

Nicht zu unrecht betitelte SPIEGEL-Autor Patrick Beuth seinen Newsletter zu dem Thema mit der Frage: Sind Musiker nur noch Stimmenlieferanten? So wie visuelle Künstler zu Lieferanten von Trainingsmaterial für KI-Grafikanwendungen werden, oder besser gesagt: längst geworden sind (wir hatten das Thema hier kürzlich schon mal. Und wer keine Schwierigkeiten hat, amerikanischen Slang zu verstehen, mag sich vielleicht das Reaction-Video der Darkskin Saviors ansehen, die sehr unterhaltsam die Zerrissenheit wiedergeben, die vermutlich gerade viele Menschen bewegt: It’s cool, but it’s not right, bro!

Unterm Strich verstärkt sich der Eindruck zunehmend, dass KI in – momentan noch – unüberschaubar viele Bereiche eingreifen und unsere Wahrnehmung verändern wird. Man könnte sagen: Nie war es leichter, Fake zu erzeugen. Nicht nur mittels Texten und Bildern, sondern auch Musik und sogar Videos werden uns immer mehr Inhalte vorgesetzt werden, die nicht in der Realität verankert sind, sondern frei erfunden. In sofern steht unsere gesamte Orientierung in der Welt auf dem Spiel, denn bislang waren wir es für Jahrtausende gewohnt, dem, was wir sehen und hören können, zu glauben. Diese Zeiten sind vorbei.

Hier noch ein weiterführender Link: Tristan Harris und Aza Raskin vom Center for Humane Technology erörtern in einem einstündigen (englischsprachigen) Vortrag die Gefahren, die von der rasanten Entwicklung der KI-Technologie ausgehen. Gleich zu Beginn zitieren sie ein Studienergebnis: 50 % der KI-Forscher glauben, es gebe eine mindestens 10-prozentige Chance, dass Menschen durch unsere Unfähigkeit, KI zu kontrollieren, aussterben werden.

Stop ChatGPT! (Für 6 Monate.)

+

Gute Idee? Oder eher doch nicht so? Oder lieber ganz anders? Nachdem vergangene Woche zahlreiche Wissenschaftler, Firmenchefs und Computerexperten in einem offenen Brief gefordert hatten, das Training von KI-Systemen zu pausieren, ist darüber eine intensive Debatte entbrannt. Hier ein kleiner Überblick.

Der offene Brief, der mit einer Petition einhergeht, listet als Erstunterzeichner so prominente Figuren wie den Apple-Mitgründer Steve Wozniak, den Schriftsteller und Historiker Yuval Noah Harari, den US-Politiker und Unternehmer Andrew Yang, den SpaceX-, Tesla- und Twitter-Boss Elon Musk auf – und mit Emad Mostaque sogar mindestens einen CEO eines KI-Unternehmens, nämlich Stability AI, deren Text-to-Image-Algorithmus Stable Diffusion zu den aktuellen Schlagzeilen-Lieferanten gehört.

In der Einleitung des Briefes wird ein Satz aus den »AI Principles« zitiert, die 2017 bei der Asilomar Conference on Beneficial AI formuliert wurden: Fortgeschrittene KI könnte einen grundlegenden Wandel in der Geschichte des Lebens auf der Erde darstellen und sollte mit entsprechender Sorgfalt und mit angemessenen Mitteln geplant und gehandhabt werden.

Allerdings, so beklagt der offene Brief, finde dieses Maß an Planung und Management (…) nicht statt, obwohl die KI-Labors in den letzten Monaten in einen unkontrollierten Wettlauf um die Entwicklung und den Einsatz immer leistungsfähigerer digitaler Intelligenzen verwickelt waren, die niemand – nicht einmal ihre Erfinder – verstehen, vorhersagen oder zuverlässig kontrollieren kann.

Die alte Angst des Menschen also vor den Kreaturen, die er geschaffen hat und die ihn nun überwältigen und beherrschen – wie sie von der Golem-Erzählung über die »Terminator«-Reihe bis zur Science-Fction-Serie »Battlestar Galactica« (um nur ein paar wenige der zahllosen Beispiele zu nennen) immer wieder hervorbricht?

Oder doch eher ein schäbiges und leicht zu durchschauendes Manöver, das die öffentliche Aufmerksamkeit von den aktuell längst existierenden Problemen mit bereits betriebener Künstlicher Intelligenz ablenken soll? Immerhin lautet die Forderung des offenen Briefes ja nur, das Training von KI-Systemen, die leistungsfähiger sind als GPT-4, also die gerade erst veröffentlichte Version, zu pausieren. Umgekehrt heißt das ja wohl, dass alles, was jetzt bereits läuft, einschließch der Vierer-Programmversion, ruhig weiterlaufen soll und schon irgendwie okay ist.

Ist es aber nicht. Streckenweise lustig und oft relativ harmlos (»relativ«, wohlgemerkt!) sind die Fehler und Unsauberkeiten, die durch den KI-Wettlauf hintenüber fallen und die DER SPIEGEL vorvergangene Woche thematisierte und mit einem Originalsatz von Bing betitelte: Erstellen Bilder ab Wörter mit KI. Wesentlich ernster ist da schon eine Beschwerde, die das Center for AI and Digital Policy (CAIDP) direkt im Anschluss an den offenen Brief bei der Federal Trade Commission (FTC) eingereicht hat; in seiner Begründung schreibt es zum aktuellen GPT-4, es sei einseitig, irreführend und ein Risiko für die öffentliche Sicherheit. Die Tech-News-Website The Verge berichtet und schreibt: GPT-4 könnte bösartigen Code und hochgradig maßgeschneiderte Propaganda produzieren, und voreingenommene Trainingsdaten könnten zu eingebrannten Stereotypen oder unfairen rassistischen und geschlechtsspezifischen Präferenzen bei zum Beispiel Job-Einstellungsverfahren führen.

Die italienische Datenschutzbehörde, also im Grunde die Regierung unserer südlichen Nachbarn, hat ein Verfahren gegen OpenAI, die Firma hinter ChatGPT, eingeleitet, berichtet DER SPIEGEL. Sie hat dem Unternehmen verboten, weiter Daten italienischer Nutzer zu erheben, und bemängelt auch fehlenden Jugendschutz. Zwanzig Tage haben die Amerikaner Zeit nachzubessern. Es fehlt die Rechtsgrundlage für eine massenhafte Erhebung und Speicherung personenbezogener Daten, um die dem Betrieb der Plattform zugrunde liegenden Algorithmen zu trainieren, zitiert das Magazin die Behörde.

Und dann gibt es noch eine wesentlich grundsätzlichere Ansicht: Der offene Brief sei irreführend und ignoriert die wahren Risiken. Das schreibt der Newsletter AI Snake Oil der beiden Autoren Sayash Kapoor und Arvind Narayanan. Wir stimmen zu, dass Fehlinformationen, der Einfluss auf Arbeitsbedingungen und die Sicherheit drei der Hauptrisiken von KI sind. Leider präsentiert der Brief in all diesen Fällen aber ein spekulatives zukünftiges Risiko und ignoriert die Version des Problems, die den Menschen bereits schadet. Und, schlimmer noch: Er lenkt von den tatsächlichen Problemen ab und macht es schwerer, sie anzugehen.

Übrigens hat Midjourney inzwischen die kostenlose Nutzung schon eingestellt. Offziell wegen Missbrauchs und vieler Wegwerfkonten, wie DER SPIEGEL berichtet: Vergangenes Wochenende verbreitete sich ein Bild von Papst Franziskus in einer Street-Fashion-Jacke, das zahlreiche Social-Media-Nutzer zunächst für ein echtes Foto hielten. Auch ein viel beachtetes Fake-Bild einer vermeintlichen Festnahme Donald Trumps wurde mithilfe von Midjourney erstellt. Jetzt kostet es mindestens zehn Dollar pro Monat, weiter solche Fake-News zu erstellen – was Menschen mit einem starken Interesse daran, anderen zu schaden oder zum Beispiel Wahlergebnisse zu beeinflussen, allerdings wohl kaum davon abhalten dürfte …

»New« Media, quo vadis?

+

In den Nullerjahren nannte man die Abteilungen, die in vielen Firmen in aller Eile hochgezogen wurden und die alle »irgendwas mit Computer« machten, »New Media« (oder, etwas biederer, »Neue Medien«). Wie haben sich diese inzwischen ja nicht mehr wirklich neuen Medien entwickelt? Haben sie das Versprechen von alle Grenzen überwindender Kommunikation und globaler Wissensverbreitung eingelöst?

Die kurze Antwort vorweg: Es sieht nicht so aus. Wer auf mehr Demokratisierung und zunehmende Offenheit gehofft hatte, dürfte momentan eher enttäuscht sein. Jüngstes Beispiel in einer langen Reihe von nicht unbedingt demokratiefördernden Maßnahmen: Gestern setzte der Chef von Twitter, der Multimilliardär und Mars-Auswanderer Elon Musk, diesen Tweet ab: press@twitter.com now auto responds with 💩. Und wenn das auch infantiles Kindergartenniveau ist, so ist es zugleich ein Zeichen: »Die Presse« nervt doch sowieso nur. Zu den ersten Antworten auf den Tweet gehörte denn auch: EXACTLY what they deserve.

Wir erinnern uns: Die in Demokratien übliche und essenzielle Gewaltenteilung in Legislative, Exekutive und Judikative wird für gewöhnlich um den Begriff der Massenmedien als »Vierte Gewalt« ergänzt, die eine Kontrollfunktion über die drei Staatsgewalten ausübt, um Machtmissbrauch zu verhindern, wie die Wikipedia schreibt. Nicht zuletzt die »Neuen Medien« – oder genauer gesagt, die sogenannten Sozialen Medien – haben dazu beigetragen, dass die klassischen Massenmedien TV, Radio und Print zunächst Einfluss und mittlerweile auch ihr Renommee verloren haben. In »Querdenker«- und anderen antidemokratischen Kreisen (Pegida, Wut- und Reichsbürger, Hooligans, um nur einige zu nennen) wurde der aus dem 19. Jahrhundert stammende Begriff der »Lügenpresse« wiederbelebt; ähnliche Tendenzen gibt es in vielen anderen Ländern auch.

Inzwischen informieren sich viele Menschen nur noch über Social-Media-Kanäle, vor allem bei Jugendlichen gewinnt dabei TikTok zunehmend an Bedeutung. Die großen Sozialen Medien (Facebook, Instagram, YouTube, Twitter …) sind allerdings vor allem eines: Wirtschaftsunternehmen. Ihr Geschäftsmodell ist es, Menschen möglichst lange auf der eigenen Plattform zu halten, damit sie viel Werbung sehen. Nüchterne, sachliche Berichterstattung ist dafür wesentlich weniger gut geeignet, als es skandalträchtige Sensationsmeldungen sind. Clickbaiting funktioniert über Aufregung, Empörung, Verkürzung; je drastischer ein Post formuliert ist, desto besser. Dass dabei neutraler, sachorientierter Journalismus auf der Strecke bleibt, versteht sich fast von selbst.

Hinzu kommt: In zahlreichen Skandalen, von Microsofts 2016 spektakulär gescheitertem Twitter-Chatbot Tay, der schon nach kürzester Zeit begann, sexistische, rassistische und extremistische Tweets abzusetzen und nach nur sechzehn Stunden abgeschaltet werden musste, über die US-Wahlbeeinflussung durch Cambridge Analytica bis zur momentan wieder verstärkten, massiven russischen Propaganda durch unzählige automatisierte, von der Regierung gesteuerte Bots (die sogenannte »Troll-Armee«) hat sich immer wieder gezeigt, dass viele private wie auch staatliche Akteure Digitaltechnik nutzen, um ihre eigene Agenda zu verfolgen. Die Algorithmen der Sozialen Medien sind ihnen dabei ausgesprochen nützlich, und die Portal-Betreiber wie Meta, Google und auch Twitter tun sich oft schwer damit, selbst offensichtlich falsche oder regelwidrige Posts zu sperren.

Was, wenn man es zynisch betrachten will, vielleicht auch gar kein großes Wunder ist, sind doch Silicon-Valley-Gründer oftmals trotz aller liberalen Eigenwerbung nicht unbedingt die größten Befürworter staatlich-demokratischer Kontrollen: Musk gab 2022 bekannt, er werde in Zukunft die (inzwischen weit rechtsaußen verorteten) Republikaner wählen, bezeichnete die Maßnahmen gegen COVID-19 als faschistisch und nannte die »Woke-Kultur« ein Virus, das versucht, die Zivilisation zu zerstören (Wikipedia). Peter Thiel, deutschstämmiger US-Milliardär, PayPal-Gründer und Mitbegründer der umstrittenen Palantir Technologies, deren Big-Data-Produkte zuletzt im Skandal um Hessen-Data unangenehm auffielen (wir berichteten), hält Freiheit und Demokratie für unvereinbar, befürwortet Monopole, findet, dass Firmen über Staaten stünden und steht dem Frauenwahlrecht kritisch gegenüber (Wikipedia). Und Mark Zuckerberg sprach sich noch 2018 dagegen aus, bei Facebook Holocaust-Leugnungen zu löschen; zwar erklärte er 2020, seine Meinung dazu geändert zu haben, weigerte sich dann aber, den Account des rechtsradikalen Publizisten Steve Bannon zu sperren (Wikipedia).

In diese ideologische Ausrichtung passt ein Kothaufen für die freie Presse leider allzu gut hinein.

Biobots – The Next Big Thing?

+

Je weiter – und ja, auch schneller – sich Wissenschaft und Forschung entwickeln, desto deutlicher wird aus Science Fiction Science Fact. Aus den vergangenen wenigen Jahren gibt es dazu eine ganze Reihe von Beispielen, und ein noch junges Forschungsfeld geht da besonders weit.

Voll-roboterisierte Fabriken, selbstfahrende Autos, hyperrealistische 3-D-Simulationen – das ist ja alles fast schon Schnee von gestern. Und nachdem Roboter schon viele Arbeiter-Jobs übernommen haben, droht Künstliche Intelligenz allmählich auch Büro- und sogar kreative Berufe zu ersetzen. Jetzt aber bekommen umgekehrt Maschinen biologische Eigenschaften. Allerdings zunächst mal ganz, ganz kleine Maschinen: Als Biobots bezeichnet man im Allgemeinen Roboter unterschiedlichster Größenordnung, welche zu einem gewissen Teil biologischer Natur sind, schreibt das Fraunhofer Institut für Naturwissenschaftlich-Technische Trendanalysen (INT) in seinem aktuellen Newsletter. Von allen denkbaren Ansätzen haben jene im Mikromaßstab (also 100 µm bis wenige Zentimeter) einen relativ weit fortgeschrittenen (Entwicklungs-)Status.

Ein Anwendungsbeispiel gab schon vor knapp dreieinhalb Jahren Elizabeth Montalbano für das Ingenieursmagazin Design News: Medizinische Behandlung und Diagnose der nächsten Generation werden wahrscheinlich winzige Roboter einschließen, die das innere des menschlichen Körpers erforschen und dort vorgegebene Aufgaben ausführen können. Und weiter: Forscher an der Universität von Illinois haben weiche, biologische Roboter entwickelt, die sich mithilfe von durch Licht stimuliertem, neuromuskulärem Gewebe selbständig bewegen und über Intelligenz, Erinnerung und Lernfähigkeit verfügen.

Das klingt sehr nach Science Fiction, oder? Intelligente, lernfähige Mini-Maschinen, die unseren Blutstrom durchstreifen auf der Suche nach Krankheitserregern, bösartigen Zellen und anderen ungewollten Störenfrieden – da werden sich sicherlich die Geister scheiden zwischen begeisterten oder staunenden Fortschrittsfreund*innen und besorgten, vielleicht sogar ängstlichen Mahner*innen. Nüchtern und möglichst emotionslos betrachtet, ist der Einsatz dieser neuartigen Technologie allerdings für viele nützliche Anwendungen denkbar. Zum Beispiel verwendet die US-Firma Biobot Analytics – um die Biologin Mariana Matus und die Architektin Newsha Ghaeli – Nanopartikel mit biologischen und mechanisch-automatischen Eigenschaften für epidemiologische Abwasseranalyse, aktuell vor allem für den Nachweis von SARS-CoV-2-Viren.

Der oben schon verlinkte Newsletter des INT nennt weitere Einsatzbereiche für Biobots: Unter anderem könnten sie radioaktive bzw. toxische Kontaminationen in verseuchten Gegenden detektieren oder bei der Reinigung der Meere von Mikroplastik unterstützen. Sofern der Grundaufbau auf menschlichen Zellen beruht, kämen auch Anwendungen im medizinischen Bereich in Frage, da eine höhere Immunverträglichkeit gegeben wäre. So ließen sich Mikroroboter aus körpereigenen Zellen als Transportvehikel nutzen, um gezielt Medikamente abgeben zu können oder um körperinterne Instandhaltungsaufgaben (z. B. Reinigung verkalkter Arterien usw.) beim Menschen durchzuführen.

Kritiker mahnen gelegentlich, dass sich die Menschheit mit der Erfindung solch neuartiger Wesen als Gottheit aufspiele; seit dem Mittelalter zum Beispiel mit der Golem-Legende ein immer wieder aufkommender Kritikpunkt. Und auch das INT ist in seiner Bewertung vorsichtig: Trotz aller sich eröffnenden Möglichkeiten steht jedoch weiterhin die ungeklärte ethische Fragestellung im Raum, ob es sich bei Biobots noch um Roboter bzw. Maschinen oder eine gänzlich neue Form von künstlich geschaffener Existenz handelt.

Ähnlich wie bei Künstlicher Intelligenz, die wir ja kürzlich schon eingehender unter die Lupe genommen haben, ist also auch bei Biobots eine wichtige Frage, wie Gesellschaften auf die neue Technologie reagieren – ob es frühzeitig gesetzliche Regulierungen und sozio-psychologisch-ethische Debatten geben wird oder wir, wie seinerzeit Goethes Zauberlehrling, eines Tages rufen werden: Die ich rief, die Geister, werd ich nun nicht los!

Smartphones ohne Googles Android oder Apples iOS – geht das?

+

Im Sommer 2019 versuchte der (inzwischen verstorbene) britische Tech-Journalist Jack Schofield für The Guardian, eine Leserfrage zu beantworten, nämlich: Gibt es irgendwelche Smartphones, die zu 100 % frei sind von Google- oder Apple-Software und -Hardware? Er antwortete mit mehreren Windows-Empfehlungen und schließlich der Feststellung: Das ist offensichtlich nicht die Lösung, die du suchst. Wie lässt sich die Frage heute beantworten, fast vier Jahre später?

Im selben englischsprachigen Artikel sprach Jack ein wesentliches Problem gleich selbst an: Die meisten Leute – mich eingeschlossen – wollen Google-Dinge auf ihren Telefonen haben. Gmail ist der dominierende E-Mail-Service, YouTube der dominierende Video-Provider, Google Search und Google Maps sind sehr nützlich, und Google Chrome ist der am weitesten verbreitete Webbrowser. Für ein »Google-freies Leben« müssten also fast alle Menschen erst einmal ihre Internet-Gewohnheiten völlig umstellen. Aber dann gäbe es ja immer noch das Problem des Betriebssystems: Android stammt von Google, und iOS von Apple. Und beide interessieren sich brennend für die Benutzerdaten, schon bevor irgendeine App installiert ist.

Die gute Nachricht: Da gibt es Alternativen. Aber wie leicht ist der Wechsel?

Zumindest für iPhones ist die Antwort: Nicht leicht. Alles andere als leicht. Möglich, ja. Einfach? Nope. Mit einem sogenannten iOS-Jailbreak lassen sich zwar immerhin auch Apps installieren, die im offiziellen App-Store nicht zu haben sind. Aber ein ganz anderes Betriebssystem – damit ist die Firma aus Cupertino nicht einverstanden. Offenbar gibt es immerhin seit einiger Zeit eine Initiative namens Project Sandcastle, die es erlaubt, Android auf dem iPhone zu installieren. Aber das Prozedere ist, um es mal englisch auszudrücken, not for the faint of heart.

Für Android sieht die Sache allerdings schon anders aus; ohne Anspruch auf Vollständigkeit haben wir uns einige Ideen mal etwas genauer angesehen. Da wäre zum Beispiel das /e/-Projekt, dessen Claim lautet: Your data is YOUR data! We build desirable, open source, privacy-enabled smartphone operating systems. Es erlaubt den Download eines von allen Google-Verbindungen befreiten Android-Betriebssystems, schlicht /e/OS genannt, und bietet zugleich auch Smartphones mit vorinstalliertem /e/ an. Der YouTube-Kanal The Linux Experiment hat 2020 ein solches ausprobiert; das Video dazu haben wir hier über einen Proxyserver verlinkt, so dass Google nicht spionieren kann: invidious.snopyta.org/watch?v=C9fFiaGv2WA (der Proxy wird von Invidious entwickelt; wer will, kann ihn auf dem eigenen Server installieren).

Inzwischen stellt die /e/ Foundation offensichtlich eigene Smartphones her, die sich Murena nennen. Das /e/OS ist ein Abkömmling des mobilen Linux-Betriebssystems LineageOS, und neben den Murena-Phones, die die /e/ Foundation selbst verkauft, wird in dem obigen Video auch die Option erwähnt, das Fairphone 3 werde auf Wunsch mit /e/ ausgeliefert – das gilt allerdings für das aktuelle Fairphone 4 leider nicht mehr. Da müsste man den Weg gehen, /e/OS herunterzuladen und selbst zu installieren, was wohl die wenigsten wagen.

Ein anderer Anbieter von Google-freien Android-Smartphones ist die deutsche Firma Volla. Ihr Betriebssystem heißt Volla OS; es ist zwar auf Android-Basis entwickelt worden, aber nicht Open Source. Alternativ bietet Volla auch ein vorinstalliertes Ubuntu Touch an, das wiederum von der extrem verbreiteten und sehr stabilen Linux-Distribution Ubuntu abstammt und daher vollständig Open Source ist.

Schließlich (und durchaus im Sinne von »last, but not least«!) sei noch das PinePhone erwähnt, das von Pine64 entwickelt wird, einer FOSS-Entwicklergruppe. Es bietet noch mehr Freiheit als die beiden zuvor beschriebenen, denn es erlaubt die Installation einer ganzen Reihe von Betriebssystemen; ausgeliefert wird es momentan standardmäßig mit dem Manjaro-OS plus Plasma-Desktop, was ebenso solide wie moderne und optisch ansprechende Software bedeutet. Im Sinne des Datenschutzes und der Open-Source-Treue ist das PinePhone daher wahrscheinlich sogar erste Wahl. Ob es damit den Geschmack einer großen Zahl von Nutzern trifft, lässt sich schon schwerer beurteilen.

Es gibt natürlich noch eine ganz andere Möglichkeit, die hier nicht unerwähnt bleiben soll: Wir können – so revolutionär sich das heute auch anhören mag – ganz ohne Smartphones existieren! Auch dazu gibt es ein ausgesprochen sehenswertes Video mit dem Titel The Anti-Smartphone Revolution.

Und als Bekräftigung, warum es durchaus sinnvoll sein kann, sich aus der Umklammerung der datengierigen Tech-Konzerne zu befreien, hier die drei Laws of Computing von Jack Schofield:

  • Never put data into a program unless you can see exactly how to get it out
  • Data doesn’t really exist unless you have two copies of it
  • The easier it is for you to access your data, the easier it is for someone else to access your data
  •  
    Grob übersetzt:
     
  • Gib nie Daten in ein Programm ein, wenn du nicht weißt, wie du sie wieder rausbekommst
  • Daten existieren eigentlich nicht, so lange du keine zwei Kopien von ihnen hast
  • Je leichter es für dich ist, auf deine Daten zuzugreifen, desto leichter ist es auch für andere

Vor allem der letzte Punkt sollte ein starkes Argument gegen Bequemlichkeit sein – ist es aber offensichtlich nicht, wenn man sich ansieht, wie verbreitet sie immer noch ist :(

SMS-2FA: Nicht mehr für lau, nur noch für Blau

+

Ob das so eine gute Idee ist? Ab Mitte März kostet die SMS-basierte Zwei-Faktor-Authentifizierung (2FA) für den Twitter-Zugang Geld. Oder anders gesagt: Nur noch »Twitter-Blue«-Kund*innen können ihren Account mit einem zusätzlichen, per SMS verschickten Code absichern.

Wer nicht bis zum 19.3. die Authentifizierungsmethode geändert hat (oder Blue-Kund*in geworden ist natürlich), verliert den Kontozugang, berichtete DER SPIEGEL am Samstag und zitierte einen Tweet von Jens Zimmermann, dem digitalpolitischen Sprecher der SPD: Das ist eine vollkommen verantwortungslose Aktion. Der Grund für die Umstellung soll sein, dass Twitter jährlich 60 Millionen Dollar durch betrügerische SMS verliere, weil Telekommunikationsunternehmen Roboterkonten benutzt haben, um 2FA-SMS zu pumpen – was auch immer Musks Vasallen damit meinen.

Möglich, dass sich die Firma mit dieser Maßnahme selbst ins Knie schießt, denn es ist nicht zu erwarten, dass plötzlich alle, die bislang 2FA genutzt haben, zu zahlen bereit sind. Und je mehr Konten mit unsicherem Zugang auf Twitter-Servern liegen, desto größer natürlich auch die Gefahr, dass sich Unbefugte einloggen.

Es gibt allerdings Alternativen – auch wer nicht Blue-Kund*in ist, kann weiterhin 2FA nutzen, entweder mit einer Smartphone-App oder einem USB- oder Bluetooth-Sicherheitsschlüssel. Die Twitter-Hilfeseiten zu dem Thema sind gut strukturiert und überraschend verständlich. Aber nicht vergessen: Das muss bis zum 19. März passiert sein, sonst wird das Konto gesperrt.

Hessen-Data verfassungswidrig

+

Deutschland bleibt seinem Ruf als eines der Länder treu, die die Themen Datenschutz, Privatsphäre und Persönlichkeitsrecht am – vergleichsweise – weitesten oben auf der Agenda stehen haben.

Gehörte das Land schon in Sachen Chatkontrolle zum Kreis der Mahner, so ist jetzt sogar das Bundesverfassungsgericht aktiv geworden: Mit einer heutigen Urteilsverkündung schränkte es den Einsatz von Polizei-Software stark ein, wie DER SPIEGEL berichtet.

Das Thema steht schon länger auf der Tagesordnung: Hessen setzt Algorithmen der umstrittenen US-Firma Palantir ein, genauer, deren Produkt »Gotham« (ja, das heißt wirklich so!) – was dem Innenminister des Bundeslandes Peter Beuth einen Big Brother Award bescherte. Der Wikipedia-Beitrag zitiert aus der Laudatio von Rechtsanwalt Rolf Gössner: Palantir, benannt nach den sehenden Steinen aus Herr der Ringe, ist eine der umstrittensten Firmen des Silicon Valley, so die Süddeutsche Zeitung. Sie gilt nach Einschätzung der US-Bürgerrechtsvereinigung ACLU als Schlüsselfirma in der Überwachungsindustrie. Die Firma sei tief in den militärisch-digitalen Komplex der USA verstrickt und ihr Geschäftsmodell heißt: BigData for BigBrother.

Und nun also: Auftritt Verfassungsgericht. Die Gesetze zum Einsatz einer neuen Datenanalyse-Software bei der Polizei in Hessen und Hamburg sind in ihrer derzeitigen Form verfassungswidrig. Das haben die Karlsruher Richterinnen und Richter entschieden. So DER SPIEGEL im oben verlinkten Artikel. In seiner Pressemitteilung präzisiert das Gericht: Die Vorschriften verstoßen gegen das allgemeine Persönlichkeitsrecht aus Art. 2 Abs. 1 in Verbindung mit Art. 1 Abs. 1 Grundgesetz (GG) in seiner Ausprägung als informationelle Selbstbestimmung, weil sie keine ausreichende Eingriffsschwelle enthalten. Ein paar Absätze später bemängelt Karlsruhe vor allem: Ein Grundrechtseingriff liegt hier nicht nur in der weiteren Verwendung vormals getrennter Daten, sondern darüber hinaus in der Erlangung besonders grundrechtsrelevanten neuen Wissens, das durch die automatisierte Datenauswertung oder -analyse geschaffen werden kann.

Das ist ein ausgesprochen zeitgemäßer Ansatz, denn tatsächlich wird das Potenzial von KI, »neues Wissen« zu generieren und damit möglicherweise zuvor getroffende Einschätzungen und gültige Regulierungen zu sprengen, oft noch zu sehr unterschätzt. Die klagende Gesellschaft für Freiheitsrechte (GFF) freut sich, wie DER SPIEGEL zitiert: Das Bundesverfassungsgericht hat heute der Polizei den ungehinderten Blick in die Glaskugel untersagt und strenge Vorgaben für den Einsatz von intelligenter Software in der Polizeiarbeit formuliert. Das war wichtig, weil die Automatisierung von Polizeiarbeit gerade erst begonnen hat.

Am Rande: Das Land Bayern hat mit der Firma Palantir einen umfassenden Rahmenvertrag abgeschlossen, der auch den anderen Bundesländern ohne Vergabeverfahren erlaubt, deren Software zu verwenden – die Einschränkung von »Gotham« in Hamburg und Hessen ist also nur ein kleiner Teilerfolg, und es werden sicherlich weitere Versuche folgen, mit Hilfe der US-Firma »vorausschauende« (also anlasslos Daten sammelnde und analysierende) Polizeiarbeit zu etablieren. Hoffen wir, dass das Karlsruher Gericht wachsam bleibt.

Verschlüsselte Chats bleiben verschlüsselt. Vorerst.

+

Die sogenannte »Chatkontrolle« hat gerade einen nicht geringen Dämpfer erhalten: Der Ausschuss für Binnenmarkt und Verbraucherschutz im EU-Parlament will sie für verschlüsselte Chats nicht erlauben und die Überwachungspflichten deutlich einschränken. Und doch bleibt das eine und andere Aber.

Heute schrieb netzpolitik.org: Mit der großen Heckenschere will der Ausschuss für Binnenmarkt und Verbraucherschutz (IMCO) das geplante Gesetz zur Chatkontrolle stutzen. Von den teils invasiven Plänen der EU-Kommission soll demnach vieles wegfallen. Einige Überwachungsvorhaben würden gar ersatzlos gestrichen. Und: Die Position des Ausschusses ist ein wichtiger Baustein für die Verhandlungen um die sogenannte Chatkontrolle.

Laut Wikipedia ist die zugrundeliegende Technik, das sogenannte Client-Side-Scanning, eine Methode zur Telekommunikationsüberwachung (…) bei der zu versendende Dateien bereits vor der Ende-zu-Ende-Verschlüsselung nach Inhalten überprüft werden. Kritiker sprechen in diesem Fall auch von Chatkontrolle. Und Hintergrund der Debatte um solch eine anlasslose »Generaldurchleuchtung« ist ein Entwurf der EU-Kommission zur »Bekämpfung des sexuellen Missbrauchs von Kindern im Netz«. Im oben verlinkten heise-Artikel heißt es: Dieser Entwurf sieht vor, dass Online-Anbieter auf Anordnung selbst private Chats durchleuchten müssen, um mögliche Hinweise auf sexualisierte Gewalt gegen Kinder zu finden. Das Vorhaben stößt auf breite Kritik von unter anderem Kinderschutz-Verbänden, Datenschutz-Behörden und Bürgerrechtler*innen. Die Kampagne Chatkontrolle STOPPEN! zum Beispiel will diese Kritik sammeln und Druck auf die Politik machen.

Trotzdem gibt es einige äußerst entschlossene Verfechter der Chatkontrolle; laut einem anderen netzpolitik.org-Bericht führt EU-Kommissarin Ylva Johansson die Öffentlichkeit in die Irre, habe im SPIEGEL-Interview dreimal die Unwahrheit gesagt und mindestens siebenmal Irreführung betrieben. Zum Beispiel wiederholt sie die Aussage, dass die Chatkontrolle alternativlos sei. Aber: Das ist falsch. Online-Anbieter zum Durchleuchten von Kommunikation zu zwingen, ist keinesfalls das einzige Mittel gegen Gewalt an Kindern. Das Internationale Netzwerk für Kinderrechte hat in einem Bericht zahlreiche Lösungen skizziert, wie Kindern besser geholfen werden kann.

Machen wir doch mal ein kleines Gedankenspiel: Stellen wir uns vor, in jeder Ecke jeder Kneipe hinge je ein kleines, nicht erkennbares Mikrofon. Jetzt vertrauen wir uns, beim zweiten Bier vielleicht, eine*rm Freund*in an und gestehen, dass wir den neuen Chef überhaupt nicht leiden können; dem Alkohol ist geschuldet, dass wir sagen: Ich ha$$e dieses A****loch! Manchmal könnte ich ihm echt einfach eine reinhauen! Das hört nun das erwähnte kleine Mikrofon und schickt es an eine KI (denn natürlich werden das Client-Side-Scanning und sämtliche anderen Überwachungs-Tools längst nicht mehr von »Männern mit Schlapphüten« analysiert), und die speichert eine »Red Flag« ab – für Gewaltbereitschaft und offensive Sprache. Im Wiederholungsfall wird daraus womöglich eine Terrorismuswarnung.

Übertrieben? Nun: Gesichtserkennungssoftware ist bekanntlich auch eine Art KI, und sie ist – wie alle KI! – bekanntlich fehleranfällig, rassistisch, misogynistisch und noch einiges mehr. Trotzdem wird sie auch herangezogen, wenn es darum geht, Kriminelle zu verfolgen und einzusperren. In den USA hat sie allerdings schon mindestens einmal einen Unschuldigen hinter Gitter gebracht, wie heise online berichtet. Identitätsverwechslung führte schon 2014 sogar dazu – auch das stand seinerzeit in einem heise-Report –, dass in einem Untersuchungsbericht zu Folter durch die CIA zugegeben werden musste, dass eine ganze Reihe von Folteropfern (…) fälschlicherweise festgenommen [wurden] und unschuldig waren. Einer wurde mit Eisbädern gefoltert und 66 Stunden im Stehen wachgehalten, bevor seine Peiniger erkannten, dass er wahrscheinlich nicht der ist, für den er gehalten worden war.

Zugegeben, letzteres ist ein Extremfall. Wenn wir aber Fall eins und Fall zwei verknüpfen, dann entsteht trotzdem eine theoretische Denkbarkeit. Wenn man weiterhin überlegt, welches Verhältnis zur Demokratie einige Hardliner bei den US-Republikanern aktuell haben (zum Beispiel der Ex-Präsident, der durchaus auch mal die Verfassung außer Kraft setzen würde) und in welchem Umfang derzeit extrem rechte, antidemokratische Gruppierungen international in Regierungsämter drängen, dann ist der vorige Abschnitt keine Panikmache, sondern eine Warnung vor durchaus Möglichem.

Um bei unserem Eingangsbild zu bleiben: Natürlich gibt es Menschen mit krimineller Energie, die sich in Kneipen im Flüsterton zu neuen Untaten verabreden. Aber sie sind nur ein kleiner Teil der geselligen Trinker – soll man trotzdem alle belauschen? Benjamin Franklin würde wohl eindeutig »Nein!« sagen, wenn man sich an seine (oft falsch oder verkürzt zitierte) Aussage erinnert: Those who would give up essential Liberty, to purchase a little temporary Safety, deserve neither Liberty nor Safety. Denn die freie Rede und die Privatsphäre sind beides esenzielle Freiheiten, und das anlasslose Abhören und Belauschen gibt allenfalls temporäre Sicherheit. Genügend Studien haben belegt, dass so keine erheblichen Erfolge in der Kriminalstatistik zu verbuchen sind.

Und selbst wenn es momentan danach aussieht, als käme nur eine »Chatkontrolle Light«, so kritisiert der Europa-Abgeordnete Patrick Breyer (Piraten) dennoch, dass Netzsperren weiterhin im Entwurf stehen – und dass Chatkontrolle nach wie vor nicht vom Tisch ist. Es drohe das Ende des digitalen Briefgeheimnisses für die meisten E-Mails und Chats und die Massenüberwachung privater Fotos.

Patchen, patchen, patchen!

+

Die Telecom Italia, der größte Service-Provider unserer südlichen Nachbarn, meldete massive Ausfälle, hauptsächlich bei Festnetz-Verbindungen. Grund ist möglicherweise ein Ransomware-Angriff – und Nachlässigkeit.

Es ist schon erstaunlich, wie laissez-faire der Umgang mit IT-Sicherheit häufig nach wie vor gehandhabt wird. Mal abgesehen von offensichtlich grob fahrlässigen Dingen wie der fortdauernden Verwendung von längst ausgemusterten Systemen wie Windows 7, dessen Support im Januar 2015 endete, von dem aber nach wie vor Millionen ins Netz gehen – 2020 waren das nach einer Schätzung von ZDNET immerhin noch 200 Millionen! –, ist auch das Patch-Verhalten allem Anschein nach nicht der Situation angemessen.

Vom nördlichen Mailand bis zum südlichen Palermo beklagten sich Nutzer gestern über Ausfälle, wie Euronews berichtet. Zwar werden in dem Artikel die Probleme nicht auf Hacking zurückgeführt, aber der zeitliche Zusammenhang könnte zumindest ein Indiz sein, denn zeitgleich warnte die italienische Cyber-Sicherheitsbehörde ACN, dass weltweit tausende Server mit einer Ransomware attackiert würden und Unternehmen Schutzmaßnahmen ergreifen sollten. Es sei eine Software-Schwachstelle missbraucht worden, sagte ACN-Chef Roberto Baldoni gegenüber der Nachrichtenagentur Reuters zunächst nur vage, fügte aber die Worte in massivem Umfang hinzu.

Inzwischen hat heise online gemeldet, dass es Updates zum Schließen der angegriffenen Lücke gibt – und das schon seit geraumer Zeit. Das französische CERT hatte nämlich schon am Freitagabend gewarnt, dass es Angriffe auf eine alte VMware-ESXi-Schwachstelle gebe, die unter CVE-2021-21974 geführt wird und mit dem CVSS-Wert 8.8 als hochriskant eingestuft wurde. Und dann schreibt heise weiter: Zunächst war unklar, ob ein Zusammenhang besteht, inzwischen bestätigt Reuters, dass es um die Schwachstellen geht, für die seit Februar 2021 Patches bereitstehen.

Seit Februar 2021.

Seit zwei Jahren.

Ein wenig erinnert das an die zeitlupenartige Langsamkeit, mit der Microsoft-Exchange-Server upgedatet wurden (und vielleicht sogar immer noch werden…) Zuletzt hatten wir darüber im Dezember 2021 berichtet; zu dem Zeitpunkt waren immer noch um die 13.000 Microsoft-Exchange-Server nicht ausreichend gepatcht.

Is time Tik-ing?

+

Viele ältere Menschen (also, Menschen im erwerbstätigen Alter, nicht etwa nur Senioren) glauben, TikTok sei bloß was für Teenies und noch Jüngere. Das ist aber das Gegenteil von wahr. Zunehmend wird die App daher unter die Lupe genommen.

Musiker und Künstler, politische und Umwelt-Aktivisten, Wissenschaftler und viele andere nutzen das Netzwerk als Plattform, um für sich oder ihre Sache zu werben. Auch Politiker – und das ist zumindest der US-Regierung schon länger ein Dorn im Auge. Daher wurde kürzlich die Verwendung der App auf Smartphones von Abgeordneten und weiteren Regierungsmitarbeitern untersagt. Und mittelfristig könnte sie sogar für sämtliche US-Nutzer verboten werden; das waren schon im September 2021 immerhin 136,5 Millionen Accounts.

Schon jetzt sorgt bei amerikanischen Schülern und Studenten in 25 US-Bundesstaaten das TikTok-Verbot auf staatlichen Geräten für schlechte Laune, wie watson heute berichtet, denn: Bei manchen Colleges können Nutzer:innen nun nicht mehr über deren Geräte oder das Campus-Netzwerk auf die Kurzvideoplattform zugreifen.

Die drei entscheidenden Gründe für die Verbote in den USA fasst Markus Beckedahl für netzpolitik.org zusammen: Die App steht erstens im Verdacht, Desinformation zu betreiben; immerhin steht wohl fest, dass bestimmte Begriffe selektiv gefiltert werden, so dass zum Beispiel Diskussionen über LGBTQ, Drogen, Internierungslager für Angehörige der uigurischen Minderheit, den Krieg in der Ukraine und vieles mehr behindert werden. Zweitens hat dadurch, dass die Betreiberfirma ByteDance nicht unabhängig von der chinesischen Regierung ist, diese wiederum Direktzugriff auf Nutzerdaten – so haben chinesische Sicherheitsbehörden offenbar US-Journalisten getrackt, um Whistleblower ausfindig zu machen. Laut einem anderen netzpolitik.org-Bericht habe ein »Master-Admin« aus Beijing »Zugriff auf alles«.

Drittens schließlich benennt Beckedahl »Geopolitische Dominanz« als Grund für die US-Kritik an ByteDance: Die vergangenen 15 Jahre haben US-Plattformen die Social-Media-Welt dominiert. TikTok ist der erste Konkurrent, der Instagram, Facebook und YouTube auf Augenhöhe begegnet – und diese bald hinsichtlich Nutzungszahlen und Relevanz überholen könnte. Denn zumindest Datenschützern ist klar, dass auch die US-Unternehmen umfassenden Zugriff auf Nutzerdaten haben. Davon profitiert die amerikanische Regierung, die durch den Zugriff auf die Plattformen sehr genau analysieren kann, wer was wo und wie kommuniziert und damit einen globalen Informationsvorsprung hat.

Um die Wogen ein wenig zu glätten, hat ByteDance einen Vertrag mit der US-Firma Oracle geschlossen, der den Betrieb von TikTok auf amerikanischen Servern vorsieht. Und Shou Zi Chew, CEO von TikTok, wird im März vor dem amerikanischen Kongress aussagen. Der dort verhandelte Vorwurf lautet: TikTok, das sich im Besitz von ByteDance befindet, hat der Kommunistischen Partei Chinas wissentlich die Möglichkeit gegeben, auf amerikanische Nutzerdaten zuzugreifen, behauptet die republikanische Abgeordnete Cathy McMorris Rodgers.

Mit einem ganz anderen Ansatz nähert sich die Initiative AlgorithmWatch dem Thema: Sie sucht aktuell nach Datenspendern – also TikTok-Nutzern, die bereit sind, die über sie von der Plattform erhobenen Daten weiterzugeben und analysieren zu lassen. AlgorithmWatch will dem bislang noch rätselhaften und geheimen »Herzen« von TikTok auf die Spur kommen: Wie funktioniert der For-You-Feed? (…) In unserem DataSkop-Verbund aus Forscher*innen, Medienpädagog*innen, Software-Entwickler*innen und Journalist*innen wollen wir deine gespendeten Daten analysieren, damit wir gemeinsam verstehen, wie TikTok-Trends und -Nischen entstehen und vor allem warum.

K.I. = Kein Interesse? (III)

+

Politik und Soziales, Kommunikation und Wirtschaft – das waren die Schwerpunkte der bisherigen zwei Folgen unseres kleinen Dreiteilers. Im letzten Teil nehmen wir jetzt Kunst und Kultur in den Fokus, vor allem die Verwendung von Künstlicher Intelligenz in der (digitalen) Malerei und in der Musik.

Gehen wir doch einfach mal mit der Stellungnahme eines der Großen in der Pop- und Rockmusik ins Thema. Nick Cave schreibt einen regelmäßigen Newsletter, in dem er auch Fragen seiner Fans beantwortet. Mark aus Neuseeland fragte ihn kürzlich: Ich habe ChatGPT gebeten, einen Song im Stil von Nick Cave zu schreiben (…) Was meinst du? Darunter ist der Text abgedruckt, und dann kommt die Antwort des Künstlers: Seit dem öffentlichen Start von ChatGPT habe er Dutzende von Songtexten geschickt bekommen, die der Algorithmus in seinem Stil verfasst habe. Der Absatz endet mit den Worten: This song sucks, aber was Cave vorher schreibt, ist noch weit interessanter: Mir ist klar, dass ChatGPT in den Kinderschuhen steckt, aber vielleicht ist genau das der wachsende Horror im Zusammenhang mit KI, dass sie für immer in ihren Kinderschuhen stecken wird, weil sie immer weiter gehen muss, immmer voran, immer schneller. Sie kann nie zurückgenommen werden oder wenigstens verlangsamt, vielleicht weil sie uns in eine utopische Zukunft treibt – oder unsere völlige Zerstörung.

Wer will, kann dem mittlerweile 65-jährigen Musiker natürlich Rückwärtsgewandtheit vorwerfen oder verletzte Eitelkeit, aber was ist mit all den Maler*innen und Zeichner*innen – traditionellen, mit Öl oder Aquarell, Pinsel oder Stift, Leinwand oder Papier arbeitenden, aber auch digitalen –, die momentan gegen die Hersteller verschiedener Bildgeneratoren klagen, wie DER SPIEGEL vor einer Woche berichtete? Ihr Vorwurf lautet im wesentlichen: KI-Programme wie Midjourney, Stable Diffusion oder auch DALL-E von der KI-Schmiede OpenAI (der Microsoft gerade weitere zehn Milliarden an Investitionen zugesagt hat, obwohl der Konzern andererseits aktuell 10 000 Mitarbeiter entlässt, wie Heise vorgestern schrieb), diese Software also verletze regelmäßig und in großem Stil das Urbeherrecht, weil sie Millionen von urheberrechtlich geschützten Bilder kopiere und zum Training der Algorithmen verwende. Zu den Klägern zählt auch Getty Images, eine der größten Bildagenturen der Welt.

Kurz zur Erklärung: Solche Programme wandeln einen Textbefehl wie zum Beispiel Gigantischer Untersee-Leviathan im Stil der ›Sternennacht‹ von van Gogh in ein Bild um. Ob das Ergebnis gelungen ist, mag eine Frage persönlichen Geschmacks sein. Und es mag sein, dass dem Künstler in diesem speziellen Fall egal ist, was mit seiner Kunst passiert, weil er längst nicht mehr lebt. Für zeitgenössische Kreative aber ist dieses Vorgehen existenzbedrohend. Der Name des polnischen Digitalkünstlers Greg Rutkowski ist einer der am häufigsten verwendeten Eingabevorschläge bei Stable Diffusion, unzählige KI-Bilder in seinem Stil wurden bereits erzeugt – rund 93 000 mal, wie heise online schon im vergangenen Oktober schrieb; der Künstler ist über die tausende Suchergebnisse, die sein Name mittlerweile hervorbringt, alles andere als glücklich: Es ist erst einen Monat her. Wie wird es in einem Jahr aussehen? Wahrscheinlich werde ich meine Werke nicht mehr finden können, weil [das Internet] mit KI-Kunst überflutet sein wird. Das ist besorgniserregend.

Um auch andere Einschätzungen zu Wort kommen zu lassen: Das Magazin Kunstleben Berlin schreibt in einer Kolumne: Immer mehr Digitalkunstwerke, geschaffen von intelligenten Algorithmen, sowie die NFTs (Non Fungible Tokens), die die Kunst nicht nur digital vermitteln, sondern auch zum Unikat erklären, strömen auf dem Kunstmarkt. Im ersten Quartal 2021 wurden 10 % des weltweiten Umsatzes im Kunstmarkt über NFTs erzielt. (…) Der Deutsche Künstler Mario Klingemann (…) gilt als Pionier auf dem Gebiet der KI-Kunst. (…) Klingemann sagt von sich selbst, dass er gar nicht malen oder zeichnen könne. Doch das ist auch nicht nötig, weil er gut sei im Programmieren.

Wenn KI Bilder »malt« und Musik »komponiert«, passiert noch etwas anderes: Die Kunst-Wahrnehmung des Publikums ändert sich. Ein schon länger existierendes Beispiel dafür ist Auto-Tune, eine Software, die – hauptsächlich bei menschlichem Gesang – die Tonhöhe »korrigiert«. Das wird manchmal als Effekt verwendet, wie zum Beispiel in Songs der US-Sänger und Rapper T-Pain und Travis Scott, meist aber als Werkzeug, um nicht ganz perfekt intonierte Gesangsspuren zu »begradigen« – zunehmend auch bei Live-Auftritten. In der Folge empfinden schon jetzt, nach nur rund zwei Jahrzehnten Auto-Tune-Nutzung, viele Hörer unbearbeiteten Gesang als »falsch«. Sehenswert dazu ist ein (englisches) Video, das die Verwendung von Auto-Tune beim Gesang von Freddy Mercury in einer neuen Queen-Single anprangert – völlig zu recht und gut begründet. (Kleine Randnotiz: Dass Madonna ihren Auftritt beim Eurovision Song Contest 2019 im Nachhinein mit Auto-Tune hat bearbeiten lassen, war vielleicht sogar tatsächlich ganz angebracht…)

Immer »richtig« singen hingegen die KI-erzeugten Stimmen von Vocaloid. Die neueste Version VOCALOID6 uses AI technology to generate a highly expressive singing voice that’s more natural than ever before. Es geht also erklärtermaßen darum, Sänger*innen überflüssig zu machen. Die auf der Website eingebetteten Klangbeispiele dürften manchen Hörer*innen aktueller Popmusik kaum noch als synthetisch auffallen; ebenso wenig wie die KI-erzeugten Sprecher und Sprecherinnen, die inzwischen sehr häufig in Social-Media-Videos zum Einsatz kommen: Anbieter solcher Software heißen Resemble AI, Big Speak oder Murf AI.

Ein wichtiger Satz im vorletzte Woche bereits verlinkten SPIEGEL-Netzwelt-Newsletter lautet: Die Technik ist frei verfügbar und lässt sich nicht mehr einfangen. Das entspricht im wesentlichen dem, was Nick Cave in seinem Newsletter schrieb, denn eine Maxime des Silicon Valley und verwandter IT-Entwicklergruppen lautet: Shoot first, apologise later. Sinngemäß etwa: Erstmal machen. Denn die nachträgliche Entschuldigung bleibt meist aus.

Weder die Gesetzgebung, noch ethische, urheberrechtliche, künstlerische oder philosophische Debatten kommen in dieser Welt des hastigen Handelns noch der Entwicklung hinterher. Deswegen ist es fast schon »fünf nach zwölf« für eine grundlegende Auseinandersetzung mit dem vielfältigen Thema KI.

Bisher ist eine solche aber nach wie vor nicht in Sicht. Nicht unwahrscheinlich daher, dass Cave mit seiner Einschätzung gar nicht so falsch liegt: Judging by this song ‘in the style of Nick Cave’ though, it doesn’t look good, Mark. The apocalypse is well on its way.

Hier zum Weiterlesen und vielleicht auch zum selbst Ausprobieren noch eine Reihe von Links:

K.I. = Kein Interesse? (II)

+

In der letzten Folge ging es um die Verwendung von KI in der Politik und um ihre sozialen Folgen. Diesmal sind Kommunikation und Wirtschaft dran, und da vor allem das wohl größte Hype-Thema der letzten Monate: ChatGPT.

New York City hat bereits reagiert: An den Schulen der Ostküsten-Metropole ist ChatGPT verboten, berichtete CNN vor anderthalb Wochen. Jenna Lyle, stellvertretende Pressesprecherin der öffentlichen Schulen von New York, wird in dem Artikel mit den Worten zitiert: Wegen Bedenken über negative Auswirkungen auf das Lernen der Schüler und die Sicherheit ebenso wie die Genauigkeit der Inhalte ist der Zugang zu ChatGPT in den Netzwerken und auf den Geräten der öffentlichen Schulen von New York City eingeschränkt. Der Verband Bayerischer Realschullehrer (BRLV) geht (noch) nicht so weit, fordert aber immerhin die deutsche Politik auf, die Entwicklungen von KI und deren Einsatz an Schulen nicht zu verschlafen, wie DER SPIEGEL berichtet.

Für alle, die noch nicht im Thema sind: ChatGPT ist eine Entwicklung von OpenAI, einer von Microsoft und Elon Musk gesponsorten KI-Entwicklerschmiede, die seit dem vergangenen November öffentlich nutzbar ist. Es handelt sich dabei um einen Chatbot, also ein textbasiertes Dialogsystem, das Chatten mit einem technischen System erlaubt (Wikipedia). Die Abkürzung GPT steht dabei für Generative Pretrained Transformer, und nach GPT 2 und GPT 3 ist nun ChatGTP so leistungsstark, dass die Antworten auf beliebige Fragen durch die Software oft beeindruckend überzeugend ausfallen. Nicht zuletzt, da der Algorithmus aus jedem geführten Dialog lernt.

ChatGPT kann jede nur denkbare Form von Text erzeugen; bisher zwar nur auf Englisch, aber wer andererseits die exzellente Übersetzungssoftware DeepL kennt, ahnt, dass internationalisierte Versionen schon hinter der nächsten Ecke warten. Tatsächlich könnten Schüler dann mogeln und ihre Hausarbeiten von der Software schreiben lassen, aber viel relevanter dürfte der kommerzielle Einsatz in der Wirtschaft sehr bald werden: Werbe- und Erklärtexte von der Maschine könnten schon bald Texter überflüssig machen, und für die Einschätzung, dass in nicht allzu langer Zeit die Kundenservice-Chats von Unternehmen ausschließlich AI-gestützt sein werden, braucht es keine hellseherischen Fähigkeiten. Und auch komplexere Texte sind kein Problem mehr, wie Sascha Lobo in einem, wie immer, sehr guten Beitrag für den SPIEGEL veranschaulicht.

Da drängt sich eine Vision auf, die schon lange Zukunftsforscher*innen, Science-Fiction-Autor*innen, Philosoph*innen und viele andere beschäftigt: Nachdem unintelligente Roboter bereits große Teile der manuellen Arbeitsplätze ersetzt haben, werden zukünftig auch »intelligente« Systeme die geistigen Arbeiter*innen und andere Dienstleister*innen ersetzen?

Immerhin erzählte Twitter-Nutzer Jason Colavito am 7. Januar: Ein Kunde hat mich informiert, dass er mich nicht länger dafür bezahlen werde, Inhalte für seine Website zu schreiben, denn KI könne sie kostenlos schreiben; aber er werde mir einen Bruchteil meines üblichen Stundensatzes dafür bezahlen, dass ich [die erzeugten Inhalte] mit anderen Worten ›umschreibe‹, so dass sie Googles KI-Erkennungsroutinen entgehen.

Auch andere sehen viele Jobs verschwinden; Nina Jerzy schrieb schon vor vier Jahren für das Wirtschaftsmagazin Capital zum Beispiel: Versandhändler wie Zalando und Otto lassen mittlerweile ihre Produktbeschreibungen von einer Software schreiben. Getestet würden auch längst KI-gestützte Roboter als Verkaufs-, Service- und Pflegekraft, in autonom fahrenden Bussen, im journalistischen Einsatz ([…] bei einfachen Sachverhalten im Nachrichtenbereich sind automatisierte Prozesse bereits im Einsatz. Die Programme ›schreiben‹ Wetterberichte, informieren über Fußballergebnisse oder Aktienkurse) und an der Börse: In den USA steuern Algorithmen Schätzungen zufolge bereits bis zu 80 Prozent der Transaktionen. In Deutschland soll der Anteil des sogenannten Algo-Tradings bei etwa 60 Prozent liegen.

Mathias Wengeler, Gründer und CEO des Wirtschaftsdienstleisters Atheneum, sieht das Thema berufsbedingt gelassener; er sah ebenfalls schon 2019 in einem Beitrag für MoreThanDigital voraus, dass KI nicht die Menschen ersetzen werde, denn die menschliche Kreativität sei unverzichtbar. Er sieht eine kommende enge Zusammenarbeit: Zum einen braucht es den Menschen, um KI zu programmieren und ›die richtigen Fragen zu stellen‹. Und zum anderen liegen die Stärken des Menschen genau dort, wo die Schwächen der KI liegen – und andersrum. Ein Zusammenspiel beider Parteien ist am effektivsten, um einen optimalen Arbeitserfolg zu ermöglichen. Da würde Jason Colavito wohl dankend ablehnen.

Nächste Woche wird sich der dritte und letzte Teil unseren kleinen Serie mit KI im kulturellen Bereich beschäftigen, vor allem in der bildenden Kunst und in der Musik.

K.I. = Kein Interesse? (I)

+

Die Haltung aus der Überschrift ist die wohl denkbar schlechteste Position, die man zum Thema Künstliche Intelligenz einnehmen kann. »Was geht mich das an?« ist nicht die Frage, die sich stellt. Denn tatsächlich geht KI uns alle an. Mehr oder weniger, früher oder später, aber niemand wird unberührt bleiben.

Und genau jetzt ist wohl der spätestmögliche Zeitpunkt, sich intensiver mit selbstlernenden Maschinen zu beschäftigen. Denn im gerade vergangenen Jahr haben verschiedene KI-Anwendungen enormen Aufwind bekommen – Algorithmen, die imstande sind, auf alle möglichen Fragen überzeugend sinnvolle Antworten zu geben, die nur mittels einer Texteingabe Bilder im Stile berühmter (oder auch weniger berühmter) Maler*innen gestalten können, die Filmmusik komponieren oder sogar die Haupt-Gesangsstimme in einem Popsong künstlich erzeugen können.

Heute, in der ersten Folge unseres kleinen Dreiteilers, soll es aber zunächst mal um politische und soziale Konsequenzen aus dem Einsatz Künstlicher Intelligenz gehen.

Schon seit geraumer Zeit gibt es KI (oder im Englischen AI, für »Artificial Intelligence«), die automatisch Drohnen steuert und (menschliche) Ziele bombardiert, die entscheidet, welche*r Bewerber*in einen Job bekommt, wer welche Versicherungsprämien zahlen muss, wer für eine neue Wohnung den Zuschlag bekommt. Auch schon seit einer ganzen Weile im Gespräch (und im Einsatz!) ist Gesichtserkennung – da gibt es einen aktuellen Fall: Im US-Bundesstaat Lousiana wurde ein Schwarzer fälschlicherweise eine Woche lang ins Gefängnis gesperrt, weil die Gesichtserkennungs-Software einen Fehler gemacht hat, berichtete am Montag vor einer Woche das Newsportal nola.com; am Donnerstag nahm auch der SPIEGEL das Thema auf. Ebenfalls dort erschien schon Mitte Dezember ein Netzwelt-Newsletter mit dem Titel Jedes Ihrer Fotos kann gegen Sie verwendet werden. In mehreren dort zitierten und verlinkten Artikeln (…) geht es immer auch darum, wozu Menschen die neue Technik bereits missbrauchen, weil ihr die Sicherheitsschranken fehlen, wie Autor Patrick Beuth schreibt.

Zum Beispiel: Deep Fakes. Der englische Begriff beschreibt das Ersetzen von Gesichtern oder Ganzkörper-Darstellungen mit denen von existierenden Personen. Patrick Beuth beschreibt ein Experiment des Magazins Ars Technica: Mittels einer Ergänzung für den Text-zu-Bild-Generator Stable Diffusion namens Dreambooth erzeugte die Redaktion – wiederum mit KI – (…) Bilder einer nicht existenten Person, die sie John nannte, und fütterte Dreambooth damit. Im Anschluss konnten die Journalisten »John« jeweils in Sekundenschnelle zum Clown, zum Anhänger einer paramilitärischen Gruppe, zum Einbrecher, zum Pornostar oder zum Drogenkonsumenten machen.

Wie weiter oben schon erwähnt, rüsten auch Versicherungsunternehmen aktuell massiv auf Künstliche Intelligenz um. Die KI-Marketingfirma datasolut beschreibt auf ihrer Website die – zumindest aus ihrer Sicht – Vorzüge des Einsatzes von KI in der Versicherungsbranche, zum Beispiel so: (…) bis zum Jahre 2025 [sind] ca. 25% des Arbeitsaufwands aufgrund von künstlicher Intelligenz und maschinellem Lernen automatisiert (…) entstehen unterschiedliche Tarife, bei denen risikoreichere Kunden mehr bezahlen müssen als Personen welche vorsichtiger sind (…) Versicherer [können] ihre jährlichen Einsparungen im Jahr 2023 vergleichsweise zum Jahr 2019 um mehr als das Vierfache steigern (…) Dieser letzte Halbsatz macht die KI vermutlich besonders attraktiv. Und wenn Maschinen ermitteln, wer als »risikoreicher« und wer als »vorsichtiger« gilt, dann ist der »gläserne Bürger« keine Zukunftsvision mehr.

Schade nur, dass sich KI immer wieder irrt – siehe oben. Daher zieht der deutsche Unternehmer und Politiker Harald Christ in einem Handelsblatt-Gastbeitrag das Fazit: Wer aber die KI-Algorithmen gebaut hat, die uns Produkte empfehlen und im Zweifelsfall über unsere Jobchancen, Gesundheit oder Kreditwürdigkeit entscheiden, danach fragen wir nicht. Ich denke, zumindest das sollten wir künftig verstärkt tun.

In der nächsten Woche wird es um den Einsatz von KI in der Wirtschaft gehen, vor allem um den Kommunikationsroboter ChatGPT – und um die Frage, ob und in welchem Umfang Arbeitsplätze durch KI verlorengehen.

← Tech-News — Aktuell