Daniel Mendes: Hallo und herzlich willkommen zu einer weiteren Folge Tech und Trara. Ich bin Daniel Mendes Jenner vom Common Grounds Forum und heute nicht alleine, sondern mit einem wunderbaren Gast, Rainer Rehak, ein alter Bekannter des Forums. Was es damit genau auf sich hat, das erzählt er am besten selbst. Erstmal sehr cool, dass du da bist, vielen vielen Dank.
Rainer Rehak: Ja, danke für die Einladung. Hallo.
Daniel Mendes: Das Spannende an Rainer ist, dass er sehr aktiv am Weizenbaum Institut ist. Und ich muss sagen, ich bin selbst kein Experte für Digitalisierung, der Name war mir vorher auch gar kein Begriff. Vielleicht magst du mal kurz erklären, was es mit dem Institut auf sich hat, was du da machst und welche fachlichen Schwerpunkte du so mitbringst.
Rainer Rehak: Gerne. Das Weizenbaum Institut wird direkt vom Bundesministerium für Bildung und Forschung, was ja inzwischen Forschung, Technologie und Raumfahrt heißt, finanziert. Es wurde 2017 gegründet, als eine Art Gegenkonzept zum Berkman Klein Center oder dem Oxford Internet Institute, also ein großes interdisziplinäres Forschungsinstitut in Deutschland, was sich mit Digitalisierung beschäftigt, mit einem positiven Gestaltungswillen. Und es ist benannt nach Josef Weizenbaum, einem der KI-Pioniere, der aber KI sehr früh sehr kritisch gesehen hat. Er hat ein berühmtes Paper geschrieben über seinen Chatbot ELIZA im Jahr 1966 und war sehr dagegen, dass man der KI zu viel zuschreibt, weil das aus seiner Sicht gesellschaftsschädlich ist. Und diese kritisch konstruktive Sichtweise findet sich eben auch im Institut. Da arbeiten so rund 200 Leute.
Rainer Rehak: Ich selbst bin da irgendwo zwischen Philosophie und Informatik, promoviere gerade und mache aber auch sozialwissenschaftliche Theorien. Ich komme ursprünglich aus dem kollektiven Datenschutz, aus der systemischen IT Sicherheit, das heißt, Fragen, die über das Individuum hinausgehen. Und ich arbeite auch zu so Dingen wie digitalem Dekolonialismus, demokratische Technikgestaltung und epistemischen Fragen – also wer wird eigentlich gehört bei der Frage, was automatisiert wird und wie. Und neben meiner Tätigkeit am Weizenbaum Institut bin ich auch noch aktiv im Forum Informatikerinnen für Frieden und gesellschaftliche Verantwortung – das wurde mitgegründet von Josef Weizenbaum – und bei Bits und Bäume, wo wir Hacker und Ökos zusammenbringen, weil wir gemeinsam an einer lebenswerten Welt bauen.
Daniel Mendes: Ich muss sagen, ich bin gerade ganz begeistert, die Redaktion hat einen exzellenten Job gemacht denn alles, was du gerade erzählt hast, steht genau so in deinem Lebenslauf. Sehr gut, du hast nichts vergessen. Was mir aber aufgefallen ist: Du hast nicht nur in Berlin, sondern auch in Hongkong studiert. Das finde ich super spannend. Wie lange warst du da und wie hat das deine Sicht auf das Thema geprägt?
Rainer Rehak: Ich war ein Jahr in Hongkong – Auslandsjahr – und das war eine Stadt, die mich immer schon interessiert hat. Ich habe dort Informatik und Philosophie parallel studiert. Hongkong ist eine krasse Cyberstadt, sehr durchdigitalisiert, aber gleichzeitig war es ja auch immer ein Tor nach China, also ein sehr westlich offenes China, sozusagen. Ich konnte da Chinesisch lernen, mich mit chinesischer Philosophie beschäftigen, aber auch gleichzeitig auf Englisch studieren. Und ich glaube, das hat meine Perspektive total verändert. Also weil man merkt, dass Weltanschauung eben sehr unterschiedlich sein kann. Natürlich sind Grundwerte wie Familie, Freundschaft, Liebe, Anerkennung – sowas ist immer gleich, egal wo man ist, aber kulturell prägt sich das anders aus. Und ich fand total spannend zu sehen, wie plötzlich Dinge ganz anders wirken, wenn man sich mit Daoismus beschäftigt zum Beispiel. Und die Stadt hat sich selber lange als City of Convenience bezeichnet, weil alles eben durchdigitalisiert ist. Aber in den Protestbewegungen – Umbrella Revolution, aber auch 2019 – wurde dann klar, wie aus einer Convenience Technologie ganz schnell eine Überwachungs-Technologie werden kann. Und ich war bei ein paar Protesten dabei und es war eindrücklich zu sehen, wie Leute Kameratürme umgehauen haben, aber nicht aus Aggression, sondern aus Selbstschutz, weil wenn die Maske verrutscht, dann sieht man das Gesicht und das landet dann vielleicht bei den chinesischen Behörden. Und das hat reale Konsequenzen. Und ich war später auch noch in Peking und in Chongqing für eine Weile.
Daniel Mendes: Da wollte ich auch immer hin. Wunderbare, faszinierende Stadt.
Reiner Rehak: Also Chongqing ist, das kann man vielleicht mal sagen, eine Stadt mit rund 36 Millionen Menschen im Einzugsgebiet, also etwa halb so groß wie Deutschland, aber in Deutschland eigentlich total unbekannt. Eine echte Cyberstadt. Darüber könnte man mal einen eigenen Podcast machen.
Daniel Mendes: Ich finde das auch super interessant. Ich habe selbst relativ viel Bezug zu China. Ich war letztes Jahr in Shenzhen, auf einer technologiebezogenen Rundreise durch China. Und Shenzhen ist ja gewissermaßen das Festland Pendant zu Hongkong, auch sehr durchdigitalisiert und wahnsinnig schnell gewachsen. Und ich weiß noch, wie viele neue Eindrücke ich da mitgenommen habe. Da ist mir nochmal klar geworden: Man kann eine Gesellschaft sehr stark durchdigitalisieren, das macht sie effizient, aber wie du sagst – Convenience und Kontrolle brauchen beide Daten. Und sobald die Daten da sind, ist es nur noch eine Frage der Zeit, bis man sich traut, mehr damit zu machen. Und deshalb finde ich unser heutiges Thema auch so wichtig. Wir wollen ein bisschen über den aktuellen KI Hype sprechen: Welche ethischen Fragen stellen sich da, welche Nachhaltigkeitsfragen und wann ist dieser Hype eigentlich gut und wann ist er vielleicht auch schlecht. Und ich habe da direkt mal eine erste Frage an dich, ganz plump: Warum ist KI eigentlich gerade so ein Thema, was ist der Auslöser?
Rainer Rehak: Also es hat diverse Gründe und man kann erstmal vorne wegschieben, es gab schon immer Wellen des KI-Hypes. Es gibt Zitate aus den 70ern von Hubert Dreyfus, wo er ein bisschen kritisch schreibt: “Jeden Tag lesen wir, dass die Computer Sprachen verstehen und Muster erkennen und uns die Jobs wegnehmen”, 1972 war das, das muss man sich vorstellen. Das sind so ähnliche Diskussionen, die wir jetzt auch führen. Es ist aber technisch natürlich viel passiert. Also die Konzepte, die wir jetzt sehen, so gerade in Large Language Models, die ja berühmt geworden sind nach ChatGPT 2022, die Konzepte und Prinzipien, sind schon aus den 50ern, der Begriff KI ist aus den 50ern, und dann gab es aber noch so ein paar Durchbrüche mit so künstlichen neuronalen Netzen und so Deep Learning Ideen, also sozusagen die bestimmte Architektur, die jetzt benutzt wird. Da gab es in den 80ern, 90ern Durchbrüche in den 2010ern auch nochmal. Und was jetzt eigentlich so technisch passiert ist, kann man sagen, dass jetzt einerseits Rechenleistung, also wie sich die Transistoren und so weiter entwickelt haben und auch die Grafikchips, das hat sich sozusagen sehr rasant entwickelt und gleichzeitig ist aber auch jetzt die Datenlage so, dass wir über so ziemlich fast alles und fast jeden Daten haben, Stichpunkt Web 2.0, aber auch Smart City und überhaupt so Überwachungs Kapitalismus. Und jetzt habe ich quasi die Rechenleistung, die Konzepte sind da und die Datengrundlagen sind da und jetzt kann man da loslegen, und man muss auch sagen, der Clou bei ChatGPT war ja gerade, dass es eigentlich eine Browser-Anwendung ist. Also ich musste halt nicht in irgendwelche Spezialräume gehen oder das schwierig zu benutzen ist oder so, sondern es ist halt ein System, was über Natursprache, natürliche Sprache sozusagen kommuniziert. Und das war natürlich ein super Knaller. Und dann, wenn man sich ein bisschen länger damit beschäftigt, so wie ich es auch tue, dann erkennt man, dass da auf einmal diese ganzen Wünschen und Träume und aber auch das Geld genau da andockt an dieser scheinbaren Menschenähnlichkeit und der scheinbaren Überlegenheit und der scheinbaren sozusagen künstlichen Produktion von Intelligenz. Genau, das wäre die Kurzantwort. Und es gibt natürlich auch eine ganze Menge Narrative, also dass so die KI auch selbst Sachen entscheiden kann und dass sie handeln kann und dass sie Sachen erkennt und dass sie kommuniziert. Beim genaueren Hinkommen sind es aber alles die Begriffe die nicht passen, weil sozusagen das ein System ja nicht entscheidet. Wir bauen es ja und wir setzen dann so Optimierungskriterien an. Was wollen wir haben? Trainieren es auf den Sachen, die uns gefallen. Das, was uns nicht gefällt, das nehmen wir halt raus. Also da ist sozusagen ganz viel menschliche Arbeit steckt da drin. die Daten zu kuratieren und zu kategorisieren und so, und ganz zum Schluss kommt da ein System raus und dann sagen wir, die KI hat nichts getan, obwohl da Tausende bis Hunderttausende von Menschen dran gearbeitet haben und die Daten von Millionen von Menschen eingeflossen sind. Und das kann man natürlich dann so formen, wie man es gerade braucht. Das heißt, sagen, die KI hätte was gesagt oder getan oder so, oder könnte Verantwortung übernehmen oder so. Das sind halt alles Bilder, die sich gerne weiter weitertragen, wenn man die Technik nicht versteht. Und der nächste Punkt ist, da steckt jetzt auch sehr viel Geld drin und ab einem bestimmten Punkt sozusagen trägt sich das dann immer weiter, weil dann mehr Geld reingesteckt wird und dann gucken auch andere, warum wird da so viel Geld investiert und dann investieren andere auch und so weiter. Also wenn man sich mal The Forbes oder Economist oder so anguckt, da mehren sich jetzt seit einem Jahr die Artikel, die schreiben wo ist denn der wirtschaftliche Nutzen?, der Return of Revest? Wir sehen das alles nicht, die einzigen die gerade was verdienen, sind so Nvidia und wie man immer so schön sagt, im Goldrausch gewinnen die am meisten, die die Schaufeln verkaufen und so ist es gerade auch.
Daniel Mendes: Ja, es klingt für mich so, als wenn wir da noch ins Detail gehen müssen, weil du hast ja schon die Medien genannt und das klingt für mich gerade so, als wenn die Medien jetzt gar nicht dazu beitragen würden, dass der Hype größer wird, sondern den eher so bisschen kritisch beäugen. Wir haben da natürlich Leute, die da sehr, sehr viel Geld reinstecken und am Ende ja noch gar nicht so viel Geld daraus zurückkriegen, sondern vor allem Daten. Wer sind denn die Player oder wer sind die ganzen Akteurinnen, die derzeit das Thema vorantreiben, dass es ein Hype bleibt? Wer hat da ein Interesse daran?
Rainer Rehak: Also es ist eine sehr komplexe Gemengelage, würde ich sagen, vor allem, weil das ein globales Phänomen ist. Aber man kann schon sagen, man guckt sich die Mediendynamik an und dann will man Schlagzeilen machen und will wieder über die neueste Technologie schreiben, und bei KI kann man sich auch immer Anleihen nehmen,wie bei Science-Fiction-Filmen. Da werden dann Geschichten wie: “Jetzt haben die in einer geheimen Sprache gesprochen und dann sind alle erschrocken. Stimmt alles überhaupt nicht, wenn man da reinguckt und das versteht, ist das alles ein Missverständnis oder irgendwelche Einzelprogrammiererinnen bilden sich dann mal ein gegen alles, was wir philosophisch wissen und alles, was wir psychologisch wissen, dass sich Bewusstsein gebildet hätte. Das wird dann aber immer auch schön weiter transportiert. weil es halt eine Schlagzeile ist, wo man dann Klicks abgreifen kann. Andererseits haben wir aber auch die Wissenschaft, die da nicht unbeteiligt ist. Denn wenn es sozusagen forschungspolitisch KI gefördert werden soll, dann sind natürlich auch Anträge besonders schön, wo es um KI geht. Muss man, glaube ich, auch nochmal dran erinnern, der Begriff KI an sich in den 50ern entstanden, primär um Forschungsgelder einzuwerben. Der Bereich hieß vorher Intelligence oder Automatentheorie, das sind beides nicht so schöne Begriffe, aber Artificial Intelligence, da ist ein Glitzer mit drin. Und dann gibt es Geld für KI. Natürlich springen dann auch die Wissenschaftler drauf. Und es gibt natürlich auch diverse Staaten, die da investieren wollen, habe ich schon genannt, und es gibt auch einen riesengroßen Sektor, der gerade investiert und Geld verbrennt ohne Ende. Also auch OpenAI usw, die schreiben alle keine schwarzen Zahlen. So ein bisschen der Uber-Effekt, da wird dann gesagt, wir müssen mehr Geld reinwerfen und irgendwann finden wir die Super Anwendung, so kommt das ganze Geld zurück, und wenn ich da natürlich mein Geld drin habe, dann will ich auch das es im Gespräch bleibt, daher sagt ein Elon Musk wieder irgendwas über KI oder ein Sam Altman wieder was. Die werden ja gefeiert wie die Könige. Das sieht man hier, wenn Sam Altman an die TU Berlin kommt, da steht dann auch die Politik-Schlange.
Daniel Mendes: Voller Seele, voller Seele.
Rainer Rehak: Letzter Punkt, man muss leider nennen, es gibt auch eine ganze Menge Leute, die zwischen Technik und Esoterik stehen, die tatsächlich an die Ankunft der übermenschlichen Intelligenz glauben und den Transhumanismus. Die sind so ein bisschen, so willfährige Handlanger dieser Bewegung. Auch diese Long-Term-Isme usw und die glauben das ganz wahrhaftig, dass das gut ist für die Menschheit, wenn die KI uns retten wird, die helfen natürlich denen, die die ganzen Interessen haben, mit ideologischer Unterstützung und diskutieren mit den KritikerInnen usw. Das gibt es leider auch.
Daniel Mendes: Sind das viele?, von der Gruppe habe ich bisher noch gar nicht so viel gehört. Das finde ich gerade total spannend.
Rainer Rehak: Ich meine, wenn man sich früher so Transhumanismus anguckt und der Mensch dann so upgedatet wird, Raymond Kurzweil ist also ein Vertreter davon, einer der Begriffe ist auch die Singularität. Das ist der Moment, wo die KI schlauer wird als die Menschen, das ist alles immer nur so Comic-Stil. Ich sag mal, viele Leute, die sich für Science-Fiction interessieren, haben so einen Hang dazu. Es werden in dem Sinne auch immer mehr, weil das so diese Test-real-Religion, könnte man sagen ist. Das ist ein Sammelbegriff für all Glaubenskonzepte und ist sehr weit verbreitet, auch im Silicon Valley, wo Leute deswegen da hingehen und dann werden irgendwelche Institute, pseudowissenschaftliche Institut gegründet und dann wird dafür Geld ausgegeben und dann zieht das auch diese Menschen an, so werden es immer mehr. Das ist, ich könnte jetzt keine Prozente sagen, aber ich würde denken,in jedem beliebigen Hacker-Space muss man nur mal zwei Stunden rumlaufen, da wird man Menschen treffen, die auch so denken. Daniel Mendes (17:40:000) Das finde ich supper interessant und ich würde auch behaupten, dass das eine Sache ist, die ich jetzt im öffentlichen Diskurs bisher noch gar nicht so stark wahrgenommen habe. Das passt generell zu einer Sache, die mich dabei auch ein bisschen beschäftigt. Und zwar würde ich mal gerne mehr auf den Zahn fühlen, was die Themen sind, die derzeit auf der Strecke bleiben, weil ich das Gefühl habe, alle sprechen gerade über KI. Wenn ich durch LinkedIn scroll, diskutieren alle gerade vor allem darüber ob Sie jetzt Ihre Linkedin Beiträge von KI schreiben lassen sollten oder nicht und wie schlimm es denn sei, dass die anderen jetzt nur noch KI-Bilder benutzen und keine normalen Bilder mehr das sind wirklich anwendungsbasierte Diskussionen über die kleinen Details. Aber was sind denn die großen Fragen, die im öffentlichen Diskurs bisher vollkommen untergehen?
Rainer Rehak: Also die Diskussion kriege ich ja auch mit und ich denke immer, wenn auch nur genauso viele oberschlaue, gebildete, intelligente Leute sich damit beschäftigen würden, wie wir die großen Probleme unserer Zeit lesen könnten, dann wären wir schon ein Stück weiter, aber stattdessen beschäftigt man sich dann nur mit diesen technischen Fingerübungen. Was fehlt, würde ich sagen, sind die Player, die da eine Rolle spielen, ich glaube, das wird sehr selten im öffentlichen Diskurs thematisiert, also, ich sag mal, der übergroße Teil der Entwicklung von KI findet in privaten Händen statt nicht über die Forschung an Universitäten oder so, das heißt, dass die Entwicklung solcher, eindrucksvollen Systeme allein durch den Markt geregelt oder halt auch nicht geregelt wird. Dass man aber solche Systeme auch ganz anders bauen könnte,zb könnte man da ganz alternativ rangehen, oder aber auch so Diskussionen, welche Art von KI und nicht technischen Ansätzen es da eigentlich schon gibt für bestimmte Probleme. Ein neues Beispiel war, vor ein paar Jahren, ich glaube von Waymo, da gab es die Idee, wäre es nicht toll, wenn wir nicht Autos haben die man ruft, sondern Autos haben, die einfach ein bisschen größer bauen und dann fahren die so feste Linien ab. Dann weiß man immer, wo man hingeht, vielleicht haben die sogar so einen Zeitplan. Und alle, die nicht in diesem sozusagen KI-Hype, Urbarisierung und so weiter System stecken, dachten so, wow, das Silicon Valley hat den öffentlichen Personennahverkehr entdeckt. Da merkt man diese Ansätze, ein weiteres Beispiel ist, man kann natürlich KI benutzen, um Parkplatzsituationen in Städten zu optimieren, ich kann aber auch überlegen, ob nicht vielleicht eine Fahrradstadt alle Probleme und noch viel mehr löst. Also dieser Technik Fokus, der ist meiner Meinung nach in diesem öffentlichen Diskurs viel zu viel, sodass wir eigentlich die ganze Zeit so technische Details unterhalten, aber eigentlich die größeren Fragen, die wir mit dem System lösen oder dem System lösen wollen, gar nicht so richtig lösen können. Man kann es noch ganz konkret machen, es gab mal, ich glaube 2019 so eine systematische Umfrage von Start-ups, wo dann raus kamen: 40 Prozent der Start-ups, wo KI im Namen stand, das war gar keine KI, es war irgendwie so Gigworker in Indien. Das waren einfach andere Systeme, zum Beispiel jetzt Klarna:Das ist einfach, also da merkt man so ein bisschen diese Ansätze. Ein klassisches Beispiel ist irgendwie, man kann natürlich KI benutzen, um irgendwelche Parkplatzsituationen in Städten zu optimieren. Ich kann aber auch überlegen, ob nicht vielleicht eine Fahrradstadt alle Probleme und noch viel mehr löst. Also sozusagen dieser Technikfokus, das fehlt, also der ist meiner Meinung nach in diesem öffentlichen Diskurs viel zu viel. Sodass wir eigentlich die ganze Zeit so technische Details unterhalten und aber eigentlich so die größeren Fragen, die wir eigentlich mit dem System lösen oder den System lösen wollen, gar nicht so richtig aufkommen. Und man kann es noch ganz konkret machen. Es gab auch mal so, ich glaube, 2019 auch mal so eine systematische Umfrage von Start-ups, wo dann raus kamen 40 Prozent der Start-ups, wo KI im Namen stand, das war gar keine KI. Das war irgendwie so Gigworker in Indien. Das waren einfach andere Systeme. Oder zum Beispiel Klarna. Vor einem Jahr hat Klarna, als Finanzdienstleister, gesagt sie würden ihren Kundendienst Komplett ersetzen und waren sehr stolz darauf, dass so ein großes Sprachmodell ihre 700 Mitarbeitenden ersetzt, sie haben das mit Trara angekündigt, die Medien waren voll davon. Ich glaube, seit zwei Monaten gab es eine Pressemitteilung, dass sie jetzt wieder Leute einstellen. Das hat jetzt nicht so richtig funktioniert und die Leute, die jetzt eingestellt werden, werden jetzt ein großer Teil davon sein und die werden dann KI-Systeme nutzen. Diese Meldung hat sich aber nicht so weit verbreitet. Das heißt sozusagen, was Leute immer noch so unbewusst im Kopf haben ist, KI nimmt die Arbeitsplätze weg und dann funktioniert alles so super und so weiter. Aber diese ganzen Fails, die meisten KI-Ansätze, die funktionieren tatsächlich überhaupt nicht so richtig. Das ist auch, und darüber sollten wir diskutieren, was Klarna jetzt gemacht hat, unterm Strich quasi Festangestellte auszutauschen, gegen man könnte im Deutschen sagen könnte, Leiharbeiter.
Daniel Mendes: Oh Mann!
Rainer Rehak: Das heißt, für die arbeiten bald wieder fast so viele Leute wie vorher, bloß dass sie ein bisschen KI nutzen, aber sie bezahlen wesentlich weniger, und das ist natürlich so diese Art von Verschiebungen, die da stattfinden. Ich glaube die müssten viel mehr diskutiert werden.
Daniel Mendes: Aber einmal ganz kurz zum Beispiel. Würdest du sagen, war das jetzt einfach ein strategischer Schachzug oder woran ist es jetzt gescheitert, dass die Transformation nicht geglückt ist? War die zum Scheitern verurteilt von Anfang an? Hast du da Details?
Rainer Rehak: Ich habe keine Details, aber wir sehen das an ganz vielen Stellen, dass sozusagen die Ebenen weiter oben irgendwann nicht mehr so richtig die Arbeitsschritte nachvollziehen können, die dann die KI ersetzen soll. Sozusagen für das tatsächliche Ersetzen ist ja irrelevant, ob die KI-Systeme das können, was sie sollen, sondern ob die Leute, die das entscheiden, denken, dass es das könnte. Dann gehen die irgendwann pleite oder sie gehen anders damit oder so. Und in dem Fall glaube ich, dass es so eine Mischung war aus PR-Stunt, na, probieren wir es doch mal. Und dann, als es nicht geklappt hat, hat man einfach das Beste draus gemacht. Ich glaube, das ist so bisschen das Beispiel. Und ich würde aber noch eine Sache noch sagen, die so im öffentlichen Diskurs fehlt.
Daniel Mendes: Total gerne.
Rainer Rehak: Wir sprechen immer über KI, als würde man das einsetzen, wie so eine Tischlampe oder wie ein Mixer. KI-Systeme, insbesondere die großen, sind so ziemlich mit die komplexesten Systeme, die wir so als Menschheit irgendwie gebaut haben, zusammen mit der Hardware darunter. Und das sind riesengroße Ausbeutungssysteme, die in kolonialen Strukturen dahinter stecken, vom Mineralienabbau bis wo die Daten trainiert werden, auch in Kenia, wo die Systeme trainiert werden und die Daten kategorisiert werden.
Daniel Mendes: Magst du da noch mal ins detail gehen das klingt ja nochmal nach einer ganz anderen Dimension ?
Rainer Rehak: Ja, ich will nur erstmal den Oberpunkt machen, und dann werden hier die Sachen so am Browser genutzt, die Systeme verbrauchen auch in den Datenzentren und Rechenzentren, die wir ja alle nicht sehen, Unmengen an Energie, Unmengen an Wasser, Unmengen an anderen Ressourcen. Und wenn dann die Systeme kaputt sind, werden sie wieder als Elektroschrott in den, ich sag jetzt mal, globalen Süden oder in der Majority World, wie man es auch sagen kann, hin verschifft. Trotz aller deutschen und europäischen Regelungen passiert das immer noch massenhaft. Der Schrott landet wieder auf irgendwelchen Müllkippen. Agobloschi ist ein gutes Beispiel in Ghana . Und vergiftet genau die Umwelt wieder an den Stellen. Es so bei dieser Diskussion von KI, gibt es oftmals Risiken und Chancen und so weiter, und wir sehen die Risiken haben immer die anderen und die Chancen liegen dann hier bei uns. Also sozusagen diese Diskussion, die muss man aufspalten. Und das ist so ein Phänomen darüber. Das fehlt total im öffentlichen Diskurs. Diese Riesenmaschine, die dahinter steckt, wenn ich bei Chatgpt eine Frage stelle. Da kann man auch wirklich ins Detail gehen, hinsichtlich dem Abbau von Ressourcen, von Lithium, von Kobalt, von all diesen Sachen, das geht aus sehr schwierigen Umgebungen aus, teilweise sogar, aus dem Kongo wo es bewaffnete Banden gibt, denen dann die Minen gehören und dann, wenn man sozusagen das Zeug da einkauft, dann finanziert man die mit. Allerdings ist es ja aber auch ganz nützlich, dass da verfeindete Banden sind, weil das den Preis auch niedriger hält. Also so richtig genau will da keiner hingucken. Dann werden die Sachen natürlich zusammengebaut irgendwo in Fernost, auch wieder unter Arbeitsbedingungen die unwürdig sind, sozusagen all diese Sklaverei ähnlichen Zustände, würde ich mal sagen und das alles sieht man halt nicht. In den Data Centers geht es noch weiter. Die brauchen ja Unmengen an Strom und Wasser, und üblicherweise, das sind halt die Akteure, die Data Centers bauen, die haben natürlich, wenn sie sich sozusagen, so eine globale Firma dann so mit so einer lokalen Regierung verhandelt, haben natürlich, sitzen natürlich die Erste drin am viel längeren Hebel. Und das sieht man halt daran, zum Beispiel, es gibt so einige Data Centers in zum Beispiel Mexiko oder auch zum Beispiel in Finnland die dann teilweise auch die Wasserressourcen, die da genutzt werden, von den Leuten, die da wohnen, fast komplett trockenlegen oder in USA auch. Das sind natürlich die ersten, die sozusagen vom Wasser genommen werden, wenn das Wasser knapp wird. Das sind eben nicht die Rechenzentren, sondern das sind so die lokalen Communities. Patrick Brody hat da 2023 mal so über die Data Infrastructures ein sehr faszinierendes Paper geschrieben, um das mal sozusagen zusammenzubinden. Wir sehen halt an anderen Stellen immer die kleinen Communities, der globale Süden, also die Majority World, die sind immer die, die sozusagen die Schäden schultern. Dann spricht man von Wertgenerierung, weil diese extraktiven Prozesse sozusagen den Wert, dann in den Industrienationen, sagen wir mal produziert, wo dann die Investmentfirmen großflächig investieren und die Geschäftsmodelle dann diese KI-Systeme bauen, die werden dann im schlechtesten Fall sogar noch in die anderen Länder exportiert, die müssen dann auch noch dafür zahlen. Da gibt es auch von Michael Quedt sehr schöne Forschungen, wie der Software-Markt, nicht nur der Hardware, sondern auch der Software-Markt ganz klassischen kolonialen Strukturen folgt. Aktuell sind es die USA, die den Ton angeben, und dann gibt es da so Marktkräfte. So war es jetzt im lokalen Rechtssystem bei ihrer Gesetzgebung, also die lokalen Gesetze die dann auch nicht enthalten dürfen, dass man die großen Provider draußen halten soll oder dass man so ein bisschen erst die heimische Wirtschaft, Digitale Wirtschaft fördert. All diese Sachen dürfen nicht drinstehen, weil wir ja Freihandel machen. So greift das dann sozusagen alles ineinander, und wir sehen halt eine konstante Wertextraktion im menschlichen und bei den Rohstoffstrukturen. Da kann man sich jetzt halt schon fragen, wenn es dafür nicht mal ein Businessmodell gibt,da sitzen wir hier auf der Insel der Glückseligen und können darüber diskutieren, ob wir unsere LinkedIn-Posts sozusagen mit KI schreiben oder nicht. Aber eigentlich ist es eine sehr, sehr entkoppelte Diskussion, um das mal rund zu machen.
Daniel Mendes: würde sagen, das klingt für mich auch eher nach Wert Umverteilung als nach wirklicher Wortneuschöpfung. Bevor wir da in Richtung Lösungen schauen und wirklich überlegen, wie es vielleicht auch besser aussehen kann, würde ich gerne nochmal deine Beispiele mehr auseinanderdröseln, weil mich beschäftigt immer noch das Beispiel von den Trainings Centern, weil das ein Thema ist, wo ich auch noch nicht so viel zu gehört habe. Also wenn du da noch was erzählen könntet, fände ich das sehr interessant.
Rainer Rehak: Du meinst die Data Center? Was man da so macht...
Daniel Mendes: Genau, du hattest da ja was jetzt hier war das Kenia oder Kongo, wo die Leute das dann trainieren und das auch ausbeuterische Strukturen sind. Genau, richtig.
Rainer Rehak: Genau, also man muss erst mal sagen, Data Work ist so der Fachbegriff und üblicherweise hat man sozusagen so Unmengen an Daten, sei es nur, wenn Meta die ganzen Sozialen Daten von Facebook und Instagram und so weiter nimmt, aber auch Google und andere, oder so Common Troll ist auch ein Datensatz, der ich sag jetzt mal, viele gute Daten des Internets mit Reddit und Wikipedia usw. beinhaltet. Die müssen aber so auch auf die Nutzung, auf das Training, was dann darauf stattfindet, angepasst werden. Also da werden dann Daten, Bilder klassifiziert oder sie werden bewertet oder qualitativ gewichtet usw. Das machen alles Menschen, dann habe ich sozusagen diese aufbereiteten Daten, könnte man sagen, das ist natürlich auch sozusagen in den lokal üblichen Arbeitsbedingungen auch wieder. Dann habe ich so ein Modell, das ist dann ein Sprachmodell in dem Fall, oder es gibt es auch für Bilder oder so. Das kann ich aber erstmal nichts fragen. Ich kann nur einem Foundation Model hinschreiben: wie groß ist ein grünes Haus?, dann würde dieses Modell, nach so einer Logik, wie klein ist ein blaues Haus, wie gelb ist ein schnelles Haus, es würde quasi Ähnlichkeiten zu dem, was ich gesagt habe, anbieten. Was man jetzt gemacht hat, und das war der Clou von Chat-GPT im Vergleich zu den GPTs vorher, die es ja so seit 2017 gibt, dass diese Antworten bewertet werden. Alos ist das eine gute Antwort auf die Frage oder nicht? Und das nennt sich dann reinforcement learning on human feedback. Das heißt, da haben dann Tausende von Menschen dieses Modell Fragen gegeben und die haben dann bewertet, wie gut ist die Antwort als Antwort für einen Menschen? Und so wurde ganz viel trainiert, bis das Modell dann sozusagen so angepasst wurde. Durch dieses Training, dass, wenn ich sage, welche Farbe hat ein grünes Haus, dass dann die Antwort eben nicht ist, welche Farbe hat ein gelbes Haus, sondern sehr wahrscheinlich grün und diese Logik, dieses Hintrainieren auf eine Antwort, auf eine sinnvolle Reaktion, die als Mensch irgendwie durchgeht als Antwort, die erkennt man, das kann man auch bei einem Modell relativ schnell mal rauskitzeln. Nämlich, wenn ich sage, was ist denn die Hauptstadt von Frankreich? Und dann kommt da im besten Falle Paris, manchmal aber auch nicht, und wenn ich dann antworte, nee das ist doch nicht Paris erzähl mir doch keinen Mist, dann wird dieses Modell sagen, es tut mir leid, völlig richtig, die Hauptstadt ist Valencia, weil es keine gültige Antwort wäre dann zu sagen, nee, du bist aber falsch, sondern dieses Thema, das nennt sich in der Psychologie auch psychopathisch. Da man dem gegenüber alles recht machen möchte, das ist einer der Fehler oder einer der Konsequenzen dieses Trainings auf mögliche Antworten, wo ein Mensch denkt, das klingt irgendwie gut.
Daniel Mendes: Also so people pleasing, aber ...
Rainer Rehak: Genau, das ist natürlich der Punkt, da muss man sagen, es gibt zwei Einsatzweisen, wie solche KI-Sprachmodelle tatsächlich nützlich eingesetzt werden können. Erstens, wenn ich die Antwort selber bewerten kann. Also wenn ich weiß, ob das gerade People-pleasing und Unsinn oder Grütze war oder nicht. Wenn es mir einfach nur die Arbeit ein bisschen erleichtert, und das Zweite ist, wenn das Ergebnis kein klares Kriterium hat. Wenn ich sage hey chatgpt, bau mir mal ein Wohnzimmer, wo viele Pflanzen stehen, ich möchte mal was ausprobieren. Dann gibt es ja keine falschen Antworten, dann ist es super, um Inspirationen zu bekommen und so weiter. Dann sind es natürlich Modelle, die tatsächlich sehr gut geeignet sind. Aber um nochmal darauf zurückzukommen, dieses ganze Training dahin, das wird natürlich eben auch von Menschen gemacht, und das sind Heerscharen und ich muss natürlich jedes Mal, wenn ich einen neuen Datensatz einpflege, diese Systeme sind ja nicht up to date, sondern es dauert ja immer Monate, solche großen Sprachmodelle zu trainieren. Und es kostet auch den Stromverbrauch einer ganzen Stadt und so weiter, das muss ich regelmäßig machen, und dann muss ich das mit den neuen Daten natürlich wieder machen. Da sind dann wieder Armeen von Data Workern. Das macht Mila Milagros vom Weizmoment, sie lädt auch die Data Worker ein zu so Konferenzen, dass sie mal beschreiben, wie sie das so machen. Das kann man sich online mal selbst angucken, die erzählen dann von ihrem Alltag und wie das alles aussieht, daran erkennt man sozusagen, wie viel menschliche Arbeit da drin ist und unter welchen Bedingungen natürlich auch.
Daniel Mendes: Ich versuche das mal zusammen zu zählen. Das heißt, es gibt einerseits die Ausbeutung in dem Bereich, dass die Leute da wahrscheinlich unter sehr anstrengenden Bedingungen für schlechten Lohn dieses Training übernehmen. Dann gibt es natürlich die Arbeit in den Minen, die seltenen Erden etc. rauszuholen. Spannenderweise ist das ja auch ein Thema, was auch Regenwälder betrifft. Ich mache dafür auch so Regenwald Bildung an Schulen und baue mit Kindern so Handys auseinander. Da ist es auch ein ganz großes Thema, wie es eben auch aus der Perspektive ökologische Implikation hat.
Rainer Rehak: Mhm.
Daniel Mendes: Dann haben wir natürlich auch das Thema des Stromverbrauchs. Das sind ja sehr, sehr viele unterschiedliche Sachen, die in irgendeiner Art und Weise auch negativ auf unsere Lebensrealität einpreisen. Ich komme aus den Nachhaltigkeitswissenschaften, da haben wir so einen Lebenszyklusanalyse, mit der man ja so ungefähr abbilden kann, quasi zumindest der Ressourcen Fußabdruck von einer Anwendung oder einem Produkt ist. Wo man dann eben nicht nur Emissionen berechnet, sondern auch den Wasserverbrauch, den Rohstoffverbrauch. Gibt es sowas für KI, auch mit Blick auf die sozialen Faktoren oder generell erstmal auf den Ressourcenverbrauch? Kennst du Methoden?
Rainer Rehak: Also, das Problem ist ja erstens, dass der KI-Begriff selber sehr schwammig ist. Wenn wir jetzt mal sagen, wir meinen jetzt nicht Statistik und nicht genetische Algorithmen und wir meinen auch nicht Support Vector-Maschinen und wir meinen auch nicht andere statistische Verfahren, sondern wir reden jetzt mal von großen Sprachmodellen, dann können wir einerseits sagen, der meiste Betrieb und die meiste Arbeit findet tatsächlich in privaten Händen statt. Das heißt, Google und so weiter, die großen, die halten sich so ein bisschen bedeckt. Das heißt, so ganz auf den Punkt kann man es nicht machen. Es gibt aber Möglichkeiten, quasi so ein bisschen das abzuschätzen. Einerseits kann man ein bisschen modellieren. Es gibt ja auch öffentliche Rechenzentren, wie zum Beispiel das LRZ in München, die KI-Trainings machen. Da kann man das so ein bisschen abschätzen und das ist ein öffentliches Rechenzentrum. Man kann sich aber auch angucken, wie zum Beispiel die Data Center, Energy Use und Water Use und so weiter, wie das alles sehr sehr hoch skalieren und auch die Firmen selber ihre Verpflichtungen, wie als alle 2022, 2023, also 2023 gesagt haben:”können wir alles nicht einhalten wegen KI”. Daran sehen wir diese krasse Steigerung. Das heißt, wir sehen tatsächlich, dass wir durch unsere Rechenzentren aktuell bei 1,5 Prozent des globalen Stromverbrauchs sind und Schätzungen sagen, dass wir dann bei 3,5 Prozent 2030 sind. Das heißt, es ist mehr als eine Verdopplung des Gesamt Stromverbrauchs der Rechenzentren. Und das ist wesentlich durch KI. Bei Google zum Beispiel ist der Stromverbrauch zwischen 2019 und 2023 um 50 Prozent gestiegen. Und sie sagen selber, das ist wegen KI. Und jetzt kann man das natürlich übertragen auf alle möglichen anderen Firmen, auf chinesische Firmen und so weiter. Man kann sagen eine Google Anfrage und eine Chat-GPT Anfrage, das eine ist das Zehnfache des Anderen an Stromverbrauch. Und wenn wir jetzt irgendwie überall KI einbauen, ich meine du kannst ja mal versuchen, ob du Google bedienen kannst, ohne diese KI-Zusammenfassung da oben zu kriegen.
Daniel Mendes: Ich wünschte es, ich würde es so gerne deaktivieren manchmal, ja.
Rainer Rehak: Genau, manchmal funktioniert es, es gibt so ein paar Möglichkeiten wie Minus AI hinten dran zu hängen. Aber das tun die meisten Menschen ja nicht. Deswegen schlägt dann diese krasse Steigerung halt total durch, weil man sich eigentlich nicht mehr dagegen entscheiden kann. Der Wasserverbrauch hat sich in den letzten Jahren verdoppelt, das sind so die Indikatoren, wo man die Steigerung betrachten kann. Wir sind jetzt gerade an einem Punkt, wo wir eigentlich mitten in der Klimakatastrophe sind, wir müssen da jetzt mal drüber nachdenken, was wir damit machen.
Daniel Mendes: Ja, mit dem Blick auf die Zeit fände ich es mal super spannend, uns in Richtung Lösung zu bewegen, ich war tatsächlich vor kurzem auf einer kleinen Expedition. Ich bin ja auch Journalist für Nachhaltigkeit Magazine und war mal auf dem Green-Tech-Campus in der Nähe von Nibel zu Besuch, dort gibt es sogenannte, ich glaube Wind Cloud heißen sie, die dachten sich, wir haben ja Server-Rechenzentren, die verbrauchen sehr, sehr viel Energie. Wie wäre es denn, wenn wir da eine Algenfarm draufsetzen?
Rainer Rehak: Ja, mhm. Daniel Mendes (40.40.000) Ich finde das super spannend, weil man da sagt, wir akzeptieren dass wir eine gewisse Abwärme produzieren, dass wir einen gewissen Stromverbrauch haben und versuchen, das Beste draus zu machen. Das ist dieses gewisse End-of-Pipe-Thinking, dass man ganz am Ende des Problems ansetzt und für das letzte Symptom irgendwie eine Lösung schafft, die ein bisschen nachhaltiger sein kann. Aber was sind denn auch andere Lösungen? Also gibt es Möglichkeiten, KI so nachhaltig und auch sozial verträglich zu gestalten, wie wir uns das wünschen würden?
Rainer Rehak: Ich finde, das ist eigentlich die Kernfrage. Weil einerseits kann man sagen, wir haben sinnvolle Einsatzmöglichkeiten, so was wie Übersetzung oder Sprachsynthese oder Autogenerierung, das ist gerade aus dem Bereich der Barrierefreiheit super wichtig. Wir können Material optimieren, den Materialverbrauch reduzieren. Wir können Flugrouten anders messen und mit KI auswerten, mittlerweile gibt es jetzt so ein Vogelschutzgebiet im Atlantik, was sozusagen erst definiert wurde darüber über die Flogelrouten. Man kann so Predictive Maintenance machen und uns KI-Einsatzszenarien merken, wann rotierende Elemente in der Industrie kaputt gehen und die vorher austauschen und so. Also es gibt da jede Menge gute Ansätze oder gute Ideen für Einsatzzwecke. Wir sehen aber, und das ist so bisschen das Problem, viel mehr nicht nachhaltige Einsatzszenarien wie KI für Business, KI für Spaß, KI für alles. Und das ist leider sozusagen, diese Steigerung führt sich fort. Und wir sehen auch, dass da so eine Effizienz dass für Effizienzargument oftmals angeführt wird, dann sagt man halt, wir bauen eine Algen Farm oben drauf oder eine Sauna an die Seite dran oder wir machen sozusagen so für lokale Abwärme, nutzen wir das für die Heizung oder so. Das ist tatsächlich eine ganz nette Idee. Das Problem an dieser Effizienzdenkweise ist aber der sogenannte Rebound-Effekt. Kann man sehr gut an einem Beispiel mal abzeichnen. Google hat 2016 oder 2017 mit KI, Ältere KI, ein bisschen Statistik, würde man sagen, Statistik auf Steroids, haben sie es geschafft, durch Rechenzirklungen, Optimierung von ihren Rechenzentren, den Energieverbrauch 40 Prozent zu senken. Jetzt würde man applaudieren und sagen, genau dafür gibt es KI. Resultat ist aber dann gewesen, dass sie Dutzende neue Rechenzentren geplant und gebaut haben, weil der Betrieb nicht mehr so teuer war. Die Gesamtemission, der Gesamtverbrauch war dann also höher als vorher, trotz dieser riesigen Emissions Effizienz-Einsparungen. Und daran erkennen wir, dass wir sozusagen so ein bisschen dem Drachen hinterherlaufen, ohne ihn zu fassen zu kriegen. Diese Effizienz Denkweise, die sagt ja auch, wir müssen einfach nur bessere Technologie bauen, bessere KI bauen, dann kriegen wir das am Ende alles irgendwie hin, weil die Effizienz besser wird, das Problem ist aber, dass die Erde reale, echte Grenzen hat, wie die Menschen, die auch reale, echte Grenzen haben. Das heißt, eigentlich müssen wir rückwärts denken und sagen, so und so viele planetare Grenzen gibt es, jetzt müssen wir es uns hier im Raumschiff Erde gemütlich machen, innerhalb dieser Grenzen. Und da würden mir tatsächlich 99 andere Sachen einfallen, wofür ich Ressourcen einsetzen wollen würde, als für KI-Spielereien von Milliardären, Und diese Denkweise da kommt man dann in den Bereich, das nennt sich digitale Suffizienz wo man dann eben fragt, wie viel haben wir zur Verfügung, wie viel brauchen wir davon und wie können wir das Begrenzte, was wir brauchen, gerecht verteilen? Und da reden wir auf einmal nicht mehr über KI, sondern da reden wir dann über Macht und Profit und globale Systeme und Anreizsysteme. Sozusagen auf einmal ist das gar nicht mehr auf einer technischen Ebene. Da kann man die KI auch gar nicht mehr fragen, weil das sind echte Wertentscheidungen, wo wir als Menschheit hin wollen. Das wäre sozusagen meine Reaktion darauf, wie wir da nachhaltigkeitsorientiert hingehen. In Bezug auf die menschliche Frage, das sind natürlich wieder Fragen von Arbeitsschutz und von rechtlicher Durchsetzung usw., wo man genauso auch sagen muss, viele von den Geschäftsmodellen basieren gerade darauf, dass sie einfach soziale Sicherungssysteme unterlaufen. Das ist gar nicht so die technische Innovation, sondern eigentlich sind soziale Innovationen bloß im Schlechten. Da kann man schon mal fragen, welche Art von Innovation wir eigentlich haben und welche halt auch nicht. Und da denke ich, dass KI eine kleinere Rolle spielen wird, als es jetzt tut. Besonders wenn man sich anguckt dass der Energieverbrauch steigt, so dass jetzt wieder überlegt wird, Atom- und Kohlekraftwerke zu reaktivieren, nur um Data Center zu betreiben. Also das ist sozusagen in dem Moment, wo man eigentlich dachte, zum Glück ist dieser Bitcoin Mist vorbei, da kommt der nächste, das ist genau das Ergebnis, noch ein Beispiel, weil man dann immer sagt, ja, die Effizienz steigt an und es gibt ja auch so viele KI-Nutzungsszenarien. Effizienz heißt ja auch, die Effizienz von allem wird verbessert. Vor ein paar Monaten gab es erste Ergebnisse der sozusagen KI-optimierten Modellierung von Bohrungen in der Arktis, und man hat es so weit optimiert, dass es so günstiger wurde, an bestimmte Ölfelder und Gasfelder ranzukommen, dass die jetzt tatsächlich geplant werden können, weil KI so gut “geholfen” hat eine Aktivität wie Ausbeutung zu optimieren. Optimal heißt immer, optimal für wen und warum überhaupt.Optimal ist nicht besser. Das ist eigentlich eine Aushandlung, die wir treffen müssen. Und das ist genau das, wofür KI benutzt wird. Und in dem Sinne glaube ich, dass diese Reflektion darüber leider oder zum Glück auf einer Ebene höher hängen als auf Einsatzszenarien von KI. Das ist auf alle Fälle ein sehr wichtiger Punkt.
Daniel Mendes: Das klingt ja für mich so, als wenn wir wirklich überlegen müssen, was so die Diskurse sein sollen, die wir in dem Bereich überhaupt führen möchten. Und wie man auch generell von dieser üblichen Haltung das in einer Art kapitalistischen Deckmantel zu höhen und zu überlegen, wie man höher, schneller weiter damit kommt, rauszuholen. Da wäre so bisschen meine Frage, wie kommt man denn in so einen anderen Diskurs? Weil das ja sehr unterschiedliche Ebenen sind, auf denen gerade darüber gesprochen wird. ich denke einerseits dass Menschen in ihrem täglichen Alltag ja sehr viel mit KI arbeiten, zumindest in Schulen, an der Uni merke ich , dass viele Leute da ja wirklich sehr viel persönlichen Nutzen raus ziehen und das Gefühl haben, dass sie ihre persönliche Effizienz steigern können. Ich habe das Gefühl, in Unternehmen wird man überall mit dem Begriff gerade überschwemmt und die Unternehmen, die es entwickeln, haben natürlich auch ihre Interessen. Wie kommt man denn in diesen neuen Diskursraum, der eben hin zur Sufficient geht?, der wirklich diese neuen Fragen stellt.
Rainer Rehak: Ich glaube, ganz wichtig ist es, diese Haupterzählungen, man könnte jetzt so bisschen sagen, das hegemoniale Narrativ zu brechen. Was ich damit meine ich kann das irgendwie in der Schule nutzen oder auf der Arbeit oder so, dann kann ich ja immer besser werden, das schwingt irgendwie mit. Da muss ich ja nicht mehr acht Stunden arbeiten, sondern nur noch vier Stunden arbeiten, weil ich so effizient war. Wir sehen aber in den ersten Untersuchungen, auch in der Arbeitssoziologie, die geleisteten Arbeitsstunden steigen beim Einsatz mit KI, und zwar weil die Chefs und Chefinnen eine höhere Erwartungshaltung haben, wenn die Mitarbeitenden KI benutzen und deswegen müssen sie im Endeffekt mehr arbeiten. Daran erkennt man sozusagen diese Idee “Dann werde ich dabei effizienter” das bringt dir gar nichts, wenn du dafür dann nicht 8 sondern 9 Stunden arbeiten musst. Jetzt gerade wird ja auch in der Regierung und Parlament diskutiert ob wir irgendwie eine Wochenarbeitszeit einführen, weil alle zu wenig arbeiten. Also ich wüsste nicht, wer hier zu wenig arbeitet. Aber sozusagen daran merkt man das versprochene Ziel, also die Mohrrübe, die einem sozusagen vor das Gesicht gehalten wird, die realisiert sich nicht. Das einzige, was passiert ist, dass sozusagen die Extraktion von Arbeitskraft und Wert, dass die effizienter wird, im schlimmsten Fall kriegst du ein KI-System an die Hand und wirst dann weniger bezahlt, weil du keine Expertise mehr brauchst, sondern ein System bedienst. Und das ist diese Illusion des individuellen Nutzen. Und da müssen wir eben auch diese Fragen stellen. Und dann merkt man ja, aber wo wollen wir denn eigentlich hin? Wir wollen zum guten Leben für alle und so weiter. Und dann kann man schon überlegen, wie bindet man solche Art von großen KI-Systemen in so Ideen ein von öffentlicher Daseinsvorsorge? Also eher in diese Richtung. Da kann man das ja irgendwie dann von Forschungsinstituten, die gibt es ja in Europa auch, solche KI-Systeme bauen mit so einem bestimmten Sinn und Nutzen im Hintergrund, wo man auch die Kennzahlen kennt, auch den Energieverbrauch und so weiter. Man weiß, wo die ganzen Sachen herkommen. Dann kann man überlegen, welche Einsatzszenarien sind gut und sinnvoll sind und welche auch nicht. Dann würde man auch sagen, das muss dann eingebettet werden in so arbeitsrechtliche Fragen, aber auch in der Schule oder so. bringt mir auch, wenn ich da automatisiert irgendwelche Texte generiere, ich verstehe ja trotzdem nicht, was ich da tue. Es hilft mir zwar schnell, meine Arbeit fertig zu machen, aber eigentlich habe ich weniger gelernt und eigentlich bin ich nur dem Druck gefolgt, dass alles andere immer schneller sein muss. Das ist so ein Angst-Denkmodus, aus dem wir rauskommen müssen. Ich glaube, das kann man tatsächlich auch mit guten Bildern, wenn man sagt, das ist irgendwie öffentliches Gut und wir brauchen da so einen gemeinschaftlichen Ansatz, wo auch die Entscheidung demokratisiert ist. Und wir müssen auch irgendwie über Prozesse nachdenken, wo sozusagen die Effizienzgewinne oder der Mehrwert dann auch der Gesellschaft zugutekommt, das sind so Fragen, die sind tatsächlich zielführend, wenn man einmal diesen Vorhang so ein bisschen geöffnet hat, was einem persönlich diese Systeme dann bringen. Also ich nutze die ja auch, ich nehme mich da gar nicht raus.
Daniel Mendes: Ja, meine, wir nutzen die ja alle, und ich hab das Gefühl zu einem gewissen Grad, ist esja auch irgendwie notwendig, überhaupt noch greifen zu können, wie schnell sich die Welt in der Hinsicht der Zeit entwickelt. Was ich super spannend finde, wir haben ja grad so bisschen beleuchtet, was man verändern sollte, was besser aussehen könnte und besser laufen könnte. Jetzt frage ich mich aber auch, wer wird das denn tun oder sollte das tun oder tut es bereits? Was sind richtig coole Best Practices, die wir jetzt mal mit einer großen, warmen Dusche an Lob und Empfehlungen überschütten können, damit wir wissen, wen wir mal recherchieren sollten nach dieser Folge.
Rainer Rehak: Ja auf jeden Fall, ich kenne da so Leute wie Paris Marx, aber auch Paul Schütze, auch Lönn Carg zum Beispiel. Das Bitz- und Bäume Netzwerk kann ich sehr empfehlen. Aber auch zum Beispiel Theresa Züger, die so gerade Ideen dieser Public Interest KI hat, also einer gemeinwohlorientiertern KI die so ein bisschen geprägt ist. Als Beispiel, uns auch mal auf kleine Modelle zu fokussieren. Die sind verstehbar, die sind kontrollierbar und ich sag mal, der Großteil der Anwendungsfälle werden tatsächlich durch diese kleinen Modelle auch erledigt. Und ich glaube, was man so ein bisschen machen kann, ist diese Art von Projekten, die da so kritischen Umgang auch pflegen, sich da mal vielleicht dazu was anzulesen. Ich hab da auch Texte zugeschrieben. Und an der Stelle vielleicht auch mal zu sagen: diesen Schritt zurückzutreten und sich selber der eigenen Praktik hinzugben, dann gucke ich da irgendwie, nutze ich hier eine KI und da eine KI. Aber vielleicht auch beim kleinen zu sagen, die nächste elektrische Zahnbürste, die ich mir kaufe, ist vielleicht extra eine, wo nicht drauf steht, KI Enhanced. Und das gibt es tatsächlich. Vielleicht gibt es aber auch alternative Suchmaschinen, die gibt es auf jeden Fall, egal ob es jetzt irgendwie Ecosia oder MetaGear ist und so weiter. Wenn man sagt, ich will halt diesen Google Kram nicht nutzen, dann sollte ich es vielleicht auch nicht tun. Es gibt auch ganz klassisch, jetzt fangen die ganzen Anbieter an, die ganzen Inhaltsdaten auszuwerten. Google mit E-Mails und Meta mit Instagram und so weiter. Ich kann ja auch quasi einen anderen E-Mail Provider mir wählen und mir so Stück für Stück vielleicht ein bisschen die Praktiken mir aneignen, genauso wie man vielleicht auch guckt, bei welcher Bank man ist oder wo man guckt, wo man einkauft und so weiter. Und all diesen Sachen, so kleine Sachen im Individuellen zu machen. ich finde, ganz wichtig ist aber auch, Ich meine, wir haben ja ab und zu politische Wahlen, haben Organisationen, die dafür arbeiten. Es gibt auch Events. Man kann auch mal einfach irgendwie eine Mail an die Abgeordneten schreiben und sagen, jetzt geht es gerade ums Energieeffizienzgesetz. Also ich würde eigentlich lieber in einer Welt voller grüner Bäume leben, als in einer Welt voller KI-Applikationen. So eine Sachen kann man auch machen. Und ich glaube, diese Wachheit, die gleiche Wachheit dabei, wenn man schaut was man für Essen in sich reinsteckt, weil das quasi zum eigenen Körper wird, diese Wachheit auch bei der digitalen Welt genauso anzuwenden und zu gucken, was lese ich eigentlich und wie suche ich, womit umgebe ich mich und so weiter. Und ich glaube, da entsteht dann auch so eine bestimmte Haltung. Und aus dieser Haltung heraus baut man, auch eine gewisse Resilenz auf, um dann nicht immer auf den nächsten Zug gleich aufzuspringen und vor allem nicht in diesen Angstmodus zu kommen, wo man sozusagen in vorauseilendem Gehorsam sich zur besseren kapitalistischen Verwertbarkeit das nächste KI-Tutorial nachts noch reinzieht, bloß nicht zurückzufallen. Das ist keine Welt, in der irgendjemand eigentlich leben möchte.
Daniel Mendes: Und damit hätten wir auch schon mal ein gutes Zitat. Das ist sehr gut. Die kapitalistische Verwertbarkeit. Dann hätte ich noch eine allerletzte, ganz kurze Frage für dich. Damit das auch so richtig gut hands-on für den Alltag nutzbar ist. Hast du so eine Frage für unsere ZuhörerInnen, die sie wirklich richtig gut mitnehmen können, die sie sich immer mal wieder stellen können, wenn sie gerade im Alltag mit dem Thema konfrontiert sind?Da ist eine böse Frage, die ist schwierig.
Rainer Rehak: Also sozusagen die Frage, sich die Zuhörenden selber stellen sollen.
Daniel Mendes: Genau, zum Beispiel sowas wie... Brauche ich dafür KI? Oder... Wie explizit, wie detailliert muss die Antwort sein, die ich hier kriege?
Rainer Rehak: Also ich will mal mit einem Bild antworten. Und zwar, es gibt so ein Konzept von Epikur des Reichtums, das ist ein alter Grieche. Der hat gesagt, was wir Menschen eigentlich brauchen, ist sozusagen Raum Wohlstand, sozialer Wohlstand und Zeitwohlstand. Also Leute um uns rum, nette Leute um uns rum, genügend Raum um uns mal, das kann auch ein Park sein und Zeitwohlstand, um tatsächlich ein bisschen mal auch innerlich atmen zu können, um über Sachen nachzudenken, Kehrarbeit zu machen und so weiter. Und wenn man sich mal Werbung anguckt, sieht man oftmals, nur mal als Beispiel, da wird dann irgendeine Cola getrunken am Strand bei Lagerfeuer mit den besten Freunden und sagt man, hier, guck mal, du brauchst diese Cola. Wenn man aber mit diesem Reichtumskonzept von Epikur drauf guckt, dann sieht man, es geht gar nicht um die Cola. Die versuchen, dieser Cola zuzuschreiben, was eigentlich von dem schönen Abend mit Freundinnen am Meer kommt. Das hat mit der Cola gar nichts zu tun. Und ich glaube, diese Frage, mit dieser Brille mal rumzulaufen, wenn Leute sagen, hey, hier gibt es ein neues KI-Tool, zu gucken, was nimmt mir das gerade ab? An welcher Stelle ist das überhaupt ein Prozess, den ich besser haben will? Will ich vielleicht sogar eigentlich daran arbeiten, in diesem Prozess ganz loszuwerden? ist sozusagen, was füllt eigentlich mein Leben und was identifiziert mich auch? Ist das meine Fähigkeit, mit KI umzugehen? Oder ist es irgendwie der Blick, wenn meine Geburtstagsgäste auf meine Party kommen, weil sie sich freuen, dass ich da bin? Geht es eigentlich darum? Ich glaube, das ist jetzt nicht so ganz konkret, aber es ist, glaube ich, eine Blickweise, die ich mitgeben würde.
Daniel Mendes: Ja, aber ich muss sagen, das ist ein ganz wunderschönes Bild. Ich finde, es ist auch eine sehr positive und ich finde sehr lebensbejahende Art, nochmal auf dieses Thema aufmerksam zu machen und auch aus meiner Sicht ein wunderbarer Schlusspunkt für die heutige Folge. Ich merke, wir haben schon fast die Stunde geknackt, aber das Thema war auch super spannend. Du hast dir wirklich super spannende Details geben können. Sehr, coole Beispiele mitgebracht. Also wirklich vielen, vielen Dank, dass du heute mit dabei warst.
Rainer Rehak: Danke auch für die Einladung.
Daniel Mendes: sehr, sehr gerne. Hast du noch einen letzten Punkt? Ansonsten würde ich sagen, schließen wir das für heute.
Rainer Rehak: Ich glaube, das ist eigentlich ein ganz guter Schluss. Vielleicht kann man einfach sagen, es gibt schon sehr, sehr viele Leute, die sich damit beschäftigen und ganz wundervolle Sachen schreiben und so weiter. Man kann da so hinter die Foren kommen und gucken. Da gibt es sicher viele schöne Sachen zu entdecken. Alles, was wir noch nicht wissen und so dass man sich auch selber anders kennenlernt, sein eigenes Ding.
Daniel Mendes: Ja, das ist ein wunderschöner Schlusssatz. ganz, ganz lieben Dank, dass du da warst. Danke, dass du schon so lange das Goggo Gantz Forum unterstützt hast, ich würde sagen, Tag eins ja eigentlich schon. Und dann wünsche ich dir ein ganz schönes Wochenende. Es ist Freitag, die Sonne scheint. Ich freue mich auch gleich noch mal rauszugehen.
Rainer Rehak: Wunderbar, genau. Dir auch ein schönes Wochenende. Und wer kann, raus an den See auf jeden Fall vielleicht nicht so viel am Gerät hängen.
Daniel Mendes: So ist es, so ist es. Vielen, Dank. Ciao.