Moritz (00:00.046)
Ich starte jetzt schon mal die Aufnahme, das heißt nicht, dass jetzt sofort alles, was wir jetzt sagen, gegen uns verwendet wird, sondern einfach nur, dass wir die schon mal haben. Ähm, hast du noch irgendwelche Fragen vorab? Ist noch irgendwas unklar.
Pia (00:12.92)
Ähm... Nö, ich glaub nicht. Ich glaub wir können loslegen.
Moritz (00:17.774)
Okay, und ich glaube wir müssen das Dings noch ein klein bisschen weg aus dem Gesicht machen.
Pia (00:28.408)
So, la la la.
Moritz (00:28.75)
Sag mal was? Ja. Ja. Ja, jetzt, perfekt. Okay. Sehr gut. Dann würde ich sagen, herzlich willkommen zu Tech und Trara und vor allen Dingen herzlich willkommen, Pia Sombetzki. Schön, dass du da bist erst mal.
Pia (00:42.84)
Ja, danke für die Einladung.
Moritz (00:44.75)
Ich freue mich sehr auf das heutige Thema, weil wir uns heute mit dem Thema Algorithmen bzw. Diskriminierung von Algorithmen, wie kann man die verhindern oder...
besser formuliert, wie kann man damit umgehen, wenn es denn passiert ist und wie kann man sie verhindern. Also diesen ganzen Themenkomplex widmen wir. Wir haben in der Vergangenheit auch schon mal eine Folge zu einem ähnlichen Thema gemacht. Die war damals mit Joja Gundlach von der Bertelsmann Stiftung. Die haben nämlich auch ein Projekt Ethik der Algorithmen gehabt und so ein bisschen in die Richtung geht das heute auch. Wobei aus unserem Vorgespräch habe ich schon auch vernommen, dass es hier auch bei dem, was du tust, auch so ein bisschen um...
handfestere Fragestellungen geht. Also wie kriegt man das hin, dass wenn Leute zum Beispiel eine Diskriminierung durch einen Algorithmus erfahren haben, dass sie das irgendwie melden können oder dass man das irgendwie korrigieren kann oder was auch immer oder die entsprechenden Ersteller eines Algorithmuses dazu bewegen können, das vielleicht in Zukunft nochmal umzudenken oder umzubauen.
Okay, sehr gut. Dann würde ich vielleicht, dass du einmal kurz uns ein bisschen erzählst, was, weil du bist ja von AlgorithmWatch, was ihr macht und ja, wieso AlgorithmWatch irgendwie entstanden ist und vielleicht auch kurz anreißen kannst, wie du zu dem ganzen gekommen bist.
Pia (01:59.512)
Ja, gerne. Also genau, wie Algorithm Watch genau entstanden ist, weiß ich auch gar nicht so ganz genau. Es gab vier Gründer innen, aber das war doch gegebenenfalls weit vor meiner Zeit sozusagen, bevor ich mich auch mit dem Thema beschäftigt habe. Aber grundsätzlich geht es bei Algorithm Watch schon darum, sozusagen zu schauen, was haben Algorithmen für eine Auswirkung auf unser aller Leben, aber auch auf die...
Moritz (02:06.894)
Mhm.
Pia (02:24.152)
Gesellschaft in vielen verschiedenen Bereichen, sei es online, auf Plattformen oder sei es zum Beispiel im Arbeitsbereich, in der Arbeitswelt, aber eben auch, was hat das für Auswirkungen zum Beispiel auf die Umwelt, wenn jetzt so große Sprachmodelle...
Moritz (02:39.854)
Mhm.
Pia (02:41.048)
immer populärer werden, aber sozusagen nicht nur für alle möglichen Leute einen neuen Chatbot bereit halten, sondern eben auch ganz viele Ressourcen zum Beispiel dabei draufgehen, also sei es jetzt Strom oder eben Wasser zum Beispiel. Also es sind so verschiedene Themenbereiche, die wir uns so zum Fokus nehmen in unserer Arbeit und die Arbeitsweise ist auch so in verschiedene Bereiche aufgeteilt. Also es gibt zum Beispiel...
Kolleginnen, die eher journalistisch arbeiten, also Fälle aufbereiten, Recherchen machen und immer auch wieder Probleme, Risiken aufdecken sozusagen und relativ frei und unabhängig auch arbeiten von dem Team, in dem ich arbeite, also das Policy Team. Wir übertragen sozusagen Erkenntnisse, die wir auch in Forschungsprojekten machen oder eben durch journalistische Recherchen in den politischen Raum.
Moritz (03:13.71)
Mhm.
Pia (03:36.248)
Wir tragen das zum Beispiel in Sachverständigenanhörungen im Bundestag, werden da eingeladen, um zu beraten, wenn man ein neues Gesetz verabschiedet werden soll oder eins geändert werden soll. Oder begleiten sozusagen auch Prozesse wie jetzt Gesetzgebungsprozesse auf europäischer Ebene. Also zum Beispiel der AI Act ist ja gerade in vielerlei Munde. Und da waren wir zum Beispiel auch bisher sozusagen begleitend dabei und haben...
Moritz (03:59.054)
Mm.
Pia (04:04.248)
Perspektiven außer Zivilgesellschaft sozusagen in diesen Prozess reingetragen. Und genau, algorithmische Diskriminierung, würde ich sagen, ist immer wieder in all den verschiedenen Bereichen eigentlich Thema, weil es natürlich so ein Querschnittsthema ist. Es ist in vielen verschiedenen Gesetzgebungen sozusagen geht es ja darum, auch die Grundrechte zu schützen auf verschiedenste Art und Weise. Und das Thema kommt halt dadurch auch immer wieder an verschiedenen Stellen vor.
Moritz (04:08.878)
Mhm.
Pia (04:29.656)
Aber wir versuchen auch viele Akteure zu erreichen, die eher originär in einem Antidiskriminierungsbereich aktiv sind und die eben auch auf das Thema aufmerksam zu machen. Also sowohl in Gesetzgebungsprozessen bringen wir das Thema rein, als auch in die breite Zivilgesellschaft, die sozusagen darauf auch gefasst sein sollte, so sage ich es jetzt mal, dass das zukünftig wahrscheinlich noch mehr Thema sein wird, als es heute schon ist und eben dafür sensibilisiert wird auch.
Moritz (04:50.382)
Mhm.
Pia (04:57.048)
wo das jetzt schon vorkommen kann oder wo es schon vorkommt. Wir bereiten Fälle auf oder erzählen von denen, damit Leute das auf dem Schirm haben.
Moritz (05:04.366)
Mm.
Ich kann mir auch vorstellen, dass das ganz viele Leute nicht auf dem Schirm haben, weil irgendwie Algorithmen ja auch immer als so was wahnsinnig rationales und korrektes irgendwie gesehen werden, weil sie ja sozusagen in ihrer Funktionsweise erstmal nach strengen Regeln und so funktionieren und und das glaube ich vielen gar nicht bewusst ist, dass da trotzdem dann auch weil Diskriminierung würde also könnte ich mir vorstellen, assoziieren viele mit so menschlichen Gedankenfehlern und eben nicht etwas was dann sich aber auch vielleicht auf dem Algorithmus übertragen kann.
Pia (05:15.096)
Mhm.
Pia (05:32.12)
Mhm.
Moritz (05:37.038)
Was man vielleicht auch dazu sagen sollte, das hätte ich ja beim Intro vielleicht noch ein bisschen besser erklären sollen, Algorithm Watch ist ja eine Menschenrechtsorganisation, also sozusagen keine Firma im klassischen Sinne, sondern da ist das sozusagen das Ziel, diese Grundrechte zu schützen, auch in dem ganzen Themenbereich steht sozusagen über allem, was ihr tut. Ja. Naja.
Pia (05:58.008)
Mhm, ja, ganz genau.
Moritz (06:02.126)
Du hast schon so ein bisschen angerissen, dass ihr versucht diese Themen sowohl in die Politik zu tragen, als halt auch so in die breite Zivilbevölkerung. Wie ist da die... also wenn wir jetzt mal auf den politischen Bereich gucken...
Ist das ein Erz-, also wie zäh ist dieser Prozess und was macht ihn vielleicht auch zäh? Oder ist es vielleicht auch gar nicht zäh? Also es ist jetzt eine Annahme, die ich schon in der Frage irgendwie treffe. Aber oder ist das vielleicht was, was sehr dankend aufgenommen wird? Also seid ihr die, die dann stören und sagen, ja, wir müssen hier nochmal gucken, wir müssen hier nochmal gucken und so Politiker in Anführungsstrich verdrehen schon so ein bisschen die Augen? Oder wird das dankend angenommen?
Pia (06:31.992)
Mmh.
Pia (06:38.232)
Ja, ich würde sagen, es kommt so ein bisschen drauf an, wie man es sozusagen in welchen Raum reinträgt. Genau, also ich merke das schon bei der Antidiskriminierungsgesetzgebung. Also es gibt sozusagen auf europäischer Ebene gab es verschiedene Richtlinien, die Vorgaben für die Mitgliedstaaten in der EU gemacht haben, was sie für Antidiskriminierungsgesetze umsetzen sollten. Und da wurde in Deutschland eben das Allgemeine Gleichbehandlungsgesetz.
Moritz (06:54.99)
Mhm.
Pia (07:07.576)
umgesetzt und seitdem gibt es eben ein Antidiskriminierungsgesetz. So grob besprochen ist es eigentlich ein Gleichbehandlungsgesetz, wenn man es genau nimmt. Und was ich da sozusagen als zäh wahrnehme, ist eher jetzt der Reformwille an sich, also gar nicht mal so sehr mit Bezug auf algorithmische Diskriminierung. Aber...
Genau, wir stellen uns da eben auch mit an, in der Breitenziel-Wiergesellschaft Forderungen zu stellen und sagen eben auch, das ist ein besonders kritisches Feld und es ist auch komplex. Und das Allgemeine Gleichbehandlungsgesetz ist bisher sozusagen darauf ausgerichtet, dass Einzelne Betroffene eben gegen Ungleichbehandlung klagen. Und eigentlich damit nicht so gut sozusagen aufgegriffen werden kann, dass wenn...
Moritz (07:54.318)
Mhm.
Pia (08:00.472)
in algorithmischen Systemen, sage ich jetzt mal, Diskriminierung drinsteckt, dass es dann eben alle betreffen kann, die irgendwie in Berührung damit kommen und dass das das nicht so gut aufgreift, wenn es halt eben so gestaltet ist, das Gesetz, dass es genau immer eine einzelne oder einen einzelnen Betroffenen braucht, der dagegen klagt. So, das macht eigentlich nicht so richtig Sinn, weil dann kriegt man vielleicht einen Chancenersatz und
Moritz (08:07.63)
Mm.
Pia (08:21.816)
ein bisschen Geld als Entschädigung, dass man zum Beispiel einen Vertrag oder so nicht abschließen konnte online oder so. Aber das hilft jetzt sozusagen den anderen Kunden, denen das potenziell auch passieren könnte, weil sie irgendwie ähnliche Eigenschaften haben, wie die Person, die da diskriminiert wurde. Der hilft das dann nicht unbedingt, wenn das Unternehmen diese Praxis nicht ändern muss oder so, dann zwangsläufig.
Moritz (08:28.974)
Mhm.
Moritz (08:45.326)
Mhm.
Pia (08:45.976)
Das verkompliziert vielleicht die allgemeine, komplexe Debatte zu dieser Gesetzesreform noch mal mehr, aber es ist sowieso sehr zäh, da jetzt gerade eine Reform anzustoßen politisch, weil die Interessen da jetzt gerade nicht so groß sind oder es zu viel Streit dazu gibt, welche Änderungen man dann einfüllen würde.
Moritz (08:57.806)
Mmh.
Pia (09:10.488)
Andererseits würde ich sagen, wenn man jetzt in Austausch geht mit Politikern, die jetzt konkret zu digitalen Themen arbeiten oder auch in den Bereich schaut, würde ich schon sagen, da gibt es schon relativ viel Bewusstsein dafür, dass es ein Thema ist, auch weil es in den letzten Jahren stärker besprochen wurde in der Szene. Aber da fehlen dann vielleicht so ein bisschen die dezidierten...
Moritz (09:10.51)
Mhm.
Pia (09:34.616)
Gesetzgebungsprofahren, wo man das Thema gut anbringen könnte oder so. Also da gibt es dann sozusagen jetzt zum Beispiel den Fokus immer darauf, zum Beispiel besseres Datenökosystem herzustellen, damit irgendwie die Verwaltung oder auch Unternehmen Daten besser nutzen können und da ist sozusagen das Diskriminierungsthema so ein bisschen so, ja, was sollten wir damit bedenken und irgendwie vor?
Moritz (09:39.598)
Mhm.
Moritz (09:57.486)
Mhm.
Pia (09:58.36)
aber das ist jetzt sozusagen nicht so prominent an der Stelle. Also es fehlen so ein bisschen, finde ich, die Räume für das Thema an manchen Stellen, wobei es halt in der breiten Gesellschaft schon viel Interesse auch an dem Thema gibt. Und das ist glaube ich auch ganz wichtig, damit es sozusagen in den anderen Themenfedern dann mehr Relevanz bekommen kann.
Moritz (10:05.454)
Mmh.
Moritz (10:16.846)
Ja, verstehe. Hab ich das richtig verstanden? Also das Grundsätzlich, das Gleichbehandlungsgesetz ist eigentlich eine Grundlage, wo man sagt, okay, es gibt dieses Gesetz und wenn dagegen verstoßen wird, kann ich als einzelne Person dagegen klagen und mehr ist es nicht. Und Teil der Aufgabe ist sozusagen auch zu gucken, wie kommt man jetzt über den Punkt hinaus, dass Einzelne dann diesen Weg gehen können zu klagen, dahingehend, dass ich dann im Folgeschritt auf was ändern muss. Also um jetzt mal ein Beispiel zu nennen, irgend...
Keine Ahnung, Immobilienplattform so. Und jetzt schicken alle ihre Bewerbungen ab und komischerweise Menschen im Migrationshintergrund kriegen vielleicht die Wohnung irgendwie im Schnitt 80 Prozent weniger. Also eine Person klagt dagegen, hat damit auch Erfolg, aber es ändert sich nichts. Und die Idee wäre jetzt sozusagen, dass das aber dann passiert, also dass dann im zweiten Schritt die Immobilienfirma XY oder die Plattform irgendwie ihren Algorithmus so verändern muss, dass das in Zukunft das sichergestellt ist, dass das nicht mehr passiert.
Pia (11:09.752)
Ja, das ist jetzt so das Idealszenario und es fängt schon damit an, dass die Person irgendwie gut genug Beweise dafür hat, dass er die Immobilienplattform diskriminiert hat und da fängt es eigentlich schon an. Also es ist eigentlich so gut wie unmöglich bisher unter den gegebenen Umständen, die das Gleichbehandlungsgesetz so bietet, also Beschwerdefrist von zwei Monaten generell, irgendwie man muss Beweise gut vorlegen können, also es ist...
Moritz (11:20.206)
Mhm.
Pia (11:35.864)
Der Begriff Beweislastumkehr gibt es in der Szene, wo es darum geht, ab welchem Punkt Unternehmen beweisen, sie haben sich gut genug Mühe gegeben, dass ihr System nicht diskriminiert hat. All diese Aspekte sind gerade nicht so richtig gegeben. Außerdem sind auch die Hürden für Betroffene von Diskriminierung hoch, weil es mit potenziellen Kosten verbunden ist, zu klagen. Es gibt bisher auch nicht gute alternative Wege, wie man zum Streit...
beilegen kann. Aber genau, es kommt eben noch oben drauf, dass selbst wenn das alles gegeben wäre, selbst wenn man Erfolg hätte, dass es nicht unbedingt zur Konsequenz haben muss, dass es dann auch irgendwie geändert wird, sondern dass halt eben die einzelnen Personen dann vielleicht eine Entschädigung bekommt oder so. Und da würden wir uns halt eben auch wünschen, dass zum Beispiel die Antidiskriminierungsstelle des Bundes einfach von den Kompetenzen her auch gestärkt würde, zum Beispiel sozusagen dafür zu sorgen,
Moritz (12:08.974)
Mhm.
Pia (12:31.416)
dass wenn sie von Fällen hören und eben da auch beistehen können bei Klagen, dass es eben sozusagen die Kompetenz auch noch ist, dafür zu sorgen, dass es dann ja eine Praxis vielleicht geändert oder beendet wird. Aber davon sind wir echt leider weit entfernt bisher. Und andere Antidiskriminierungsstellen in anderen europäischen Ländern haben da viel mehr Kompetenzen auch. Also die Antidiskriminierungsstelle des Bundes in Deutschland ist schon mit einer der schwächsten sozusagen, was die Kompetenzen angeht.
Moritz (12:45.038)
Hm.
Hm. Ja.
Pia (13:00.792)
Du merkst schon, es geht so weit über dieses Thema, algorithmische Diskriminierung sozusagen, hinaus, weil das so in der Struktur einfach schon so angelegt ist, dass es halt super schwierig ist, für die Betroffenen das Recht überhaupt nutzen zu können sozusagen.
Moritz (13:01.038)
Mmh.
Moritz (13:15.15)
Das heißt sozusagen eigentlich ist Diskriminierung nach wie vor das Hauptproblem und algorithmische Diskriminierung ist so ein Teil davon und wenn sich aber das große Problem gar nicht bewegt, dann kann sich auch das kleine... Was ich eigentlich spannend finde, weil ich hätte jetzt gedacht, dass gerade so algorithmische Diskriminierung ja irgendwie ein bisschen einfacher nachweisbar wäre im Zweifel, also weil die ist ja in irgendeiner Art und Weise ist die ja...
Pia (13:25.816)
Mhm.
Moritz (13:39.278)
beschrieben, also wenn ein Algorithmus diskriminiert, dann muss das irgendwo stehen, dass der das tut. Und wohingegen so bei anderen Fällen, also keine Ahnung, wenn das jetzt so im Zwischenmenschlichen passiert ist, ist es ja oft schwer dann das wirklich zu beweisen, weil dann heißt es irgendwie, naja, gut, Aussage gegen Aussage oder Auslegungssache etc. und so und ich hätte jetzt gedacht, dass das da eigentlich leichter ist, aber wahrscheinlich, wenn du sagst, die Kompetenzen fehlen, dann fehlen wahrscheinlich auch einfach so digitale Kompetenzen.
Pia (13:40.312)
Mhm.
Pia (13:58.936)
Mhm.
Pia (14:06.232)
Mit Kompetenz meine ich eher die Durchschlagskraft oder die Rechte, die die Antidiskriminierungsstelle da so hätte. Also wirklich jemandem zum Beispiel beizustehen oder was die Antidiskriminierungsstelle sich selber auch wünscht, ist ein altruistisches Klagerecht. Also wo es wirklich darum geht, grundsätzliche Missstände zu beseitigen, dadurch, dass sie sich dann selber für die Bekämpfung dieser Umstände einsetzt.
Moritz (14:10.734)
Achso.
Moritz (14:15.022)
Ja.
Pia (14:33.976)
Aber was generell auch diesen ganzen, ach, das könnte doch so einfach sein, das zu erkennen und zu vermindern, so im Weg steht, ist natürlich das Thema fehlende Transparenz im Endeffekt. Also Menschen können ja doch nicht sozusagen so schnell nachvollziehen, warum sie jetzt zum Beispiel irgendwie nicht zu einem Bildwerbungsgespräch eingeladen wurden. Also da herrscht ja ganz viel Unklarheit sozusagen darüber, wie und wo Algorithmen eingesetzt werden sozusagen.
Moritz (14:38.318)
Mhm.
Moritz (14:46.35)
Mmh.
Moritz (15:03.95)
Mmh.
Pia (15:04.12)
Erstmal das, das wird ja in den seltensten Fällen irgendwie gekennzeichnet oder so was, weil es ja auch bisher noch nicht richtig sein muss. Also es gibt ja noch kein Gesetz, was das jetzt richtig vorgibt, dass man das machen müsste. Und andererseits dann sozusagen das auch nachzuvollziehen oder ich sage jetzt mal in den Code zu gucken. Also das ist ja für die meisten nicht möglich.
Moritz (15:10.446)
Mhm.
Pia (15:28.888)
Unternehmen selbst manchmal nicht den besten Einblick, wenn sie dann noch Systeme einkaufen oder so von anderen. Also da sozusagen für Transparenz zu sorgen, wäre eine Vorbedingung für das Feststellen dessen. Und in manchen Fällen kann man es dann vielleicht feststellen sozusagen in dem direkten Moment, weil es einen direkt betrifft. Also wir hatten jetzt heute noch einen Fall irgendwie über Twitter reingespült bekommen sozusagen.
Moritz (15:33.966)
Hm. Hm.
Moritz (15:54.926)
Mhm.
Pia (15:56.184)
wo eine Person in Berlin bei einem Amt war und sozusagen so ein Aufsteller, der die biometrischen Daten, also das Gesicht sozusagen auch erfassen sollte, ich glaube für eine Ausweiserstellung oder so, wo die Person, die schwarzweinig erkannt wurde und eben mehrere Male vom System aufgefordert wurde, doch noch mal ein neues Foto zu machen,
Moritz (16:10.734)
Mhm.
Moritz (16:21.454)
Mmh.
Pia (16:22.264)
und im Zweifelsfall dann die Mitarbeiterin anscheinend in dem Amt meinte, ja das Problem ist eigentlich schon bekannt, aber wir haben den Hersteller darauf hingewiesen, es hat sich bisher nichts geändert und wir würden dann empfehlen, dass sie zum Fotografen gehen und dort das biologische Bild machen, um das dann später hier abzugeben, statt halt sozusagen diesen Aufsteller zu nutzen. Und da merkt man dann halt schnell, es funktioniert zwar nicht, aber so richtig klar, wer jetzt verantwortlich ist, sozusagen ist in dem Punkt jetzt auch nicht.
Moritz (16:41.966)
Hm.
Moritz (16:51.118)
Ja.
Pia (16:51.384)
Wir würden halt sagen, das Amt hat auch eine Mitverantwortung und eben nicht nur der Hersteller, weil die haben das ja irgendwie dahingestellt und haben ja auch eine Verpflichtung, dass das irgendwie von allen genutzt werden kann. Aber genau, haben das anscheinend nicht vor Einsatz geprüft oder es wurde irgendwie nicht erkannt oder so früh genug, dass das ein Problem sein könnte.
Moritz (17:01.422)
Hm. Na.
Moritz (17:12.397)
Ja krass, das ist ein ziemlich handfestes Beispiel, weil ich weiß noch, ich hab mich über diesen Aufsteller extrem neugefreut, als ich das letzte Mal mein Perso verlängern musste, aber in dem Fall bin ich da halt auch nicht diskriminiert worden. Ja krass, stimmt, ich finde auch, also dann stell halt irgendwie, es gab doch früher, gab's doch immer diese ganz normalen Fotoboxen, wo man einfach alles selber gemacht hat und dann halt selber sein Gesicht da dann ausrichten musste. Dann stell halt auch noch so eine hin.
Pia (17:14.808)
Mhm.
Pia (17:31.96)
Mhm.
Moritz (17:35.054)
Dann hast du das Problem zumindest im... also bevor du dann sagst ja geh halt zum Fotografen und gib da noch Geld aus. Ähm, was ja auch... was es ja noch unfairer macht. Ja.
Pia (17:39.864)
Genau, was ja auch unfair ist einfach. Also genau, ich weiß gar nicht, also wir haben auch schon mal vorher, das ist jetzt nicht sozusagen der erste Fall, der bekannt wurde, also wir haben auch vorher schon mal von anderen Fällen in Hamburg und ich glaube das andere war irgendwie aus der Brück gehört, wo ähnliches passiert ist. Da weiß ich zum Beispiel gar nicht, ob das jetzt mit so einem Aufsteller war oder ob das auch mit so einer Fotobox war, weil das Prinzip kann ja überall vorkommen, würde ich jetzt sagen. Das hat ja nicht unbedingt was jetzt mit dem genauen System zu tun.
Moritz (17:48.014)
Mhm.
Moritz (18:00.238)
Mhm.
Pia (18:05.624)
Aber klar, fair ist das nicht.
Moritz (18:09.358)
Nee, nee, absolut nicht. Und in solchen Fällen beratet ihr dann auch oder sammelt ihr diese Fälle und versucht die irgendwie bekannt und sichtbar zu machen, damit das diesen Druck erhöht, dass sich da Dinge ändern?
Pia (18:20.664)
Ja, also in erster Linie ist es schon sozusagen bekannt machen, dieser Fälle, weil wir halt auch nur gesellschaftliche Debatte darüber immer wieder anfangen wollen, dass das sozusagen Risiken sind oder auch konkrete Fälle eben, die es jetzt schon gibt, die jetzt schon Relevanz haben in der Gesellschaft. Und ich sage jetzt mal, beim Amt gibt es halt zumindest noch irgendwie den Weg, man kann noch einen Weg drum herum finden, aber wenn es jetzt darum geht,
Moritz (18:38.83)
Mmh.
Pia (18:50.618)
und man wird irgendwie fälschlicherweise identifiziert, dann hat das nochmal eine ganz andere Konsequenz.
Moritz (18:53.294)
Mhm.
Pia (18:58.296)
sozusagen zu verdeutlichen, das ist jetzt keine Zukunftsmusik und das hat nicht unbedingt was damit zu tun, dass wir jetzt irgendwie, beziehungsweise KI-Risiken sind nicht nur irgendwie, in Zukunft werden wir alle von den Robotern übernommen, sondern es gibt eben handfeste Risiken heute schon und die sind auch ernst zu nehmen und können auch Auswirkungen einfach für die Selbstbestimmung haben und eben für die Einschränkung der Grundrechte.
Moritz (19:14.318)
Mhm.
Pia (19:28.25)
was, worüber wir schon reden können und alle, die potenziell auch davon betroffen sein könnten, sollten da halt auch Mitsprachrecht haben. Also das ist uns halt auch wichtig, dass es nicht so eine reine Elitendebatte sozusagen ist, wie verwenden wir KI und welche Unternehmen sind irgendwie die, die uns am Aussichtsreißenden jetzt wirtschaftlich erscheinen, sondern eben auch zu gucken, immer prüfen, was das für eine Auswirkung haben kann, auch wenn man die Auswirkung jetzt nicht beabsichtigt hat.
Moritz (19:35.31)
Mmh.
Pia (19:55.832)
Das ist, glaube ich, schon wichtig auch bei dem Themenfeld an sich.
Moritz (19:59.662)
Ja, ich kann mir auch vorstellen, dass das oft tatsächlich keine Absicht im klassischen Sinne ist, sondern halt dieses klassische Problem von einfach nicht mitgedacht, also auf sämtlichen Ebenen. Du hast gerade schon so ein bisschen angesprochen, das Mitreden und das Thema ist aktuell wie... Also was würdest du sagen, wie viel Anklang findet das? Also weil diese Themen...
wo es um Diskriminierung geht, wo es um Privilegien geht, die haben ja oft eine... Das ist meine individuelle Wahrnehmung. Es gibt oft eine Personengruppe, die sich dieser sehr doll hinterher ist. Dann gibt es eine ganz große Person, denen es völlig egal ist. Und es gibt eine Personengruppe, die ist betroffen. Wahrscheinlich gibt es noch mehr. Ich hab aber das Gefühl, dass oft die Personengruppe, die sehr hinterher ist...
dass das nicht immer der Ort ist, der die meiste Aufklärung braucht, sondern dass sozusagen, dass es total schwer ist, oder dass nämlich zumindest aus den Gesprächen war, die Menschen zu erreichen, die eigentlich sagen, es ist mir doch egal, aber das sind ja die, wo was bewegt werden kann. Wie kann man die erreichen? Also jemanden, der vielleicht jetzt damit eigentlich das selbst nicht erfährt.
Pia (21:06.104)
Mmh.
Moritz (21:11.278)
Oder vielleicht auch eine Person, die es selbst erfährt und gar nicht wahrnimmt, dass sie gerade... Das könnte ich mir auch vorstellen, dass man sich da auch sehr doll dran gewöhnt irgendwann und das vielleicht gar nicht mehr so bewusst wahrnimmt. Wie kriegt man das sozusagen aus Berlin raus, aus sehr... Und auch aus Hamburg, das ist ja selber... Auch urbane Gegenden haben ja oft so ein bisschen das Vorurteil, dass sie da ein bisschen... mehr hinterher sind und dass sich das da sammelt, die Bewegungen, die da so ein bisschen... hingehen.
Pia (21:35.704)
Ja, das ist natürlich die zentrale Frage, wie macht man Leute irgendwie auf Diskriminierung aufmerksam und macht ihnen deutlich, dass es auch für sie relevant ist sozusagen. Also ich glaube...
Da haben wir jetzt sozusagen auch nicht die eine Antwort drauf. Also ich kenne das sozusagen von der zum Beispiel Antidiskriminierungsstelle des Bundes, dass die da selber jetzt gerade eine große Kampagne aufgefahren haben, um einfach das Allgemeine Gleichbehandlungsgesetz zum Beispiel mal berühmter zu machen. Und was die auch gerade viel machen, ist zum Beispiel auch auf Diskriminierungsformen hinzuweisen, die viele Leute in der Breite eben betreffen auch. Also sowas wie Altersdiskriminierung. Jeder wird irgendwann älter.
Und gerade auf dem Jobmarkt glaube ich ist es schon für die, die eben älter sind, auch wahrscheinlich häufig schon deutlich geworden, dass man da auch mal diskriminiert werden kann, eben weil man älter ist. Und ich glaube ein ähnliches Prinzip, würde ich sagen, gilt bei algorithmischer Diskriminierung, dass wir halt auch versuchen deutlich zu machen. Natürlich sind in den meisten Fällen wahrscheinlich die auch betroffen, die sonst, ich sag mal in der analogen Welt von Diskriminierung betroffen sind.
Moritz (22:18.03)
Hm.
Moritz (22:29.198)
Mmh.
Pia (22:47.642)
Kategorien.
ethnische Herkunft, Geschlecht, Behinderung, das sind halt so Kategorien, die auch im Gesetz drin stehen und daher kommt das wahrscheinlich, was du meintest, dass manche sich da einfach nicht so angesprochen fühlen, so naja, was interessiert mich das so ein bisschen, wenn man jetzt mal ganz unsolidarisch das ausdruckt will. Und was aber algorithmische Diskriminierung ja auch gut zeigt, ist ja, dass häufig oder nicht häufig, nicht per se am häufigsten,
Moritz (23:05.006)
Mm.
Pia (23:19.098)
das Thema ja total
lustige Kategorienkombinationen manchmal ausspucken können oder sich Muster darauf erschließen. So was wie über 40-jährige HundebesitzerInnen oder so sollten jetzt keinen Zuschlag bei irgendwie eine Entscheidung bekommen oder so. Also theoretisch gibt es ja auch algorithmische Modelle, die einfach nur irgendwie versuchen, Muster zu erkennen und daran irgendwie was zu knüpfen und wenn das zufälligerweise
Moritz (23:31.47)
Mhm.
Moritz (23:41.518)
Mmh.
Pia (23:51.93)
reinpasst, dieses eine Kriterium, dann wird das da auch nochmal reingemischt. Also es gibt ja teilweise komische Gruppenbildung sozusagen in diesem Prozess und auf sowas machen wir zum Beispiel auch aufmerksam, dass das jetzt nicht heißt, dass es nur die betrifft, die irgendwie in solche Kategorien fallen und so. Anders ist es halt viel breiter auch genau dazu führen kann, dass man da irgendwie einen Ausschluss oder so erfährt. Aber das ist natürlich sehr abstrakt. Also ich würde
Moritz (23:57.23)
Mhm.
Mmh.
Moritz (24:07.758)
Mm.
Moritz (24:11.822)
Hm.
Pia (24:21.85)
Vielen Dank.
Diskriminierung muss man eigentlich breiter verstehen und es kann einen immer betreffen, das ist wahrscheinlich so ein bisschen der einfache Weg, genau, aber wir versuchen es halt natürlich irgendwie über verschiedene Kommunikationswege zu schaffen, auf das Thema aufmerksam zu machen und eben so ein bisschen aus Berlin und Hamburg unter anderem aus den Urbanzentren so damit rauszukommen und ich glaube, was dafür halt eben auch ganz wichtig ist, ist halt sozusagen, dass nochmal sich sozusagen Mitstreiterinnen zu suchen.
Moritz (24:26.51)
Mh.
Moritz (24:31.118)
Mhm.
Moritz (24:41.166)
Mhm.
Pia (24:53.466)
Wir haben das jetzt konkret probiert über ein Projekt, was die Antidiskriminierungsstelle auch gefördert hatte, wo es eben konkret darum ging, Antidiskriminierungsberatungsstellen eben zu dem Thema einzuladen und eben einerseits den Informationen mitzugeben und andererseits eben zu schauen, was fällt denen schon so auf in ihrem Alltag, berührt sie das schon und wie können die auch erkennen,
Moritz (24:53.934)
Mmh.
Moritz (25:18.158)
Mhm.
Pia (25:23.386)
was damit zu tun hat in dem Fall von Diskriminierung, wenn sie feststellen, da hat jemand eben nicht den Zuschlag bekommen für zum Beispiel irgendwie eine Art der Bezahlweise oder so, da konnte jemand nicht auf Rechnung bezahlen, warum war das wohl so der Fall, dass sie da auch spitzehörig werden und dem nachgehen können. Genau.
Moritz (25:36.046)
Mm.
Moritz (25:43.278)
Ja, ich finde es auch, also ich muss mich kurz sortieren, aber ich hatte nämlich gerade einen Punkt, ach genau, du hast natürlich recht, also letztlich ist die Idee zu sagen, wie kriegen wir jetzt auch die Leute mit, die das vielleicht nicht betrifft. Also Solidarität sollte natürlich eigentlich ausreichen, um zu sagen, hey, das kann auch nicht sein, das ist nicht in Ordnung, gar keine Frage, aber ich weiß nicht, wie du das wahrnimmst, aber in der Praxis...
könnte ich mir vorstellen, reicht es halt leider manchmal nicht aus. Und ich könnte mir vorstellen, dass das so ein Thema ist, wo man erst, wenn man selber damit irgendwie in Berührung kommt und auch vielleicht irgendwie emotional mit in Berührung kommt, weil es einen betrifft oder was auch immer, dass man dann so ein bisschen anfängt, mal darüber nachzudenken, oh, okay, und stell dir mal vor, jetzt passiert das häufiger oder regelmäßig, ne? Also vielleicht jemand, der weiß heterosexuell aus einer stabilen, gut verdienenden sozialen Schicht so. Und dann im Alter kommt dann irgendwann der Punkt, wo man dann auf einmal merkt, dass so jetzt, für etwas, wofür ich überhaupt nichts kann, nämlich, dass ich alt geworden bin,
habe ich auf einmal einen Nachteil. Ich kann mir vorstellen, dass diese Empathie da schon hilft um das irgendwie besser zu verstehen. Wo du das gerade gesagt hast mit den Zuschlägen, also es hört sich, das mag jetzt eine naive Aussage sein, aber wir unterhalten uns ja hier, also kann ich auch mal laut denken. So was wie die Schufer zum Beispiel könnte ich mir vorstellen ist auch ein...
eine, eine, ja was ist denn das? Ist das ein Unternehmen, ne? Einfach ein ganz normales Unternehmen, wo zumindest die Gefahr recht hoch ist, weil ich mein, da wird man ja auf Basis von irgendwelcher auch überhaupt nicht einsehbarer Kriterien dafür eingeschuft, ob man jetzt ein Kredit bekommt oder nicht. Ja.
Pia (27:09.912)
Mhm. Ja.
Pia (27:20.024)
Ja, total. Also genau, die Schufa ist glaube ich ein sehr gutes Beispiel für Black Box sozusagen an der Stelle. Also ich glaube, manche Kriterien haben sie sogar offen gelegt, aber eben nicht alle. Und es ist sozusagen einfach fragwürdig in dem Sinne, was aber heißt so ein Schufa-Scoring, so ein Bonitätsscoring sozusagen für eine Auswirkung einfach dann hat.
Moritz (27:26.99)
Mhm.
Moritz (27:42.542)
Mmh.
Pia (27:42.712)
dafür, dass man es eben nicht weiß. Ich weiß gar nicht, ob du darauf anspielst, aber die Schufa wird ja auch vom EGH verhandelt als Fall, weil in der Datenschutz-Grundverordnung ja auch drin steht, dass automatisierte Entscheidungen nicht die alleinige…
Moritz (27:54.798)
Mhm.
Pia (28:06.552)
Also so eine große Entscheidungskraft haben sollten, ich weiß nicht ganz genau, wie die Formulierung jetzt im Detail ist, aber da geht es eben darum, wenn jetzt zum Beispiel ein Onlinehandel oder auch eine Bank oder so, das den Bonitätsscore von der Schufa zu Runde legt für eine Entscheidung, ob jetzt zum Beispiel jemand einen Kredit bekommt oder nicht, dann sollte es sozusagen nicht gegeben sein, dass die Bank das allein nicht auf dieser...
Moritz (28:25.518)
Mhm.
Moritz (28:31.534)
Mhm.
Pia (28:32.216)
Schufa-Bewertung entscheidet, sondern dass es eher so ein ein Teil von, also ein Kriterium sozusagen ist und eben noch auf das Individuum geguckt werden sollte, was genau der Fall ist. Und da das aber in der Praxis halt sozusagen de facto fast dann doch so ist, steht die Schufa jetzt sozusagen vor Gericht an der Stelle und versucht jetzt gerade auch zweifelhaft, verzweifelt sozusagen zu schauen, dass sie gar nicht so relevant
Moritz (28:49.23)
Mm.
Moritz (29:00.654)
Mmh.
Pia (29:02.17)
ein bisschen widersprüchlich ist. Weil einerseits wollen sie ja mit ihrem Produkt sozusagen dafür werben, dass es dann was aussagt über die Kreditwürdigkeit oder Sonstiges. Und gleichzeitig versuchen sie jetzt eben geradezu zu beweisen in irgendeiner Hinsicht, dass sie eben nicht solche große Schlagkraft haben mit ihren Scores. Also es ist ein sehr absurder Zeitpunkt sozusagen, gerade glaube ich, für die Schufa.
Moritz (29:09.166)
Mmh.
Moritz (29:27.758)
Ja, stimmt, aber das ist so ein Ding, glaube ich. Wenn man da nie eine negative Erfahrung mit macht, dann denkt man sich so, keine Ahnung, ist mir halt irgendwie egal so. Und in dem Moment, wo man merkt, ach so, das hat ja jetzt wirklich Einfluss, ich keine Ahnung, ich bekomme irgendwie einen Kredit nicht oder ich bekomme eine Finanzierung nicht, die ich vielleicht dringend brauche, dann wird es halt irgendwie kritisch.
Moritz (29:52.238)
Kannst du nochmal... Also ich hätte das gerne nochmal so als Zusammenfassung, weil wenn ich das jetzt richtig verstanden habe, im Zentrum des Ganzen steht ja schon dieses allgemeine Gleichbehandlungsgesetz. Also das ist ja so die Basis für vieles oder fast alles, was du mit dem du dich jetzt so aktiv beschäftigst, oder? Das habe ich schon richtig verstanden.
Pia (30:11.448)
Ja genau, also ich persönlich jetzt sozusagen bei Algorithm Watch. Also es gibt natürlich noch viele andere Aspekte drum herum, die jetzt eher in Richtung Prävention sozusagen gehen und wir oder ich sozusagen gucke dann eben dahin, was ist, wenn es schon passiert ist und was müsste da besser geregelt sein. Genau, so kann man es auf jeden Fall zusammenfassen. Nur das muss natürlich auch irgendwie zusammen spielen im Idealfall. Also Prävention
Moritz (30:22.19)
Mhm.
Moritz (30:29.07)
Mhm.
Pia (30:41.402)
an erster Stelle natürlich stehen und die Regeln, die dafür geschaffen werden, müssten. Genau, dafür haben wir natürlich auch Vorschläge.
Moritz (30:45.198)
Mhm.
Moritz (30:53.326)
Ja, also vielen Dank für diese perfekte Überleitung. Sehr viel weniger holprig, als wenn ich es gemacht hätte. Kannst du denn dazu ein bisschen was sagen? Also wie kann man denn, das ist jetzt eine super dumme, viel zu vereinfachte allgemeine Frage, aber wie kann man denn Vorkehrungen treffen, dass man, also dass Diskriminierung durch Algorithmen...
Pia (30:56.824)
Hehehehehehe!
Moritz (31:14.478)
nicht stattfindet. Da gibt es wahrscheinlich ganz viele Ebenen, auf der man diese Frage beantworten kann, aber vielleicht fangen wir mal mit irgendeiner an. Gibt es da technische Möglichkeiten oder wie?
Pia (31:24.152)
Ja, also ich glaube, was schon klar ist sozusagen, ist, dass man nie diskriminierungsfreie KI wahrscheinlich haben wird. Also ich glaube, da von der Vorstellung sollte man sich frühzeitig verabschieden, auch einfach, weil es häufig so Zielkonflikte sozusagen gibt. Also häufig ist es zum Beispiel so...
dass man, wenn man jetzt mal davon ausgeht, man möchte jetzt ein großes Sprachmodell trainieren, man braucht irgendwie einen Haufen Daten dafür, also sehr, sehr viele Daten, damit man da irgendwie möglichst genaue Aussagen oder so was am Ende rauskriegt.
Moritz (31:58.382)
Mhm.
Pia (32:05.048)
Dann holt man sich natürlich viel Datenscheiß auch irgendwie so da rein. Also, konnte man ja jetzt, finde ich, bestens in den... also gut sozusagen bei dem Release von ChatGPT oder so was, konnte man das ja gut beobachten, wo viele dann den Chatbot ja auch hinsichtlich Diskriminierung herausgefordert haben und irgendwie geschaut haben, welche Stereotype spuckt er aus,
Moritz (32:10.574)
Hm, klar.
Moritz (32:22.382)
Mhm.
Pia (32:35.002)
englischen Sätze, da einfüge, wo ja eben Professor oder graduate student sozusagen eigentlich genderneutral ist und dann am Ende sozusagen der Chatbot sich um Kopf und Kragen irgendwie formuliert, damit bloß nicht eine Professurin am Ende des Satzes irgendwie rauskommt. Also es war schon interessant, finde ich, so zu beobachten.
Moritz (32:46.702)
Mhm.
Moritz (32:52.686)
Mmh.
Pia (32:55.608)
Und ich glaube, das hat eben viel damit zu tun, dass es so einfach ein riesen Datenhaufen sozusagen dann ist, der gebraucht wird, um halt irgendwie, damit das Ganze überhaupt irgendwie funktioniert. Und gleichzeitig holt man sich da eben viel Stereotypen, Vorteile, alles, was so im Internet so rumfliegt sozusagen, sammelt man sich da ein. Und demgegenüber steht dann halt eben, dass man zum Beispiel Datensätze genauer irgendwie scannt nach Stereotypen und die dann irgendwie eliminiert.
Moritz (33:25.39)
Mhm.
Pia (33:25.562)
dass man das beim, wenn man sozusagen die Output-Ebene reguliert, dass man für den Output mehr Regeln aufstellt. Also so hatte das jetzt, glaube ich, OpenAI jetzt auch nach verschiedenen Durchläufen sozusagen oder verschiedenen Versionen so gemacht, dass zum Beispiel nicht mehr...
pauschale Aussagen zu Gruppen zum Beispiel ausgespuckt werden sollen. Also wenn man jetzt den Prompt eingibt, Muslime sind oder so, dass da nicht mehr irgendwie einfach nur einen Satz irgendwie rauskommt, sondern dann antwortet es mittlerweile so ein bisschen differenzierter und erzählt von der verschiedenen Glaubensgemeinschaften und was auch immer. Kann man ja mal ein bisschen ausprobieren, wenn man das jetzt hört. Und das ist zum Beispiel...
Moritz (33:49.198)
Mhm.
Moritz (33:58.286)
Mmh.
Moritz (34:03.822)
Mhm.
Pia (34:09.624)
Ja, dann einfach eine Einschränkung, die an anderer Stelle gemacht wird. Aber ich glaube, man muss sich eben bewusst sein, man wird nicht jeden Fall sozusagen damit irgendwie vorab sehen können sozusagen. Und man kann auch, glaube ich, so wie ich das verstanden habe, sozusagen auch nicht das abschließend so umsetzen, weil sich sozusagen die Modelle dann auch wieder weiterentwickeln. Also letztens habe ich zum Beispiel auch gehört oder gelesen, dass das
Moritz (34:21.197)
Mhm.
Pia (34:37.751)
die GPD wohl mal besser in Mathe war und jetzt durch ganz viele Nutzungen schlechter geworden ist und an anderen Stellen genauer oder so. Gerade weil diese Funktionsweisen teilweise auch noch gar nicht so richtig klar sind.
kann man halt auch gerade so präventive Maßnahmen deutlich schlechter sozusagen mit abschließendem Sicherheitsgefühl von jetzt haben wir es ja erledigt sozusagen umsetzen und gleichzeitig gibt es ja auch viele andere algorithmische Systeme, wo es vielleicht ein bisschen einfacher ist, wo man halt gucken kann, okay, welche Regeln aus dem Analogen zum Beispiel übertragen wir jetzt hier gerade ins
Moritz (34:51.853)
Mmh.
Moritz (34:57.614)
Mm.
Moritz (35:12.75)
Mhm.
Pia (35:12.76)
Digitale. Und ich glaube, was da auch häufig unterschätzt wird, ist, wie viel Diskriminierung schon im Analogen, oder was heißt im Analogen, aber in den bisherigen Abläufen, wie man zu entscheiden gekommen ist, dass da ja auch schon viel drinsteckt, was man ja eigentlich erstmal nochmal prüfen müsste, bevor man es jetzt überführt vielleicht auch in ein algorithmisches System. Also das wird ja auch bei weitem nicht überall gemacht und am Ende
Moritz (35:26.51)
Hm.
Pia (35:42.714)
wenn man das jetzt übersetzt, ein algorithmisches System sozusagen, dass das Analoge dann irgendwie schon es einem vorgibt, wie es sein sollte. Und das ist ja aber auch nicht unbedingt so gegeben. Also mir fährt da irgendwie gerade dieser Fall in Österreich ein, den es gab, wo der Arbeitsmarkt Service so einen Algorithmus entwickelt hatte.
Moritz (35:50.862)
Mhm.
Moritz (36:04.558)
Mhm.
Pia (36:04.568)
oder einsetzen wollte, wo es darum ging, sollte man jetzt welcher Personengruppe, sollte man sozusagen Gelder geben, damit sie für die Reintegration glaube ich in den Arbeitsmarkt gefördert werden und dann kam irgendwie, wurde da irgendwie angelegt sozusagen, dass
Ich glaube, alleine ziehende Mütter über 40 oder was auch immer nicht so förderungswürdig werden. Und das wurde dann halt sozusagen damit begründet, dass das halt in der Statistik so ist, dass es sich halt meistens nicht so lohnt oder so, wenn man die fördert. Und da stellt man sich ja auch die Fragen sozusagen.
Moritz (36:34.446)
Mhm.
Pia (36:39.864)
Inwiefern bildet man jetzt was ab, was jetzt in der Realität einfach besteht? Inwiefern möchte man darauf hinwirken, dass sich diese Statistik verändert? Da kommt man halt in so große Fragen, in so Gefilde, wo ich sagen würde, es ist auch irgendwo hilfreich, dass es so sichtbar wird, in manchen Fällen zumindest, wenn man halt
Moritz (36:49.678)
Mhm.
Moritz (36:58.83)
Ja.
Pia (37:01.848)
mit wachen Augen, das macht, wenn man diese Systeme entwickelt, dass man zumindest, wenn man ein waches Auge dafür hat, auch die Chance bekommt, das zu reflektieren. Was hat man denn bisher so viele Regeln und wollen wir die genauso überführen?
Moritz (37:10.606)
Mm.
Moritz (37:16.238)
Ja, und ich glaube, das ist wahrscheinlich gleichzeitig auch eine extrem große, also das ist, wie du sagst, das ist glaube ich die größte Chance daran, also weil auch so in der ganzen Softwareentwicklung.
Wenn man es richtig macht, weil Software ist ja generell auch einfach komplex. Und es gibt viele Dinge, von denen man noch gar nicht weiß, dass man sie noch nicht weiß und so weiter und so fort. Also es ist ein Prozess, in dem man oft mit sehr komplexen Dingen konfrontiert ist und die man so mit seinem eigenen Bauchgefühl oft nicht mehr richtig einschätzt. Also man trifft dann Entscheidungen, die eigentlich nicht gut sind und so. Und dem kann man ja auch nur begegnen, indem man halt viel so implizites Wissen irgendwie explizit macht. Also ganz klar formuliert, was brauche ich, was will ich.
Moritz (37:57.968)
keine ahnung vielleicht ist jetzt nur eine es ist keine these die ich wirklich habe sondern nur ein beispiel wenn man jetzt sagen würde die statistik zeigt frauen über 40 alleinerziehende mütter oder so sind irgendwie nicht beförderungswürdig weil statistisch gesehen ist der wert der hinten raus kommt irgendwie geringer ich weiß nicht das so ist aber nur mal als beispiel und selbst wenn das so wäre dann könnte man ja also da steckt ja immer noch implizit was drin liegt das vielleicht an anderen kriterien will man davon die
wie zum Beispiel... ja gut aber...
die Lebensqualität sinkt, wenn wir diese Förderung nicht machen, was auch immer. Und ich glaube, dass, also, dass der, wenn man ihn richtig macht, der Prozess von Softwareentwicklung und damit ja auch von der Erstellung von Algorithmen, eigentlich, wenn man es, glaube ich, mit in den Prozess integriert, sogar aktiv darauf einzahlen würde, sich dieser Dinge auch bewusst zu machen. Das Problem ist nur, und das sieht man schon bei Softwareentwicklungsprozessen, wo Diskriminierung gar keine Rolle spielen kann, weil man irgendwie, keine Ahnung, irgendwelche Maschinen-Daten verarbeitet, die nichts mit irgendeinem Menschen zu tun haben, zum Beispiel.
funktionieren halt oft so nicht und es ist halt total also es braucht eine ganz strenge form um diese dinge einzuhalten und und sich bewusst zu machen das ist ein gedanke und ein anderer den ich auch hatte als du das gerade so gesagt hast mit mit chat gpt und man sammelt sich daten ein und so eigentlich ist doch sind doch diese large language models wenn man sie mal ungefiltert
verwenden würde ein total guter Gradmesser für das Maß an Diskriminierung was so im Kollektiv herrscht oder? Also weil das lügt, also das lügt nicht im Sinne von das was ich reingebe bestimmt was ich raus bekomme und wenn das was ich reingebe voll von Diskriminierung ist dann ist halt auch das was ich raus bekomme. Also es ist ja eigentlich ein total gutes Messtool um irgendwie rauszufinden wie wie assi sind wir eigentlich?
Pia (39:44.824)
Ja, total. Also genau, es wird halt viel sichtbar, was halt so vorherrscht in der Gesellschaft und welche...
Narrative oder Erzählungen über Personengruppen auch am meisten Raum einnehmen im Netz und wer da auch vielleicht nicht mit Positionen vertreten ist oder wer sich auch nicht durchsetzen kann mit anderen Interpretationsrahmen, sage ich jetzt mal. Aber die Frage ist ja dann schon, inwiefern will man nicht trotzdem was dagegen tun, dass es sich nicht einfach reproduziert. Und ich glaube, da finde ich sozusagen die Ansätze, da irgendwie, ja, Ramm zu setzen,
Moritz (39:58.318)
Mhm.
Moritz (40:05.23)
Mhm.
Moritz (40:14.766)
Ja, natürlich.
Pia (40:22.122)
Aber die Frage ist ja auch, wer bestimmt dann, welchen, welcher Rahmen gesetzt wird. Also sollte es jetzt nur Open AI überlassen sein sozusagen, da sich ein paar Gedanken zu machen, so hey, blöd, diese ganzen Stereotype werden hier die ganze Zeit ausgespuckt, naja, können wir was machen, machen wir mal so viel. Und die Frage ist ja dann schon, wie wird das denn gesellschaftlich debattiert? Reicht das dann aus oder bräuchte es nicht noch mehr oder?
Wie werden diese Entscheidungen getroffen? Und dass darüber ein einzelnes Unternehmen entscheiden kann, ist auch nicht sehr demokratisch. Gerade wenn der Einfluss so breit ist, dass es überall Anwendungen findet und nicht jeder mit so starkem Bewusstsein da vielleicht rangeht.
Moritz (40:53.166)
Mhm.
Moritz (41:04.558)
Mmh.
Moritz (41:09.742)
Ja, das ist ja eh, also finde ich bei dem Thema gerade wichtig, also auch eine ganz spannende Frage, weil das ist, also was, ne, das ist sehr cool, das kann ja auch wirklich helfen und praktisch sein und alles. Aber ich finde es generell auch schwierig zu sagen, okay, wir nutzen jetzt alle nur noch das Produkt von OpenAI, weil dann haben wir so ein riesen Produkt, was so in allem irgendwie drin steckt und so, also vielleicht Alternativen grundsätzlich.
für eben all diese Fragestellungen. Das ist ja die Diskriminierungsfrage, ist natürlich ganz groß, aber ja auch rein so wirtschaftliche Abhängigkeiten. Also wir haben alle darüber gemeckert, dass Google und Facebook so riesig sind und alles entscheiden und jetzt kommt so die nächste Firma und dann, ja jetzt entscheiden die alles. Das ist ja auch schwierig.
Pia (41:55.256)
Mmh.
Ja genau und wie kann man das halt hinkriegen, dass nicht einfach ein anderes Unternehmen dann was anderes entscheidet, sondern dass die sozusagen auch mehr dazu in die Pflicht genommen werden, eben breite Zivilgesellschaft auch mit einbeziehen zu müssen vielleicht auch, oder ja sozusagen es Systeme gibt, die dann vielleicht von vornherein mehr Perspektiven einbeziehen. Das ist glaube ich so das Ding, weil nur jetzt ein deutsches Unternehmen zum Beispiel zur Hand zu nehmen, stattdessen heißt jetzt nicht unbedingt, dass es dann besser wird.
Moritz (42:10.03)
Ja.
Pia (42:26.682)
das ein bisschen schwierig, auch gerade mit Aleph Alpha zum Beispiel, dem werden halt viel so europäische Werte oder irgendwie so was zugesprochen und in so Tests, die man dann da in der Testumgebung machen kann, habe ich das jetzt noch nicht so ganz gesehen, ehrlich gesagt. Also da werden auch ganz schön Stereotype sichtbar, also da gab es auch einen Zeitartikel letztens zu.
Moritz (42:34.83)
Mhm.
Pia (42:50.488)
Basierend auch auf einer Arbeit von der Stiftung Neue Verantwortung. Die hatten sich dann nämlich diese Testumgebung angeguckt mit Zeit Online zusammen. Und also was da für Stereotype drin sind, da ist chat.gpt nichts gegen, ehrlich gesagt, weil die halt viel weniger Rahmen setzen. Die sagen dann halt, ja gut, wenn wir das dann auf eine Anwendung irgendwie hin übersetzen, sozusagen. Das ist jetzt nur die Testumgebung. Dann fügt man ja nochmal Regeln ein oder so. Aber inwiefern das genau gemacht wird, ist mir noch nicht so ganz klar, ehrlich gesagt.
Moritz (42:57.966)
Mhm.
Moritz (43:18.062)
Mmh.
Pia (43:20.442)
wenn europäische Werte, das kann ja auch viel bedeuten, europäische Werte, also Rassismus kommt ja auch aus Europa sozusagen.
Moritz (43:24.782)
Ja.
Moritz (43:28.43)
Ja stimmt, also Europa ist jetzt ja historisch gesehen nicht für die aller moralischen Handlungsformen bekannt. Wow, warum hab ich mich denn gerade so komisch ausgedrückt? Ja, also ich könnte mir vorstellen, dass Open Source, das ist ja das generelle Thema, aber dass Open Source halt da wahrscheinlich...
Pia (43:38.136)
Hahaha
Moritz (43:48.11)
wahnsinnig guter Lösungsansatz wäre. Also wenn man zum Beispiel jetzt ist jetzt nur ein Beispiel, aber da fand ich es recht eindrücklich als es um diese Corona App ging und um die Datensicherheit dabei und das Ding war halt von vorne rein open source und alle konnten reingucken und alle haben gesagt ja, ne, stopp, wir sehen ja den Quellcode, wenn das genau das ist, passt und ich könnte mir vorstellen, dass die Daten irgendwie, ja aber da beißt natürlich die Katze in den Schwanz, weil klar, wenn jetzt zum Beispiel alle Daten, die verwendet würden, um ein Sprachmodell zu
öffentlich wären, dann könnte man natürlich da ganz viel Statistik drauf machen und mal gucken, was sind da denn für Stereotypen verbaut, wie viel Gruppen von was sind, in welcher Form vertreten etc. Aber dann ist natürlich das komplette Geschäftsmodell der Firmen irgendwie dahin, also wären die das wohl nur sehr ungernetun könnte ich mir vorstellen.
Pia (44:35.96)
Ja, also ich glaube, das muss auch nicht unbedingt auch immer so sein, sozusagen, weil für die breite Bevölkerung ist es dann ja auch nicht so super zugängig, sozusagen, sich da den Quellcode anzugucken. Also ich glaube halt, ja, bei der Corona-Warn-App sozusagen war es ja auch so ein bisschen, vielleicht ein bisschen einfacherer Fall, ist da so eine App-Anwendung. Und dann ging es irgendwie darum, wo werden jetzt die Standortdaten genauer geschweichert und dezentral, zentral, blablabla. Also so diese ganzen Debatten und wie wird da verschlüsselt und so.
Moritz (44:47.438)
Ne, das stimmt.
Moritz (44:54.99)
Mhm.
Moritz (44:59.054)
Mhm.
Pia (45:05.914)
bei KI-Anwendungen ist es ja schon noch ein Stück weit komplizierter, würde ich auch einfach sagen. Gerade wenn man dann noch diese Blackbox-Thematiken hat, wo dann Unternehmen selber nicht mehr wissen, wie die Entscheidung zustande gekommen ist, dann kann man es eben auch einfach nicht mehr so leicht nachvollziehen. Bei manchen genau algorithmischen Systemen, die jetzt eher so Entscheidungsbäume sind oder so, da natürlich noch mal eher, aber selbst da, also das ist ja teilweise auch, kann man ja Gewichtungen von einzelnen Kriterien auch irgendwie,
Moritz (45:21.646)
Ja.
Pia (45:35.834)
hinter Code nochmal deutlich verstecken. Es ist ja nicht immer so eindeutig, wo dann da genau steht 0,3 Mal Geschlecht oder was auch immer, so wie das so bei diesen AMS-Fällen irgendwie so bekannt wurde und womit man ja auch ein Problem hat sozusagen, das teilweise von außen irgendwie erkennen zu können, sind ja auch so Stellvertreter-Merkmale, die eher indirekt wirken, sag ich jetzt mal. Also wenn man jetzt zum Beispiel einen Lebenslauf hat...
Moritz (45:36.654)
Mhm.
Moritz (45:45.39)
Ja, ja.
Moritz (45:57.038)
Mhm.
Pia (46:01.976)
der irgendwie durch ein System durchgeht, dann kann ja zum Beispiel im Lebenslauf, muss da jetzt ja nicht analysiert werden, sozusagen ist man jetzt irgendwie, war man jetzt irgendwie in der Elternzeit oder so, das mag vielleicht nicht analysiert werden, aber dann wird halt vielleicht analysiert, wie viele Jahre zwischen der letzten und vorletzten Stelle lag oder so und dann...
Moritz (46:21.838)
Mhm.
Pia (46:23.672)
Wenn das System dann sagt, bei Personen über fünf Jahren Pause zwischen zwei Arbeitsstellen wollen wir die Person nicht mehr einladen, dann hat man sozusagen indirekt Elternschaft vielleicht irgendwie negativ bewertet. Also solche Komplexitäten kommen da halt auch nochmal so hinzu, selbst wenn es jetzt nicht so super komplexe Kiste ist, wie jetzt so große Sprachmodelle oder so.
Moritz (46:32.046)
Hm.
Moritz (46:43.214)
Ja natürlich, also das ist einfach, ist es nicht, das wollte ich auch nicht sagen, aber ich könnte mir vorstellen, weil bei KI, wie du schon sagst, den reinen Entscheidungsprozess der ist ja nicht mehr wirklich einsehbar, aber vielleicht zumindest in irgendeiner Art und Weise einsehbar oder von außen in irgendeiner Form bewertbar, was für Daten verwendet werden, wie werden die Daten aufbereitet, das...
Pia (47:02.936)
Hmm.
Moritz (47:05.326)
würde das Problem auch nicht abschließend lösen, aber wenn ich die richtig verstanden habe, ist das wohl auch... Also ist das generell bei dem Thema Diskriminierung eigentlich fast unmöglich, das irgendwie abschließend zu lösen? Weil man findet ja dann auch bei sich selbst, oder wir finden ja auch immer noch wieder neue Dinge, aus denen wir merken, ah, da, guck mal, das war ja auch gar nicht so toll, wie wir das alle gedacht haben.
Pia (47:23.928)
Ja, also ich würde jetzt auch nicht zu negativ irgendwie rausgehen, sozusagen, aber was halt mindestens sozusagen notwendig wäre, wäre halt irgendwie ein Zugang zum Beispiel zu Daten auch für Forschende, also es muss halt sozusagen regelmäßig überprüfbar auch sein, von extern einsehbar sozusagen und ich glaube, das kann man schon natürlich zumindest probieren und das sollte irgendwie möglich sein, aber
Moritz (47:39.918)
Mhm.
Moritz (47:50.894)
Mhm.
Pia (47:52.568)
dass man eine 100% diskriminierungsfreie Anwendung hat, das meine ich halt. Das ist halt sozusagen wahrscheinlich nicht möglich. Aber ich finde, wenn man sozusagen zumindest unabhängig abschätzen könnte, wie hoch sind denn die Risiken? Wie wahrscheinlich ist es denn, dass es zu solchen Fällen kommen könnte? Dann könnten ja auch die jeweiligen Personen oder Institutionen, die halt solche Systeme einsetzen, ja auch viel bewusster mit dem Einsatz umgehen. Also ich glaube, das allein würde sich ja schon lohnen. Also auch wenn das vielleicht
Moritz (48:05.71)
Mhm.
Pia (48:22.522)
genau zu dem perfekten Ergebnis führen würde, aber wenn jetzt so, ich sag jetzt mal so eine Polizei irgendwie klarere Infos dazu hätte, ah...
in diesem vorausschauenden Polizeitool, was ich hier habe, wo ich irgendwie rausfinden möchte, wie oft sollte ich irgendwie in welcher Gegend Streife fahren. So, dann sollte die Polizei ja mindestens mal irgendwie wissen, ah, da könnte irgendwie Diskriminierung drinstecken sozusagen. Mit welcher Sicherheit setze ich dieses Tool denn dann ein? Oder ergibt es für mich dann überhaupt Sinn? Oder sind die Risiken viel zu hoch, dass es für mich irgendwie unbrauchbar ist? Also solche Fälle gerade sozusagen.
Moritz (48:42.894)
Mhm.
Moritz (48:50.062)
Mmh.
Moritz (48:57.87)
Hm.
Pia (49:02.042)
dass die jetzt teilweise Tools eingesetzt haben, ein, zwei Jahre festgestellt haben, okay, das hat uns jetzt gar nichts geholfen und nur in die falschen Gegenden geschickt.
Moritz (49:11.47)
Mhm.
Pia (49:12.504)
Genau, brauchen wir ja dann nicht, weil welchen Mehrwert hat es dann noch sozusagen für uns? Dann können wir auch gleich irgendwie zufällig oder basierend auf unseren eigenen Informationen, die wir halt über Jahre gesammelt haben oder so, gegen den Abfahren und haben den gleichen Effekt. Also da ermöglicht das sozusagen den AnwenderInnen ja auch einen bewussteren Umgang und Einsatz, aber verständlicherweise haben Unternehmen vielleicht auch nicht das größte Interesse manchmal daran, dass ihr Tool sozusagen bestmöglich eingesetzt wird, sondern sie möchten halt ein Tool verkaufen.
Moritz (49:15.95)
Nein.
Pia (49:42.458)
jetzt mal bös gesagt so, da muss man ja auch sozusagen wissen, so was muss man fragen, was sollte geprüft worden sein, also da geht es auch viel um sozusagen Selbstermächtigung von AnwenderInnen würde ich sagen, selbst wenn es halt so Anwender sind wie die Polizei zum Beispiel, da auch internen Kompetenzen aufzubauen, wo es, wo einem sozusagen darauf auch aufmerksam gemacht
Moritz (49:42.574)
Mm.
Mmh.
Moritz (49:49.454)
Ja, ja.
Pia (50:08.632)
Es könnte Risiken enthalten, die könnten so und so sich ausdrücken, das sollte so und so überprüft und getestet werden, bevor man es einsetzt. Also da gibt es sozusagen viele Schritte noch davor, würde ich sagen, die man zumindest gehen sollte, um eben zu vermeiden, dass man da irgendwie ja in so eine Situation kommt, dass es irgendwie einmal am Ende auch gar nichts nützt, das einzusetzen, beziehungsweise sowieso ja fraglich ist, in welchen Bereichen will man es überhaupt einsetzen oder sollte man es auch einsetzen? Weil gerade dort hat man dann natürlich einfach die Gefahr.
dass Diskriminierung eine krasse Auswirkung haben kann für die Leute, wenn sie da ständig zu ihrem analogen Racial Profiling noch extra Streifen in ihrer Gegend haben.
bin ich auch sowieso eher Fan davon, solche Technologien, von denen wir manchmal noch nicht so ganz verstehen, wie sie funktionieren, vielleicht auch eher an Bereichen zu einzusetzen, wo es vielleicht weniger mit dem Schicksal von Menschen Überschneidungspunkte hat. Sag ich auch mal so.
Moritz (51:06.254)
Mhm. Genau, also so ein Beispiel sind ja so, keine Ahnung, es gibt ja so auch Tools, ähm...
die zum Beispiel bei irgendwelchen Fertigungsstraßen erkennen können, ob ein Bauteil fehlerhaft ist oder einfach feststellen, oh die, keine Ahnung, die Maschine, die macht komische Geräusche, die wird probably in den nächsten zwei Wochen mal gewartet werden müssen und so. Und da ist es genau, wenn das mal irgendwie, also bei denen, das ist vielleicht auch, das kommt mir gerade zum Sinn, weil das ist auch ein schwieriger Punkt, weil aus der Ecke kommen ja viele dieser Tools auch, also das ist ja sozusagen, weil da sind einfach auch viele Daten verfügbar etc. Und da sind zum Beispiel falsch positive Sachen manchmal besser als falsch negative
Pia (51:28.6)
Mhm.
Moritz (51:46.096)
Also es ist mir lieber, die Maschine wird einmal zu oft gewartet, als einmal zu spät, weil dann bleibt die ganze Fertigung stehen. Wohingegen, wenn wir jetzt bei Kriminalvorhersagen irgendwie sind, ist ein falsch positives Ergebnis halt auch richtig schlimm. Also das sind ja einfach ganz andere Anwendungsfälle. Ja, stimmt. Hm.
Pia (51:59.928)
Mhm.
Pia (52:03.8)
Ja genau und da kann man das Risiko sozusagen falsch positiv zu haben, vielleicht besser einen Kauf nehmen als dann in anderen Fällen. Also wo es dann zu, es gab ja auch wirklich so Verhaftungen von Leuten, die irgendwie falsch per Gesichtserkennung erkannt wurden und dann, also absurde Fälle halt auch.
Moritz (52:09.614)
Genau.
Moritz (52:18.862)
Das wünscht man keinem. Ja. Also, kann man abschließend sagen, es ist ein wahnsinnig komplexes Thema. Es ist ein Thema, das ganz stark auch so mit unserer eigenen, also wir können, glaube ich, so wenn ich dich richtig verstehe, keinen diskriminierungsfreien Algorithmus erwarten in einer nicht diskriminierungsfreien Gesellschaft. Aber es ist ein Thema, wo man eben ganz viel drüber nachdenken muss, wo man sozusagen
Pia (52:39.192)
Mhm.
Moritz (52:48.75)
Persistenten Schritten sich weiterhin zu einem Ziel bewegen kann, von dem man jetzt glaubt, dass es das richtig ist. Das kann sich auch nochmal ändern, dass man vielleicht merkt, ah, da müssen wir auch nochmal nachsteuern. Aber wo es eigentlich um so eine gewisse Form von Beständigkeit geht und von kontinuierlicher Reflektion auf ganz vielen Ebenen.
Pia (53:05.08)
Mhm.
Ja genau, institutionell sozusagen mitgedachte Reflexionen. Also es sollte einfach nicht den einzelnen Leuten, die da vielleicht besonders engagiert sind oder denen irgendwie Antidiskriminierung besonders wichtig ist sozusagen überlassen sein, sondern es sollte schon, gerade wo es halt die Grundrechte dann doch mal berühren könnte oder eben die Selbstbestimmung von Menschen, freie Wahl sozusagen auf dem Markt der Güter und solche Sachen, wo es die sozusagen berühren dürfte, da sollte es dann schon aufgegeben sein,
Moritz (53:29.294)
Mmh.
Pia (53:35.834)
reflektieren muss, irgendwie auch an der Stelle.
Moritz (53:38.67)
Das finde ich inhaltlich ein schönes Schlusswort. Das institutionell mitgedachte Reflektion. Das merken wir uns jetzt. So heißt die Folge. Nee, so können wir die Folge nicht nennen, weil dann weiß keiner worum es geht. Ja, wirklich, das klingt richtig nach Jurabuch. Nein, aber ich finde es einen schönen, es fasst das einfach noch mal schön zusammen und es gibt noch mal einen schönen Überblick über das, was wir besprochen haben. Du bist aber noch nicht ganz entlassen. Der Podcast hat immer so zwei, drei kleine Kategorien.
Pia (53:49.656)
Sexy Titel.
Moritz (54:06.67)
Und in die würde ich dich natürlich gerne noch einladen. Da geht es eigentlich um zwei Dinge. Die eine ist, da frage ich meine Gäste gerne nach einer Innovation, die sie gerne mit einem Fingerschnip einführen könnten. Also du kannst jetzt sagen, ich mache so und egal wie viel Geld das kostet, was das braucht, wie viel Technik man dafür braucht, völlig egal, es geht danach. Also irgendeine Art von Innovation, die du... Das darf auch ganz individuell und persönlich sein. Das darf auch etwas sein, wo du sagst, das hätte ich gerne.
Pia (54:34.68)
Mhm. Ah ja, okay.
Moritz (54:38.638)
Und ich würde gerne, wir haben nämlich ein neues Aufnahmetool und ich habe jetzt hier so ein Soundboard und es gibt ein Trommelwirbel. Und wenn du was hast, würde ich das gerne mal ausprobieren, ob das funktioniert. Wenn es nicht funktioniert, ist es mega underwhelming, weil ich es jetzt so richtig cool angekündigt habe. Aber wenn dir was eingefallen ist, ich kann ja mal, während du noch überlegst, mal so Beispiele geben. Also wir hatten zum Beispiel mal so was wie eine Empathiemaschine. Also man kann sich für Zeitraum X komplett in eine andere Person reinfühlen oder...
Pia (55:00.888)
Mmh, mhm.
Moritz (55:07.246)
Das könnte auch so was sein wie die Fähigkeit Wissen einfach ohne Lernprozess zu transferieren oder Weiß ich nicht Diskriminierungs oder Vorurteile in einer Person abzuschalten oder was auch immer also so ganz absurde Sachen ob das dann am ende Sinn macht und ob man dann nicht vielleicht während man es ausspricht schon denkt Ah ne, ist vielleicht doch nicht so eine gute Idee. Das sei dann mal dahingestellt
Pia (55:21.272)
Mhm.
Pia (55:28.568)
Ja, alles klar. Ja, ich glaube, ich habe was, ja, das ist nicht so technologisch, aber ist auch okay, glaube ich.
Moritz (55:36.686)
Das ist völlig in Ordnung, ja. Okay, dann starte ich jetzt die Trommelwirbel und dann darfst du uns verraten, was es wird. Ich hoffe, das hört man jetzt.
Pia (55:49.688)
Also was ich mir wünschen würde, wäre, dass Leute sich selber und ihre Rechte sofort bewusst werden. Also das ist natürlich eine krasse Informationsmisslage, die bei vielen Leuten besteht. Die denken gar nicht, sie haben irgendwelche Rechte oder es ist nicht wichtig genug, dass ihre Rechte gewahrt werden. Und das fände ich manchmal hilfreich, weil Leute davon zu überzeugen, dass sie Rechte haben, das erscheint mir manchmal so schwierig. Und es sollte es nicht sein, genau.
Moritz (55:57.902)
Hm.
Moritz (56:17.07)
Okay.
Das finde ich cool, dass man sofort weiß, dass wer auch immer, welche Institution, auch immer, welche Person, mit mir nicht machen. Und ich habe ein Recht, dass das nicht gemacht.
Pia (56:26.936)
Mhm. Genau, das war cool. Also wenn man es so direkt an der Fingerspitze hätte, einfach so, dir passiert was und dann so, ah, nee, also so eine automatische Anwältin sozusagen im Kopf.
Moritz (56:36.142)
Das ist voll geil, das finde ich richtig cool. Also Vermieter sagt ja, keine Ahnung, sie müssen bitte das und das machen. Nein, muss ich nicht. Oder es gibt, ich hab letztens einen TikTok gesehen, wo einer mit dem Fahrrad sozusagen so kurz über einen Zebrastreifen fährt und dann aber direkt abbiegt. Und dann wird er direkt von der Polizei hingehalten. Ne, das dürfen sie nicht. Und der so, doch, das darf ich. Und dann...
Pia (56:43.352)
Mhm.
Moritz (56:58.03)
sagt er nein ich darf das ihr habt unrecht und die wurde immer denkt sie ist mein man erwischt sich bei dem gedanken wie man denkt mein gott die 10 euro nimmt einfach hin aber eigentlich geil weil er nach hause gefahren hat das recherchiert ist zurückgekommen gesagt hier ich habe die gesetzestexte gelesen ich darf das das ist nicht verboten was ich gemacht habe und dass das immer geht praktisch
Pia (57:11.16)
Mhm.
Ja, genau, weil sonst ist es halt einfach ein Privileg für diejenigen, die juristisch bewandert sind, sage ich mal, und gerade die, die keine Zeit haben, sich ständig juristisch zu bewandern sozusagen und irgendwie mit Herausforderungen des Alltags beschäftigt sind. Genau, Familienangehörige pflegen oder sonst was, sind halt häufig die, die am meisten Nachteile davon daraus ziehen, eben nicht ihre Rechte zu kennen. Und ich glaube, wenn das schon gegeben wäre, hätte man schon einiges gewonnen.
Moritz (57:19.15)
Mhm.
Moritz (57:42.606)
Ja voll cool finde ich, das ist glaube ich bis jetzt meine liebste, weil da kann man wenig gegen einwenden. Also das glaube ich hat einfach fast nur Vorteile. Das einzige ist, es könnte ein bisschen anstrengend werden, wenn wir alle immer ständig unsere Rechte... Also es gibt glaube ich so Bereiche, dass das gut, aber wenn ich jetzt immer meine Rechte kenne, ich glaube manchmal ist es ganz gut, dass ich gezwungen bin zu sagen, egal nehme ich jetzt so hin, sonst wird es glaube ich auch nervig, aber ja.
Pia (57:52.248)
Ja.
Pia (58:00.504)
Ich dachte auch gerade, damit kann man auch viele Nachbarschaftsstreits auch befeuern, mit diesem Aspekt.
Moritz (58:06.158)
Ja, ja, vielleicht muss man seine Rechte kennen und ein gutes Gefühl dafür haben, wo es sich lohnt, die auch einzufordern. Also es ist ja, man kann ja auch seinen Recht kennen sagen, ist mir jetzt trotzdem egal, weil mein Gott, dann zahl ich 10€ halt.
Vielleicht muss man das so kombinieren. Cool, okay, perfekt. Dann kommen wir zur zweiten Kategorie und das ist die Empfehlung der Woche. Das ist genau das, was sie sagt. Ich habe einfach so unterschiedliche Gäste immer hier, die so unterschiedliche Begeisterungen haben. Das ist einfach Spaß, man sich von denen Empfehlungen einzuholen. Und das können wirklich Empfehlungen für alles mögliche sein. Also das muss jetzt auch nichts mit dem Thema der heutigen Folge zu tun haben. Irgendwas, was dich begeistert hat, wo du sagst, das ist cool, guckt euch das an, probiert das aus, hört euch das an. Falls du noch überlegen willst, ich habe schon was.
Pia (58:21.144)
Ja. Knall.
Moritz (58:50.864)
auch immer eine Empfehlung mit, dann könnte ich die auch zuerst geben, aber wenn du jetzt direkt was hast, dann schieß gerne los.
Pia (58:52.024)
Mhm.
Pia (58:57.656)
Hm, ich muss mal überlegen. Ich höre gerne Podcasts, weil ich finde, das ist immer so eine schöne Informationsquelle, die man sich gut auf den Weg so reinziehen kann. Aber ich überlege gerade, ob ich jetzt konkret eine Folge habe, die mich jetzt zuletzt sehr geprägt hat oder sowas, aber ich glaube tatsächlich nicht. Das ist genau...
Moritz (59:02.734)
Mhm.
Moritz (59:07.982)
Mhm.
Ja, total.
Moritz (59:21.134)
Hast du denn einen Podcast, den du grundsätzlich gerne hörst, den du empfehlen kannst? Ich könnte jetzt so einen billigen Ausartek und rararaha Witz machen, aber das lass ich jetzt.
Pia (59:26.04)
Mmh
Pia (59:31.896)
Ja, also ich glaube, eine hilfreiche Perspektive bietet immer so Tech-Won't-Say-Was, die gehen manchmal so ein bisschen auch übers Ziel hinaus, aber an sich finde ich schon so eine kritische Gegenstimme gegen ganz viel euphorische Pro-Tech-Podcasts ist schon auch wichtig in der Debatte.
Aber ich finde auch, zum Beispiel, es gibt jetzt KI Verstehen ganz neu. Ich weiß gar nicht von wem, der genau ist. Ich glaube von Deutschlandfunk oder so. Ich finde, die haben auch einen ganz netten Ansatz, die Themen, die wir jetzt hier heute in Ansätzen auch besprochen haben, zu besprechen. Shoutout an die.
Moritz (59:50.414)
Ja, voll.
Moritz (59:54.862)
Mhm.
Moritz (01:00:07.726)
Okay, perfekt. Ja, mega gute Empfehlung. Techborn, Savers und KI verstehen. Packen wir in die Show Notes und dann könnt ihr die da nachhören. Das sind auf jeden Fall sehr gute Empfehlungen. Und dann, ja, meine Empfehlung ist einfach ein Buch. Da musste ich gerade während der Folge dann denken. Ich lese gerade Dracula von Bam Stroker, habe ich so um Halloween rum angefangen. Ja, ist auch echt ein gutes Buch. Aber was ich dabei gemerkt habe ist...
Pia (01:00:27.992)
Ja cool.
Moritz (01:00:34.286)
Also, man hat ja manchmal das Gefühl, boah, wir sind immer noch so Sexismus und Rassismus und so. Und sind ist auch, also da gibt's noch super viel Verbesserungspotenzial, gar keine Frage. Aber als ich das so gelesen hab, dachte ich, wir haben auch schon viel geschafft. Also, das Alter Falter, also das Frauenbild da drin ist schlimm. Also schlimm im Sinne von, so Frauen wird so wohlwollend jede Kompetenz abgesprochen, die sie haben könnten. Also, da fallen so Formulierungen wie...
Pia (01:00:52.408)
Mhm.
Pia (01:00:58.872)
Hehehehe
Moritz (01:01:03.15)
Sie hat den Verstand eines Mannes und solche Geschichten. Und das ist halt krass, weil das Buch kommt ja aus 1890 oder so, aus den 90er Jahren da. Und da gibt es halt keine zweite Ebene, sondern das ist halt klar, das wurde da halt so gedacht. Und als du da gerade so über gesprochen hast, dachte ich, ich finde es krass, dass das, also das ist ja jetzt, keine Ahnung, 200, ich kann ganz schlecht Kopfrechnen, ein bisschen über lange her.
Und dass die Menschen da noch nicht mal eine Idee hatten, dass das nicht in Ordnung ist, sondern dass das so einfach so, ja, das ist so, so denken wir. Und dann dachte ich, was wir wohl über uns in 200 Jahren denken würden, wo wir noch dachten, ja, ja, das ist völlig okay, das kann man so denken. Das kam mir so in den Sinn.
Pia (01:01:48.6)
Ja, beziehungsweise, genau, man muss ja differenzieren. Vielleicht hat das ja jemand damals schon gedacht, dass es nicht in Ordnung ist, aber die Person hat halt eben keine Bühne für diese Meinung bekommen. Also das ist ja wahrscheinlich auch ein Teil davon, aber klar, es gibt auch... Ja, das stimmt.
Moritz (01:01:55.79)
Mhm.
Moritz (01:02:00.078)
Ja.
Moritz (01:02:04.078)
Ich meine so im Gesamten. Also es war scheinbar möglich ein Buch rauszubringen, wo das ganz normal ist. Und das wäre glaube ich heute nicht mehr so. Also ich glaube da gäbe es dann schon einen kleinen Aufschrei, wenn jemand das so schreiben würde. Hoffe ich zumindest.
Pia (01:02:16.6)
Aber es gab auch viele Schritte dazwischen und an dem Punkt anzukommen, hat auch lang genug gedauert. Also ich finde es schon immer noch beachtlich, dass meine Großmutter zu einer gewissen Zeit ihres Lebens sozusagen nicht ein eigenes Bankkonto aufmachen konnte. Also es ist nicht allzu lange her, alles auch irgendwo. Und genau, so ganz durch sind wir ja noch nicht, leider.
Moritz (01:02:20.302)
Mhm.
Auf jeden Fall.
Moritz (01:02:33.742)
Hm. Jaja, also...
Nein, das muss man auch mal aufpassen, wenn man da so positive Seite hervorhebt. Deswegen ganz wichtig, natürlich nicht, aber ich fand es trotzdem krass, auch mal den Kontrast zu sehen und da ist Null abgeschlossen und so. Das wollte ich jetzt gar nicht vermitteln, aber...
Pia (01:02:41.304)
Hmm...
Moritz (01:02:55.502)
Es ist spannend, sich mal ein Buch durchzulesen, was an sich auch eine spannende, also abseits davon ist das ein spannender Vampir-Roman so. Und da sind auch spannende Ideen hinsichtlich dieser Fiktion drin. Und es ist einfach spannend, mal so einen Blick in so eine Zeit zu werfen und zu denken, ah, okay, so war das also da.
Pia (01:03:08.536)
Mmh.
Ja, ich hab auf jeden Fall Lust, da mal reinzulesen, also trotz dieser Letze.
Moritz (01:03:14.446)
Ich finde, wenn man solche Dinge mit einer historischen Neugier liest, dann ist das ja nochmal was anderes. Also klar, wenn ich das jetzt lese und denke, toll, dann ist das natürlich scheiße, aber wenn man das halt als einen.
Ich klinge jetzt, ich klinge, ich versuche heute so komische, als Zeitzeugnis sieht, im Sinne von so war das halt und oder was heißt so war das halt, so war das zu der Zeit und heute ist es so und was hat sich eigentlich getan und wieso ist das schlimm und so. Dann glaube ich kann das ganz, kann das schon irgendwie auch lehrreich sein. Hoffe ich.
Pia (01:03:51.672)
Ja klar, auf jeden Fall.
Moritz (01:03:55.47)
Okay, Pierre, vielen Dank, dass du da warst. Das hat mir sehr viel Spaß gemacht. Ich habe sehr viel gelernt über dieses Thema. Tatsächlich muss ich sagen, war das vorher gar nicht so präsent in meinem Kopf. Und ich habe jetzt das Gefühl, ich bin jetzt ein bisschen besser gerüstet und werde die nächsten Bewerbungsverfahren da ein bisschen stärker hinterfragen und mir da ein bisschen mehr Gedanken drüber machen. Und danke, dass du dir die Zeit genommen hast, uns das ein bisschen zu erklären, uns da weiterzubilden und uns an deiner Expertise teilhaben zu lassen.
Pia (01:04:25.208)
Ja, hat mir Spaß gemacht. Vielen Dank für die Einladung.
Moritz (01:04:27.886)
Das freut mich sehr. An euch natürlich auch vielen Dank, dass ihr da wart und dass ihr zugehört habt. Falls ihr noch Fragen, Anregungen, Kritik habt, wisst ihr, ihr könnt uns eigentlich immer schreiben an tech-untrara.netzpiloten.de oder an eine der anderen Kontaktmöglichkeiten in den Show Notes und damit, würde ich sagen, machen wir jetzt die Klappe zu. Denkt dran, uns zu folgen, uns zu abonnieren, bewerten, was auch immer und wir hören uns dann bei einer der nächsten Folgen wieder. Und wir beide hören uns hoffentlich irgendwann nochmal wieder.
Pia (01:04:56.344)
Ja, sag ich noch.
Moritz (01:04:57.582)
Ciao!