Tech und Trara

Tech und Trara

Transkript

Zurück zur Episode

Mo (00:01.654)

Herzlich willkommen zu Tech und Trara und vor allen Dingen herzlich willkommen Philipp Fox. Schön, dass du da bist.

Philip (00:08.398)

Ja, hi und danke für die Einladung. Ich freue mich hier zu sein.

Mo (00:12.342)

Ich freu mich auch, weil wir heute mal über ein Thema sprechen. Also, was heißt, es ist ein Thema, über das wir heute sprechen. Da haben wir schon sehr viel drüber gesprochen. Es geht im weitesten Sinne um KI. Aber ich würde sagen, wir sprechen heute über das Thema KI ein bisschen abseits von dem, was ist das, was kann das alles, Hype, sondern auch ein bisschen über Chancen und Risiken von KI. Und wir sprechen auch darüber, wie man eigentlich über Chancen und Risiken nachdenkt, wer das tut, warum man das tun sollte. Und das ...

machen wir mit dir, weil du einfach Experte in dem Gebiet bist, also du bist als Experte für das Bearbeiten von Chancen und Risiken von KI unterwegs, hast relativ viel auch dazu schon irgendwie publiziert und so. Und genau, das ist heute so weit unser Thema. Habe ich das erstmal richtig wiedergegeben, du hast da ja den besseren Durchblick.

Philip (01:03.181)

Ja, voll. Also ich habe sehr gut zusammengefasst.

Mo (01:09.207)

Wir fangen mal an mit einer ganz einfachen Frage, und zwar, wieso ist es deiner Meinung nach wichtig, sich eben nicht nur mit den Chancen, sondern auch mit den Risiken von KI auseinanderzusetzen? Das wäre jetzt die erste Frage. Warum nicht nur Chancen, sondern auch Risiken?

Warum machst du das? Warum ist das für dich so ein wichtiges Thema?

Philip (01:41.933)

Also ich glaube, KI ist ja das, was man so Schönheits -Dual -Use -Technologie bezeichnet. Also eine Technologie, die man für gute, aber auch für schlechte Zwecke einsetzen kann. Und ich finde, dieser Begriff trifft es eigentlich ziemlich gut, weil es ist eben ein zweischneidiges Schwert. Es gibt Chancen, es gibt unglaublich viel Potenzial. Auf der einen Seite in verschiedensten Bereichen, Wirtschaft, Produktivität, Bildung, Demokratie. Aber es gibt halt auch ...

viele Risiken auf der anderen Seite, so wie eigentlich immer dann, wenn wir es mit so einer General Purpose Technology zu tun haben. Das ist jetzt ein anderes Bassword, was hier kursiert, aber was, ja, glaube ich, auch die Sache gut beschreibt. Also da geht es um Technologien, die jetzt nicht in sozusagen eine ganz konkrete Anwendung haben, wie eine Mikrowelle, die kann ich irgendwie in die Küche stellen, irgendwas mit warm machen, aber ich kann jetzt nicht viele andere Sachen damit machen. Und das kontrastiert eben diesen General Purpose Technologien, so was wie

Das Rad, Elektrizität, Computer, also Dinge, die ich für unglaublich viele Zwecke einsetzen kann. KI ist eben auch so was, das sorgt für Veränderungen nicht in einem klar eng umgrenzten Bereich, sondern in ganz vielen Bereichen. Bei diesen Technologien ist es praktisch immer so, dass es gute, aber auch schlechte Anwendungen hat, über die man dann auch beide nachdenken muss.

Mo (03:04.693)

Ja, okay. Und wenn wir die Frage mal weiterspinnen, dann könnte man ja in der nächsten Instanz auch fragen, warum ist es wichtig, sich nicht nur mit den Risiken, sondern auch mit den Chancen auseinanderzusetzen? Also das wäre dann sozusagen das Gegenteil. Also warum darf man nicht zu pessimistisch sein? Oder darf man das vielleicht auch? Vielleicht ist es auch genau richtig.

Philip (03:24.429)

Ja, cool. Also ich würde sagen, es gibt Chancen, es gibt Risiken, deswegen muss man auch über beides reden und jede politische Positionierung, die jetzt irgendwie das eine komplett ausklammert, nimmt einfach so einen Teil der Realität dann nicht wahr an der Stelle. Ich würde aber auch dazu sagen, dass es, glaube ich, im öffentlichen Diskurs schon auch so eine Art Arbeitsteilung gibt. Es gibt es ja auch bei allen möglichen Themen. Also wenn ich jetzt in Unternehmen bin, das selbst KI -Modelle baut und damit auch

Geld verdient, dann habe ich natürlich einen anderen Blick auf diesen Diskurs, als wenn ich jetzt eine zivilgesellschaftliche Organisation bin, die den Fokus eher auf Themen oder Aspekte legt, die jetzt bei einer Unternehmenspräsentation, die einfach Geld damit verdienen wollen, nicht so im Vordergrund stehen. Deswegen finde ich es schon in Ordnung, wenn Leute, je nachdem aus welcher Perspektive sie jetzt sprechen, den Fokus mehr auf das eine oder das andere legen. Aber insbesondere wenn ich jetzt Politiker bin, dann muss ich natürlich

... beide Perspektiven dann so ein bisschen ... ... an Bord kriegen und einen Kompromiss finden.

Mo (04:29.813)

Ja, also diese Arbeitszahlung, die du gerade beschrieben hast, wie findest du die? Also im Sinne von, du hast es ja gerade beschrieben als, okay, vielleicht eher meistens sehr wirtschaftlich getriebenen Unternehmen, die davon profitieren, weil sie halt einfach Geld damit verdienen können, was sie effizienter macht, weil sie neue Produkte anbieten können, was auch immer. Die beschäftigen sich wahrscheinlich eher mit den Chancen und wie gesellschaftliche Organisationen, gemeinnützige Einrichtungen, irgendwas eher politisch motiviertes vielleicht.

Da haben wir eher Leute, die sich wahrscheinlich eher mit den Risiken auseinandersetzen. Das heißt ja, man überlässt eigentlich die nach vorne gerichteten Entwicklungen der Wirtschaft, also wenn man es mal ganz stumpf übersetzt, und die bremsenden Bewegungen der Zivilgesellschaft. Das ist jetzt sehr runtergebrochen. Ich weiß, dass das ganz so einfach nicht ist. Und es ist aber ja was, was es nicht nur in dem Bereich auch gibt. Aber wenn man jetzt auch Open AI, Microsoft, Google, die treiben das nach vorne, Innovation, mehr neue Produkte.

Und irgendwelche anderen Gremien, was auch immer, Institutionen beschäftigen sich dann eher mit Regularien, mit Bremsen, mit nicht so viel auf einmal und so. Und warum ist das? Also, ich meine, für mich macht das schon irgendwie Sinn, warum das so ist, weil halt die Motivationen einfach entsprechend sind. Aber könnte das nicht auch vielleicht einen totalen Vorteil haben, wenn es mal andersrum ist? Also, wenn sich mal Unternehmen ...

die wirtschaftlich motiviert sind, auch mit Risiken und solchen Dingen mehr beschäftigen. Und andersrum, öffentliche Einrichtungen, nicht wirtschaftliche Teilhabe, sich vielleicht mit den Chancen, also könnte das nicht ganz neue Blickwinkel auf das Thema bringen? Also ja, würde es wahrscheinlich, aber wie siehst du das?

Philip (06:12.973)

Also ich würde sagen, es gibt ja im öffentlichen Diskurs, egal über welches Thema, irgendwie so ein Idealbild. Praktisch alle, die sich an dem Diskurs beteiligen, möglichst viele Perspektiven einnehmen, wo Chancen als auch Risiken gleichermaßen im Blick haben, dass alles sehr differenziert und konstruktiv ist. Und dann gibt es sowieso das Gegenbild, wo alle nur ihre Partikularinteressen vertreten und nur mit so Scheuklappen irgendwie...

auf das schauen, was ihnen jetzt gerade einen Vorteil bringt. Und ich würde tatsächlich sagen, dass der Diskurs über KI aktuell da relativ gut dasteht auf diesem Spektrum. Also natürlich jetzt nicht ideal perfekt ist, aber wesentlich besser funktioniert als andere politische Diskurse, die irgendwie super aufgeladen sind, die irgendwie als Thema wie Klimawandel, Migration oder so die klassischen Themen und

Da passieren einfach so ein paar interessante Sachen. Zum einen bei den Unternehmen selbst. Viele Leute sind, die auch die Risiken und die Gefahren und Probleme sehr ernst nehmen und auch offen darüber sprechen. Was ein bisschen kurios ist und auch bei manchen Leuten, dass dann so eine gewisse Skepsis auch aufwirft, die sich dann fragen, ja Moment mal, also warum machen die Unternehmen das? Haben die da vielleicht auch irgendwie dann so ein komisches...

Interesse daran, was sie nicht so ganz offenlegen. Das können wir vielleicht später noch mal drauf eingehen. Aber sozusagen ist es erst mal interessant, dass die Unternehmen selber so etwas wie Responsible Scaling Policies haben. Also so nennt Entropic eine der führenden KI -Firmen das, die sich also selbst sehr viele Gedanken darüber machen, wie man diese Entwicklung auf eine irgendwie nachhaltige und verantwortungsvolle Art und Weise gestalten kann.

Und andererseits habe ich jetzt aber auch bei vielen Playern in der Zivilgesellschaft nicht das Gefühl, dass die jetzt irgendwie monothematisch nur auf die Risiken fokussiert sind. Also ich kenne eigentlich niemanden jetzt aus der Zivilgesellschaft, der oder die sagen würde, es gibt da keine Chancen und KI ist irgendwie Teufelzeug, das sollte man gar nicht machen. Also zumindest jetzt so im deutschen Diskurs. Das heißt, ich fände es richtig cool, wenn dieser Diskurs auf diesem konstruktiven

Philip (08:28.812)

Niveau bleibt und das einfach nicht wie bei anderen Themen, das in so einem Partei - oder politischen Grabenkampf abdriftet, wo dann die eine Seite die Maximalposition vertritt und die andere Seite die gegensätzliche Position und dann kommt man irgendwie gar nicht weiter. Das finde ich eigentlich ganz angenehm, bis das gerade nicht so ist.

Mo (08:47.476)

Hm.

Mo (08:51.285)

Und wenn wir dann auf das kommen, was du gerade gesagt hast, wenn Unternehmen sich auch total mit den Risiken beschäftigen und man so ein bisschen das Gefühl hat, warum macht ihr das dann überhaupt, da würdest du später nochmal, aber das interessiert mich jetzt. Was ist damit gemeint?

Philip (09:06.123)

Ja.

Also grundsätzlich kann ich diesen Impuls derjenigen, die das skeptisch sehen, erst mal total nachvollziehen. Es ist halt einfach selten so, dass Unternehmen irgendeine Technologie auf den Markt bringen und dann selber zu den Leuten gehören, die auf die Risiken dieser Technologie so stark darauf hinweisen. Und dann fragt man sich so ein bisschen, naja, du hattest den Begriff am Anfang schon erwähnt Hype, also vielleicht...

hilft dieser Risikodiskurs auch so ein bisschen so einen Hype zu generieren, von dem die Unternehmen dann selber wieder profitieren. Also das ist so ein bisschen das Narrativ, das ich aber letztlich nicht teile. Eine gute Analogie ist hier, wenn man so an die Corona -Zeit denkt und an Firmen wie Pfizer oder so, die unglaublich viel Geld mit Corona -Impfstoffen verdient haben. Und auch die hätten ja damals gesagt,

Das ist total wichtig, dass wir jetzt diesen Impfstoff irgendwie herstellen, weil die Gefahren von dieser Covid -19 -Erkrankung einfach sehr groß sind und man muss das ernst nehmen. Es ist auch wichtig, dass die Politik jetzt irgendwie mit uns Wege findet, wie wir möglichst viel Impfstoff herstellen können und so weiter. Und das ist ja auch so ein Fall, wo die Firmen, die Teil dieses, nennen sie das mal, Corona -Diskurses waren und von den Gefahren gewarnt haben, dass es gleichzeitig Firmen waren, die

Wirtschaftsinteresse daran hatten, dass man diese Gefahren so ernst nimmt. Heißt das jetzt, dass man diesen Firmen irgendwie nicht hätte trauen sollen oder dass es irgendwie falsch ist, als sie gesagt haben, hier Covid -19 ist eine gefährliche Krankheit und wir sollten möglichst viele Menschen dagegen impfen? Nee, natürlich nicht. Also es gibt durchaus Fälle, wo ein Unternehmen einerseits ein Interesse daran hat, bestimmte Gefahren zu betonen, daraus aber nicht folgt, dass es diese Gefahren nicht gibt.

Mo (10:34.291)

Hm.

Philip (11:00.012)

Und ich glaube, so blicke ich jetzt auch auf den KI -Diskurs. Natürlich ist so das, was jetzt in den letzten Jahren oder anderthalb Jahren über KI gesprochen wurde, hat dazu beigetragen, dass unglaublich viel Aufmerksamkeit für das Thema da ist, wovon ich als KI -Unternehmen natürlich auch profitiere. Aber daraus abzuleiten, dass das Ganze nur so ein Marketing -Gag ist und dass es diese Gefahren eigentlich gar nicht gibt, das finde ich irgendwie...

Mo (11:25.619)

Hm.

Philip (11:29.356)

Das erschließt sich mir logisch nicht so, zumal ja auch, dass jetzt nicht nur Unternehmensvertreterinnen sind, die vor diesen Risiken waren, sondern insbesondere auch sehr viele Leute aus der Wissenschaft, die ja jetzt nur kein direktes wirtschaftliches Interesse daran haben.

Mo (11:47.284)

Ja, also ich verstehe die Analogie, wo sie für mich ein bisschen, glaube ich, na Hint ist jetzt das falsche Wort, aber wo ich das noch nicht ganz zusammenkriege, ist, also wenn man es jetzt auf diese Impfstoffgeschichte zum Beispiel zurückführen würde, dann hätte das für mich denselben Vibe, wie wenn eine Firma, die einen Impfstoff herstellt, gleichzeitig auch über die Risiken des Impfstoffes spricht und sagt, ja, aber der ist auch voll gefährlich, aber man braucht ihn auch. Und bei KI ist ja so, also KI löst ja jetzt kein Problem im Sinne von...

Wir brauchen was das XY für uns macht, zum Beispiel uns vor irgendwas schützt oder was auch immer und deswegen haben wir jetzt dieses Produkt in dem Fall KI ist ja auch jetzt erstmal sehr weit gefahren. Ich glaube wir reden wahrscheinlich gerade eher über generative KI, weil das ist ja die größere Neuerung und die die ja auch eher so im Fokus des ganzen steht. Das löst ja nichts für uns. Also wir hätten das, also wenn wir die jetzt nicht hätten, dann wären Dinge zwar anders, aber dann...

Es war ja vorher erstmal grundsätzlich, hat das ja funktioniert, wie es war. Das heißt, das verstehe ich noch nicht so ganz. Und das ist vielleicht aber auch eine Frage, die so ein bisschen über das KI -Thema hinausgeht, aber können wir trotzdem kurz darüber reden. Ich bin sehr interessiert, ich bin auch ein Befürworter und ich nutze auch KI relativ viel. Also ich bin überhaupt nicht anti -KI. Trotzdem, gerade wenn ich irgendwie Interviews sehe, wo es halt auch um die Risiken geht und um diese gravierenden Veränderungen, die das zum Beispiel auch für ganz viele Branchen haben wird und ja auch teilweise schon hat. Also...

wo einfach Jobs vielleicht wegfallen, auch Tätigkeiten sich sehr grundlegend ändern, was ich auch grundsätzlich nicht schlimm finde. Aber wenn dann so darüber gesprochen wird, habe ich manchmal so diesen Gedanken von, ja, aber warum machen wir das dann eigentlich? Und mir ist schon bewusst, dass das Quatsch ist, weil das ist halt im Menschen verankert, das ist Fortschritt, Veränderung, das gehört einfach zu unserem Wesen dazu. Das ist mir schon klar, dass der Gedanke naiv ist.

Aber es kommt manchmal, mir fällt es manchmal schwer so anzuerkennen, dass wir etwas Neues irgendwie in die Welt bringen und sehr, sehr viele Menschen arbeiten ja gerade sehr, sehr aktiv daran, von dem wir ja wissen, dass es nicht nur gut ist und wir auch noch gar nicht absehen können, ob die Veränderung, die das mit sich bringen wird, gut oder schlecht ist. Und das, ja, ist gar keine Frage, ist mehr so ein offener Punkt, den ich da irgendwie habe. Also auch so ein loser Gedanke eher.

Philip (14:15.947)

Ja, cool. Also nur noch mal zu dieser Analogie. Also ich glaube, so das, worauf ich damit hinaus wollte, ist einfach nur, also nur weil jemand ein wirtschaftliches Interesse möglicherweise daran hat, dass auf bestimmte Weise über Risiken einer Technologie gesprochen wird, glaube ich folgt nicht daraus, dass es diese Risiken nicht gibt. Und ich finde es interessant, genau diese Fragen, die du aufwirfst, welches Problem löst KI eigentlich?

Und warum machen wir das, wenn wir wissen, dass da so Risiken und Gefahren auch drinstecken? Und ich glaube...

Es gibt schon so eine Reihe an Problemen, die aber existieren, die wir als Menschheit haben und wo KI eine Lösung sein kann. Also zwei Beispiele. Es gibt irgendwelche Krankheiten, die wir gerne heilen oder bekämpfen würden. Und jetzt wissen wir, bei allen Medikamentenforschungen ist es ein extrem teurer, langwieriger Prozess. Für viele Krankheiten gibt es irgendwie nicht so eine große Lobby.

Deshalb nicht so ein großes Wirtschaftsinteresse, irgendwie da ein Medikament zum Beispiel zu forschen. Und was jetzt durch KI passieren könnte, was zumindest das Versprechen ist, ist, dass man diesen Prozess irgendwie krass beschleunigen kann. Also es gibt zum Beispiel so eine Studie aus den USA, wo Leute mit Hilfe von künstlicher Intelligenz irgendwie in sehr kurzer Zeit, auf wenigen Wochen oder Monaten ein neues Krebsmedikament

entwickelt haben, ein Prozess, der normalerweise irgendwie Jahre dauert. Das ist noch nicht marktreif und so, aber man merkt, da ist irgendwie so eine Beschleunigung drin. Und wenn KI dazu beitragen kann, den wissenschaftlichen Forschungsprozess auf diese Weise irgendwie schneller und schlanker zu machen, dann ist es, glaube ich, ja, also, glaube ich, da wird niemand was dagegen haben und das löst dann bestimmte Probleme, die wir eh schon hatten.

Philip (16:16.842)

Anderes Beispiel, was ich ganz cool finde, wenn man über Chancen redet, ist das Thema Bildungsgerechtigkeit. Heute ist es ja so, dass es einkommensstarke Familien gibt, die ihren Kindern, wenn sie in der Schule Probleme haben, Nachhilfe oder individuellen Unterricht organisieren können, der viel Geld kostet, andere Familien haben das nicht und können das nicht leisten. Dann bleiben die Kinder im Zweifel auf der Strecke.

Mo (16:23.858)

Hm.

Philip (16:45.194)

Was jetzt gerade im Bildungsbereich passiert, ist ja, dass man so individuelle KI Tutoren irgendwie baut, die dann mit den Kindern noch mal durchgehen, irgendwie die Themen, mit denen sie Probleme haben im Unterricht. Und das ist einfach die Kosten jetzt im Vergleich zu einem menschlichen Nachhilfelehrer, die sind dann praktisch fast null irgendwie. Und dadurch kann ich jetzt in wenigen Jahren einfach viel mehr Kindern unabhängig vom Einkommen so ...

qualitative Bildung zugänglich machen. Und auch da würde ich sagen, Bildungsungerechtigkeit ist ein bestehendes Problem und KI kann dazu beitragen, dieses Problem vielleicht nicht zu lösen, aber zumindest zu verringern. Insofern glaube ich, ist es schon mehr als jetzt so ein reiner irgendwie Fortschritt um des Fortschritts willen und wir machen einfach mal irgendwas, sondern ich glaube, das sind schon genuine Problemlösungen.

Ich würde aber auch dazu sagen, ich glaube gerade bei diesen General -Purpose -Technologien die Möglichkeit zu sagen, okay, diese Technologie, die wollen wir jetzt nicht und wir stoppen das Ganze. Ich glaube, das überschätzt so ein bisschen auch unseren Einfluss auf die Geschichte. Also kann man sich ja mal vorstellen, so was hätte es jetzt bedeutet, wenn die Menschen gesagt hätten, ja, hier mit der Elektrizität ist ganz nett, aber so wollen wir das wirklich? Was macht das mit unserer Gesellschaft? Vielleicht...

Wenn alle unglücklicher oder so. Vielleicht gar nicht so weit hergeholt. Das hat sicherlich auch irgendwie dann so down the road viele negative Konsequenzen gehabt. Aber das sind einfach so historische Prozesse, die kann man glaube ich im Zweifel nicht aufhalten. Ich glaube das ist auch bei KI der Fall. Deswegen, selbst wenn man jetzt diese Chancen gar nicht sieht, weiß ich nicht, ob das so ein gangbarer Weg jetzt zu sagen, irgendwie.

Wir stoppen das alles und versuchen jetzt den Geist wieder in die Flasche zu kriegen. Ich glaube, das wird einfach auch nicht funktionieren.

Mo (18:47.954)

Ja, nee, glaube ich auch nicht. Und ich glaube auch, dass, wie du sagst, das ist wahrscheinlich auch die falsche Art, irgendwie darüber nachzudenken, sondern ich glaube, zu sehen, dass Dinge einfach entstehen und aufkommen, weil ich glaube auch wirklich, das ist einfach Teil unserer Natur. Also Elektrizität ist ja ein super Beispiel und Innovation passiert halt, weil Menschen da einfach Bock drauf haben, intrinsisch einfach diese Motivation, etwas Neues zu schaffen, irgendwas rauszufinden. Und dann ist wahrscheinlich wirklich der Punkt halt dann zu gucken, okay, und wie können wir jetzt damit so umgehen, dass wir

den Chancenteil möglichst erhöhen und den Risikenteil ein bisschen eindämmen. Ich finde das auch ein gutes Beispiel. Ich musste gerade ein bisschen kontextlos, aber ich musste gerade an ein Beispiel denken, was ich vor ein paar Tagen mal gesehen habe. Online war es einfach nur ein Video. Aber es war ein Typ, der halt so Selbstversorgerkram und so macht. Und auf TikTok kannte ich nicht, noch nie gesehen. Das ist jetzt eigentlich auch nicht so mein Inhalt, den ich mir angucke. Und es ging so ein bisschen in so eine Prepper -Richtung. Auch nicht so ganz...

ohne Kontroverse, aber war auf jeden Fall spannend, weil er halt, der hat halt so ein eigenes Projekt sich da irgendwie überlegt und hat sich einen Raspberry Pi genommen, also diese kleinen, ähm, kennst du die? Diese kleinen, äh, Computer, die sind wirklich nur irgendwie so groß wie eine Handfläche und die sind halt extra für so, für so Make -up -Projekte gemacht. Läuft irgendwie eine Linux -Distribution drauf, sind relativ günstig, ich glaub so ein Raspberry kostet irgendwie 80 Euro und man kann sich dann halt damit verschiedenste Dinge selber bauen.

Und was er halt gemacht hat, ist, dich das halt in so einen sehr, sehr stabilen Koffer, diesen Raspberry reinzubauen und da drin, oder auf diesem Raspberry Pi läuft ein Large Language Model, das halt wirklich relativ klein ist, sodass es halt darauf läuft. Und er meinte, das ist halt mega cool, weil das Ding funktioniert, braucht ja nur Strom und ist aber komplett unabhängig vom Internet, weil das Wissen, was da einmal reintrainiert wurde, das ist ja da drin. Und damit habe ich halt die Möglichkeit, wenn jetzt zum Beispiel das Internet mal nicht da ist, ich kann alles, das meiste,

kann ich nachfragen, ich kann dem Ding Fragen stellen und ich kriege halt bessere Informationen als wenn ich sie gar nicht hätte und dann dachte ich, stimmt, das ist ja auch eine richtig coole Art eigentlich so Wissen zu konservieren und irgendwie auch zugänglich zu machen, also auch irgendwie in Gebiete ohne Internet. Er hatte dann das Beispiel, wie zücht ich irgendwie oder wie ziehe ich Erbsen hoch und hat halt eine Anleitung bekommen, wie er Erbsen hochzieht und das die würde er halt auch bekommen ohne Internet und das auch so hinsichtlich so von Verteilung von Wissen ist natürlich auch irgendwie cool, weil es halt diesen Zugang

Mo (21:11.184)

oder diesen permanenten Zugang zum Internet irgendwie so ein bisschen obsolet macht, ist mir gerade nur eingefallen. Aber fand ich irgendwie ein spannendes Projekt.

Philip (21:18.344)

Ja, also...

Genau, also ich glaube, da stecken so zwei interessante Punkte drin. Das eine ist eben diese unglaubliche Vielseitigkeit von Sprachmodellen. Das ist eben nicht wie traditionelle Software, wo man so ein ganz konkretes Problem hat und jetzt schreibe ich eine Software, die dieses Problem löst, sondern es ist halt einfach eine Art, irgendwie Wissen zu produzieren, also sowohl Wissen, was schon da ist, irgendwie zu reproduzieren, aber auch irgendwie neue...

Mo (21:21.744)

Mhm.

Philip (21:48.521)

Gedanken oder Ideen zu entwickeln. Also sie funktionieren zum Beispiel wahnsinnig gut fürs Brainstorming, diese Sprachmodelle. Und ich glaube, deswegen steckt halt so viel Potenzial in dieser Technologie, weil man das eben auf alles Mögliche anwenden kann. Und das ist ja so ein schönes Beispiel dafür, wo das jetzt in so einem Bereich, wo man nicht unbedingt als erstes vermutet hätte, dass sie irgendwie so eine Anwendung hat. Und das zweite ist eben, was du gesagt hast, dass es der

diese Person, dieses Modell dann irgendwie lokal auf dem eigenen Gerät gehostet hat. Und das ist ja was, was jetzt bei den leistungsfähigsten Modellen, die wir jetzt aktuell haben, wie ChatGPT oder so, noch nicht möglich ist. Also da brauche ich ja irgendwie Internetzugang und muss irgendwie über die Server von OpenAI, die in irgendeinem riesigen Datenzentrum stehen, kann ich dann zugreifen auf das Modell.

Und das limitiert es natürlich gerade krass, weil ich brauche eben einen Account bei OpenAI und ich brauche einen Internetzugang. Und es wird sicherlich jetzt in den nächsten Jahren auch so ein Trend in die Richtung gehen, dass man versucht, so Modelle auch lokal verfügbar zu machen. Also Apple arbeitet da gerade soweit ich weiß dran, dass man irgendwie iPhone -Chips baut, die leistungsstark genug sind, um diese Rechenoperation durchzuführen und dann einfach

Sowohl für mich als User, so weniger abhängig zu sein, dann von einem konkreten Dienst oder so. Und auch einfach den Anwendungsbereich dann nochmal zu vergrößern. Natürlich geht es da auch um Datenschutz, weil alles, was jetzt irgendwie über Datenzentrum XY geht, was irgendeiner Firma gehört, ist immer die Frage, was passiert da mit meinen Daten? Lesen die da im Zweifel mit oder so? Und alles, was ich jetzt lokal bei mir auf meinem Handy oder auf meinem Computer laufe, da habe ich natürlich dann...

eine größere Souveränität, auch über die teilweise sehr persönlichen Daten, die ich dann in so ein Sprachmodell vielleicht auch einpflege.

Mo (23:48.624)

Ja, genau. Und ich glaube, das ist auch... Da würden wir uns auch ein bisschen den Risiken zuwenden. In meinem Kopf ist das mit eines der größten Risiken. Diese... Monopol ist jetzt ein bisschen ein gratis Wort. Aber schon die Tatsache, dass die Entwicklung und auch die Bereitstellung eigentlich ja momentan... Jetzt mal ganz blöd, sind es ja... Es sind noch ein paar mehr, aber Open AI, Google und Meta sind ja so drei, die da sehr, sehr viel machen. Und dann kommen ja noch ein paar dazu.

Aber die halt einfach das Geld haben, die Infrastruktur haben und das, was auch viele ja nicht wissen, oder wahrscheinlich wissen es schon viele, aber was manche vielleicht noch nicht wissen ist, dass insbesondere, also gar nicht so sehr das Betreiben von einem Large -Danguage -Model, das geht ja mittlerweile einigermaßen gut auch auf lokalen Geräten. Manchmal muss man die so ein bisschen runterrechnen, aber auf seinem Rechner zum Beispiel kann man das schon meistens ausführen, wenn es halt schon trainiert ist. Aber das Training, das ist halt ultraaufwendig, weil beim Training ...

passiert halt so viel mehr Rechenoperation und man braucht unfassbar viel Daten und die zu bekommen, zu sammeln, zu pflegen, aufzubereiten und so weiter. Das ist halt der Punkt, wo es, der einfach wahnsinnig viel Geld kostet und wahnsinnig viel braucht und das können halt einfach nur Leute, die eh schon oder Leute, Firmen, die eh schon sehr, sehr viel Geld und Einfluss haben. Und das finde ich schon, da ist schon ein Risiko.

Philip (25:10.664)

Ja, absolut. Also die Machtkonzentration, die wir aktuell im Tech -Sektor sehen, die ist schon einfach krass. Also nicht erst durch KI, also es war ja auch schon vorher so, dass diese Firmen, die du genannt hast, irgendwie Google, Meta, mit Facebook, auch Microsoft, dass die ja einfach sehr früh erkannt haben, dass Daten so ein bisschen das Gold des 21. Jahrhunderts irgendwie sind und dass man darauf

Geschäftsmodelle bauen kann, die man aus allen möglichen Gründen auch kritisch sehen kann, aber die de facto einfach wahnsinnig gut funktionieren. Und natürlich ist es kein Zufall, dass genau das jetzt auch die Unternehmen sind, die im Bereich KI so erfolgreich sind, weil die zum einen viele Daten haben, die sie dann benutzen können, um die Modelle zu trainieren und weil sie einfach unglaublich viel Geld haben, das man, wie du sagst, für das Training braucht.

Jetzt so die State of the Art Modelle. Genau weiß man es ja immer nicht, weil die Firmen das nicht unbedingt immer offenlegen, aber es gibt Erschätzung dazu, was das irgendwie kostet, so ein Modell zu trainieren. Da sind wir jetzt bei dem neuesten Gemini -Modell von Google, also im Bereich jenseits der 100 Millionen Dollar. Also das sind schon unglaubliche Summen, natürlich auch hoher Stromverbrauch, Wasserverbrauch, was das einfach verlangt. Und...

Es ist so eine Art Problem, wo es mir schwerfällt, einen Lösungsvorschlag zu formulieren. Weil die Ressourcen, die du gerade brauchst, um diese Frontier Models, also die leistungsstärksten Modelle zu trainieren, die Ressourcen, die du dafür brauchst, die kann einfach niemand anderes gerade stellen, außer diese riesigen, in der Regel US -amerikanischen Konzerne.

Was man jetzt so ein bisschen versucht, vor allem in den USA, ist da von staatlicher Seite ein bisschen Kapazitäten aufzubauen, dass man irgendwie zum Beispiel Rechenleistungen in so staatlichen oder öffentlichen Clustern bereitstellt, um das so ein bisschen mehr irgendwie letztlich auch gesellschaftlich zugänglich zu machen, dass es halt nicht alles in der Hand privater Konzerne ist. Aber natürlich haben die sowohl jetzt...

Philip (27:35.91)

dass irgendwie das Talent angeht, die Forschungskapazitäten, die finanziellen Ressourcen, so einen krassen Vorsprung diese Unternehmen, dass es jetzt auch nicht so leicht ist, dass man sagt, naja, man macht jetzt eine Regierungsinitiative und in zwei Jahren kommt das stärkste KI -Modell dann von uns oder so oder von irgendeiner öffentlichen Hochschule. Also das wird, glaube ich, auch nicht so einfach.

Mo (27:58.287)

Ja, und ich meine, das ist also eine General Purpose Technologie, wie du sie genannt hast, die ja aber perspektivisch in so ziemlich alle Lebensbereiche eindringen wird, die aber eigentlich an die Existenz und das Fortbestehen von einem wirtschaftlichen Unternehmen gebunden ist. Das ist schon eigentlich gruselig. Das Rad zum Beispiel, ist ein blödes Beispiel, aber das Rad ist ein bisschen zu weit hergeholt.

Mo (28:27.663)

Jetzt fällt mir... ja, nee, aber das ist eigentlich auch nichts Neues, oder? Ich mein, Strom war auch nichts anderes, oder? Also, waren auch private Unternehmen, die Strom irgendwie... ...deserfunden haben, die das... die bereitgestellt haben und am Ende muss auch ein Regierungshaus hell sein, wenn's dunkel ist und... ...ehm... ...ich weiß nicht, es ist auch nichts anderes. Ich weiß nicht, mir fällt das grad schwerst zu greifen.

Philip (28:29.959)

Also ich denke so.

Philip (28:46.055)

Ich glaube, das Rad ist eigentlich ein gutes Beispiel. Technologie hat irgendwer mal erfunden. Aber als es dann da war, war das relativ leicht zu replizieren. Also wenn du das Prinzip Rad verstanden hast, du stehst davor und denkst, das macht ja total Sinn, dann konntest du dir dein eigenes bauen. Es ist jetzt nicht technisch so komplex, dass man das nicht nachbauen konnte. Und das ist bei diesen KI -Modellen.

einfach anders. Wir sind es ja auch gerade in der Open Source Community, Leute, die das versuchen, ohne Profitinteresse zu bauen. Das ist dann einfach nicht konkurrenzfähig mit so etwas wie GPT -Fonds oder so dem stärksten Modell von OpenAI. Das ist, glaube ich, einfach so der Unterschied. Deswegen, glaube ich, kann man ...

kann und sollte man, glaube ich, die Marktmacht dieser Konzerne kritisch sehen. Aber trotzdem ist es so eine Realität, in der wir uns jetzt gerade befinden, dass es diese Konzerne gibt und dass sie da für und in der Entwicklung sind. Man muss dann eben so ein bisschen fragen, okay, welche politischen Instrumente kann es jetzt geben, diese Entwicklung irgendwie zu steuern in einer Art und Weise, die gut dann für die gesamte Gesellschaft ist und die vor allem auch verhindert, dass es ...

unter diesen einigen wenigen Konzernen zu so einer Art Wettrüsten kommt, weil natürlich jedes dieser Unternehmen will irgendwie das erste sein, was dann irgendwie den nächsten Durchbruch erzielt. Und das kann natürlich auch schnell dafür sorgen, dass gerade so was wie Sicherheitsstandards dann doch auf der Strecke bleiben, weil man eben denkt, okay, wenn wir jetzt irgendwie hierzu vorsichtig voranschreiten, dann ziehen die anderen einfach an uns vorbei und es bringt auch nichts.

dass sie die klassischen Arms Race Dynamiken, die es auch in anderen Bereichen gibt und wo man sieht, dass die teilweise auch sehr gefährlich werden können.

Mo (30:39.726)

Hm.

Mo (30:50.574)

Da hast du, glaube ich, gerade schon nochmal so einen anderen Punkt gesagt. Sicherheitsstandards. Da musste ich sofort natürlich irgendwie an das Thema Regulierung denken. Und man könnte jetzt sozusagen hier anknüpfen und sagen, irgendwie Regulierung aus ein bisschen dieser Markt macht. Aber vielleicht auch Regulierung dessen, was eigentlich so erlaubt ist. Ich glaube, das ist fast schon ein bisschen der spannende Part. Also was darf so ein Modell eigentlich können?

Was darf funktionieren, was darf auch nicht funktionieren. Klassiker, die haben da so einen Fall, dass sie so bestimmte Inhalte zu generieren, also Fake News, Bilder, die Dinge darstellen, die nicht erlaubt sind, die vielleicht auch Menschen verunglücken, gibt es ja tausend Beispiele. Und das geht sicherlich noch sehr viel tiefer und sehr viel weiter. Und das Problem ist ja, dass KIs, wie du ja schon gesagt hast, im Gegensatz zu klassischer Software nicht nur für einen Anwendungsfall, also...

Es geht was rein, es geht was raus und es ist eigentlich klar definiert, was reingeht und was rauskommt sozusagen, sondern es ist ja sehr offen. Da wäre die Frage, wie man etwas reguliert, was man ja eigentlich nicht verstehen kann, also was ja kein Mensch vollkommen verstehen kann. Und selbst die, die es entwickeln, ist ja einfach de facto nicht greifbar, weil es zu groß, zu komplex ist.

Philip (32:06.438)

Genau, also vielleicht, um hier nochmal einen Schritt zurückzugehen, also es ist halt genauso wie du sagst, dass diese Sprachmodelle sind, also das, was man oft als Black Box bezeichnet, also das sind hochkomplexe mathematische Strukturen, die niemand, auch nicht die Leute, die diese Modelle entwickeln, auch nur im Ansatz verstehen. Das heißt, wir geben was rein in das Modell.

irgendwelche Daten, die werden verarbeitet, am Ende kommt was raus. Aber warum jetzt das Modell auf diesen Input genau so geantwortet hat, kann man im Großen und Ganzen nicht sagen. Man kann das mal in einzelnen Beispielen versuchen, das nachzuvollziehen. Aber ein umfassendes Verständnis dieser Modelle haben wir nicht. Und das wirft eben genau diese Frage auf. Wie kann man was regulieren, was man eigentlich nicht versteht? Und es gibt ja auch Leute, die genau das dann als Argument nehmen und sagen, na ja, wenn wir es nicht verstehen ...

Dann können wir es auch nicht sinnvoll regulieren, dann sollten wir es einfach laufen lassen. Ich glaube, das wäre so genau die falsche Reaktion, weil zumindest meine Intuition ist, gerade wenn man was nicht gut versteht, dann muss man irgendwie so bestimmte Guardrails oder Sicherheitsmechanismen irgendwie drumherum bauen, damit es einem nicht entleitet. Und wir haben das jetzt einfach im Laufe des letzten Jahres gesehen. Eigentlich jedes nennenswerte KI -Modell, was irgendwie ...

auf dem Markt kam oder veröffentlicht wurde, hat an irgendeiner Stelle komische Sachen gemacht und irgendwie gefährlichen, schädlichen Output generiert. Und darauf muss man irgendwie reagieren. Also das jetzt einfach laufen zu lassen, das kann glaube ich nicht die Lösung sein.

Mo (33:52.43)

Ja, und ich meine, letztlich ist es, also Menschen verstehen sich auch nicht wirklich. Also man versteht auch nicht genau, wie ein Mensch funktioniert und schon gar nicht wie eine Ansammlung von irgendwie 80 Millionen Menschen funktioniert. Und trotzdem haben wir ja Regeln und trotzdem haben wir ja versucht, einen möglichst guten Regelsatz zu bilden, der so ein bisschen bestimmt, wie wir, wie die Dinge einigermaßen gut funktionieren und manchmal passieren dann neue Dinge. Also.

Verbrechen ist vielleicht mal ein gutes Beispiel. Man kann jetzt nicht vorher sagen, du wirst Verbrecher, du nicht. Das klappt ja nicht. Das heißt, es gibt Gesetze, es gibt Regeln, die dafür sorgen sollen, dass A, verhindert wird und B, bestraft wird und präventiv usw. Und dann kommen vielleicht neue Formen von Verbrechen auf und dann denken sich Menschen wieder ganz kreative Lösungen aus, wie sie irgendwas Verbotenes machen können. Und dann werden diese Regeln auch wieder angepasst und validiert. Und das Schöne ist ja, ist jetzt gerade nur gesponnen, aber bei einem KI -Modell ...

Ich könnte ja, wahrscheinlich wird das auch so gemacht, ich kann ja diesem Modell zum Beispiel, wenn wir jetzt mal ganz, ich will versuchen, dass das irgendwas Schadhaftes produziert. Und dann kann ich das ja auch automatisiert mit Promts zuballern, die irgendwie versuchen auf alle möglichen Art und Weise irgendwas Schadhaftes rauszubekommen. Und in dem Moment, wo das klappt, hab ich ja, ah okay, wenn das reinkommt, dann, und dann hab ich ja wieder einen neuen Weg gefunden, sozusagen diese Regeln, die ich aufgestellt hab, zu umgehen und kann den dann auch zumachen. Und so kann ich ja immer weiter im, und,

Das wird wahrscheinlich ein nie endender Prozess sein, diese Regulierung verbessern und anpassen oder nicht.

Philip (35:22.309)

Genau, also zum einen würde ich sagen, du hast jetzt so über Gesetze gesprochen und ich würde vielleicht noch ein bisschen erweitern und sagen, es gibt ja einfach soziale Normen, die irgendwie unser Zusammenleben regulieren und jetzt gibt es irgendwie eine neue Technologie und die wirft das erstmal alles so ein bisschen durcheinander oder da gibt es erstmal nicht so klare Normen, wie wir jetzt als Gesellschaft damit umgehen. Und das ist eben vor allem dann ein Problem, wenn wir vorbesprochen haben, diese Technologie halt in der Macht.

oder in den Händen einiger privater Konzerne ist, weil eine Technologie, die so krass in unser Alltagsleben eingreifen wird, da muss auch die Gesellschaft irgendwie mehr Mitspracherecht und Gestaltungsmacht haben. Und da gibt es ein paar ganz coole Ansätze, dass man sich zum Beispiel fragt, welche Werte wollen wir eigentlich in so einem Sprachmodell abbilden? Welche Prinzipien soll das grundlegend?

in seinen Antworten, welche Moralvorstellungen. Und Leute, die dann sagen, wir versuchen das einfach so bottom -up in so einem demokratischen Prozess zu etablieren, indem wir irgendwie Leute, weiß ich nicht, tausend Leute zusammensetzen, virtuell zusammenschalten und dann so ein bisschen rauskitzeln, wie denken die eigentlich über Wertfragen nach und wie kann man das, was die denken, dann abbilden in so einem Schwachmodell, damit das irgendwie auch so ein bisschen ...

Deckungsgleiches mit dem, was die Leute denken und nicht was die einigen wenigen denken, die das mal entwickelt haben. Und genau, also das ist so, glaube ich, ein Bereich, wo schon viel zu geforscht wird, aber wo ich es gut fände, wenn es da noch irgendwie viel mehr Ideen und Gedanken zu gäbe, wie man das Ganze so ein bisschen demokratisieren kann.

Mo (37:12.621)

Ja, ne verstehe, also das ist natürlich auch noch ein Punkt. Und da kann man ja dann auch wieder, das kann ja auch wieder Regulierung sein, dass einfach ein Unternehmen so was entwickelt, dass dann solche Prozesse stattgefunden haben müssen, nachweisbar und dass das auch nachweisbar irgendwie in die Entwicklung mit eingeflossen ist zum Beispiel. Das wäre dann auch eine Möglichkeit, das wieder ein Stück weit zu regulieren. Ja, ich glaube, das vermittelt zumindest ein Gefühl dafür, wie so eine Art Regulierung davon irgendwie aussehen kann.

Auf einen Punkt würde ich gerne noch mal eingehen, weil ich ihn ganz spannend fand. Du hast ja auch durchaus einen philosophischen Background. Ich glaube, du hast Philosophie studiert, wenn ich das richtig im Kopf habe, ne? Also, genau. Also, neben... Ah, sorry. Jetzt, eigentlich. Philosophie und Wirtschaft hast du doch studiert, oder nicht?

Philip (37:53.253)

Genau, ich habe auch im Bachelor VWL studiert und bin dann so, habe mich auf Philosophie dann spezialisiert.

Mo (38:01.132)

Genau und das ist natürlich, KI, künstliche Intelligenz ist natürlich da ein recht dankbares Thema, könnte ich mir vorstellen, weil das Thema Intelligenz, was ist das eigentlich und so und was ist eigentlich KI und diese diese diese Wahrnehmung von KI als vielleicht ein Bewusstsein, ist es bewusst oder nicht und dazu hast du auch durchaus schon veröffentlicht. Und ich finde die Frage sollten wir hier zumindest auch nochmal streifen, weil ich sie irgendwie auch in dem Kontext spannend finde. Dieser

General Purpose Technologie und zwar ob Large Language Models in dem Fall wirklich eigentlich nur Wortautomaten sind, weil so in der Vergangenheit war es ja immer so, dass von ExpertInnen eigentlich immer gesagt wurde, ja das sind eigentlich nur Wortautomaten. Also eigentlich geben die sozusagen immer nur das statistisch wahrscheinlichste Wort an eine Kette, was jetzt halt dazu gerade passt. Ganz, ganz blöd gesagt. Also ich kriege eine Eingabe, was ist jetzt statistisch gesehen die beste Antwort aus allem, was ich bisher gelernt habe. Und ähm...

Damit nimmt das ja so ein bisschen diesen künstlichen Intelligenz, auch diesen Schrecken, den man davor haben könnte, dass irgendwann man so regiert, also diese ganzen Horror Szenarien, dass irgendwann die Welt übernimmt und so weiter und so fort. Und jetzt hast du dich mit der Frage auch ein bisschen auseinandergesetzt, ob das denn wirklich so ist, also ob das wirklich nur Wortautomaten sind. Und da wäre ich jetzt mal gespannt auf deine Gedanken zu dieser Frage.

Philip (39:19.94)

Ja, also ich würde vielleicht mal zwei Fragen auseinanderhalten. Die eine ist, also angenommen, das sind nur Wortautobaten, also nur stochastische Papageien, die irgendwelche Wahrscheinlichkeiten zugrunde legen, um irgendwas auszuspucken, aber die eigentlich nicht wissen, was sie da gerade erzählen. Angenommen, das wäre so, würde das bedeuten, dass die vielen Risiken, die manche Leute in KI -Technologie sehen, dass es die eigentlich nicht gibt. Und da würde ich sagen, da gibt es eigentlich ein

sehr gering vielleicht gar keinen Zusammenhang, weil in dem Moment, wo ein KI -Modell einen schädlichen oder gefährlichen Output generiert, ist ja völlig egal, ob das Modell das nur auf der Grundlage von Wahrscheinlichkeiten gemacht hat und ob das jetzt das wirklich versteht oder nicht, das ist ja egal, weil der gefährliche Output ist ja am Ende da. Und wenn ich in ein paar Jahren vielleicht so ein Modell dafür nutzen kann,

um mir eine Anleitung geben zu lassen, wie ich einen gefährlichen Grippevirus synthetisieren kann, dann ist es gefährlich und da muss man irgendeine Lösung für dieses Problem, für dieses Risiko finden, unabhängig von dieser philosophischen Frage, ob das jetzt nur ein Wortautomat ist oder nicht. Also das würde ich mal so voransetzen, dass, glaube ich, für diese politischen Fragen diese Frage echt nicht so relevant sein sollte.

Mo (40:41.579)

Ja, darf ich da ganz kurz einhaken? Aber das würde sich ja auf die Probleme oder die Risiken beschränken, die wir jetzt sozusagen für einen potenziellen Wortautomaten sehen. Manche Menschen haben ja auch Angst vor so einer Art Eigenleben. Also vor so einem, was ist denn, wenn nicht mehr jemand sagen muss, gib mir eine Anbauanleitung für ein Grippevirus, sondern das wird einfach gemacht oder... Also weißt du, solche Geschichten, das ist jetzt ein bisschen Science -Fiction, aber...

Philip (40:42.915)

Ja.

Mo (41:10.155)

Es sind ja auch Ängste, die da sind. Also das ist ja jetzt nichts, was ... Und diese Sorgen beruhigt das ja schon ein bisschen. Also dass jetzt nicht da irgendwie eine eigene Motivation hinter irgendwas stehen kann, sondern dass es zumindest immer jemanden braucht, der das entsprechend schädlich bedient.

Philip (41:27.267)

Ja, also interessant, würde ich tatsächlich auch ein bisschen anders sehen. Also ich glaube, ich würde bei so einem Modell unterscheiden, einmal zwischen der Frage, ob das Verständnis hat von dem, was es irgendwie als Output generiert und auf der anderen Seite von der Frage, ob es planvoll und zielgerichtet auf irgendwas hinarbeitet. Und ich glaube, diese

dieser Komplex ist es stochastischer Papagei oder nicht, das bezieht sich eben auf die erste Frage und das ist philosophisch eben einfach interessant, so wie viel Intelligenz, wie viel Verständnis steckt da wirklich drin. Aber ich glaube jetzt so aus politischer Perspektive oder aus Risikoperspektive ist die zweite Frage eigentlich relevanter. Also wie autonom, wie planvoll, wie zielgerichtet können diese Modelle sich verhalten? Und auch da würde ich wieder sagen, wenn ein Modell

Mo (42:12.555)

Mhm.

Philip (42:23.747)

dass ja letztlich einfach eine mathematische Funktion ist, die irgendwie optimiert wird. Und wenn sich aus dieser mathematischen Optimierung irgendwie ergibt, dass das Modell jetzt anfängt, irgendwie Ressourcen anzuhäufen, Geld, Wissen, was auch immer, um irgendwie in der Zukunft noch möglichst heiter weiter optimieren zu können. Und dann anfängt irgendwie Schritte in der realen Welt zu vollziehen.

die das Modell dieser Ressourcenanläuferung näherbringen, dann würde ich sagen, dann ist das gefährlich. Und dann ist das gefährlich unabhängig davon, ob man dem Modell jetzt da auf dieselbe Art und Weise eine Intention oder ein Motiv zuschreiben kann, wie wir das jetzt bei dem Menschen machen. Weil in dem Moment, wo das Modell irgendwie anfängt, da gibt es auch so eine interessante Studie zu, wo Leute so ein Sprachmodell gesagt haben, deine Aufgabe ist, irgendwie am Finanzmarkt zu traden. Und dann hat das Modell ...

Mo (43:05.098)

Mhm.

Philip (43:25.123)

von sich aus, ohne dass man dem das gesagt hat, angefangen illegale Insider -Trades zu machen. Obwohl man dem Modell vorher als Instruktion gegeben hat, macht das nicht. Du darfst dich nur rechtskonform verhalten. Und aus irgendeinem Grund, den man nicht versteht, weil das am Ende eine Blackbox ist, hat das Modell trotzdem angefangen, sich illegal zu verhalten. Und das war, glaube ich, mit GPT -4 oder so, dieses Experiment.

Bei GPT -4 ist glaube ich klar, dass das nicht in selben Sinne irgendwie intelligent ist wie wir oder Dinge versteht oder so. Aber trotzdem hat das Modell irgendwann angefangen komische Sachen zu machen, die wir definitiv nicht wollen. Deswegen würde ich das halt so ein bisschen auseinanderhalten. Davon abgesehen ist dann aber trotzdem das eine interessante philosophische Frage, wie viel Verständnis da jetzt dahinter steckt. Ja.

Mo (44:08.234)

Hm.

Mo (44:11.786)

Ja, okay. Also, ja.

Philip (44:21.795)

Wollen wir darüber kurz reden oder?

Mo (44:24.202)

Ja, also gerne. Also ich finde das aber wichtig, weil diese Trennung habe ich gedanklich tatsächlich noch nie so richtig gemacht, zu sagen, das eine ist, wie viel Verständnis, wie viel Bewusstsein über sich selbst ist da drin und das andere ist völlig egal, was innen drin passiert, wenn aber das Verhalten so und so ist, zielgerichtet und sich vielleicht auch über Dinge hinwegsetzen können, die definiert, was auch immer, dann ist das völlig egal, wie viel Verständnis und dass das eine das andere auch nicht braucht, also dass dieses zielgerichtete Verhalten nicht bedingt, dass dann...

Selbstbewusstsein zum Beispiel irgendwie vorhanden ist, sondern dass das auch einfach so passieren kann. Was ja vielleicht sogar manchmal noch gefährlicher ist, weil, eine kurze Einstellung ist jetzt schon ein paar Jahre her, aber es gab doch mal, das war noch vor generativer KI, aber da gab es doch diese, oder nicht vor generativer, aber vor diesem Hype darum. Ich glaube das war Google DeepMind oder so und da ging es um

diese KI, die Dota gespielt hat, dieses Onlinespiel, Dota 2. Und ultra gut war, weil die gar nicht so gespielt hat, wie Menschen spielen würden, im Sinne von Entscheidungen wurden halt nicht auf Basis von, ich will, dass das irgendwie cool ist oder gut aussieht oder ich will eben möglichst unbeschadet aus was rausgehen, sondern halt nur auf, ich hab ein Ziel und ich mach alles, um dieses Ziel zu erreichen. Und in dem Spiel war das halt ein enormer Vorteil. Aber wenn da kein Bewusstsein ist, dann kann man halt auch nicht Dinge irgendwie trainieren wie...

versuch dich moralisch zu verhalten, weil du diese moralischen Regeln kennst und dir das irgendwie das Teil deines Ziels auch ist, die zu erfüllen und so. Also das glaube ich so ein bisschen der Punkt. Aber ja, lass uns gerne, also du kannst natürlich gerne noch was dazu sagen, aber sonst lass uns gerne auch über das Thema mit dem Bewusstsein reden, weil das finde ich auch sehr spannend.

Philip (46:07.619)

Ja, also genau vielleicht nochmal so was ganz hilfreich sein kann, worüber wir jetzt gesprochen haben, ist ja so dieses Alignment -Problem. Also das Problem, dass es irgendein Akteur in die Welt gesetzt wird, der möglicherweise auf Ziele hinarbeitet, die sich nicht mit deinen Zielen decken. Und das Problem ist ja völlig generisch. Also es hat jetzt erstmal gar nichts mit KI zu tun. Es gibt auch, also auch ein Unternehmen ist ein Akteur, der manchmal schwer steuerbar ist und nicht das tut, was aus gesellschaftlicher Sicht eigentlich am besten wäre.

Und das ist völlig unabhängig davon. Also niemand würde jetzt einem Unternehmen Bewusstsein unterstellen oder eine Intelligenz oder ein Verständnis oder so. Das gilt vielleicht für die Leute, die in diesem Unternehmen arbeiten, aber nicht für das Unternehmen selbst. Und trotzdem gibt es dieses Alignment Problem, dass das eine komplexe Struktur ist, die sich nicht immer perfekt steuern lässt und manchmal unerwünschte Dinge tut. Und wenn es um KI geht, das ist einfach ein anderes Beispiel für dieses Alignment Problem.

Und auch da sieht man, auch wenn es jetzt kein wahres Bewusstsein hat oder so, kann trotzdem dieser Mismatch zwischen meinen Interessen und den Interessen dieses Systems entstehen. Dann jetzt zu dieser philosophischen Frage. Da würde ich erst mal sagen, also diese Frage, ob Chechibiti nur ein stochastischer Papagei ist. Also ich finde, das ist wirklich eine unglaublich schwierige philosophische Frage. Auf die ist erst mal keine eindeutig richtige

Antwort gibt. Deswegen finde ich es manchmal überraschend, mit welcher Vehemenz oder Eindeutigkeit Leute im öffentlichen Diskurs eine Antwort auf diese Frage vertreten. Als wenn das irgendwie so offensichtlich wäre. Das ist jetzt entweder ein stochastischer Papagei oder nicht. Ich glaube, so einfach ist es nicht. Letztlich hängt es eben davon ab, welche philosophische Theorie man jetzt gegenüber Begriffen wie Intelligenz oder Verstehen vertritt. Und

Ich glaube, es gibt ja so einen Grund, warum Leute sagen, letztlich ist es einfach nur so ein Wortautomat, ist ja, dass da irgendwie auf so fundamentaler Ebene statistische Prozesse irgendwie ablaufen in diesem Modell. Und das natürlich unstrittig, dass das so ist. Die Frage ist, was folgt jetzt daraus? Also man kann sich ja fragen, wie funktioniert eigentlich unser Verstehen? Also...

Philip (48:33.601)

Wenn wir jetzt in das menschliche Gehirn reinschauen und das auf die grundlegende Ebene runterbrechen, dann sehen wir da ja auch, ähnlich wie in so einem neuronalen Netzwerk, irgendwie einzelne Neuronen, die miteinander vernetzt sind und irgendwie Informationen austauschen. Und wenn man das jetzt zurückverfolgt auf diese fundamentale Ebene, wird man da ja auch nichts.

finden, was genuines Verstehen oder Intelligenz ist. Das einzelne Neuron versteht ja auch nichts. Das ist am Ende auch nur irgendein, weiß ich nicht, biochemischer Prozess, den man wahrscheinlich mit statistischen Regularitäten beschreiben kann, genau wie das, was in Chagy Pt. passiert. Daraus folgt aber nicht, dass, wenn man diese einzelnen Neuronen in unserem Gehirn auf die richtige Art und Weise verdrahtet und zusammenschaltet, dass am Ende ein Gesamtsystem bei rauskommt, das dann eben doch

Mo (49:04.68)

Mmh.

Philip (49:27.937)

Dinge versteht. Deswegen würde ich erst mal sagen, allein aus dieser stochastischen Komponente in den künstlichen neuronalen Netzwerken folgt erst mal nicht so viel dafür, was für ein Potential in diesen Modellen drinstecken kann. Und dann ist halt so ein bisschen die Frage, das Wissen oder das Information, was

Mo (49:29.769)

Mhm.

Philip (49:55.426)

Das Wissen oder die Informationen, die in diesen Modellen stecken, haben die Modelle ja nicht selbst irgendwie aus der Welt geholt, indem sie Sinneseindrücke von der äußeren Welt haben und daraus so ein Modell der Realität bauen, so wie wir Menschen das machen, sondern es ist irgendwie vermittelt über Sprache. Und da kann man sich jetzt fragen, braucht es diesen direkten sinnlichen Kontakt mit der Welt?

um irgendwie so was wie echtes Verständnis zu haben. Und da würde ich sagen, da gibt es in der Philosophie einfach unterschiedliche Antworten zu. Ich würde so ein bisschen sagen, das kommt auch auf die Art des Wissens an, über die man gerade spricht. Also es gibt sicherlich bestimmtes Wissen, also zu wissen, wie eine frische Orange schmeckt. Das wird wahrscheinlich schwierig, jetzt so einem Schwarmodell das irgendwie beizubringen, weil da steckt einfach diese sinnliche Komponente drin, die ich da nicht rauskriege.

Aber für viele Formen von Wissen gilt es ja nicht. Also für so mathematische oder naturwissenschaftliche Zusammenhänge, die man sich anders erschließen kann und wo man nicht diese direkte Wahrnehmung unbedingt braucht. Oder auch so einfaches Faktenwissen. Also ich muss ja jetzt nicht irgendwie selber in Berlin gewesen sein und das mit meinen Sinnen wahrgenommen haben, um zu wissen, dass irgendwie Berlin so und so viele EinwohnerInnen hat und die Hauptstadt von Deutschland ist.

bestimmte andere Fakten darüber zu wissen. Deswegen würde ich sagen, ja, es gibt sicherlich bestimmte gedankliche Leistungen, die so ein Sprachmodell mit der Architektur, die wir jetzt haben, die das einfach nicht leisten kann und absehbar auch nicht leisten können wird. Das heißt aber nicht, dass es nicht ganz viele andere Bereiche gibt, wo diese Modelle, wenn man sie jetzt mit noch mehr Rechenleistung trainiert und vielleicht noch an dem Algorithmus die ein oder andere Verbesserung durchführt.

dass sie dann nicht auch auf ein Niveau kommen, wo man sagen kann, doch, die haben schon irgendwie begrenzt, aber doch ein irgendwie echtes oder ernst zu nehmendes Verständnis von der Welt, in die sie ja auch irgendwie eingebettet sind.

Mo (52:07.56)

Ja, macht ja auch so. Also das mit den Sinnen finde ich, kann man ja auch ganz einfach sich... Es gibt ja Menschen, denen fehlt ein Sinn. Also es gibt Menschen, die können nicht hören und es gibt Menschen, die können nicht sehen. Deswegen sind die ja nicht weniger intelligent, sondern klar, da gibt es den einen Sinn, wo dann sozusagen ein Verständnis nicht aufgebaut werden kann, wenn das von Geburt an so ist. Also das Mapping...

und... wer ist ein blödes Beispiel jetzt? Oder ein Lied spielt und man erkennt das Lied. So, das ist ja... wer was nennt, der kann ich, weil ich hören kann, ein Verständnis aufbauen und jemand, der halt nicht hören kann, der kann das natürlich nie aufbauen, der kann dann halt vielleicht das Lied beschrieben bekommen und daraus das Lied dann wieder erkennen. Aber das leuchtet mir total ein und was ich gerade so dachte ist, was...

glaube ich, dann auch oft die Fehlannahme ist, ist zu glauben nur, weil diese Art Verständnis nicht die ist oder auch die Art zu, ich mache das jetzt, das kann man jetzt nicht sehen, weil es ist ein Podcast, aber in Anführungszeichen, die Art zu denken ist natürlich auch irgendwie vielleicht eine andere als unsere. Aber auch das ist ja nicht unbedingt ein Argument gegen Verständnis, also auch ein Tier, was ja nachgewiesen auch anders denkt als wir.

Nämlich zum Beispiel überhaupt nicht in Sprache. Er hat ja trotzdem eine Form von Verständnis für seine Welt. Und ja, doch. Es ist schwer greifbar.

Philip (53:31.199)

Genau, also es gibt offensichtlich eine ganze Reihe wichtiger Unterschiede, wie unser Denken funktioniert und wie so ein Sprachmodell funktioniert. Also das ist, glaube ich, auch unkontrovers. Was ich aber, sagen wir mal, wichtig finde, darauf hinzuweisen, wie diese Sprachmodelle wiederum anders funktionieren im Vergleich zu traditioneller Software. Also so ein normales Computerprogramm,

funktioniert der rein syntaktisch. Also der Programmcode, das sind halt irgendwelche Symbole, die gemäß formalen Regeln verarbeitet werden. Aber diese Symbole selber haben in sich keine Bedeutung. Also es ist so ein bisschen wie so ein logischer Schluss, wenn ich irgendwie sage, wenn a, dann b, daraus folgt b. Das ist einfach ein formal gültiger Schluss, mit dem kann ich oder auch ein Computerprogramm operieren.

egal wofür jetzt diese a's und b's stehen, da kann ich alles Mögliche einsetzen und das Modell oder die Software, die muss auch nicht verstehen wofür a und b jetzt stehen, die kann sozusagen rein formal irgendwie damit rechnen. Und sozusagen, dass es die Sprachmodelle machen, das geht ja weiter rüber hinaus, weil die eben nicht rein syntaktisch arbeiten, sondern zwar eine statistische Analyse von Worthäufigkeiten zugrunde legen und daraus aber schon

zumindest begrenzt, ein semantisches Modell bauen, also ein Modell von Wortbedeutungen. Da gibt es auch so eine coole Visualisierung von. Also was diese Modelle ja machen, ist, dass sie diese Worthäufigkeiten in so einem Vektorraum abbilden. Und das ist bildlich schwer vorzustellen, weil dieser Vektorraum so viele Dimensionen hat, so komplex ist, dass wir uns das nicht vor Augen führen können. Aber man kann es so ein bisschen illustrieren.

Und dann sieht man zum Beispiel, dass irgendwie der Vektor zwischen den Begriffen Mann und König parallel ist, dem Vektor zwischen den Begriffen Frau und Königin. Das heißt, das Modell scheint aus dieser rein statistischen Analyse so eine semantische Relation abzuleiten, die wir irgendwie so als Geschlecht verstehen würden.

Philip (55:52.159)

Und das ist eben dann an dem Punkt doch mehr als reine Statistik. Da werden Bedeutungsrelationen wie Geschlechtalter oder so weiter, werden da auf irgendeine Art erfasst. Vielleicht nicht in derselben Durchdringung und Komplexität, wie das jetzt in unserem Gehirn passiert. Aber es ist eben dann doch mehr als reine Syntax. Und deswegen ist generative KI auch mehr als jetzt so ein handelsübliches Computerprogramm.

Und ich glaube, die interessante Frage jetzt in den nächsten Jahren wird einfach sein, wie weit kann man diese Architektur, die hinter den großen Sprachmodellen steckt, wie weit kann man die treiben und wie viele Fähigkeiten kann man am Ende da rauspressen? Aber ich glaube, je leistungsfähiger diese Modelle werden und wenn man vielleicht irgendwann wirklich an einem Punkt ist, wo man diesem Modell irgendeine Aufgabe geben kann und das...

erfüllt diese Aufgabe zu unserer vollsten Zufriedenheit und autonom und ohne dass man jetzt die ganze Zeit noch irgendwie drüber gucken muss, wie aktuell bei Chetjipiti, dann wird es auch irgendwann schwer zu sagen, naja, das ist ja ein reiner Wortautomat. Also das finde ich eigentlich auch das Schöne an der Debatte, dass man da auch einfach dann empirisch in den nächsten Jahren so ein bisschen gucken kann, wie sich die Fähigkeiten eben weiterentwickeln. Und ich glaube, dass das dann auch wieder eine Rückkopplung darauf haben wird, wie man jetzt philosophisch irgendwie auf die

Mo (57:02.694)

Hm.

Philip (57:17.727)

die Fähigkeiten dieser Modelle schauen wird.

Mo (57:21.03)

Ja, ja total und um noch mal auf das mit dem mit dem mit den bedeutungs Ja mit der mit der bedeutung von von worten in dem fall zurückzukommen ich das finde ich Also diese diese visualisierung finde ich auch ultra cool wenn man sich das so anfängt so vorzustellen es gibt da ich muss das mal raussuchen wir suchen das raus und packen das in die in die show notes es gibt dann video von dem youtube kanal 3 blue 1 brown das ist so ein Weiß nicht ob du ihn kennst aber du

nicht so nicht so nicht so nicht so nicht so nicht so nicht so nicht so nicht so nicht so nicht so nicht so nicht so nicht so nicht so nicht so nicht so nicht so nicht so nicht so nicht so nicht so nicht so nicht so nicht so nicht so nicht so nicht so nicht so nicht so nicht so nicht so nicht so nicht so nicht so nicht so nicht so nicht so nicht so nicht so nicht so nicht so nicht so nicht so nicht so nicht so nicht so nicht so nicht so nicht so nicht so nicht so nicht so nicht so nicht so nicht so nicht so nicht so nicht so nicht so nicht so nicht so nicht so nicht so nicht so nicht so nicht so nicht so nicht so nicht so nicht so nicht so nicht so nicht so nicht so nicht so nicht so nicht so nicht so nicht so nicht so nicht so nicht so nicht so nicht so nicht so nicht so nicht so nicht so nicht so nicht so nicht so nicht so nicht so nicht so nicht so nicht so nicht so nicht so nicht so nicht so nicht so nicht so nicht so nicht so nicht so nicht so nicht so nicht so nicht so nicht so nicht so

Mo (58:19.686)

mehr zusammen als Brücke und Auto. Wir haben ja auch ein intuitives Gespür dafür, wie nah etwas beieinander ist und wie weit weg etwas voneinander ist, anhand der Bedeutung. Ich glaube, diesen Prozess, dieses Zuschreiben eines Tokens, also diese, nennt sich ja auch Tokenisierung, diese Verortung in diesem Vektoraum, das ist dann diese Tokenisierung. Und das wiederum macht doch auch KI. Es gibt dann auch wieder Modelle, die man benutzen kann, um Dinge zu tokenisieren.

Man kann, glaube ich, und das finde ich dann wieder cool. Da geht es auch wieder so ein bisschen zu dem, was am Anfang gesagt, man schließt vielleicht auch die Klammer ein bisschen zu diesem. Jeder kann teilhaben. Dieses Grundtraining, da haben wir schon festgestellt, das können wirklich nur sehr, sehr wenige machen, weil es einfach viel zu teuer ist. Aber es gibt eine Möglichkeit, bestehende schon trainierte Modelle mit seinem eigenen Wissen, mit der eigenen Domäne sozusagen irgendwie zu erweitern. Und das funktioniert tatsächlich genauso, dass man die Daten, die man hat, die irgendwie Informationen enthalten, kann man halt auch in so eine Vektor Datenbank tun, die halt auch so tokenisieren.

Dann kann so ein Large -Language -Model darauf genauso zugreifen und hat dann spezifische, konkrete Informationen zu den Unternehmen, vielleicht auch für ein Open -Source -Projekt oder was auch immer. Das finde ich voll spannend. Da sind schon viele Sachen möglich. Das ist schon echt cool.

Ja, das hat Bock gemacht. Das ist ein spannendes Thema und ich könnte mich da jetzt noch sehr, sehr lange mit dir weiter darüber unterhalten, aber in Anbetracht der Zeit müssen wir so langsam zum Ende der Folge kommen. Haben wir in deinen Augen etwas Wichtiges vergessen? Gibt es was, wo du sagst, das müssen wir auf jeden Fall noch mit besprechen?

Philip (59:58.494)

Ich habe gerade gedacht, vielleicht wäre es cool, nochmal kurz beim Thema Regulierung über den European AI Act zu sprechen. Wir haben da so viel über soziale Normen und so, aber vielleicht wäre es cool für die Leute auch nochmal kurz zu sprechen, was jetzt so ein konkreter Gesetzgebung hier in Europa gerade passiert ist.

Mo (01:00:06.245)

Sehr gerne.

Mo (01:00:16.581)

Ja, lass uns das gerne machen. Was ist der European AI Act? Damit wir alle auf einen gemeinsamen Lennar kommen.

Philip (01:00:24.863)

Genau, also der AI Act ist, das kann man sagen, die weltweit erste umfassende KI -Gesetzgebung. Also ein Gesetz, das jetzt nicht irgendwie diesen oder jeden Teilaspekt, sondern wirklich umfassend zu diesem KI -Space versucht, in so einen gesetzlichen Rahmen zu gießen. Und da ist die EU tatsächlich mit so einer Vorreiterrolle jetzt vorangegangen, auch wenn wir jetzt in technischer Hinsicht natürlich die US unternehmen.

da ganz klar Marktführer sind, so auf regulatorischer Ebene eben hat die EU da jetzt Pionierarbeit geleistet. Und ja, also vielleicht das erstmal so als Background, was das eigentlich ist.

Mo (01:01:06.661)

Und wie glaubst du, dass dieser AI -Act, also ist das auf derselben Stufe wie die, so eine Datenschutzgeschichte, also dass man sagt, okay, das ist jetzt was, da müssen ab jetzt sich Unternehmen dranhalten und ist das schon in Kraft? Das heißt, wenn ich jetzt in Deutschland oder innerhalb der EU irgendwie eine AI -Firma gründen will und da irgendwas irgendwie ein Tool bauen möchte, dann muss ich mich an die Regeln aus diesem AI -Act halten.

Philip (01:01:35.038)

Genau, also den Vergleich mit der DSGVO, den würde ich vielleicht so ein bisschen scheuen, weil ich glaube, wenn man das irgendwie so in einen... Dann kriegen alle gleich Angst. Vielleicht auch zurecht an der einen oder anderen Stelle. Aber genau, also es ist so, dass dieses Gesetz jetzt vom EU -Parlament verabschiedet wurde im März. Und jetzt nicht von heute auf morgen gilt, aber das wird jetzt so stufenweise ausgerollt. Also so bestimmte Vorgaben gelten sofort.

Mo (01:01:44.293)

Ja.

Philip (01:02:04.029)

andere in sechs Monaten, andere in zwölf Monaten, dass die Unternehmen so ein bisschen Zeit haben, sich darauf einzustellen. Und dann ist es aber tatsächlich so, dass alle Unternehmen, die auf dem europäischen Markt KI vertreiben, sich an diese Vorgaben halten müssen. Und es ist also nicht nur jetzt für europäische Unternehmen, sondern auch die großen US -Konzerne, sofern sie auf dem EU -Markt irgendwie

am Start sein wollen, müssen dem irgendwie Rechnung tragen. Und das ist eben das, was man diesen Brussels -Effekt nennt. Das hat man auch in anderen Bereichen gesehen, dass wenn die EU so eine umfassende Gesetzgebung erlässt, zum Beispiel jetzt die DSGVO, dann führt es oft dazu, dass die Unternehmen ihre Produkte oder Dienstleistungen dann entsprechend bauen und das dann aber auch weltweit so vertreiben.

Weil wenn ich jetzt irgendwie ein bestimmtes Software DSGVO -konform einmal gemacht habe, dann bleibt es natürlich so, auch wenn ich das dann nach Indien verkaufe. Da ist eben so ein bisschen die Hoffnung, dass der AI Act in seiner Wirkung auch über den europäischen Binnenmarkt hinausreichen wird.

Mo (01:03:03.141)

Mhm.

Mo (01:03:14.405)

Ja klar.

Mo (01:03:21.221)

Ja, ja, macht ja auch Sinn. Und ich muss sagen, also im Vergleich zu DSG, ich finde den Vergleich insofern ganz spannend, weil es dann auch noch irgendwie unterschiedlich ist, würde ich sagen, weil DSGVO kam ja zu einem Zeitpunkt, wo viele Unternehmen ihre Produkte halt so hatten, Daten so gesammelt haben, wie sie es getan haben und irgendwie auch Geschäftsmodelle drauf aufgebaut haben und so. Und dann kam die DSGVO und hat das so alles so völlig umgewälzt. Also es war ja richtig so ein Oh Gott, Scheiße, was müssen wir jetzt alle hier machen? Und ich habe das Gefühl, dass

Der European AI Act jetzt, ich weiß nicht, ob ich das komisch betont hab, der European AI Act, dass der jetzt zu einem viel, viel früheren Zeitpunkt im Verhältnis kommt, also wo eben diese bestehende Struktur noch gar nicht da ist und sich das eh alles grad findet und jetzt schon wird gesagt, okay, und das sind eure Regeln, da könnt ihr euch schon mal dran halten. Nimmst du das auch so wahr?

Philip (01:04:09.533)

Genau, also das ist auch was, was von den Unternehmen mehrheitlich auch begrüßt wird. Weil die Unternehmen natürlich auch sagen, okay, wir haben jetzt hier so eine neue Technologie, die generative KI, die erstmal alles so ein bisschen durcheinander wirbelt. Und das, was wir uns gerade wünschen, ist eigentlich so ein verbindlicher Rechtsrahmen, der uns auch Planungssicherheit und Investitionssicherheit verschafft, damit wir auch einfach wissen,

Okay, wo geht die Reise hin? Was ist das, was wir machen können? Und wo sind rote Linien? Deswegen finde ich das immer so ein bisschen schwierig, wenn es von manchen politischen Stimmen irgendwie so geframed wurde, als wäre das irgendwie so ein Kampf, wie Innovation versus Bremsen oder so. Also das ist wirklich nicht die Stimmung, die ich jetzt so wahrnehme von Leuten aus Unternehmen. Und...

Der AI -Act wurde ja bis zum Schluss auch sehr kontrovers diskutiert auf EU -Ebene. Und es gab so eine Zeit, so Ende 2023, wo auch gar nicht klar war, ob das wirklich am Ende verabschiedet wird oder ob das Ganze irgendwie nochmal kippt. Und ich glaube, jetzt gerade sind aber alle Beteiligten sehr froh, dass man da irgendwie zu einer Einigung gekommen ist, weil jetzt im Jahr 2024 mit all den Umweltsungen, die auf uns zukommen,

diesen KI -Bereich vollkommen unreguliert zu lassen. Also ich glaube daran hatte letztlich auch niemand ein Interesse und deswegen hat man sich da auch irgendwie zusammengerauft, ist zu einer Einigung gekommen. Ich glaube, am AI Act ist jetzt auch nicht alles unkritisch, also es gibt sicherlich ein, zwei Stellen, die man auch irgendwie kritisieren kann. Aber so unterm Strich ist es, also glaube ich, eine Gesetzgebung, die handwerklich ziemlich gut ist, wo man einen sehr komplexen Bereich

irgendwie auf eine Art und Weise gefasst hat, die so halbwegs zukunftssicher ist. Und ich weiß auch so aus dem US -amerikanischen Policy -Diskurs, die schauen eigentlich so nach Europa rüber und sagen, okay, das ist ein ziemlich solides, solide Leistung erstmal. Und auch die USA, wenn sie irgendwann ihre eigenen Regulierungen in dem Bereich verabschieden werden, werden sich sicherlich da auch von inspirieren lassen.

Mo (01:06:25.956)

Cool, ist auch schön, dass es mal so rum ist. Würdest du sagen, das wäre meine abschließende Frage, dass das Unternehmen oder andere Institutionen, die sich jetzt planen, etwas mit AI zu machen, müssen sich jetzt mit diesem Act auseinandersetzen. Da führt kein Weg dran. So verstehe ich das jetzt. Das ist wie mit der DSGVO. Wer das machen will, muss das kennen. Oder die muss ...

ein Verständnis davon haben und muss das mit einbeziehen, weil das ist ab jetzt oder bald geltende Gesetzgebung.

Philip (01:07:02.94)

Genau, also auseinandersetzen, wie ich sagen, ja, auf jeden Fall. Einfach sich ein Bild zu machen, welche von diesen Mechanismen für mich als Unternehmen irgendwie überhaupt relevant sind. Das macht der AI -Act ja auch relativ gut, dass er nicht sagt, jede KI ist gleich und alle stehen unter den gleichen Vorschriften, sondern dass es halt unterschieden wird. Das gab es ja schon von Anfang an, diesen risikobasierten Ansatz, dass man bei KI -Systemen unterscheidet.

zwischen Anwendungen, die einfach verboten sind, weil man die gar nicht haben will, so wie Social Scoring. Dann gibt es den Hochrisikobereich, also wenn es jetzt darum geht, irgendwie so Recruiting -Lösungen, wo möglicherweise dann irgendwie Biases oder Diskriminierung drinstecken können oder auch alles, was in der kritischen Infrastruktur eingesetzt wird im Bildungsbereich. Da gibt es dann irgendwie krassere Vorschriften als in dem Limited.

Risk -Bereich, wo es dann nur so ein paar Transparenzvorschriften gibt, weil man da dazu sagen muss, zum Beispiel Modelle, mit denen ich visuelle Inhalte oder auch Deepfakes generieren kann, die sind aus ein bisschen kuriosen Gründen des Gesetzgebungsprozesses in dieser Limited -Risk -Kategorie gelandet. Und ich kenne eigentlich niemanden, der das so richtig versteht, warum das da drin ist. Also jetzt gerade eine ganze Diskussion, die wir auch über

irgendwie Manipulation des öffentlichen Diskurses haben. Das wäre, glaube ich, in meinen Augen besser gewesen, das auch unter die Hochrisikosysteme zu fassen. Aber genau, da gibt es eben so viele Bells and Whistles, wo man irgendwie erst mal schauen muss, wie trifft das jetzt auf mich zu. Und auch bei den General Purpose AI, also bei jetzt den den Allzweck KI wie Chachipiti und Co. Auch da gibt es eben so eine stufenweisen Ansatz, dass man sich anschaut.

Mo (01:08:48.643)

Mhm.

Philip (01:09:02.364)

wie groß ist dieses Modell, also gemessen daran, wie viel Rechenleistung da reingeflossen ist und ergo wie leistungsfähig ist es und die wirklich harten Anforderungen gelten nur für Modelle jenseits einer Rechenleistung im Training von 10 hoch 25 Flop, also das ist so ein Maß der Rechenleistung und das ist unglaublich viel, also da gibt es eigentlich gerade nur so zwei, drei Modelle weltweit, die da runterfallen und alle anderen sind eben

Mo (01:09:07.683)

Mhm.

Philip (01:09:31.772)

in dieser Kategorie darunter, wo es hauptsächlich um so Transparenz -Dokumentationspflichten geht. Ein bisschen Urheberrecht ist da noch drin. Das ist also bewusst so gewählt, dass auch kleinere Unternehmen, die jetzt nicht eine Compliance -Abteilung mit 100 Leuten haben, dass die auch realistisch diesen Reporting und Transparenzaufwand irgendwie nachkommen können. Und ich glaube, das ist erstmal auch ein sinnvoller Kompromiss, auch wenn man sich

bei diesen Modellen, also unterhalb dieser 10 -hoch -25er -Schwelle fragen kann. Also die Anforderungen, die sind schon sehr minimal. Man hätte da bestimmte Risiken wie Diskriminierung oder auch Produktion von Desinformation, was das angeht, auch ein bisschen strenger noch reingehen können. Aber im Großen und Ganzen ist das erstmal sinnvoll, dass man nicht alle Modelle gleich behandelt.

Mo (01:10:27.427)

Ja, okay. Ja, gut, das gibt noch mal einen Kundenüberblick. Verlinken wir auch, also die Website zum Joplin AI -Iac, würde ich sagen, verlinken wir auch noch mal in den Show notes, neben natürlich deiner Website, wo man sich dann mit deiner Arbeit noch so ein bisschen weiter auseinandersetzen kann, wenn man das möchte. Und dann würde ich tatsächlich aber sagen, müssen wir so langsam zum Ende kommen der Folge. Ich danke dir sehr, dass du da warst. Ich habe viel gelernt heute. Ich glaube, unsere HörerInnen haben auch ganz viel gelernt und es hat mir viel Spaß gemacht.

Philip (01:10:54.971)

Ja, mir auch. Hat sehr viel Bock gemacht. Und ich hoffe, Leute konnten ein bisschen was mitnehmen und bleiben weiter dran am Thema KI, weil es wird uns absehbar nicht verlassen, das Thema.

Mo (01:11:08.995)

Ich glaube auch, ich glaube der Drops ist gelutscht, da muss man dran bleiben. Ja dann an euch natürlich auch vielen Dank dafür, dass ihr zugehört habt. Falls ihr noch Fragen, Anregungen, Kritik habt, wie immer gerne an tech -untra -rahat -netzpiloten .de oder auf den gängigen Social Media Kanälen und ihr könnt uns unterstützen, indem ihr diesen Podcast folgt oder ihn abonniert, je nachdem wie ihr es nennen wollt und uns eine Bewertung dalasst auf den Plattformen, wo das geht, vornehmlich Spotify und iTunes. Das wäre sehr toll und dann würde ich sagen, verabschieden wir uns, vielen Dank Philipp.

Vielen Dank aller anderen, bis bald!