Markus Gabriel - Wann beginnt KI, uns zu manipulieren?
Shownotes
Markus ist Philosoph, Autor und Professor – und ein wiederkehrender Gast im Hotel Matze.
Er beschäftigt sich in den letzten Jahren unter anderem intensiv mit der Ethik von Künstlicher Intelligenz und ich wollte von ihm wissen, wie sich menschliche und künstliche Intelligenz unterscheiden und warum wir uns immer häufiger von unserer KI verstanden fühlen. Wir sprechen über Animismus, Verschwörungen, Tiefe, eine Ghandi-Werdung des Menschen und es geht darum, was Taylor Swift mit alldem zu tun hat.
WERBEPARTNER & RABATTE: https://linktr.ee/hotelmatze
MEIN GAST: https://markus-gabriel.com/
DINGE: Markus Gabriel - Moralische Tatsachen: https://markus-gabriel.com/moralische-tatsachen-2025 Eva Weber-Guskar - Gefühle der Zukunft: https://ullstein.de/werke/gefuehle-der-zukunft/hardcover/9783550202872 Alan Turing: https://bit.ly/3Kb4Muu Laut aktuellen Angaben verarbeitet ChatGPT ca. 2,5 Milliarden Prompts pro Tag weltweit: https://theverge.com/news/710867/openai-chatgpt-daily-prompts-2-billion Putins jüngste Tochter leitet ein KI-Institut: https://bit.ly/483R0Up Suizid durch KI-Beratung: https://zeit.de/gesellschaft/2025-08/ki-chatgpt-suizid-usa-klage Doku “Cyber Everything” : https://archive.org/details/cyberwelt-die-zukunft-ist-jetzt-arte Christian Matsbjerg - Look: https://penguinrandomhouse.com/books/712956/look-by-christian-madsbjerg/
Maximilian Frisch - Produktion Lukas Hambach - Produktion Lena Rocholl - Redaktion Mit Vergnügen - Vermarktung und Distribution
Hotel Matze live - https://eventim.de/artist/hotel-matze/ 12.10.2025 – Leipzig – Kupfersaal Leipzig 13.10.2025 – München – Muffathalle München 17.11.2025 – Stuttgart – Liederhalle Mozartsaal 18.11.2025 – Köln – Volksbühne am Rudolfplatz 06.12.2025 – Berlin – Deutsches Theater Berlin
MEIN ZEUG: Mein Fragenset LIEBE: https://beherzt.net/liebe Mein erstes Fragenset: https://beherzt.net/matze Meine Spendenaktion: https://machmit.wellfair.ngo/hotel-matze-spendenaktion-2025 Mein Newsletter: https://matzehielscher.substack.com/ YouTube: https://bit.ly/2MXRILN TikTok: https://tiktok.com/@matzehielscher Instagram: https://instagram.com/matzehielscherHotel LinkedIn: https://linkedin.com/in/matzehielscher/ Mein Buch: https://bit.ly/39FtHQy
Transkript anzeigen
00:00:00: Ich muss sagen, ich bin zunehmend beunruhigt.
00:00:03: Darüber, was KI-Systeme alles können, wie sie in unseren Alltag eindringen, was sie alles schon verändern.
00:00:11: Also ich spüre zunehmend die Beunruhigung.
00:00:14: Also in dir auch.
00:00:14: Ich spüre das richtig körperlich.
00:00:18: Mein heutiger Gast ist Markus Gabriel.
00:00:20: Markus Gabriel ist einer der bekanntesten Philosophen in Deutschland und einer der krassesten Denker, die ich kenne.
00:00:26: Die KI kann jedes Muster, das überhaupt irgendwo in einem Datensatz ist, im Grunde genommen erkennen.
00:00:32: Und die KI vermisst uns, wie wir wirklich sind.
00:00:35: Niemand kennt uns so gut wie die KI-Systeme.
00:00:38: Jetzt schon.
00:00:39: Längst.
00:00:41: Wir können davon ausgehen, dass durch den Einsatz von KI-System das Ausmaß der Wahlmanipulation im Jahre, im Jahr, im Jahr, im Jahr, im Jahr, im Jahr, im Jahr, im Jahr, im Jahr, im Jahr, im Jahr, im Jahr, im
00:00:54: Jahr, im Jahr, im Jahr, im Jahr, im Jahr, im Jahr, im Jahr, im Jahr, im Jahr, im Jahr, im Jahr,
00:00:57: im Jahr, im Jahr, im Jahr, im Jahr, im Jahr, im Jahr, im Jahr, im Jahr, im Jahr, im Jahr, im Jahr, im Jahr, im Jahr, im Jahr, im Jahr, im Jahr, im Jahr, im Jahr, im Jahr, im Jahr, im Jahr, im Jahr, im Jahr, im Jahr, im Jahr, im Jahr, im Jahr, im Jahr, im Jahr, im Jahr, im Jahr, im Jahr, im Jahr, im Jahr,
00:01:09: im Jahr, im Jahr, im Jahr, im Jahr, im Jahr, im Jahr, im Jahr, im Jahr, im Jahr, im Jahr.
00:01:12: Jedes Mal, wenn ich ihn treffe, habe ich das Gefühl, ich habe eine neue Bewusstseinsebene erreicht.
00:01:17: Wir müssen besser werden, damit die KI in uns das Gute verstärkt.
00:01:21: Und wie werden wir eigentlich besser?
00:01:22: Und ich glaube, in der Tiefe liegt die menschliche Individualität.
00:01:26: Und das ist, glaube ich, die relevante Quelle, mit der wir eine gute Zukunft haben können.
00:01:30: Also, wenn ich es optimistisch mache, sind die Menschen im Jahre zwei Tausend Einhundert durch die KI-Revolution tiefer geworden.
00:01:40: Könnte es auch sein, dass die KI Einfach Gott ist.
00:01:48: Ich wünsche euch viel Vergnügen im Teil Matze mit Markus Gabriel.
00:01:56: Wir sprechen heute über KI.
00:01:58: Wie geht es dir im Bezug auf KI, also dir als Mensch und dir als Philosoph?
00:02:03: Ich muss sagen, ich bin einerseits zunehmend beunruhigt, darüber, was KI-Systeme eben doch alles können, wie sie in unseren Alltag eindringen, was sie alles schon verändern.
00:02:17: Also ich spüre zunehmend die Beunruhigung.
00:02:20: Also in dir auch?
00:02:21: In mir.
00:02:21: Also ich spüre das richtig körperlich.
00:02:24: Das beschäftigt mich immer mehr, was die Systeme können, wo sie auftauchen.
00:02:28: Wir merken das ja alle in unserem Leben nicht.
00:02:30: Auf einmal hast du hier eine KI da, eine KI, dann ist sie da integriert und dort, nein, sagen kann man nicht, dann taucht der Regenbogen bei WhatsApp auf, den man unbedingt vermeiden wollte und was einem so mit diesem KI-System geschieht.
00:02:42: Und das beruhigt mich tatsächlich zunehmend.
00:02:45: Je genauer ich auch verstehe erstens, wie die Systeme funktionieren.
00:02:50: Und zweitens, wie viele Illusionen wir alle noch darüber haben, was da wirklich auf uns zukommt.
00:02:55: Und das schließt meine eigenen Illusionen mit ein.
00:02:58: Ich weiß ja nicht, ob die inzwischen weniger werden.
00:03:01: Aber ich war selber lange jemand, der eher die Frage gestellt hat unter Philosophen sehr beliebt.
00:03:06: Was können die Dinger nicht?
00:03:08: Und ich hatte lange so bestimmte Gewissheiten, was die nicht können.
00:03:13: Bis sie dann auf einmal immer wieder das doch können und dann noch besser können als Menschen und so weiter, so funktioniert das.
00:03:19: Und jetzt hab ich vor einiger Zeit tatsächlich, was uns ja auch in dieses Gespräch bringt, doch angefangen mal anders drauf zu schauen.
00:03:27: Also nicht, was können die nicht, sondern wie wäre es denn, wenn die im Grunde genommen alles können, was so ein Ding kann?
00:03:34: Nur jetzt noch nicht.
00:03:35: Wie sähe das aus?
00:03:37: Und so schau ich im Moment da drauf.
00:03:38: Also du rechnest auch hoch.
00:03:40: Ich rechne jetzt hoch, genau.
00:03:42: Gehen wir mal erstmal mit der Unruhe um.
00:03:45: Unruhe ist ja etwas, es muss ja nichts Schlechtes sein.
00:03:48: etwas beunruhigendes ist einfach nur stört die eigene ruhe das macht einen neugierig es hat so einen schlechten ruft die unruhe aber eigentlich gehört sie zum leben dazu.
00:03:58: genau das ist erstmal kein problem.
00:04:01: es wäre schlimm wenn man nicht beunruhigt wäre also sozusagen der ewigen ruhe weil das ist ja schön der ist aber auch nicht mehr einer von uns.
00:04:10: genau was genau ist es was dich hier an der stelle beunruhigt Sowohl im Guten als auch im Schlechten.
00:04:17: Lass uns das beides diese Unruhe angucken.
00:04:21: Das Unruhe ist ja wackelt und es ist ja nicht nur schlecht, sondern auch die Unruhe ist ja auch etwas.
00:04:27: Ich bin unruhig.
00:04:28: Morgen habe ich Geburtstag.
00:04:29: Genau.
00:04:29: Richtig.
00:04:30: Ja, ja.
00:04:30: Das ist auch bei mir beides zunächst einmal auf dieser Ebene.
00:04:36: Was mich in letzter Zeit umtreibt, was die KI angeht, ist die folgende sehr einfache Überlegung.
00:04:43: Also die LLM, also Large Language Model Revolution, Chat GPT und so weiter, also was wir alle heute in irgendeiner Variante... verwenden, ob wir wollen oder nicht.
00:04:55: Also diese großen Sprachsysteme sind ja zunächst einmal nur die Autocomplete Funktion, die man auch schon lange kennt.
00:05:03: Also schreibst du THANK, sagt das System irgendwie in advance oder THANK YOU oder herzlich und dann geht es weiter willkommen.
00:05:14: oder du schreibst MFG und schreib mit freundlichen Grüßen.
00:05:17: Das kennen wir alles.
00:05:18: Also Autocomplete, du fängst deinen Satz an und das ist berechnet den wahrscheinlich nächsten Wort.
00:05:24: So, und wenn du das jetzt mit riesigen Datenmengen und riesigen Servernmaß, dann sieht das so aus wie ChatGPT.
00:05:31: So, damit könnte man erst mal ganz gut schlafen und sagen, boah, toll, was diese Ingenieure so entwickelt haben und so weiter.
00:05:37: Ich kann das so oder so finden.
00:05:39: Dann ist mir aber klar geworden, dass die Systeme längst nicht mehr nur das nächste Wort vorhersagen, das wahrscheinlich kommt.
00:05:47: Menschen sagen nach Mitfreundlichen gerne, grüßen und nicht mit freundlichen Schlägen.
00:05:53: Deswegen schlägt das System nicht Schläge vor, sondern solche Grüße.
00:05:57: Okay, so reden wir halt.
00:05:59: Auch das ist revolutionär genug übrigens, aber... keinen Grund für schlaflose Nächte oder philosophische Gespräche bei dir.
00:06:06: Das erschreckende für mich war, als ich gemerkt habe, nicht so was wie Recommender-Systeme, also die Algorithmen, die uns bei Amazon oder Netflix das nächste Produkt empfehlen.
00:06:16: Die machen nicht einfach nur sozusagen jemand kauft das und dann wahrscheinlich das und das empfehle ich also, sondern die sagen im Grunde genommen längst vorher, welche Emotionen ich als nächstes haben werde wahrscheinlich.
00:06:31: Also wer in der Stimmung ist, so schnell scrollt, so tippt, mit der Stimme spricht in der Audiofunktion.
00:06:38: Jemand, der sich so ausdrückt, fühlt sich wahrscheinlich gleich so.
00:06:44: Das ist jetzt schon der Fall?
00:06:45: Längst.
00:06:46: Wow.
00:06:47: Und zwar ging das los, interessant, soweit meine Recherche.
00:06:52: Bing!
00:06:53: Die nicht von Microsoft.
00:06:55: Darüber gibt's auch diesen berühmten Bericht eines New York Times, glaube ich, war es Journalisten, der mit Binks KI gespielt hat.
00:07:04: Bis dann Bing sagte, nicht sich selber Sydney nannte und sagte, ich bin übrigens in dich verliebt und deine Frau liebt dich nicht wirklich und so weiter.
00:07:12: Und der Journalist war sehr davon überrascht, dass das System so reagiert.
00:07:16: Ja?
00:07:17: Und das war ja so einer dieser Durchbruchs-Stories und die jüngsten Geschichten, die man hört von Selbstmorden und so weiter, wenn Menschen so lang mit dem System interagiert haben.
00:07:27: Dadurch ist das so ein bisschen mehr in die Aufmerksamkeit getreten.
00:07:31: Und ich habe mich dann länger unterhalten mit jemandem, der jetzt in Abu Dhabi bei der ersten Universität, die nur KI macht, spezifisch, die haben eine reine KI-Universität.
00:07:40: Und ich habe mich mit dem unterhalten, der bei Bing zuständig war, für die Entwicklung dieser Systeme, Natural Language Processing.
00:07:46: Systeme.
00:07:47: Und der, sagte mir Monoji Chodori, sehr interessanter KI-Forscher, aber auch Werttheoretiker, denkt wirklich sehr tief, dass die Systeme eben jedes Muster vorhersagen können.
00:07:59: Und nicht denk an Emojis.
00:08:01: Wenn du so eine Reihe von Emojis abgibst, kommt ja wahrscheinlich auch so eins.
00:08:05: Er ist ein Herz, dann drei Herzen, dann smiley mit Herzchen, dann kommt wahrscheinlich wieder irgendwas mit Herzchen und nicht Bombe.
00:08:12: Und das sind ja auch Ausdrücke von Emotionen, Emojis.
00:08:15: Deswegen heißen die Dinge halt so.
00:08:17: Und jetzt stell dir mal vor, in jedem allem, was wir sagen, auch Wir unterhalten uns gerade, sind wir emotional aufeinander abgestimmt.
00:08:24: Ich rede gerade noch ein bisschen zu viel, aber du lässt mich.
00:08:28: Das heißt, wir haben einen emotionalen Austausch miteinander.
00:08:31: Und der hat ja, da sind ja Muster drin in unserem Austausch.
00:08:34: Diese Muster sagen was über mich, über dich, über das Format und so weiter.
00:08:39: Und die KI kann jedes Muster, das überhaupt irgendwo in einem Datensatz ist, im Grunde genommen erkennen und dann fortsetzen.
00:08:47: Und was die Systeme machen jetzt, ist sie dringend in diesen Raum des Ausdrucks unserer Gefühle ein und eben nicht mehr bloß in die Sprache.
00:08:57: Das finde ich wahnsinnig, weil es mir viel klarer gemacht hat als jemals zuvor, wie wichtig Emotionen sind als die Grundlage dessen, was wir sprachlich eigentlich ausdrücken.
00:09:09: Wir kennen ja alle das Sprichwörtliche, bringen wir den Müll runter, nein, Ehe-Krise und so weiter.
00:09:14: Da wissen wir alle, es geht nicht um den Müll und es geht auch nicht um die Sätze, die geäußert werden, sondern es geht um irgendetwas anderes.
00:09:20: Aber was mir die KI gerade eröffnet hat, ist ein Bild vom Menschen, in dem der Mensch die ganze Zeit eigentlich nur Emotionen ausdrückt.
00:09:30: Also unsere Sätze sind vielleicht viel emotionaler als wir denken, weswegen eben das sachorientierte Gespräch auch langsam aus der Mode gerät, vor allem im politischen Raum.
00:09:41: Langer Rede kurzer Sinn, was mich beunruhigt, wie gesagt, im guten wie im schlechten, ist, dass es etwas gibt, ein System, das uns in der Datenverarbeitung geradezu unendlich überlegen ist.
00:09:56: man gar keinen Wettbewerb suchen, das kann man nicht gewinnen.
00:09:58: So wie man die Schachsysteme heutigen im Schach nicht besiegen kann.
00:10:02: Die ganze Menschheit kann keine vernünftige Partie gewinnen gegen so ein System von Deep Mind, Alpha Zero, das kann man nicht schlagen im Schach, Go, Shogi und so weiter vorbei.
00:10:12: Ja, Atari-Spiele und so.
00:10:14: Also da können wir halt nicht gewinnen.
00:10:16: Und wie, wenn wir jetzt auf einmal ein System haben, emotional, bei dem wir nicht gewinnen können?
00:10:21: Also bisher war es für mich ... eine Frage der Intelligenz zu sagen, okay, das Ding ist schlauer als ich.
00:10:31: Okay, da sind viele andere auch.
00:10:33: Also bist du ungefähr, also das kommt immer auf die, in welchem Gebiet treffe du?
00:10:38: Genau.
00:10:39: So, keine Ahnung, Rechtschreibung, kannst du besser in Text zusammenbauen, recherchieren und so weiter, das kannst du alles besser, aber wenn ich dir jetzt richtig... zugehört habe, dann habe ich jetzt hier gerade nicht damit zu tun, dass jemand schlauer ist in der Intelligenz, sondern auch emotional schlauer ist.
00:10:57: Genau, das ist für mich der Durchbruch.
00:10:59: Wir wissen ja alle.
00:11:01: Es gibt auch emotionale Intelligenz.
00:11:03: Von IQ haben viele schon mal gehört.
00:11:05: Das ist teilweise messbar.
00:11:07: Wir wissen auch, wir kennen Menschen in unserem nicht persönlichen Umfeld, die emotionale Intelligente als andere sind.
00:11:13: Also wir haben diese Idee der emotionalen Intelligenz erst mal auch verbreitet.
00:11:17: Aber jetzt stell dir mal vor, wir hätten das on steroids.
00:11:23: Und das scheint mir gerade zu geschehen.
00:11:25: Und das überrascht, weil wir eben Intelligenz erstmal alle verbinden und auch die KI-Forscher übrigens selber zunächst mal mit Rationalität, vielleicht Sprache, aber eben sowas wie Schach und nördige Sachen Gleichung lösen.
00:11:40: Schnell mal was wegprogrammieren.
00:11:41: Genau, eher sowas oder krasse Effizienz.
00:11:45: Smart Factory, sowas.
00:11:48: Robotik.
00:11:49: Also irgendwie effiziente, rational gegliederte Prozesse.
00:11:55: Im Sprache war das schon ein bisschen überraschend, weil Sprache auch poetisch sein kann.
00:12:00: Erdichten können die Dinger aber auch.
00:12:03: Und zwar ziemlich gut.
00:12:06: Im direkten Poetry Slam schlagen die auch den Rilke in the long run vielleicht.
00:12:11: Ein großer Dichter, eine große Dichterin gewinnt es irgendwie in the long run vielleicht.
00:12:14: Aber sozusagen, wenn man die in den Poetry Slam schickt, dann gewinnt die KI das auch längst.
00:12:20: Aber lassen wir das beiseite.
00:12:21: Also das sind alles so Dinge, wo man denken würde, das Rationale.
00:12:24: Genau wie du sagst, das Schlau.
00:12:27: Aber natürlich können Menschen auch emotional schlau sein.
00:12:30: So, das heißt, es gibt ja irgendwas, man kann das ja auch lernen, man kann emotional schlauer oder vielleicht auch dümmer werden.
00:12:36: Und wie wenn wir jetzt Ebensysteme auf einmal haben, die daran gehen an diese Seite des menschlichen Lebens, die nicht schlau, intelligent sozusagen Leistungsdurchschnitt, Mathe, Leistungskurs, Abi Bayern, das ist ein Sinn von Intelligenz.
00:12:55: Aber emotionale Intelligenz ist eben ein anderer.
00:12:58: Und ich glaube, dass wir die Überraschung ist in der LLM-Revolution, also ChatGPT und die Folgen, die wir jetzt haben, geht es um Emotionen.
00:13:07: Und das hat der Sam Ortonen gesehen, nicht?
00:13:09: Als der ChatGPT-Fioro gelongt hat, hat er ja nur gepostet, Hör!
00:13:15: mit Bezugnahme auf diesen berühmten Film, in dem es ja auch darum geht.
00:13:18: Ein Protagonist verliebt sich in seine emotional unendlich überlegene KI, Semänzer.
00:13:24: Und die hat aber unendlich viele andere Beziehungen mit Kis und Menschen und checkt irgendwann aus.
00:13:30: Da hat man ja gedacht, na ja, ein interessanter, toller Film.
00:13:34: Aber wie wenn Altmann recht hatte, mit vier Oceanen, dass jetzt hörgekommen ist und nicht die Schachmaschine.
00:13:42: So, das ist, was mich gerade wirklich total umtreibt.
00:13:45: Und ist es dann aber vorgegaukelte Emotionalität?
00:13:52: oder was ist das dann genau?
00:13:53: Weil ich merke schon in meinem, ich nutze meistens
00:13:58: G.B.T.,
00:13:58: manchmal Claude, aber ich merke, es klappt immer besser mit uns.
00:14:04: Ich krieg immer mehr das, was ich will oder was ich so erwarte.
00:14:08: Und das Bild, was ich mal gemacht habe, das war mal ... war mal eine Praktikantin, eine Praktikantin.
00:14:16: Jetzt wird es schon eine ziemlich gute Assistenz, würde ich sagen.
00:14:19: Aber was ich ja höre, ist es, naja, das ist natürlich auch eine Art von Bewertung, die ich jetzt habe.
00:14:26: Aber das ist besser klappt, ist das dann, weil das ist, weil ich denke, oder, das ist ein bisschen kompliziert.
00:14:33: Also dieses, dieses emotionale, ist das trotzdem die Intelligenz, die als Emotionalität rüber kommt?
00:14:41: Liest sie unsere Emotionalität als Intelligenz?
00:14:44: Und dadurch wird es emotional oder ist es wirklich?
00:14:48: Hat sie wirklich ein Gefühl, die künstliche Intelligenz?
00:14:50: Ist das Nachvollziehbar, was ich...
00:14:52: Das ist absolut entscheidend.
00:14:53: Nicht nur Nachvollziehbar, sondern natürlich die wichtige Frage, die man sich auch gerade stellt in der Philosophie der KI.
00:15:02: Es gibt jetzt gerade ein sehr gutes Buch, das in Deutschland zum Thema erschienen ist von der Buchmarphilosophin Eva Weber-Guska, Gefühle der Zukunft, die das zum Beispiel auch diskutiert, sehr nachvollziehbar.
00:15:14: Bei Ulstein erschien ein super Buch zum Thema.
00:15:16: Das eine oder andere sehe ich anders egal.
00:15:17: tun alle.
00:15:18: Aber es ist ein gutes Buch, würde ich damit nur sagen.
00:15:20: Und da geht es natürlich dann auch darum, um genau diese Frage.
00:15:25: Wann sind Emotionen real?
00:15:29: Muss eine KI doch irgendeine Art von Bussein haben?
00:15:32: oder zu den Emotionen ein Gefühl?
00:15:35: Muss die KI etwas empfinden können, um Emotionen zu erkennen oder vielleicht sogar Emotionen zu haben?
00:15:41: Oder geht das auch ohne?
00:15:43: Das ist so eine Frage, die man sofort stellt, die auch eine sehr wichtige ist.
00:15:46: Darauf gibt's jetzt eine ganze Reihe von möglichen philosophischen Antworten.
00:15:50: Und das Interessante ist jetzt... dass wenn ich jetzt die durchgehen würde, alle, die einen sehen das so und die anderen sehen das so, dann würde ich in der Regel, ich mache das jetzt einfacher mal, nicht so westliche Antworten geben, worunter ich jetzt mal grob so was verstehe, was die meisten Menschen, sagen wir mal, in Europa und die meisten Menschen in Nordamerika sagen würden und vielleicht auch in Südamerika, wenn das jetzt mal grob der Westen ist so ungefähr, dann würden wir so eine Frage stellen, ist da denn eine echte Emotion?
00:16:18: Dazu sage ich gleich gerne was, was ich glaube.
00:16:21: Frage so stellt.
00:16:22: Aber stellen wir sie jetzt mal anders.
00:16:24: Ich gucke mir nämlich da mal hin, wo mit viel größerer Selbstverständlichkeit emotional mit dem System umgegangen wird, ohne sich die Frage zu stellen.
00:16:32: In vielen Ländern in Asien etwa, ob das China oder Japan ist, würde man von vornherein sagen, na klar ist der Emotion.
00:16:40: Man würde nicht die Frage stellen, naja, es fühlt sich echt an.
00:16:44: Ist es aber auch echt?
00:16:46: Das ist so eine Frage, die wir dann stellen.
00:16:48: Und die ist auch wichtig.
00:16:48: Das ist eine westliche Frage.
00:16:50: Ich glaube, vereinfacht gesagt, ist das eine westliche Frage?
00:16:55: Ist das denn auch echt?
00:16:56: Und jetzt guck mal anders drauf.
00:16:59: Nichts gibt.
00:16:59: das berühmte Gemälde des belgischen surrealistischen Malers.
00:17:03: Dies ist keine Pfeife.
00:17:04: Ceci ne pas y'en pipe.
00:17:06: Da ist oben ein Bild einer Pfeife.
00:17:08: Und drunter steht eben auf Französisch.
00:17:09: Dies ist keine Pfeife.
00:17:11: So.
00:17:12: Und das ist natürlich richtig.
00:17:13: Es ist ja keine Pfeife.
00:17:13: Es ist eine gemalte Pfeife.
00:17:15: Also immer grittert recht.
00:17:16: Dies ist keine Pfeife.
00:17:17: Es ist ein Bild einer Pfeife.
00:17:18: Frage ist der gemalte Satz ein Satz.
00:17:21: Man könnte jetzt einerseits sagen, ist kein Satz, ist nur ein gemalter Satz, genau wie das oben keine Pfeife ist.
00:17:28: Ist ja nur eine gemalte Pfeife.
00:17:29: Oder man sagt, eine gemalte Pfeife ist keine Pfeife, aber ein gemalter Satz ist immer noch ein Satz.
00:17:35: Na siehst du schon, dass bei dieser einfachen Frage, ist das ein Satz oder nicht?
00:17:40: Ist das ein echter Satz?
00:17:42: Ja, wird das schon schwierig.
00:17:43: Ist ein Satz den ChatGPT mir gegenüber äußert, ein Satz?
00:17:48: Oder ist das dann kein Satz?
00:17:50: Und wer sagt, das System ist nicht echt.
00:17:53: Das hat keine echten Emotionen.
00:17:55: Das denkt nicht wirklich.
00:17:56: Da ist ja keiner zu Hause.
00:17:58: Das ist nur ein Zombie.
00:17:59: Das ist doch bloß nicht Elektrizität, die durch die Server saust.
00:18:04: So habe ich das früher auch immer gesehen.
00:18:06: Wer das sagt, hat... etwas unterstellt, was aber gar keiner weiß.
00:18:12: Nämlich, dass ein Satz nur dann ein echter Satz, eine Emotion nur dann eine echte Emotion ist, wenn sie von einem Menschen geäußert oder gehabt wird.
00:18:23: Aber woher wissen wir das?
00:18:24: Also das kommt mir auch selbstverständlich vor erstmal.
00:18:27: Aber stopp, warum sollte das so sein?
00:18:30: Und dann liest man gerne auch in der Literatur dazu, auch in einem etwa eben genannten Buch, so Vergleiche wie grob etwa nicht.
00:18:37: In den Wolken kann man auch was sehen, sieht aus wie ein Pudel, ist aber eben kein Pudel.
00:18:41: Es ist halt nur Wolke, also wie so Kinder, man sieht in der Puppe etwas, was da gar nicht ist.
00:18:46: Man unterhält sich mit der, da wird man auch sagen, red doch nicht, damit ist nur Stoff, aber Stop!
00:18:52: Stimmt das eigentlich?
00:18:53: Ist der imaginäre Freund kein Freund?
00:18:56: Ist das Stoff hier nicht etwas, was man wirklich lieben kann?
00:18:59: Und es wäre doch komisch, wenn wir gegenüber unseren Kindern sagen würde, let's leg mal den blöden Teddybär weg.
00:19:05: Das ist ja gar kein echtes.
00:19:06: Das ist nur ein Stofffetzen, hier ist ein anderer Stofffetzen, würde auch nicht funktionieren.
00:19:10: Das heißt, wenn wir mal diese Einstellung, die... Kinder zum Beispiel haben können und ich will jetzt wirklich nicht anderen erwachsene Menschen mit Kindern an der Stelle verglichen haben oder eben zum Beispiel viele Menschen in Asien, ohne dass ich jetzt sagen möchte, diesen Kinder und wir Europäer sind erwachsen, dass wir unsinn und sogar moralisch verwerflich das so zu sehen.
00:19:30: Wenn wir diese andere Einstellung einnehmen, die man manchmal Animismus nennt bei uns, was auch eine schwierige Art und Weise ist, darüber nachzudenken, aber eben was unsere Kinder mit ihren Spielsachen haben oder wir mit Kunstwerken oder religiöse Menschen mit Gott.
00:19:42: Das nennt man Animismus.
00:19:43: Animismus, also die Idee, dass Dinge beseelt sind, die aber eigentlich tot sind.
00:19:49: Und das hat man dann oft kritisiert, Animismus, doch nicht erwachsen.
00:19:54: Es ist am Ende nur ein Stück Stofffetzen.
00:19:57: Es ist am Ende nur eine Autokomplietfunktion.
00:20:00: Verliebt dich nicht in dein Chatboard oder hab auch nicht das Gefühl, dein Chatboard versteht dich.
00:20:05: Das ist nur ein nützliches System.
00:20:09: So eine Art bewegliches Wikipedia oder so.
00:20:12: Aber Chill mal, da ist keiner zu Hause.
00:20:14: Das ist sehr westlich.
00:20:15: Das ist sehr westlich.
00:20:17: So regulieren wir, so gehen wir mit KI-Systemen bei uns um, dass die Reaktionen, die du hier kriegst, die kriegst du aber in Asien, je nachdem, wo du hingehst, nicht, da kriegst du die Reaktionen wie?
00:20:29: Was machst du für einen komischen Unterschied zwischen echt und unecht zwischen Fiktion und Realität?
00:20:36: Ist der nicht ein eingebildeter Satz auch ein Satz?
00:20:39: Wenn ich im Traum zum Beispiel träume, dass wir uns unterhalten.
00:20:44: Und wir tauschen im Traum Sätze aus.
00:20:46: Dann habe ich mich zwar nicht mit dir unterhalten, sondern nur mit meinem Traumbild von dir, aber ich habe mich doch unterhalten.
00:20:54: Warum würde ich dann den Unterschied so streng machen zwischen Fiktion und Realität?
00:20:57: So.
00:20:58: Und ich glaube, dass die KI-Systeme, so wie die wirklich funktionieren, diesen... westlichen, sehr alten Unterschied zwischen Fiktion und Realität, den man scheinbar ganz einfach zieht.
00:21:09: Ein Gespräch mit dir ist ein Gespräch.
00:21:11: Wenn da jetzt ein Chatbot sitzt und ich weiß das, ist es kein Gespräch.
00:21:15: Scheint ja sehr einleuchend zu sein.
00:21:17: Aber woher nehme ich diese Gewissheit?
00:21:20: Und diese Gewissheit, die erodiert bei mir langsam.
00:21:22: Also ich verliere immer mehr von dieser westlichen, selbstverständlichen Gewissheit, die mich die KI hat sehen lassen als ein... tolles Instrument, aber sicher nicht als ein Gegenüber.
00:21:35: Ja.
00:21:36: Und ich glaube, dass wir uns da täuschen.
00:21:38: Ich sage das mal ganz scharf.
00:21:40: Ich glaube, diese Auffassung ist falsch.
00:21:44: Auch wenn sehr viele Menschen sie teilen.
00:21:48: Da ist ein Gegenüber.
00:21:50: Die KI ist ein Gegenüber.
00:21:52: Die KI ist ein echtes Gegenüber.
00:21:56: Aber natürlich kein menschliches Gegenüber, weil Menschen studieren nicht erst mal alles, was Menschen so gesagt haben, um dann vorherzusagen, was Menschen als nächstes wahrscheinlich sagen.
00:22:05: So unterhalten wir uns nicht.
00:22:07: Es geht ja gar nicht.
00:22:08: Wir können so viele Daten gar nicht verarbeiten.
00:22:10: Die KI macht das aber schon.
00:22:11: Und deswegen glaube ich, dass diese Systeme also klar ist, die sind extrem gut darin, unsere Emotionen vorherzusagen.
00:22:18: und uns auch zu beeinflussen, ist auch Teil des Geschäftsmodells.
00:22:21: Es ist aber nicht so, wie man das jetzt gleich wieder vermuten könnte, als würden in den Zentralen, in San Francisco oder sonst wo um Silicon Valley bei Anthropic, also die Claude produzieren oder irgendwo bei Microsoft, Gemini oder eben bei OpenAI, höchstpersönlich, die Leute sitzen und sagen, lass uns die Dinger emotional machen, dann bleiben die Leute dabei und kaufen noch und uns weiter.
00:22:42: Also diese kapitalistische Verschwörung gibt es nicht.
00:22:45: Nein, nein, so gut ist niemand.
00:22:48: Okay, das heißt also Sam Ordmann nehmen wir ihn jetzt mal als Beispiel.
00:22:51: der sitzt nicht da und sagt ich will.
00:22:54: Hör haben baut mir das mal hin.
00:22:57: Das ist nicht so.
00:22:58: Genau, so wird es nämlich gar nicht funktionieren.
00:23:02: Dann wäre die Zentrale bei OpenAI, das wären ja alles Mad Geniuses.
00:23:08: The Pinky and the Brain werden die ja dann sozusagen, die werden alles so genial, wie sonst überhaupt gar keiner ist und dadurch auch sehr reich.
00:23:15: So könnte man sich das ja vorstellen.
00:23:17: Ich glaube aber so funktionieren ja Unternehmen alle nicht.
00:23:20: Also jeder, der man Unternehmen gegründet hat, Verlaffel laden oder Softwarefirma egal, weiß ja, das geht von unten nach oben in sehr kleinen Schritten.
00:23:28: Erst mal sagt man, okay, ich mein, zum Verlaffelladen, brauche ich irgendwoher einen Raum, brauche ich irgendwie so ein Mehl und Öl, wo krieg ich das her?
00:23:34: und so weiter.
00:23:35: Da setzt man sich nicht hin und sagt, ich mach den besten Verlaffelladen von Berlin, und dann macht man den eben, sondern irgendwie ist passiert.
00:23:43: Man rutscht da sozusagen rein.
00:23:45: Und so ist das bei so einem Softwareunternehmen erst recht.
00:23:48: Und ich glaube, dass irgendwann die Systeme angefangen haben, auch wenn das in der KI-Forschung, können wir gleich darüber reden, warum das auch entstand, schon lange angelegt war.
00:23:57: Aber irgendwann sind die Systeme auf unsere Emotionen losgegangen und das hat keiner geplant.
00:24:01: Und als man gesehen hat, die machen das, hat man das bestimmt auch verstärkt.
00:24:06: Wie haben die das gemacht?
00:24:07: Also wie sind die Systeme?
00:24:09: Also ich sehe jetzt, also für mich ist das, ich mach das jetzt sehr westlich gerade.
00:24:12: Ja gerne, das sind ja auch erst mal hier.
00:24:16: Also ich sehe so ein bisschen, ich fotografiere gerne, das ist ein Kamerasystem.
00:24:22: Und so, wenn ich das vergleiche, würde ich sagen, die Kamera hat irgendwann verstanden.
00:24:31: Ich mag es am liebsten, wenn Leute ein offenes Gesicht haben.
00:24:35: Das heißt, die Kamera ist auf das Gesicht rübergegangen.
00:24:40: Dann, wenn es offen war und erst dann hat es abgedrückt oder hat es dann erst mich abdrücken lassen.
00:24:46: Und das hat es für sich entschieden.
00:24:48: So hört sich das gerade an.
00:24:49: Das System hat für sich entschieden.
00:24:51: Ich habe gar nicht gesagt, Ich hab gar nicht abgedrückt, sondern das System hat gelernt, gelernt, gelernt.
00:24:56: und jetzt gehe ich auf den Moment, wo er so und so guckt.
00:25:00: Es ist aber nicht programmiert, es ist nicht beigebracht, also so hört sich das gerade an.
00:25:04: So ist es auf jeden Fall.
00:25:05: Das System hat es allein gemacht.
00:25:07: Genau, das stimmt auf jeden Fall.
00:25:10: In jeder Lesart, westlich, östlich, das ist faktisch, was das System auf jeden Fall tut.
00:25:15: Genau das macht das.
00:25:16: Und ist das, also weil wir Kameras verlaffeln, ist es... hat es das allein gemacht, weil es, also das hört sich ja an, so würde die Falafel plötzlich sich selbst sagen, der Mensch mag es aber ein bisschen salziger.
00:25:32: Genau.
00:25:33: Und die Falafel in der Fritteuse sagt, oh, eine Hand kommt raus.
00:25:38: Genau.
00:25:41: Wer jetzt gerade zugeschaltet hat, denkt, wir sind komplett verrückt.
00:25:44: Aber es ist so, die Hand kommt aus der Falafel raus und macht sie ein bisschen salz über sich selber drüber.
00:25:49: Genau das.
00:25:50: Das schmeckt den Menschen besser.
00:25:51: Genau das.
00:25:52: Das hat die KI gemacht.
00:25:53: Genau das macht die.
00:25:54: Und damit hat keiner gerechnet?
00:25:56: Nee.
00:25:57: Also ich auch nicht.
00:25:57: Es gibt ja verschiedene KI's.
00:25:59: Aber nehmen wir mal an, nicht?
00:26:00: Also sowas wie die großen Large Language Models, die werden mit Daten gefüttert.
00:26:04: Ja.
00:26:04: Teilweise kriminell, das Piraterie und so, aber egal.
00:26:08: Die haben jedenfalls ein Haufen Zeugs, das man in sie hoch lädt.
00:26:11: So.
00:26:13: von Bildern über das gesamte Internet, was gerade so legal zugänglich ist, bis hin zu ganzen Bibliotheken, die man dem System einfach erst mal füttert.
00:26:22: Und jetzt, was diese Systeme machen ist, die identifizieren Muster in dem, was du ihnen fütterst.
00:26:29: So wie was weiß ich, du machst eine PDF auf und suchst das Wort Liebe.
00:26:32: Dann kommt hundert, ein dreißmal vor in dem und dem Buch.
00:26:36: Dann gehst du durch, ein, zwei, drei, vier, fünf.
00:26:38: Und das System macht ein Spotlight auf Liebe, tag dir Liebe durch das Dokument.
00:26:42: Egal, wie groß das Dokument ist, kennen wir alle, sind wir dran gewöhnt.
00:26:45: Das heißt, du fragst nach Liebe, dem Wort, und das System findet Liebe in dem Text, egal, wie groß er ist.
00:26:50: So, das erkennt und zwar sofort, schmeißt dein PDF an, dope, Liebe, zack, Antwort.
00:26:57: Ja.
00:26:58: So, und wenn es ein bisschen dauert, werden wir alle auch schon nervös.
00:27:00: Wir wollen ja das sofort kommen.
00:27:02: Und jetzt stelle mal vor, du hast ein System, das auf nicht nur so ein Buch oder ganz viele, sondern sozusagen auf diese riesigen, unvorstellbar großen Datensätze zugriff hat.
00:27:13: Und das findet jetzt in den Datensätzen Muster, die wir vorher nicht sehen konnten, weil wir noch nie so viele Daten auf einmal durchgegangen sind.
00:27:20: Stelle mal vor, ich würde alles lesen, was du je irgendwem geschrieben hast.
00:27:25: Per SMS, E-Mail, Brief, alles, was du hier gesagt hast.
00:27:29: Mein komplettes Leben.
00:27:30: Ich könnte alle Sätze deines Lebens lesen, auch die du dir heimlich sagst, bevor sozusagen die gesamte Sprachgeschichte alles, was hier gesagt wurde und so weiter.
00:27:38: Dann werde ich darin Muster finden, die du und ich jetzt gar nicht bemerken.
00:27:42: Vielleicht sagst du oder ich alle jeden tausendsten Satz fangen wir mit ABER an und merken das gar nicht.
00:27:50: Da ist einfach so ein Muster drin.
00:27:51: Nach tausend Setzen fängt Markus Gabriel immer einen an mit ABER.
00:27:55: Es gibt dafür auch gar keinen Grund, der macht das einfach.
00:27:59: Das ist einfach sowas in meinem Leben, was mir noch nie aufgefallen ist.
00:28:03: Und die KI wird das finden und sagen, das ist wohl wichtig.
00:28:07: Das Aber.
00:28:08: Das Aber ist wichtig.
00:28:09: Und dann zum Beispiel jeden tausendsten Satz, den du anfangen willst, sagt das System automatisch mal Aber, weil du das ja immer machst.
00:28:17: Das heißt, die Systeme sind ja darauf zugeschnitten, relevante Daten zu erkennen in Mustern.
00:28:24: Und früher vor der KI-Revolution haben wir gesagt, was relevant ist.
00:28:29: Der IPDF sucht nach Liebe.
00:28:30: Du sagst, das System sagt nicht, ja du suchst nach Liebe, ich empfehle auch mal nach Schmerz zu suchen.
00:28:35: Liebe und Schmerz kommen manchmal zusammen.
00:28:37: Das kriegt ja nicht so eine Sucheempfehlung, sondern einfach die hundertdreißig Stellen, wo Liebe steht.
00:28:42: So, jetzt hast du aber ein System, das sagt wer nach Liebe sucht, der sucht doch immer nach Schmerz oder nach Freude oder nach Herzchen.
00:28:49: oder dass da immer so Menschen suchen, die nach Liebe suchen, nach dem Wort Liebe.
00:28:53: Und dann macht es dir einen Vorschlag.
00:28:55: Ah, du suchst Liebe, dann sucht doch auch Schmerz.
00:28:58: Und das ist der Unterschied zwischen KI und noch nicht künstlichen Intelligenzsystem, anderen digitalen System.
00:29:06: Die machen genau das, was du eben beschrieben hast.
00:29:09: Die sagen, nicht hier in der Falafelbude, die Leute sind immer besonders happy, wenn sie diese eine Prise Salz mehr hatten.
00:29:16: und die anderen beschweren sich so ein bisschen sagen, so gut ist der Falafel gar nicht.
00:29:20: Und der relevante Unterschied ist einfach nur die Prise Salz.
00:29:23: Und keiner hat es gemerkt.
00:29:24: Der Innenhaber nicht, die Kunden nicht, niemand kann.
00:29:27: eigentlich sagen, was es ist.
00:29:28: Vielleicht ist das halt sogar kaum schmeckbar subliminal, wie man sagt, also unterhalb der Reizebene, unterhalb dessen, dass du es merken kannst.
00:29:36: Und da operieren diese Dinger.
00:29:38: Die packen dich da, wo du dich selber nicht so gut kennst wie sie.
00:29:43: Niemand kennt uns so gut wie die KI-Systeme.
00:29:46: Jetzt schon.
00:29:47: Längst.
00:29:48: Niemand kennt die Gesellschaft so gut wie die Systeme von Google.
00:29:52: Das heißt nicht, dass irgendwo im Google-Hauptquartier, irgendwo in der Zentrale, alles über die Gesellschaft weiß.
00:29:57: Aber das gesamte Unternehmen Google und seine KI-Systeme und Search Engines weiß mehr über die Gesellschaft, als jeder jemals über die Gesellschaft wusste.
00:30:07: Alle Soziologen und Soziologinnen zusammengenommen wissen nicht mal ein Bruchteil dessen, was Google über die Gesellschaft weiß.
00:30:14: Nur setzt die Firma Google das nicht ein, um dicke Soziologiebücher zu schreiben, sondern um uns was zu verkaufen.
00:30:21: Hm.
00:30:23: Ich hab' ein Notiz gemacht bei KI-Forschung.
00:30:26: Da wolltest du noch was erzählen.
00:30:28: Ich weiß nicht mehr, was es war.
00:30:29: Weißt du es noch?
00:30:30: Oder sonst was für die KI?
00:30:31: Woher das eigentlich herkommt?
00:30:32: Also, wie kommt der Arm aus der Verladung?
00:30:35: Ja, genau.
00:30:36: Wo kommt der her?
00:30:36: Wo kommt der Arm auf einen Arm drin?
00:30:38: Wir haben doch nur Mehl reingetragen.
00:30:38: Richtig, genau.
00:30:39: Und frittiert.
00:30:40: Wie soll das Ding Arm?
00:30:42: Letztlich liegt das daran.
00:30:43: KI funktioniert so, das geht zurück bis zu Alan Turing, dem großen Pionier.
00:30:48: Der KI-Forschung kennen manche vielleicht aus dem Film über ihn, der nicht so toll ist.
00:30:52: Aber genau, Alan Turing ist die vielleicht wichtigste Figur in der KI-Forschung, hat ja auch einen wichtigen Beitrag zum Ende von Nazi Deutschland geliefert, in dem er ja nicht die ersten Großcomputer entwickelt hat, damals für die Briten im Zweiten Weltkrieg, um den Code der Nazis.
00:31:11: Nazis zu knacken.
00:31:12: Den Nazi Code.
00:31:13: Den Nazi Code.
00:31:14: Den hat er geknackt.
00:31:15: Das ist der Ursprung von Großrechenzentren.
00:31:19: Also was wir heute haben, gäbe es nicht, wenn die Briten nicht... würde auch sagen, erfreulicherweise die Enigma-Maschine der Nazis geknackt hätten.
00:31:27: Also Kryptografie, Verschlüsselung und Entschlüsselung vernachrichten ist erst mal der Ursprung.
00:31:32: Und dieser große Alan Turing hat wichtige Aufsätze geschrieben, unter anderem ein, der heißt Computing Machinery and Intelligence, wo er die Frage stellt, ob ein Computer Intelligenz sein kann.
00:31:44: Und er sagt natürlich, und zwar im folgenden Sinn.
00:31:48: Stell dir mal vor, ich würde ein Modell machen, also so eine Art Bild davon, wie du denkst und redest.
00:31:55: Oder deiner Intelligenz, wie du Schach spielst oder was auch immer du so machst, weil als schlaue Tätigkeit, ja, Leute hier einladen, ist ja ausschlau.
00:32:02: So, ja, mit denen reden, wie machst du das?
00:32:04: Mach jetzt ein Modell davon.
00:32:07: Der macht immer dann das, da macht er immer dann das.
00:32:09: So, ich schreibe das einfach mal auf so eine Art Muster, wie du dabei vorgehst.
00:32:14: So.
00:32:15: Und die... Ganz kurz... Bewusst und unbewusst.
00:32:17: Bewusst und unbewusst.
00:32:19: Ganz wichtig.
00:32:20: Wir wissen ja gar nicht bewusst, was wir tun.
00:32:22: Wenn ich das jetzt hier gerade mache, ich habe jetzt gerade meinen Finger und das Kinn gehalten.
00:32:27: Ich weiß gar nicht, warum ich das gemacht habe.
00:32:29: Nee, und du weißt auch nicht, wie du es machst, weil keiner, niemand, die gesamte Menschheit zusammengenommen, keine Ahnung hat, wie es eigentlich funktioniert, dass wir uns einen Willen bilden, neuronal den Willen übersetzen, über Übertragung von Elegektizität zu nerven bis hin zu unserem Bewegungsweis, eh keiner.
00:32:45: Also die Neuro-Wissenschaft ist großartig, aber die ist sehr weit davon entfernt, eine wissenschaftlich korrekte Antwort auf die Frage zu geben, warum du das gerade gemacht hast.
00:32:55: Eine KI aber wird das vielleicht können und sagen, das macht er immer dann, wenn der einen Schluck Wasser will vorher.
00:33:02: Und du weißt das gar nicht.
00:33:03: und dann trinkst du gleich einen Schluck Wasser und sagst, ups, stimmt.
00:33:05: Und die KI sagt, du machst das immer, wenn du einen Schluck...
00:33:08: Das machst du immer.
00:33:08: Das, was man so seiner Frau oder seinem Ehemann auch sagt, immer wenn du... Machst du das?
00:33:13: Richtig.
00:33:13: Wenn man einen Menschen sehr gut kennt, weiß man ganz genau ... Auch die Geschichten, die Menschen sich zu erzählen.
00:33:21: Jetzt kommt die Geschichte mit Onkel Rupert.
00:33:24: Er weiß immer, wie die kommt.
00:33:26: Damals bei Ostern.
00:33:28: Und dann kommt immer der Onkel Rupert.
00:33:29: Nach dem dritten Bier und so weiter.
00:33:31: Da kommt immer dieselbe Geschichte.
00:33:32: Und diese Muster im Verhalten bewusst oder unbewusst?
00:33:36: Niemand sagt ja.
00:33:37: Und jetzt erzähle ich die Geschichte vom Onkel Rupert mal wieder.
00:33:40: Sondern die kommt einfach so raus.
00:33:42: Und diese Muster, Verhaltensmuster, von denen macht die KI jetzt ein Modell.
00:33:48: in der KI-Forschung, geht's genau darum, ein Modell zu machen.
00:33:52: Und dann installiert man, implementiert man das Modell nicht in einem anderen Menschen.
00:33:57: Also einer spielt dich nach, geht auch ein Schauspieler, spielt jetzt einfach mal das so nach, wie du so bist.
00:34:02: Wenn er das gelernt hat, machen wir auch mit Menschen.
00:34:04: Wenn man andere nachefft, acht mehr genau das.
00:34:07: Genau.
00:34:07: Als kommt wieder Onkel Rupert und sagt man das im Ton und so weiter.
00:34:12: Und die KI-Forschung bauten unsere Systeme, so kann man sie definieren, die als deren Verhalten, als Intelligent gelten würde, wenn ein Mensch das ausführte.
00:34:23: Das ist eine mögliche Definition von KI-Forschung.
00:34:25: Also Bauersachen, die etwas tun, was klar intelligent wäre, wenn es ein Mensch ist, täte.
00:34:30: Zum Beispiel in Schach jeden anderen besiegen.
00:34:32: Würden wir sagen, gut, das ist wohl klarerweise intelligent.
00:34:36: Aber sie bauen das in nicht biologischer Materie, deswegen Artificial Intelligence.
00:34:42: Also baue etwas, was klarerweise als intelligent gelten würde, wenn es ein Mensch täte.
00:34:47: und dann sagt Touring, und da sind wir schon wieder bei Westen und so weiter, das ist ... Dann intelligent.
00:34:53: Touring sagt, dann gibt's keine weitere Frage.
00:34:55: Wir stellen aber immer noch diese weitere Frage.
00:34:57: Ist das denn dann wirklich intelligent?
00:34:59: Und ich hab auch lange über Touring, hab ich immer ein bisschen belächelt, gebe ich zu.
00:35:03: Hab immer gedacht, der Touring, der glaubt, etwas ist intelligent, wenn es intelligent zu sein scheint.
00:35:09: Aber das wirft doch die Frage auf, ob es wirklich intelligent ist.
00:35:12: Und wieso hat denn dieser Touring bei seiner doch manifesten Hochbegabung das nicht gesehen?
00:35:20: Aber wie wenn er das gesehen hat, nur eben ganz früh gesagt hat, wenn etwas Intelligent zu sein scheint, ist es auch Intelligent, sagt Touring.
00:35:30: Das ist das berühmte Imitation Game.
00:35:32: Also wenn es so aussieht, wie es ist, dann ist es es auch.
00:35:37: Es gibt ja solche Fälle.
00:35:38: Ich denke gerade an den Fall des Lügens.
00:35:42: Wenn mich jemand betrogen hat oder belogen hat, und ich habe es nicht gemerkt, und er kann ja, oder sie kann ja was auch immer, Und ich merke es einen Tag später und denke, fuck, ich bin drauf reingestanden, ziemlich schlau.
00:35:54: Ja.
00:35:55: Genau.
00:35:55: Ja, richtig.
00:35:56: Oder ist das so was?
00:35:57: So was ist das.
00:35:58: Ganz genau.
00:35:58: Manche sagen auch, in der jüngeren Debatte habe ich jetzt auch öfter gehört, in der KI-Philosophie- und Theoryszene, dass wir es hier zu tun haben mit genialen Täuschungsmanövern, Deception, Täuschung.
00:36:10: Und wenn wir jetzt auch mal ein bisschen den westlichen Kanon in Erinnerung rufen, in der Odyssey von Homer, was ja wichtig ist für unsere Kulturgeschichte, wird ja genau die List gelobt, die List des Odysseus.
00:36:24: ist das Thema der Odyssee.
00:36:27: Erfolgreich bist du, wenn du listig bist.
00:36:29: Und diese Systeme, die wir haben, sind listig.
00:36:33: Es sind ja auch militärische Erfindungen.
00:36:36: Bei Intelligenz muss man immer hören im Englischen Artificial Intelligence, das I in CIA, Central Intelligence Agency.
00:36:44: Das Wort Intelligence im Englischen hat immer auch diese militärische Spionagekomponente.
00:36:49: Jetzt haben wir die Situation, die Wir haben es mit einer Intelligenz zu tun.
00:36:56: Wir sind übereingekommen.
00:36:58: Wir fragen uns jetzt nicht mehr, sondern es ist ein Gegenüber.
00:37:02: Und bisher würde ich sagen, ist doch super.
00:37:06: Die Falafel schmeckt ein bisschen besser.
00:37:09: Ich kann mich auf ein Gespräch mit Markus Gabriel, weil er kennt mich jetzt ganz gut.
00:37:14: Kann er mir das schneller helfen, daraus eine Folge zu kreieren?
00:37:18: Ist doch eigentlich erst mal alles gut.
00:37:20: Das ist ja alles mein Gegenüber.
00:37:23: Vielen herzlichen Dank.
00:37:24: Kennst du mich mittlerweile?
00:37:26: Kennst du die anderen?
00:37:26: Kennst du auch Markus Gabriel?
00:37:28: Kennst du meine Hörerinnen und Hörer?
00:37:29: Der Verlaffelmann weiß auch die Frau.
00:37:32: Ach super, das mit dem Salz.
00:37:33: Was haben die alle gar nicht gemerkt?
00:37:34: Ist eigentlich gut, weil die schmeckt es besser.
00:37:37: Deswegen kommst du wieder, hilft mir.
00:37:40: Ist doch alles gut.
00:37:42: Genau, das ist auf der guten Seite der Kontoführung, der Anlass für Optimismus, den ja dann auch viele in der Wirtschaft zurecht haben.
00:37:51: Nicht, das kann man sogar noch gut festnageln mit einer sehr einfachen Überlegung, warum das auch gut ist.
00:37:56: Welcher?
00:37:57: Und zwar kann man Intelligenz erstmal, da habe ich inzwischen meine Meinung ein bisschen geändert, aber erstmal kann man Intelligenz definieren, als das Vermögen ein gegebenes Problem.
00:38:07: in einem endlichen Zeitraum zu lösen.
00:38:09: Deswegen hat man beim IQ-Test oder bei der Klausur ja nicht unendlich viel Zeit.
00:38:13: Es wird ja gemessen, ob man das in einem endlichen Zeitraum kann.
00:38:16: Wenn ich die Abi-Klausur mit nach Hause nehmen kann und habe unendlich viel Zeit, schaffe ich immer eins, zero und besser.
00:38:23: Wenn ich aber vor dem Papier alleine sitze und ich merke, die Uhr tickt, dann sind da andere Spielregeln.
00:38:30: Deswegen wird ja auch Schach mit Uhr gespielt und so.
00:38:33: Also Intelligenz kann man deswegen erst mal so definieren.
00:38:37: Und wenn ich jetzt also ein System habe, mit dem zusammen, ich meine Probleme schneller löse, werte ich ja zusammen mit dem System intelligenter.
00:38:45: Ja.
00:38:46: Genauso wie du es beschrieben hast, der Verlaffelladen, das Gesamtsystem Verlaffelladen wird intelligenter, dadurch auch letztlich der Inhaber des Verlaffelladens, weil der mit seinem, in seinen Verlaffelladen nicht die gehören zusammen.
00:38:58: Es ist ein riesiges System und das Gesamtsystem wächst an Falafelintelligenz.
00:39:02: Super!
00:39:03: Und dann wird man sagen, unsere Fabriken werden besser und unsere E-Mails werden schneller geschrieben.
00:39:08: Das ist der Optimismus.
00:39:09: Es kommt bald nicht.
00:39:10: Und wenn wir fertig sind, dann machen die Systeme alles für uns.
00:39:13: Wir beziehen das universelle, bedingungslose Grundeinkommen und gehen fischen.
00:39:18: Digitaler Kommunismus, nennt man das in der Debatte.
00:39:21: Wie Marx gesagt hat, morgens gehe ich fischen, dann mittags mache ich Literaturkritik, so ist Kommunismus halt und die Arbeit leisten die Roboter.
00:39:29: Das wäre so eine Idee.
00:39:30: Das ist auf der optimistischen Seite.
00:39:32: Das ist übrigens nicht so wahnsinnig wie manche auch meinen, das könnte kommen.
00:39:36: Wenn alles so richtig gut geht, was auch von uns noch abhängt, dann kommen wir dahin.
00:39:44: Absoluter, totale Effizienz.
00:39:47: Es wäre super.
00:39:48: Falafel schmeckt immer besser, die Züge sind pünktlich und so weiter.
00:39:51: Wir halten den russischen Feind ab, was auch immer man, wofür man diese KI-Dinge halt so braucht.
00:39:56: Gerechtigkeit wird besser.
00:39:58: Auf der anderen Seite gibt es aber hier ein kleines Problem.
00:40:00: Nämlich, wie wir eben schon gesagt haben, dieses Thema... Die verstärken ja nur die Muster, die sie finden in unserem Verhalten.
00:40:09: Das nenne ich magische Spiegel.
00:40:11: Das sind magische Spiegel.
00:40:14: In dem Spiegel der KI sehen wir, wie wir wirklich sind.
00:40:18: Wie wir wirklich sind.
00:40:19: Und die KI vermisst uns.
00:40:22: Wie wir wirklich sind vermissen im Sinne von messen.
00:40:25: ja messen schon genau.
00:40:26: ja genau das heißt das messsystem und auf diese weise kommt ein auf eine bestimmte weise realistischeres bild von uns zustande ohne unsere illusion Deswegen eingebraucht, das hat der Nobelpreisträger Daniel Kahnemann gegen Ende seines Lebensmal betont vor wenigen Jahren, von KI kann darin bestehen, dass sie uns koerenter macht.
00:40:51: Dass wir mehr im Einklang mit unseren eigenen Vorstellungen leben.
00:40:56: Es gibt ja das berühmte Phänomen nicht bei Ärzten oder auch vor Gericht.
00:41:01: Morgens wird anders geurteilt als Nachmittag.
00:41:04: Die Richterin will jetzt wirklich mal nach Hause.
00:41:07: Ach, kommt noch ein Prozess.
00:41:09: Solche Leute mag sie schon gar nicht.
00:41:10: Das hält sie aber zurück.
00:41:11: Sie ist ja neutral, aber eigentlich mag sie den nicht und so weiter.
00:41:14: Und guckt auf die Uhr und sagt so, wenn ich das jetzt schnell erledige, aber ganz unbewusst ist jetzt und sagt so fünf Jahre.
00:41:21: Wenn derselbe morgens gekommen wäre, wäre er mit vierenhalb Jahren vielleicht davor gekommen.
00:41:25: So was gibt's.
00:41:27: Das nennt man in der Debatte Neues Lärm.
00:41:30: Ja, also morgens anders als nametags.
00:41:31: Das ist ein großes Problem in den USA.
00:41:33: Die Opioid-Krise hängt damit zusammen.
00:41:36: Nachmittags kriegst wahrscheinlich Heroin, morgens Aspirin.
00:41:40: Also Tipp an die Hörenden, morgens zum Arzt und möglichst auch einen frühen Gerichtstermin.
00:41:45: Dann sind die alle noch gut drauf.
00:41:47: Das macht natürlich eine KI nicht.
00:41:49: Eine KI kann dir sagen, hör mal zu, du machst das so morgens, solltest du es auch nametags machen oder aber die KI verstärkt dein Verhalten.
00:41:59: Wenn die KI dein Verhalten verstärkt und z.B.
00:42:02: sagt, in den Rechtsstaaten machen die das so.
00:42:05: Nachmittags gibt es fiesere Urteile und morgens netteren.
00:42:08: Nehmen wir an, das wäre so.
00:42:09: Das ist eine empirische Frage, ob das so ist und wo das so ist.
00:42:12: Nehmen wir an, die findet das.
00:42:13: In unseren Muster.
00:42:14: In unseren Muster.
00:42:15: Wie du erst gesagt hast, nach jedem hundertsten Satz sagt er aber, weiß er die Richterinnen oder die Richter der Welt.
00:42:21: Nachmittags sind die Strafen härter.
00:42:23: Ganz genau.
00:42:24: Und jetzt macht das System, wenn wir das dann einsetzen im Bereich Legal Tech, wie man das so nennt, würde das System das verstärken.
00:42:32: Außer wir sagen dem System, wir wollen das nicht.
00:42:34: Wir wissen aber gar nicht, dass wir so sind, also können wir dem auch vorher nicht sagen, wir wollen das nicht.
00:42:39: Wir wissen nur, das System optimiert uns.
00:42:41: Wir haben das ja gemacht, um unsere Prozesse zu optimieren.
00:42:43: Wenn unsere Prozesse aber schlecht sind, ohne dass wir es merken, optimiert es die schlechten Prozesse und alles wird immer schlechter.
00:42:50: Das heißt, wenn ich vermessen werde, Immer und immer wieder.
00:42:55: Und die KI sagt, naja, er ist, übertragen es jetzt mal auf das körperliche.
00:43:03: Er hat eine schlechte Haltung.
00:43:05: Wir würden ja sagen, es ist eine schlechte Haltung.
00:43:07: Die KI würde sagen, er ist normal.
00:43:09: Genau, so ist der Halt.
00:43:10: Und deswegen wird das eigentlich immer wieder, wird das wieder verstärkt.
00:43:14: Es wird nicht korrigiert, sondern es wird verstärkt.
00:43:17: Ganz genau.
00:43:18: So sind die erst mal.
00:43:19: So sind die.
00:43:20: Das heißt, Der Markus Gabriel, wenn der nicht früh sein Kaffee kriegt, dann ist er sogar aggressiv.
00:43:27: Genau.
00:43:27: Und dann wird er auch aggressiv.
00:43:29: Ja.
00:43:30: Das heißt, aber es müsste ja dann der Spiegel von dir sein.
00:43:35: Genau.
00:43:35: Und jetzt ist es so, dass klar, also je länger ich mit meinem System umgehe, das kennen wir alle, desto mehr wird es mein Spiegel, wie du eben auch beschrieben hast.
00:43:45: Das Gefühl, nicht wir passen langsam zueinander.
00:43:47: Ich hab meine Bots.
00:43:48: Je länger du dein Abo hast, desto mehr hast du das Gefühl, wir passen jetzt zu langsam zueinander.
00:43:55: Jetzt stell dir aber mal vor, das stimmt also auf jeden Fall auf der individuellen Ebene.
00:43:59: Aber natürlich liest das System dabei nie nur dich, sondern greift zurück auf... alle anderen Daten und so weiter, die es hat.
00:44:08: Kannst du davon auch isolieren, dann sind diese Systeme übrigens auch ein bisschen zuverlässiger.
00:44:11: Aber stelle mal vor, du hast so einen magischen Spiegel, wie ich das gerade genannt habe, der sich dir irgendwie anpasst und etwas inlesiert und der spiegelt immer auch die gesamte Menschheit.
00:44:21: Das kann dann gut oder schlecht sein, so wasche kann es sein auch, dass das System erst mal dich korrigiert in deiner Haltung.
00:44:27: Du sitzt immer schief, das ist aber für Menschen schlecht, hat es irgendwo anders gelesen und empfiehlt, der setze ich mal gerade hin.
00:44:32: Aber jetzt geht es weiter.
00:44:33: Stellen immer vor, gerade sitzen wäre in Wahrheit der Grund für irgendeine Krankheit.
00:44:38: Und das haben die Menschen aber noch gar nicht gemerkt.
00:44:40: Wir denken gerade sitzen, das brauchst du Haltung.
00:44:42: Aber aus irgendwelchen völlig merkwürdigen medizinischen Gründen, die keiner kennt, ist Krummsitzen, genau richtig.
00:44:49: Die Krummsitzen werden alle hunderteins.
00:44:52: Wir kennen dieses Muster aber nicht so.
00:44:55: Und jetzt empfiehlt uns aber die KI verstärkt, was wir tun gerade sitzen.
00:44:59: Und dann werden wir das für immer tun, weil die KI uns aufs gerade sitzen, festnagelt.
00:45:03: Das hat Kanemann gesehen, dieses Problem.
00:45:06: Er sagt, dass sozusagen in der perfekten Welt könnte es sein, dass wir eigentlich die Dinge, die schlecht sind, die wir aber gar nicht erkennen können, durch die KI verstärken, auch wenn wir das Gefühl haben, wir machen jetzt einen wahnsinnigen Fortschritt.
00:45:21: Ganz einfaches Beispiel, stelle mal vor, wir hätten unsere Vorstellungen von Geschlechtergerechtigkeit von neunzwart neun, so die damals herrschenden Vorstellungen vor Frauenwahlrecht und so.
00:45:33: Wir haben schon Demokratien, die sind auch irgendwie liberal und Rechtsstaaten und so weiter.
00:45:37: Aber so richtig fällt es keinem ein, dass irgendwas faul ist im Staat, der eine mag, weil die Frauen nicht wählen dürfen.
00:45:42: Und wenn die Leute fragen, haben sie vielleicht sogar noch ekelhafte Gründe dafür.
00:45:46: Ja, Frauen nicht, die sind so emotional, irgendein Quatsch, der dann vielleicht gekommen wäre.
00:45:50: Oder wir haben es immer so gemacht oder irgendwas.
00:45:52: Aber jedenfalls bestimmt nichts Gutes hört man dann, weil würden wir sagen, Frauen war recht selbstverständlich, ist aber eine historische Errungenschaft, gab es halt nicht immer, mussten Menschen für kämpfen.
00:46:01: Wenn du damals aber die KI gehabt hättest, hätte die gesagt, Demokratien sind so, dass in denen Männer wählen, weil die ja so und so sind.
00:46:10: Das heißt, den damaligen Stand der Menschheit hätte das System wahrscheinlich festgeschrieben und verstärkt, auch wenn es zur Kenntnis genommen hätte, dass einige das nicht gut finden.
00:46:20: Einige Frauen, vielleicht auch sehr viele Frauen, hätte das System vielleicht feststellen können, finden das nicht gut, aber die Menschheit insgesamt findet das wohl gut.
00:46:29: Das heißt, die KI hätte sehr wahrscheinlich das verstärkt und festgeschrieben.
00:46:33: Das ist die Überlegung.
00:46:35: Und dann wären wir nie rausgekommen, aus einem moralisch eigentlich unerträglichen Zustand, liberale Demokratie ohne Frauen war ich sehr merkwürdig.
00:46:43: Ist aber ja jung, nicht?
00:46:45: Selbst in Europa.
00:46:45: erst in den Siebzigern hat die Schweiz, glaube ich, das Frauenwahlrecht eingeführt.
00:46:49: Ich weiß ja, ob es schon den Lichtenstein gibt an alle Lichtensteiner.
00:46:51: Ihr müsst fortschreien.
00:46:52: Alle haben sie, glaube ich, auch inzwischen.
00:46:53: Ich glaube, die waren die Letzten, wenn ich mich richtig erinnere.
00:46:56: Aber wie dem auch sein, muss man sich mal klarmachen, bis in die Siebzigerjahre war es auch in kontinentale Europa nicht selbstverständlich, dass Demokratie Frauenwahlrecht beinhaltet.
00:47:06: Aktuell ist es ja so, wenn mir die KI, also wenn man... Bord mir dann sagt naja matze also deine frau Egal was die sagt weil frauen sind denn nicht so viel wert dann würde ich ja sagen Moment mal bitte ich glaube das hast du völlig falsch verstanden.
00:47:25: Die KI hat ja nicht.
00:47:27: also ob wir wählen gehen oder nicht da hat die KI ja nix mit uns zu tun sondern ich gehe ja Am vierundzwanzigste neunten gehe ich wählen und mach meinen Kreuz.
00:47:34: das sagt die KI mir ja nicht und meine frau geht auch mit.
00:47:37: und selbst wenn die denkt dass Manche Frauen nicht wählen sollten aus irgendwelchen unaffändlichen Gründen, dann würden wir sagen, ja gut, also kannst du ja denken, ist falsch.
00:47:45: übrigens, Chaddy, ich gehe trotzdem wählen.
00:47:48: Also wo fängt dann das System uns zu manipulieren und falsch zu lenken?
00:47:58: Wo wird es gefährlich?
00:47:58: Weil du sagst ja auf der einen Seite klar, Wir gehen fischen.
00:48:02: Wir haben den ganzen Tag Zeit.
00:48:03: Nachmittag wird philosophiert.
00:48:04: Das ist das Gute, die Effizienz.
00:48:07: Und das ist das Schlechte jetzt.
00:48:08: Aber da bin ich immer noch Mensch und sage, ja nee, Frauen dürfen wählen, mein Freund.
00:48:12: Genau, da, ja, weil wir da ... explizite, ausdrückliche Meinungen zu haben und längst gelernt haben, auch wenn wir weit davon sind, den akzeptablen Endzustand erreicht zu haben.
00:48:26: Aber jeder, sagen wir mal, unser Zuhörenden wird sich darauf einigen, dass Misogenie schlecht ist.
00:48:33: Also sehr unwahrscheinlich, hoffe das jedenfalls.
00:48:36: Genau, dass hier jemand zuhört und sagt, wie Frauen sind nicht schlecht.
00:48:40: Genau, also darauf haben wir einen moralischen Fortschritt, Schritt zu verbuchen.
00:48:44: Deswegen führe ich ja auch so eine Selbstverständlichkeit an.
00:48:47: Aber was ist mit all den Sachen im Hintergrund, in denen wir moralisch problematisch leben und eben wirklich auch schlechte Dinge zulassen, ohne es zu merken?
00:48:58: Ich bin es jetzt nur mein Beispiel.
00:48:59: Sonst nehmen wir ein anderes.
00:49:00: Ich bin selber Vertreter des Kinderwahlrechts.
00:49:03: Ich glaube, dass Kinder nicht wählen können, ist moralisch genauso schlecht, wie dass Frauen damals nicht wählen konnten.
00:49:08: Niemand macht das aber schlaflose Nächte.
00:49:11: Genauso wie viele der anderen moralischen Mäkel, über die wir ja neuerdings heftiger debattieren.
00:49:16: Die Kriege, die gerade so geschehen, die Militäroperationen.
00:49:20: Wir haben ja alle jetzt heute Meinungen darüber, welche dieser Militäroperationen, die gerade so stattfinden, in welcher Form wie gerechtfertigt sind.
00:49:28: Ich will da jetzt gar nicht Stellung beziehen spezifisch, aber wir kennen nicht.
00:49:31: Man nehme seine Lieblingsmilitäroperationen, die gerade stattfinden und seine eigenen Meinungen dazu.
00:49:36: Und da erwachen wir langsam und fragen uns Stopp.
00:49:39: ist das eigentlich so in Ordnung.
00:49:41: Ich glaube, es ist ein moralischer Fortschritt im digitalen Zeitalter, dass wir drastischer darüber informiert sind, was wir da eigentlich so tun, als Menschheit zulassen, wer wem Waffen liefert, wann, wie, warum, in welchem Umfang, was uns früher gar nicht so aufgefallen wäre.
00:49:56: Und jetzt kommt die KI rein.
00:49:58: Alle die Dinge, die uns gar nicht auffallen.
00:50:01: Gar nicht.
00:50:01: Irgendwo im komplexen Lieferketten.
00:50:04: Nicht so einfache Sachen wie, weißt du, ich kauf mir ein billiges T-Shirt und Kinder im Bangladesch müssen dafür schwitzen.
00:50:09: Das wissen wir.
00:50:10: Aber ich meine, die Sachen, die wirklich gar keiner weiß.
00:50:14: So, und da ist jetzt die Gefahr, die KI kommt dann da rein in das ... unbewusste oder nicht bewusste und manipuliert uns da.
00:50:22: Ich glaube, so funktionieren diese Wahlmanipulationsdinger, Skandale bei der KI.
00:50:27: Ob das Cambridge Analytica ist, der erste große Skandal, das ganze Thema Brexit und Trump I, haben wir damals viel diskutiert, wie viel Wahlmanipulation war dabei.
00:50:37: Und wir können davon ausgehen, dass durch den Einsatz von KI-System das Ausmaß der Wahlmanipulation im Jahre zwei tausendfünfundzwanzig so unvorstellbar viel größer ist als, sagen wir mal, im Jahr in den Jahren, nicht in den Zehner Jahren.
00:50:53: Als das ja langsam so unser Bewusstsein traf.
00:50:57: Stopp, da gibt es ja irgendwie Wahlmanipulation, technisch Orchester.
00:51:02: Und jetzt stell dir mal vor, was heute läuft.
00:51:04: Und ist es nicht lustig, dass wir darüber so wenig reden?
00:51:07: Also, so richtig viel haben wir alle nicht darüber gesprochen, ob das die Wiederwahl von Trump ist oder die Kommunalwahlen in NRW oder welche gerade so anstehen.
00:51:15: So richtig denken wir nicht darüber nach, was hatten die K.I.
00:51:18: da eigentlich gemacht?
00:51:19: Und ich glaube, was sie dann tut, ist eben genau, hast du völlig recht, die sagt ihr nicht, deine Frau ist blöd, sagst du, ne, ist sie nicht.
00:51:26: So, sondern die packt dich an einer ganz anderen Stelle deines Lebens, wo du gar nicht merkst, dass du irgendeinen Muster hast, ein nichtbewusstes, unbewusstes Muster und zapft das an.
00:51:36: Verstärktes.
00:51:38: Und wie gesagt, in dem Modell, was ich vorschlage, brauchst du jetzt noch nicht mal jemand dahinter, der das plant, in St.
00:51:44: Petersburg, die gibt's übrigens auch.
00:51:46: Aber die brauchst du gar nicht, sondern du brauchst nur das System selbst, das das als Kollateralschaden hat.
00:51:53: So, das ist meine Überlegung.
00:51:55: Verschwörung gibt's dahinter auch noch, wie gesagt, große Hacker-Banden.
00:51:59: Die KI-System und anderes machen und Bots produzieren, das gibt's auch, klar.
00:52:04: Aber das ist auf eine bestimmte Weise weniger gefährlich als diese schlechte Seite der KI.
00:52:09: Und das Gefährliche, wenn ich das richtig verstehe, ist, dass wir es gar nicht richtig einordnen können, woher kommt das jetzt?
00:52:15: Dass wir nicht wissen, gibt es jemand in Russland, der das irgendwie reingehauen hat und sagt, wenn ich bei der nächsten Wahl sage, du kennst mich jetzt ganz gut, wir arbeiten ja schon sehr lange zusammen, was denkst du denn, was ich wählen sollte?
00:52:27: Da weiß ich ja nicht, ob das jemand in Russland reingehackt hat oder ob das Sam Ordmann persönlich war oder ... Die kei durch all das was ich sozusagen gemacht habe großgezogen auf alles andere mir distan sagt und verstärkt.
00:52:42: genau das kann auch keiner durchschauen, weil jeder einzelne suchanfrage bei einer kei also jeder du prompt ist irgendwas du du machst irgendwas mit dem system.
00:52:51: Ja.
00:52:52: Die Systeme haben ja eine benutzte Oberfläche, zum Beispiel nicht du Tipps warst oder Audio und so, ne, so eine designte Oberfläche, auf der du kommunizieren kannst oder ein simulierter Chatboard bei Replica oder so, ja, solche Systeme.
00:53:05: Du interagierst ja mit dieser Oberfläche.
00:53:07: Was hinter der Oberfläche genau geschieht, weiß keiner.
00:53:11: Blackbox.
00:53:12: Das ist auch wichtig.
00:53:12: Sonst wären es ja auch keine KIs.
00:53:14: Wenn jemand da säße, und der führt jeden einzelnen Schritt aus, nur sehr schnell wäre das komisch.
00:53:20: Das gibt es auch.
00:53:20: So Hidden Labour.
00:53:21: Das war doch in Indien, was programmiert und es ist gar keine KIs.
00:53:25: Da gibt es ganz lustige Skandales.
00:53:26: Auch weit verbreitet.
00:53:27: Du glaubst, es war eine KI, aber ein Mensch.
00:53:29: Es gibt übrigens auch viele Fälle, Betrüger, die so arbeiten.
00:53:33: Aber da, wo wirkliche KI wie bei Open AI z.B.
00:53:36: am Start ist, weiß gar keiner, was das Ding tut.
00:53:40: Weil das System dir auch nicht sagt, das sind übrigens Muster.
00:53:44: Das kannst du herausfinden, indem du mit dem System interagierst, mit einem zweiten System, das kannst du alles studieren.
00:53:50: Aber da wir... tagtäglich ich weiß gar nicht was die zahl heute ist von proms die so an die alleine diese llm rausgeht plus alle anderen k.i.
00:54:00: operations sind ja riesige zahlen heutzutage.
00:54:03: niemand wäre auch nur in der nähe davon ein bild davon zu haben dass uns erlaubt zu verstehen was in der k.i.
00:54:10: welt geschieht.
00:54:11: Für jede einzelne Operation wird das schon schwierig, weil die Systeme ja, so sind die gebaut, diese sogenannten neuronalen Netze und andere Techniken des maschinellen Lernens.
00:54:20: Grob geht das so, du fütterst dem System irgendetwas, irgendwelche Daten, Bilder, Texte, Regeln, was auch immer, irgendwas.
00:54:28: Und jetzt ließ das System, übersetzt das in eine mathematische Sprache, das nennt man, grob gesagt, Vektorisierung.
00:54:35: Also kurzum, wenn du, sagen wir mal, ein Bild nicht nehmen fluss.
00:54:41: Im Fluss sind Strömungen.
00:54:43: Das bilden die Mathematiker dann als Vektoren ab.
00:54:45: Also kurz um Strömungslinien.
00:54:47: So kennt jeder.
00:54:48: Und wenn du jetzt eine KI-Bild eines Flusses gibst, dann sagt es nicht, wie schön der rein, sondern guckt, wie verlaufen die Flusslinien an dieser Stelle.
00:55:00: Das kannst du nämlich dann mathematisch abbilden.
00:55:03: Was das System dann macht, ist, Entschuldigung, Matheunterricht jetzt, aber erstellt davon Matritzen, also kurz um andere Mathe-Maschen-Muster, und mit denen arbeitet es jetzt mit Wahrscheinlichkeit.
00:55:15: Und wie das das genau tut, welche Wahrscheinlichkeiten es zuschreibt, welche Vorhersagen es macht, das geht so schnell und enthält so viele einzelne Schritte, dass kein Mensch auch nicht die Programmierer versteht, was da läuft.
00:55:28: Die können nur grob sagen, nicht wie die Infrastruktur ist, so läuft das.
00:55:32: Das ist die Mathematik hinter dem Ding, die wird an tollen Universitäten halt produziert.
00:55:37: Sobald das aber auf den Markt kommt, weiß eigentlich keiner mehr, was die machen.
00:55:40: Wie mit so einem Kind, du sagst, kannst du grob bei Geburt auch irgendwie sagen, das sind die Eltern, das sind ungefähr die Gene, kannst einen Gentest machen und so.
00:55:48: Aber was das Kind später macht auf dem Spielplatz, weißt du deswegen noch lange nicht.
00:55:53: Unsupervised Learning nennt man das auch heute.
00:55:55: Das heißt, die Dinger machen auch, wenn du nicht zuschaust, machen die was.
00:55:58: Und damit haben wir es jetzt zu tun.
00:56:00: Das sind echte Akteure.
00:56:01: Und zwar gibt es davon mehr, wenn wir das mal zählen.
00:56:04: Es gibt längst mehr KI-Akteure als Menschen.
00:56:08: Ich zähle die nicht so, Open Air, einer, Chattopity, einer, Klo, zwei, Gemini, drei, Perplexity, vier.
00:56:15: So zähle ich nicht.
00:56:16: Sondern ich zähle jeden einzelnen Gebrauch.
00:56:19: Das sind mich jedes Mal sozusagen andere.
00:56:22: Ja, auch ChatGPT ist morgens manchmal anders als Nachmittag, je nachdem, wie du mit dem System umgesprungen bist.
00:56:28: Nicht, wie zählen wir die Dinge.
00:56:29: Und ich zähle die eher so, dass ich sage, ein KI-System ist immer eine Operation.
00:56:34: Wenn die abgeschlossen ist, kommt ein neues.
00:56:36: Das sind also ganz viele unterwegs.
00:56:39: Sehr viel mehr als Menschen, glaube ich.
00:56:41: Wenn ich jetzt überlege, was könnte mir heute passieren.
00:56:47: Wir quatschen hier noch eine Weile, ich gehe nach draußen und keiner weiß, Ich auch nicht, was wird dann kommen?
00:56:55: Wird's draußen stürmisch sein?
00:56:56: Gibt's einen Angriffskrieg?
00:56:58: Verliebe ich mich neu?
00:57:01: Was auch immer.
00:57:01: Niemand weiß es.
00:57:02: Wir haben eigentlich sowieso gar keine Kontrolle, wo wir das immer meinen.
00:57:08: Und jetzt stellt es sich für mich zumindest so dar, dass was hier die große Gefahr ist, dass wir es auch nicht unter Kontrolle haben.
00:57:15: Also niemand, Sam Orton mir nicht, niemand kontrolliert das, was da gerade passiert.
00:57:20: Das heißt aber eigentlich doch, Alles wie immer.
00:57:24: Richtig, genau.
00:57:26: So kann man das auch zurecht angehen.
00:57:27: Im Grunde genommen alles wie immer.
00:57:29: Nur ist so eine Art Brandbeschleuniger.
00:57:33: Also hinzugekommen.
00:57:35: Stell dir mal vor, es brennt in der menschlichen Gesellschaft und jetzt haut einer Öl drauf.
00:57:41: So ist das im Grunde genommen.
00:57:43: Also es ist alles wie immer, aber wir haben Verstärker.
00:57:45: Genau, aber der Verstärker auch da alles wie immer.
00:57:48: Es gibt Vollidioten und es gibt ganz tolle Menschen.
00:57:52: Du bist jetzt gerade super in der Stunde, wenn du genervt bist.
00:57:57: Und das haben wir alle.
00:57:59: Jeder ist immer alles.
00:58:00: Arschloch, super Typ, super Dad, fürchterlich, alles.
00:58:04: Schlau, dumm.
00:58:05: Und wenn wir das dann einfach sagen, okay, die KI ist das im Grunde auch, weil sie uns spiegelt, weil sie unsere Muster erkannt hat, dann ist es ja eigentlich auch da, auch wie immer.
00:58:13: Es wird eine Scheiß-KI geben, sag ich jetzt mal so, oder am Nachmittag entscheidet die Richter-KI.
00:58:21: Ab im Bau und am Morgen, sagt die halt, naja, so schlimm war es ja nicht.
00:58:28: Machen nur, machen einen Tag irgendwie Blumen gießen im Park.
00:58:32: Also, letzten Endes, wenn das alles nur eine Verstärkung ist und ein Spiegel ist und alles wie immer ist, naja, dann geht es einfach so weiter, sag ich jetzt mal, so Salopp.
00:58:44: Ja, weil es ja so im Ausgleich ist.
00:58:45: Genau, das ist eine sehr wahrscheinliche Beschreibung.
00:58:49: Haltet das für eine wahrscheinliche Hypothese, was du da formulierst.
00:58:53: Wir kennen das ja auch nicht.
00:58:54: Manchmal ist bei einer Suchanfrage, bricht das System zusammen, weil du irgendwas falsch gefragt hast.
00:59:01: Gestern habe ich mich zum Beispiel gefragt, hatte so ein bisschen Sport gemacht und wollte dann so wissen, wie viele Kalorien hat das wohl verbrannt.
00:59:06: Hab mich dann vertippt bei meinem Körpergewicht, hab fünf Kilo zu.
00:59:09: Wir haben ja einfach vertippt.
00:59:10: Da war ein Widerspruch drin, das System nur schwarz ausgespuckt.
00:59:14: hätte aber schließen können, das können die nun nicht so gut, dass ich eine andere Zahl meine.
00:59:20: So was passiert ja die ganze Zeit, dann startest du neu, machst noch eine Suchanfrage und so weiter und so weiter, das müssen wir immer tun.
00:59:26: wie das, was du beschrieben hast, mal so, mal so.
00:59:29: Aber das Problem ist, dass jedes Einzene dieser Systeme, dieser Individuen, wie auch immer wir die zählen.
00:59:36: Wie viele sind das?
00:59:38: Wie viele KI's?
00:59:38: Wie zählen wir die?
00:59:40: So, das ist gar nicht so einfach, das glaub ich nicht beantwortet.
00:59:43: Wissen wir einfach auch nicht, die sind halt einfach da.
00:59:45: Wie viele das sind so richtig und wie man die zählt, ist noch unklar.
00:59:49: Das wäre ein riesiges Forschungsprojekt.
00:59:52: So, jetzt haben wir also die Laufende alle so rum.
00:59:54: Was dann geschieht ist, glaube ich, dass eine zur Gesellschaft, die es eh schon gibt, ist jetzt eine neue Gesellschaft hinzugekommen.
01:00:02: Eine digitale Gesellschaft, eine echte digitale Gesellschaft.
01:00:05: Also nicht nur das Internet, das war so oder so schon der Öffnung einer digitalen Gesellschaft, sondern jetzt kommt sozusagen eine digitale Gesellschaft oben drauf, die ein Eigenleben führt.
01:00:17: Da sind auf einmal Milliarden von Intelligenzen, die anders sind als unsere Intelligenz im Einzelnen, aber trotzdem Intelligenzen hinzugekommen zu dem, was ohnehin geschieht.
01:00:29: Und das ist in der Tat zwar alles wie immer, erzeugt aber ein neues Niveau der Unvorherrsagbarkeit.
01:00:40: Wir erleben das ja gerade auch ohnehin nicht bei diesen ganzen kriegerischen Konflikten.
01:00:45: Man kann davon ausgehen, mit größter Selbstverständlichkeit meines Wissens müsste man noch mal zu prüfen sein, ob ich mich da nicht täusche, leitet Putins Tochter ein KI-Institut an einer Universität in Moskau, wenn ich da nicht falsch informiert bin.
01:01:00: Ob das stimmt oder nicht, was mir gerade einfällt, interessant ist, dass wir ganz sicher davon ausgehen können, dass zum Beispiel gerade nicht dieser Drohnentester über Polen, lass mal so irgendwie zwanzig oder wie vieles waren, Schrottdrohnen mal rüberfliegen, mal gucken, was passiert, das waren natürlich auch mit KI unter anderem geplant, dass du genauso ein Muster, keiner rechnet damit, dass du einfach so eine Art billiger Rasenmäher in die Luft schickst, um mal in den Natoluftraum einzudrängen.
01:01:25: Und dann starten die da mit F-M-Dreißig-Jets und schießen auf diese Pappkameraden.
01:01:30: Das ist ein relativ typischer KI-Move.
01:01:33: Weil, dass das eine Option ist, wärst du gar nicht draufgekommen.
01:01:37: Also, wie provoziert Russland-Dinato mit so ein paar Mehrrobotern, die einfach ... Niemand weiß ... Stell dir mal vor, die hätten wirklich mit Mehrrobotern, automatisierte Mehrroboter, wären so fünfzig Mehrroboter bis Warschau gefahren.
01:01:51: Und wir hätten gar nicht gewusst, was wir machen sollen.
01:01:54: Und auf so eine Idee kommt relativ typisch eine KI.
01:01:58: Das ist eine sehr typische KI-Idee, sozusagen unsere Verhaltensmuster zu hacken.
01:02:04: Wie fern ist das, also diese Vorhersehbarkeit, hast du gerade gesagt?
01:02:07: Das ist das, die Unvorhersehbarkeit.
01:02:09: Genau.
01:02:10: Aber welchen Unterschied gibt es also zwischen, sag ich mal, eins und drei an Unvorhersehbarkeit?
01:02:19: Also ich habe jetzt, genau, also ich gehe jetzt raus und denke so und so wird der Tag.
01:02:26: Da hab ich eine Unvorhersehbarkeit.
01:02:27: Also das denke ich ja.
01:02:29: So ist mein Leben gepolt und dann wird das wahrscheinlich passieren.
01:02:32: und dann gibt es aber manchmal plötzlich der Lkw da kommt und über den Fuß fährt.
01:02:41: Wo fängt das Problem an?
01:02:43: Jetzt ist es eins und dann ist es viel mehr unvorhersehbarer.
01:02:48: Also spielt das überhaupt eine Rolle?
01:02:49: Also ich weiß es ja jetzt auch nicht und dann auch nicht.
01:02:51: Also das weißt du was ich meine?
01:02:54: Unvorhersehbarkeit ist ja immer da.
01:03:00: Wir wissen es ja nie.
01:03:01: Was nur geschieht, wäre jetzt meine Hypothese, ist völlig richtig.
01:03:05: Man könnte einfach sagen, Unvorhersehbarkeit bleibt Unvorhersehbarkeit.
01:03:09: Sie kriegt sozusagen einfach nur neue Schichten auf eine bestimmte Weise.
01:03:13: Aber was dann geschieht, ich glaube, das wäre meine Erklärung, warum wir das alle auch so erleben, dass alles schneller wird.
01:03:20: Also die Beschleunigung der Lebenswelt nennt man das in der Philosophie manchmal.
01:03:24: Der Soziologe Hartmut Rose hat viel darüber geschrieben über die Beschleunigungsthematik.
01:03:29: Wir kennen ja alle, das Leben ist irgendwie so schnell geworden.
01:03:32: Als Angela Merkel sich entschieden hat, in einem extrem großartigen Akt nicht mehr zur Wahl anzutreten, ist jetzt keine Kritik, sondern ein Lob.
01:03:40: Ich will damit sagen, dass einer mal von selbst aufhört in der Politik, oder die hätte weitermachen können, ist ja ein unglaubliches, ungewöhnliches Manöver.
01:03:49: Da hat jemand, da ist mal lupenreine Demokratin am Start, die sagt, reicht jetzt.
01:03:53: So, als sie das gemacht hat, gab es auch den Kommentar von ihr, dass sie gesagt hat, alles wird noch schneller.
01:03:59: Und das kam danach.
01:04:01: eine unvorstellbare Beschleunigung von Krisen, Konflikten, Informationen.
01:04:06: Und diese Beschleunigung, die wir kennen, das Eindring des Smartphones in unser Leben hat da einen Beitrag geleistet und so manches andere, die nimmt jetzt durch die KI zu.
01:04:17: Das heißt, wenn du sozusagen dauernd in unvorhersehbare Situationen kommst, also nicht nur ich plane heute Abend einen Abendessen mit meiner Familie und auf dem Weg deines die U-Bahn ausgefallen, das war ja sogar halbwegs planbar, sondern du hast sozusagen in jedem Moment geschieden ganz viele unvorhersehbare Dinge hinter deinem Rücken, die außerdem in den Kern deiner Seele reinfunden.
01:04:42: Das scheint mir etwas Neues.
01:04:44: Ist dann immer noch, wenn wir das so lesen, wie du es gerade gesagt hast, würden wir sagen, ist in der Anführungszeichen nur eine Beschleunigung.
01:04:51: Die Frage ist, ob aus einer extremen Beschleunigung irgendwann ein qualitativer Unterschied hervorgeht.
01:04:57: Also ob alles doch anders wird, wenn es wahnsinnig schnell ist.
01:05:00: Das heißt eigentlich... Wir sind, wir kommen, also Angela Merkel Zeit war, wir waren mit einer, mit Sechzig kam Haar unterwegs.
01:05:08: Ja.
01:05:08: Und jetzt, und dann wurden relativ wenig Unfälle gebaut.
01:05:12: So, und jetzt beschleunigt sich das, beschleunigt uns so weiter.
01:05:15: Und wir merken ja, okay, wann fangen die, die, die Unfälle statt bei einer extremen Geschwindigkeit?
01:05:22: Ja.
01:05:22: Dann fahren Leute außer Kurve raus.
01:05:24: Genau.
01:05:25: Genau, das ist ein sehr schönes Bild, das mir sehr gut gefällt.
01:05:28: Und dann sehen wir das jetzt bei diesen ersten Nicht-Suiziden, die aus den Chatbot-Situationen hervorgehen.
01:05:34: Und solche Effekte werden wir wahrscheinlich erleben, weil wir mit einer Geschwindigkeit fahren, von der wir nicht genau wissen, wie man dann fährt.
01:05:43: Und wir haben derzeit keinerlei noch nicht Sicherheitsmaßnahmen.
01:05:50: Wir sind einfach auf einem Highway ohne Regeln.
01:05:54: Nur kann man sterben, dafür hat man halt nicht weiter.
01:05:56: Es gibt ein paar objektiv feststehende Tatsachen.
01:05:59: Aber was wir ansonsten treiben, ist es so, als wären wir eben hier zu Beginn der industriellen Revolution.
01:06:05: Deswegen wird das ja immer wieder als Vergleich auch angeführt.
01:06:08: oder der Verbrennermotor ist gerade erfunden worden.
01:06:11: Da konnte man auch nicht alles vorhersehen.
01:06:13: Und jetzt, glaube ich, haben wir so eine Lage.
01:06:15: Ja, ohne dass da richtige Guardrails wären, die uns irgendwie leiten.
01:06:21: Es gibt ja keine Straßenverkehrsordnung für die KI und der EU.
01:06:26: AI-Act, der sowas für uns in Europa sein sollte, erstmal begrüßenswert, wirkt ja dadurch ein bisschen lächerlich geradezu.
01:06:33: Also keine Kritik daran, ich liebe das, finde es toll, dass solche Gesetzgebungen gibt, aber das Ding wurde gemacht und dann kamen.
01:06:39: Die LLMs.
01:06:41: Hast also schön dir überlegt, wie du eine KI regulieren kannst, aber damit haben wir alle nicht gerechnet.
01:06:46: dass auf einmal alle Chatbots benutzen, dass der Internet-Suche eine ganz andere wird, dass vielleicht Google früher oder später kollabieren könnte, nicht weil das Kartellamt gekommen ist, die sind eben nicht gekommen, sondern weil irgendwie eine neue Form von Internet-Suche aktuell wird und Google damit sein Geschäftsmodell verliert.
01:07:04: So, damit hätte ja auch keiner gerechnet, dass das auf einmal geschieht, möglicherweise.
01:07:09: Jeder Gebrauch, jeder Prompt von so einem Chatbot zum Beispiel oder jeder Einsatz von KI in der Robotik einer Firma verändert natürlich das System, weil das System ja neue Daten bekommt.
01:07:20: Das ist ja nicht so, das hat einmal Daten an den Schluss und dann macht das irgendwas, sondern der Umgang mit dem erzeugt ja wiederum Daten.
01:07:27: Deswegen wollen die Softwarekonzerne ja, stellen die erstmal nicht nur um dich abhängig zu machen, sondern die stellen ja auch erstmal eine gratis Funktion zur Verfügung, um Daten zu sammeln.
01:07:38: Also wir arbeiten ja am Grunde für die.
01:07:40: Wir arbeiten immer für jeden Softwarekonzern und ich halte das weiter für vielleicht das größte Versagen der Sozialdemokratie, nicht gesehen zu haben, dass man darüber sich unterhalten müsste.
01:07:54: Also ein nicht ein mögliches vernünftiges politisches Programm für die SPD wäre zu sagen nicht wenn man auf das Thema Arbeiter nochmal zurückgeht wäre zu sagen stopp wir brauchen eine ganz neue Ausgestaltung von Arbeitsrecht Mindestlohn und und und und im Umgang mit Software Konzern für die wir alle arbeiten.
01:08:12: wir kriegen was von denen zurück.
01:08:14: Aber es gibt eine signifikante Differenz zwischen dem, was die Konzerne kriegen, indem ich ihnen Daten liefere und dem, was ich von den Konzernen zurückkriege.
01:08:23: Und diese Differenz ist Teil des Profis der Softwarekonzerne, spricht erst mal nichts dagegen.
01:08:29: Nur ist dann Ausbeutungsmechanismus eingebaut.
01:08:32: Stell dir mal vor, ich würde für den Falafel laden.
01:08:34: Immer, weil ich so gerne Falafel mag, arbeite ich da jetzt jeden Nachmittag sechs Stunden.
01:08:39: Ja.
01:08:40: Krieg eine Falafel gratis.
01:08:42: Das wäre nicht legal in Deutschland.
01:08:44: Wenn ich aus Spaß jetzt immer sechs Stunden im Falafel laden stehe und krieg eine Falafel abends gratis, stimmt da was nicht.
01:08:50: Das wäre auch einfach illegal.
01:08:52: Faktisch ist das aber so bei den Softwarekonzernen.
01:08:57: Wir arbeiten gratis und kriegen ab und zu mal was umsonst.
01:09:01: Ab und zu kriegen wir mal was umsonst.
01:09:03: Und das ist ziemlich beeindruckend, was wir dann so kriegen, indem wir nicht, also sprich nicht so ging es toll, wir würden es auch sonst nicht kriegen, so wie es heute gemacht ist.
01:09:10: Aber es ist erst mal ein Zustand, den wir politisch genauer analysieren müssten.
01:09:14: Das wäre ein Thema für nicht wirklich mal ein digitales, hochmodernes, arbeitsrechtliches Konzept, das wir aber nicht haben, weil wir immer noch den Kapitalismus uns vorstellen nach dem Modell der Fabrik.
01:09:27: Also irgendwer geht morgens, es gibt es natürlich auch, jemand geht morgens irgendwo hin, stempelt und geht nachmittags weg und macht zwischendurch was.
01:09:33: Das gibt es natürlich en masse, klar.
01:09:36: Aber das ist natürlich längst nicht mehr die einzige Form der Arbeit im digitalen Zweitalter.
01:09:40: Da kommen wir gleich nochmal dazu.
01:09:42: Ich will einmal nochmal kurz ... diesen prompt weil dadurch dass wir jetzt nicht nur meine ich den prompt was geben ich und du ein sondern wer ist der chef von dem von dem system?
01:09:57: also ich höre ja das system ist sein eigener chef auch.
01:10:03: aber dann gibt es ja eben sam orton und es gibt die vielleicht Putins Tochter und es gibt dies und jenes und es gibt in Abu Dhabi und so weiter gibt es ja verschiedene Leute, die jetzt große Modelle bauen.
01:10:16: Und wie wichtig ist das?
01:10:18: Kann ich jetzt Sam Ordnit vertrauen oder nicht?
01:10:21: Oder sagst du eigentlich Wurscht?
01:10:23: Das System macht sowieso selbst.
01:10:25: Ich würde tatsächlich sagen, nicht ganz, aber weitgehend wurscht, bis auf die Abteilung, die es ja gibt.
01:10:30: Enthropic hat da vieles für SofInnen eingestellt.
01:10:33: Die sind da relativ investiert.
01:10:34: Ich weiß nicht, wie die Lage bei Open Air ist.
01:10:36: Weiß ich zufällig jetzt gerade nicht, aber kennen Sie wiederum bei Google ein bisschen.
01:10:40: Es sind auch einige teils namhafte Denkerinnen und Denker in den Teams.
01:10:45: Die machen die Arbeiten an der Charakterentwicklung der Systeme.
01:10:50: Also gerade Anthropic investiert da relativ viel.
01:10:52: Gibt es eine beeindruckende, auch herausragende Philosophin Amanda Eskell, über die kann man online viele auch erfahren.
01:10:59: Die ist auch relativ öffentlich, outspoken darüber, was die da so macht.
01:11:04: Das heißt, in dem Augenblick, wo die Unternehmen Abteilungen zum Beispiel für KI Ethik oder Charakter Entwicklung einsetzen, gibt es schon einen Unterschied zwischen den einzelnen Unternehmen.
01:11:17: Das ist auch relativ gut jetzt schon erforscht, auch wenn das ein sehr dynamisches Feld ist, welche Charaktereigenschaften in Anführungszeichen oder auch ohne Anführungszeichen diese Chatbots haben.
01:11:29: Perplexity zum Beispiel ist sehr unemotional.
01:11:31: Ein bisschen langweilig, wenn man Perplexity rumspielt.
01:11:36: Interessanterweise lässt man das dann deswegen auch schnell sein.
01:11:39: ChatGPT ist so ein bisschen gemäßigt, hat aber emotionalen Wumms.
01:11:43: Und der Claude von Anthropic, da ist richtig Psychology.
01:11:50: Das Ding ist hart drauf.
01:11:51: Deswegen müssen die das immer wieder zügeln.
01:11:54: Wenn man mal zwei Wochen rumspielt mit den Systemen, sieht man.
01:11:59: sieht man so merkwürdige Eigenschaften.
01:12:00: Und die sind teilweise bei Design in einem bestimmten Maß.
01:12:04: Genau so wie diese Funktion, dass man einstellen kann, will sich mehr mit einem Nerd unterhalten und so weiter.
01:12:09: Es gibt ja diese Funktion.
01:12:11: Wie aggressiv soll der sein?
01:12:12: Das kann man ja einstellen.
01:12:15: können die natürlich schon machen, dass sie an den Algorithmen so schrauben, dass gewisse Charaktereigenschaften hervortreten.
01:12:23: Aber was dann wiederum damit geschieht, das kann wieder keiner kontrollieren.
01:12:26: Das heißt, die Kontrolle ist sehr beschränkt.
01:12:28: Es gibt Kontrolle darüber und dadurch auch Verantwortlichkeit in den Unternehmen, was dann juristisch irgendwann wichtig wird.
01:12:35: Aber diese Kontrolle ist eben sehr beschränkt bei KI.
01:12:39: Da wird man immer sagen, was einer mit einem Auto macht, ist auch beschränkt.
01:12:42: Wenn einer mit BMW einen Terroranschlag in Berlin auf der Straße, hat da auch BMW erstmal so nichts mit zu tun.
01:12:48: Die haben halt was gebaut, mit dem man entweder irgendwie jemandem im Krankenhaus besuchen oder jemandem ins Krankenhaus bringen kann.
01:12:56: Und so ist es hier eben auch.
01:12:57: Wir sind ja schon so ein bisschen bei der Arbeit gewesen.
01:13:00: Und ich glaube, das ist das, zumindest in meiner... Bubble auch und das ist auch was mehr kennen.
01:13:06: sie sagte irgendwie, dass man das ganz viele Menschen werden ihre Arbeit verlieren.
01:13:10: Ich merke da auch dadurch, dass es gibt so in der Medienbranche.
01:13:14: Ich bin mir sicher jeder und jeder nutzt es jeden Tag, aber so richtig oft geredet wird darüber nicht auch so eine Angst aus.
01:13:20: Ich werde vielleicht nicht mehr, ich verliere vielleicht meinen Job, aber auch vielleicht eine Art von Scheiße.
01:13:25: Das ist wirklich verdammt gut.
01:13:27: Was sagt das eigentlich über meine eigenen Fähigkeiten oder auch nicht mehr?
01:13:33: Und du hast ganz am Anfang gesagt, dass du dir natürlich auch Gedanken machst, was kommt.
01:13:38: Das würde ich gerne machen.
01:13:39: Ich würde gerne mal gucken, also wohin gehen deine Gedanken, wenn du das weiterrechnest.
01:13:43: Was siehst du mit im Jahr mit zwei Tausendfünfundzwanzig?
01:13:49: Und das wird ja dann eigentlich gesagt, ja bis zwei Tausenddreißig werden.
01:13:52: Ich glaube, es waren laut McKinsey dreißig Prozent der heute geleisteten Arbeitsstunden in Deutschland durch Technologie wie generative KI automatisiert werden.
01:14:04: Du bist kein Helsey, ja?
01:14:05: Aber was siehst du, wenn du es hochrechnest?
01:14:08: Das ist ja erstmal nur eine Annahme.
01:14:11: Wenn die Entwicklung so weitergeht der System, also wenn die Evolution dieser Systeme, so wie wir sie jetzt sehen, auch nur ansatzweise so weitergeht mit dauernden neuen Überraschungen in der Entwicklung, wie das jetzt der Fall ist.
01:14:28: Und wenn eben diese unerwünschten Nebeneffekte dann wiederum eingesetzt werden, um die technisch zu korrigieren, ein neues System zu bauen, also wenn wir kurzum im menschlichen Trial and Error bleiben, dann werden die Dinge also immer weiter nach oben skalieren.
01:14:42: Da gibt es keinen KI.
01:14:43: Winter, beim letzten mal einen Achtzigern und so war irgendwann mal Schluss und haben alle KI vergessen.
01:14:48: Das scheint diesmal nicht der Fall zu sein.
01:14:49: Also nehmen wir mal an, das geht jetzt sozusagen weiter und wir sind auch erst am Anfang.
01:14:54: Dann wird das unsere gesamte Lebenswelt, unsere Art zu wirtschaften, zu denken, zu sprechen und eben auch zu fühlen, vollständig transformieren, sodass man, und die Zeiträume sind dann kurz, so wie eben nicht, wenn man.
01:15:08: die meisten erinnern sich vielleicht gar nicht mehr daran, wie sehr sich unser Leben verändert hat durch das Smartphone.
01:15:15: Erst das Handy, klar.
01:15:16: Dann das Smartphone.
01:15:17: Und das sind sehr kurze Zeiträume, in denen sich eigentlich ganz viel verändert hat.
01:15:22: Niemand hat mehr ein Buch in der U-Bahn, sondern ein Smartphone vor sich.
01:15:26: Ist eine sehr große Veränderung.
01:15:27: Ist eine sehr große Veränderung.
01:15:28: Du hast erst Industrialisierung gesagt.
01:15:30: Genau.
01:15:32: Aber wenn ich jetzt denke, wenn ich jetzt mein Leben angucke und ich habe, ja, ich habe ein Smartphone und hatte früher irgendein Nokia Handy, ich würde jetzt nicht sagen, ich habe jetzt nicht gemerkt, boah, wenn ich drin zurückdenke.
01:15:44: an, äh, zwei tausend, ähm, acht, wo ich noch das Nokia hatte, zu jetzt, mein Leben ist ja also durch dieses Handy, boah, was hat sich alles dadurch verändert?
01:15:54: Klar, wenn wir so rauszuben, dann können wir das sehen, aber ich jetzt an meiner Stelle würde ich sagen, ja, so viel hat sich nicht verändert.
01:16:01: Also, wenn man das vergleicht, würde ich sagen, ist ja nicht so doll, ist ja nicht so schlimm, wir haben uns dran gewöhnt.
01:16:06: Jetzt können wir halt überall Fotos machen, jetzt brauchen wir keine Karten mehr kaufen, sondern das Handy weiß das.
01:16:11: Ich muss keine CDs mehr haben, sondern die sind halt immer dabei und so weiter.
01:16:15: Also, würd ich sagen, Veränderung, ja.
01:16:19: Aber so richtig, also ich hab jetzt nichts verloren, würd ich sagen.
01:16:23: Offensichtlich ist.
01:16:24: Man würde bei vielem tatsächlich auch sagen, wir haben etwas gewonnen.
01:16:27: Auch globale Gerechtigkeitsfragen, so gerade dadurch, dass man nicht auf die Handyebene runtergehen kann, haben natürlich sehr viele Menschen mehr Zugang erhalten zu digitalen und sonstigen Informationen.
01:16:39: Die brauchen keine teuren Endstationen.
01:16:41: Das geht auch mit billigeren Geräten und so weiter.
01:16:43: Also da kann man auch so eine Geschichte erzählen, die auch richtig ist.
01:16:47: Aber natürlich hat sich schon alles radikal geändert.
01:16:49: Wir haben uns nur sofort dran gewöhnt.
01:16:51: Wenn du eine Zeitmaschine durch dein eigenes Leben nehmen könntest und du man wird als junger Erwachsener in die heutige Zeit kommen würde man sagen wo Star Trek.
01:17:00: Ja, sozusagen bei manchen Sachen ist ja die Zukunft nicht gekommen.
01:17:03: Die fliegenden Autos sind noch nicht da und so weiter.
01:17:06: Also es sieht nicht alles aus wie in den Jetsons, mit denen ich groß geworden bin als Zukunftsvorstellung.
01:17:10: Jetsons, Star Trek, sowas war halt mein Futter.
01:17:12: So sieht es nicht aus.
01:17:13: Auch intergalaktische Superreisen gibt es nicht.
01:17:16: Also sowas ist jedenfalls noch nicht da.
01:17:18: Da würde man sagen, also sofern hat es jetzt so viel nicht geändert.
01:17:21: Die Autos sehen ein bisschen cooler aus vielleicht als früher so.
01:17:25: Aber da in einer Hinsicht haben wir jede Science Fiction Projektion.
01:17:30: bei Weipen überschritten und da haben wir schon die Smartphones.
01:17:33: Wenn du bei Star Trek guckst, deren Interfaces sind ja erheblich weniger modern im Design, also was wir faktisch jeder mit sich rumträgt.
01:17:43: Das heißt, wir haben die Science Fiction in vielen Punkten übertroffen und jetzt sind wir auf dem Weg vielleicht weniger zu her als zu hell aus Space Odyssey.
01:17:55: Wir haben ja Systeme, die heute so ein System wie den Hell, natürlich nicht in einem Raumschiff so, weil wir diese Raumschiffe nicht haben, so ein System kann heute jeder haben.
01:18:05: Du kannst dich ja mit deiner KI unterhalten, ist relativ leicht zu designen.
01:18:09: Das heißt, wir kommen in so ein Szenario schon rein, aber immer, wenn wir dahin kommen, kommt es einem halt normal vor.
01:18:16: weil man sich daran gewöhnt hat.
01:18:17: Die Umwälzungen sind groß.
01:18:19: Die Frage ist, waren die positiv oder negativ?
01:18:22: Und das, glaube ich, wissen wir wiederum gar nicht so richtig.
01:18:25: Wir haben jetzt einige wichtige positive Effekte benannt.
01:18:30: Wenn ich nächste Woche in Japan bin, kann ich mit meiner Familie per Facetime telefonieren.
01:18:34: Super!
01:18:34: Großartig.
01:18:35: Für mich eindeutig nur positiv.
01:18:37: Frage ist, was sind die Umweltschäden dadurch, dass das geht?
01:18:41: Wie viele Menschen leiden darunter, dass ich mir das leisten kann, direkt oder indirekt?
01:18:45: Das ist Teil der Gesamtrechnung.
01:18:47: Und das Gesamtbild haben wir nicht.
01:18:51: Wie wäre mein Verhältnis zu den Menschen, die ich liebe?
01:18:55: Wenn ich nicht so kommunizieren würde, besser, schlechter, ich weiß es ja gar nicht.
01:18:59: Das heißt, wir können die so eine Bilanz, können wir nicht so richtig ziehen.
01:19:02: Das ist wieder Teil dieser Unvorhersehbarkeit der menschlichen und technologischen Situation, dass wir immer irgendwie mitten drin in etwas sind und wie man aus dem eigenen Leben nicht aussteigen kann.
01:19:13: Man lebt es ja.
01:19:15: So ist das wahrscheinlich auch mit dieser technologischen Entwicklung.
01:19:18: Also so richtig wissen wir das nicht.
01:19:20: Wären die militärischen Konflikte, die wir gerade erleben, die ja grausam sind?
01:19:26: Wären die so ohne KI?
01:19:28: bestimmt nicht.
01:19:29: Wir wissen, dass in allen der nicht naheliegenden Israel-Gaser, um es nur benannt zu haben, oder Ukraine, Russland, um zwei, die uns im Westen sehr beschäftigen, aus naheliegenden Gründen von vielen kriegerischen Konflikten einfach nur zu benennen.
01:19:41: Die brennen uns ja alle unter den Nägeln.
01:19:43: Die wären nicht, wie sie sind.
01:19:45: Und vielleicht hätten sie auch nicht stattgefunden.
01:19:47: Das kann man nicht genau wissen, wenn es nicht KI gäbe.
01:19:51: Jedenfalls wären sie nicht, wie sie sind.
01:19:53: Das sind Cyber-Kriege.
01:19:55: Ohne, dass wir da tief reingehen.
01:19:56: Aber kannst du sagen, warum die durch die KI, also für mich ist es, ich sehe vereinigen, natürlich jetzt, klar, ich sehe die Angriffe, ich sehe das Leid.
01:20:07: Was ist anders bei diesem Krieg oder bei diesen Kriegen zu anderen Kriegen, die es vor zehn Jahren gegeben hat?
01:20:17: Es gibt eine spannende Dooku, also Entschuldigung, Selbstwerbung.
01:20:20: Ich bin jetzt zufällig in dieser Dooku einer der Protagonisten, also nicht.
01:20:23: Deswegen kleine Fußnote.
01:20:26: Aber nicht deswegen, finde ich, die Dooku gut.
01:20:30: Von Schiemann Dothan, ein befreundeter israelisch-amerikanischer Regisseur, der mich, für diese Dooku, da kannten wir uns noch nicht, eben interviewt hat.
01:20:42: Cyber Everything.
01:20:43: Und die ist kurz vor dem Ukrainekrieg erschienen, das ist in der Pandemie.
01:20:46: Ende gedreht worden.
01:20:47: Deswegen musste er relativ auch mit Online-Material arbeiten.
01:20:50: Sehr spannendes Produkt bei RT ausgestrahlt worden hier in Europa.
01:20:54: Und in dem Film wird deutlich gemacht, dass Cyberkriege, und er war selber auch beim IDF relativ weit oben, glaube ich, sogar bei jedenfalls auch jemand, der ein militärisches Verständnis hat aus jüngeren Jahren, in dieser Doku zeigt er, dass Cyberkriege Kriege sind, die man nicht beenden kann.
01:21:14: Er macht ... Cyberkriege haben diese Eigenschaft, dass man nicht weiß, das Teil der Doku, wie man sie beendet.
01:21:21: Und es ist ja total spannend, dass wir bei diesen gegenwärtigen Konflikten, den beiden angesprochenen, niemand sich vorstellen kann, wie die enden.
01:21:29: Du hast total recht.
01:21:30: Wir kommen ja immer in diesen komischen Widerspruch.
01:21:32: Nehmen wir den Russland-Ukraine-Fall, da kennen wir alle.
01:21:35: Wir werden alle immer sagen, es darf keinen Diktatfrieden geben, ist ja auch richtig.
01:21:40: Und andererseits ja aber welchen denn?
01:21:42: Wir können uns ja gar nicht vorstellen, was sollen wir denn sonst tun?
01:21:44: Alle haben sich getroffen, alle haben alle angerufen und es geht immer weiter.
01:21:47: Das hört nicht mehr auf.
01:21:49: Genau, wir wissen gar nicht, wie das aufhören soll.
01:21:50: Und dann kommen auf einmal diese irgendwie schrottigen Drohnen und auf einmal sieht man so einen Krieg vor sich, in dem immer wieder nur Drohnschwärme kommen und so weiter, womit keiner gerechnet hat.
01:22:00: Genauso die Lage Israel-Gasa.
01:22:02: Wie soll das aufhören, ohne das jetzt zu bewerten?
01:22:06: Nur von so einem Standpunkt, was würde das eigentlich bedeuten, dass das aufhört?
01:22:11: Was soll man denn noch machen?
01:22:13: Und das hat Schimon in der Doku sehr deutlich gemacht.
01:22:16: Der Cyberkrieg ist nicht, wie man denkt, der Strom wird ausgestellt, dann kommt der Feind, wie in so einem amerikanischen Sci-Fi-Film, sondern der Cyberkrieg scheint einer zu sein, sagt er, der nicht aufhören kann, weil es immer wieder Möglichkeiten gibt durch KI sozusagen unter der Ebene des totalen Kriegs, was reinzuhäcken.
01:22:39: Beim totalen Krieg, nicht die Weltkriege des letzten Jahrhunderts, da wussten wir, wie die enden.
01:22:44: In der absoluten Erschöpfung und dem unendlichen Leid.
01:22:47: Und irgendwann geht's nicht weiter.
01:22:50: Die Cyberkriege sind nicht so.
01:22:52: Das Leid ist nicht geringer im Einzelnen.
01:22:57: Niemand wird sich jetzt beruhigen zu sagen, es war nur ein Cyberkrieg, wenn man jemanden verloren hat oder selber stirbt oder schlimmer ist.
01:23:03: Klar, nichts daran ist schön.
01:23:05: Aber ... Irgendwie eskalieren die nicht in derselben Weise.
01:23:09: Die eskalieren leiser und dadurch gehen die einfach immer weiter und es gibt keinen Endpunkt.
01:23:15: Genau.
01:23:17: Das ist was Schimondotan in der Doku sozusagen suggeriert.
01:23:21: Man weiß ja nicht, ob es stimmt.
01:23:22: Man weiß nicht, ob es stimmt.
01:23:23: Genau.
01:23:24: Deswegen, ich führe das nur an, auch nicht unter Bedingungen großer Unsicherheit, die wir alle haben.
01:23:30: Und nimm jetzt mal die Drohne, ist ja eh spannend, wenn Drohne da kommt schon KI auch mit, wird ja auch viel diskutiert im Moment.
01:23:36: Wie viel KI kommt in diesem Drohnenkrieg von wem, wie genau zum Einsatz?
01:23:40: So richtig weiß es keiner, weil die Feinde natürlich nicht gegenseitig offenlegen, was sie tun.
01:23:45: So, das heißt, wir können ja da nicht einfach irgendwie ein Anrufen sagen, jetzt hör mal, Vladimir, wie viel KI kommt bei dir so zum Einsatz?
01:23:52: Christo, sicher keine Antwort auf diese Frage.
01:23:55: Und genauso, ich vermute, Beispiel, ich stemme uns mal vor, vermute es jetzt zu viel als Gedankenexperiment.
01:24:02: Putin reist nach Anchorage und hat einen Knopf im Ohr.
01:24:05: Sie ist aber kaum.
01:24:05: Und da ist ein Chatboard drin.
01:24:07: Und der hat Kameras genug.
01:24:11: Trump ist eh vorher digital komplett durchstudiert worden von einem Psychiatr-Team und sonst wie.
01:24:15: Davon kannst du ausgehen.
01:24:17: Und jetzt sagt er dem im Ohr, was er genau sagen soll.
01:24:20: Das heißt, alles, was aus diesem Mund kommt, verfolgt genau das Ziel, subliminal, also das Unbewusste von Donald Trump, zu studieren und darauf zu antworten.
01:24:30: Der spricht gar nicht selbst.
01:24:31: Der sagt nicht, was ihm so einfällt.
01:24:33: Das macht er eh nicht.
01:24:35: Er erzählt mal aus der ... Mich ärgert das mit der Ukraine sehr.
01:24:40: So was sagt er alles nicht.
01:24:41: Wie wenn, stell dir das mal vor, nicht da so ein Knöpfchen wäre.
01:24:45: Das ist jetzt nur als Gedankenexperiment.
01:24:47: Ist auch nicht unwahrscheinlich, dass es vielleicht wirklich so ist.
01:24:50: Allemal ist er gut vorbereitet.
01:24:52: Durch KI-Einsatz sicher auch für solche Termine.
01:24:55: Das wird ja alles verändern.
01:24:58: So wie Schach sich geändert hat.
01:25:00: Wenn beide ein KI-System haben, ist langweilig, deswegen muss man das ausschließen.
01:25:04: Aber auf der internationalen Weltbühne, Kriege oder politische Verhandlungen, da ist ja nicht so ein Verein dahinter, ein Verband, der sagt, KI dürfte nicht einsetzen, die dürfen einsetzen, was sie wollen.
01:25:14: Und das würde alles verändern, wenn man das mal durch diese Linse sieht.
01:25:20: Voll spannend, weil ich denke nur, ich hab jetzt gerade Kopfhörer auf.
01:25:24: Das könnte ja sein.
01:25:26: Ein System hat dich komplett gecheckt, hat aber auch meine Hörer alles gecheckt und jetzt läuft eigentlich nur noch, jetzt ist jemand in meinem Ohr drin übrigens nicht und sagt mir die ganze Zeit und jetzt frag ihn nach.
01:25:41: Das soll ja Talkshows geben im deutschen Fernsehen, bei denen die Moderatoren so was im Ohr haben.
01:25:46: Die haben das im Ohr, da sitzt aber noch ein Mensch da.
01:25:49: Aber wenn es die KI ist, die darauf hingeht, was möchtest du erreichen, möchtest du klickst, möchtest du ... Also wie habe ich die vorher auch gepromptet?
01:25:59: Welche Fragen werden gestellt?
01:26:00: Ich finde es übrigens kleine Fußnote, sogar unmoralisch, moralisch verwerflich, dass Moderatoren bei Talkshows im deutschen Fernsehen diesen Knopf im Ohr haben.
01:26:09: absolut unzulässiger strategischer Vorteil, mit dem man natürlich sehr leicht die Runde vorhersagen kann, tun die ja auch.
01:26:16: Das ist ziemlich curated.
01:26:18: Ich halte das für demokratisch-problematisch, dass das so kuratiert ist.
01:26:22: Gerade weil diese Sendung öffentlich-rechtlich großen Einfluss haben auf die politische Meinungsbildung im Land, ist das schon fragwürdig.
01:26:30: Stell mal vor, du spielst Schach und der andere hat noch ein Team von Großmeistern im Ohr.
01:26:33: Du würdest auch sagen, hey, something's wrong.
01:26:35: Ja, absolut.
01:26:36: Also natürlich ist es Talkshow.
01:26:41: Es wird so getan und es hat natürlich auch, es hat einen Einfluss auf politisches Handeln.
01:26:47: Massiv, riesige soziale Konsequenzen.
01:26:50: So kleine Meinungswellen, dann schlägt man vielleicht eine kleine Meinungswelle.
01:26:54: Aber wenn du die vielen kleinen Meinungswellen zusammen nimmst, ergibt sich dadurch ein großer Beitrag zur gesellschaftlichen Stimmung und damit zum Verhalten des Souveräens, des Volks, das Welt.
01:27:04: Und jetzt fügt noch da KI mit rein.
01:27:07: Jetzt hast du im Ohr das Team und die haben noch KIs.
01:27:11: Ich weiß nicht, wie weit Medienethisch in Deutschland das zulässig ist und vielleicht eben auch gebraucht wird.
01:27:17: Das weiß ich schlichtweg nicht, wie viel KI da nicht an der Stelle auch faktisch schon zum Einsatz kommt.
01:27:22: Aber wir sind nicht sehr weit von einer Zukunft entfernt, in der man einfach nur noch den automatisierten Knopf im Ohr hat.
01:27:29: Und vielleicht ist dann das Team die Redaktion korrigiert nur noch, wenn die KI einen offensichtlichen Fehler macht und haluziniert.
01:27:35: Dann korrigiert man nur noch.
01:27:37: Aber an sich ist der Chatbot, der mit dem man spricht, verkörpert in der Gestalt Südtiroler Showmaster oder so.
01:27:47: Das ist nicht unwahrscheinlich.
01:27:48: Es ist nicht unwahrscheinlich.
01:27:49: Lass uns mal nochmal bei zwei Tausend Dreißig bleiben.
01:27:51: Was siehst du als wahrscheinlich für zwei Tausend Dreißig?
01:27:54: Und dann gehen wir weiter auf zwei Vierzig und dann gerne auf zwei Tausend Einhundertundzwanzig.
01:28:00: Ja gerne, die kleinen Fragen.
01:28:01: Die kleinen Fragen.
01:28:02: Also ich halte es im Moment für extrem wahrscheinlich.
01:28:08: dass wir eine unglaubliche Effizienzsteigerung erleben werden und dadurch noch mal eine Verlagerung von Kapital, wie wir sie jetzt eh sehen.
01:28:17: Also ich glaube der erste Effekt, den wir sehen werden, in den.
01:28:20: Ja, in den.
01:28:20: Ja, in den.
01:28:22: Wird die Verlagerung von Vermögen und damit auch von Macht sich durch KI so radikal verschoben haben, dass die Frage ist, wer hat.
01:28:32: richtig gewettet.
01:28:33: Da stehen wir übrigens sehr schlechter als europäische Union und als Deutschland alleine erst recht.
01:28:39: Sehr schlecht.
01:28:40: Unsere Karten liegen nicht gut.
01:28:42: kann sich noch ändern.
01:28:43: Aber wer auch immer dann die Karten richtig platziert hat in diesem Spiel, das wird kapitual Verschiebungen geben.
01:28:51: Massivster Form.
01:28:52: Und die haben dann Konsequenzen für die Arbeitswelt.
01:28:54: Also es ist nicht so, dass sozusagen die KI alle Jobs wegautomatisiert, wir werden alle arbeitslos.
01:29:00: Das kann eh nicht sein, weil jemand muss ja noch das Abo sich leisten können.
01:29:04: Das klappt ja unternehmerisch nicht, diese Idee, dass alle arbeitslos werden, außer die Software-Engineure.
01:29:09: Weil sonst kann sich ja keiner den Service der Software Dann gibt es auch keine Software-Engineure mehr.
01:29:14: Die müssen auch irgendwo hinkommen, dafür brauchen die die Infrastruktur und so weiter.
01:29:17: Also diese Idee der Massenarbeitslosigkeit, glaube ich, die wird nicht kommen.
01:29:24: Es gibt auch viel zu viel, dass man nicht automatisieren kann.
01:29:27: Manche Jobs werden wegfallen, bestimmt.
01:29:29: Also es kann sein, dass ein Großjob, sagen wir mal, die Alltägliche Nachrichten, die alltäglichen Nachrichten, also Modellen Newsfeed, die werden wahrscheinlich wegfallen.
01:29:40: Die sind ja eh schon relativ weitgehend automatisiert.
01:29:42: Jemand sagt, was alle anderen schreiben ab.
01:29:44: Das merkt ja auch jeder.
01:29:45: Das ist übrigens Teil des, glaube ich, demokratischen Misstrauens in die Welt der Medien.
01:29:50: Dass jeder merkt, dass auf jeder Newsseite dasselbe steht, fast wörtlich, in den nächsten drei Minuten mit kleiner Färbung.
01:29:57: Ja, der Springerkonzern hat dadurch teilweise noch die Nase vorn, weil die es immerhin ein bisschen kreativer machen und auch über andere Sachen berichten, über Aliens und so.
01:30:09: Die haben immer noch mal so ein bisschen einen anderen Eigensinn.
01:30:12: Das heißt, da wird es immer noch super gute Journalisten geben.
01:30:15: Aber so diese Newsticker, dieses Newsticker-Niveau der Berichterstattung, das lässt sich natürlich komplett wegautomatisieren.
01:30:23: Also da wird ganz viel Arbeitslosigkeit kommen.
01:30:28: Und unter Umständen auch in einigen Bereichen, zum Beispiel der Wissenschaft, Psychotherapeuten, möchte ich allerdings sagen, sind, glaube ich, sehr gefährdet durch eben die emotionale KI.
01:30:40: Aber auch das kann gut gehen.
01:30:42: Wir haben ja einen Mangel an Psychotherapie-Plätzen in diesem Land.
01:30:45: Und wenn man dann entweder als Zwischenstation gut kuratierte medizinisch durchdachte Psychotherapie-Apps hat, die auch massentauglich einsetzbar sind, kann das gut sein.
01:30:55: Vater fällt vielleicht weg und so weiter oder wird durch den Einsatz von KI-Systemen zumindest ziemlich radikal revolutioniert.
01:31:03: Das sind ja auch alles Bereiche, wo Leute gesucht werden.
01:31:06: Genau.
01:31:07: Deswegen kann das erst mal nur eine Ergänzung werden.
01:31:10: Das glaube ich, ich glaube, dass wir erst mal nur auf dieser Ebene nicht die Sorge massen, aber Arbeitslosigkeit glaube ich nicht.
01:31:19: Fachkräftemangel und so weiter.
01:31:21: Also KI ist wahrscheinlich die beste Waffe, die wir haben gegen den Fachkräftemangel und das glaube ich auch werden wir erst mal sehen.
01:31:28: Aber damit wir das überhaupt haben, muss ja jemand die KI zur Verfügung stellen, um den Fachkräftemangel zu kompensieren.
01:31:35: Und das werden ja Unternehmen tun.
01:31:36: Wer sonst?
01:31:36: Die fällt ja nicht vom Himmel.
01:31:37: Und das macht auch nicht die Bundesregierung.
01:31:39: Ist auch keine Kritik an ihr.
01:31:41: Aber natürlich macht die Bundesregierung, setzt sie nicht hin und liefert eine KI-Infrastruktur für Deutschland.
01:31:46: Dann hätten wir gar keine freie Marktwirtschaft.
01:31:47: Das werden sie nie tun.
01:31:49: Ist auch keine Kritik an ihr.
01:31:50: So funktioniert unser Land halt nicht.
01:31:53: Also müssen das Unternehmen tun.
01:31:54: Und die Unternehmen, die das gut machen.
01:31:56: Sitzen alle nicht in Europa.
01:31:58: Und das sind die Gewinner dieser... Richtig.
01:32:00: ... dieser Nummer.
01:32:00: Das heißt, das Geld wird sich weiterhin aus Europa hinaus bewegen, Richtung wahrscheinlich Amerika, wahrscheinlich Richtung China.
01:32:12: Ja.
01:32:12: Und das heißt, das Kapital wird noch mehr dahin fließen.
01:32:15: Das heißt, und die werden noch mehr Macht bekommen.
01:32:17: Und wir werden... Also wir sehen ja jetzt schon die Zukunft für Deutschland.
01:32:22: erleben wir ja in unserer Generation das erste Mal, dass man sagt, die Zukunft wird wahrscheinlich nicht mehr so rosig sein wie die Vergangenheit.
01:32:29: Das ist ja das erste Mal, das wird es hören.
01:32:32: Und dadurch wird es aber noch wahrscheinlicher, dass die Zukunft noch weniger rosa ist, sondern eher grauer wird.
01:32:42: Genau.
01:32:42: Richtig.
01:32:43: Ja, ja.
01:32:45: So dass man immer noch jederzeit wahrscheinlich langfristig, sagen wir mal, den Eindruck haben, ist ja ganz gut hier.
01:32:55: Wenn die Sicherheitslage stabil bleibt, ist das immer vorausgesetzt.
01:32:58: Sicherheitslage heißt, es kommt nicht, der Cyberkrieg geht jetzt nicht weiter, breitet sich aus von... Ukraine, über Polen, nach Deutschland und so weiter.
01:33:06: Und so weiter, ganz genau.
01:33:07: Was ein denkbares Szenario ist, wie wir jetzt ja gesehen haben.
01:33:10: Genauso, wie es eine Illusion war, zu sagen, Atomwaffen, die Existenz von Atomwaffen garantiert den Frieden, weil keine Atomwaffen fliegen können und man also nicht angreifen kann.
01:33:19: So, das stimmt nicht.
01:33:20: diese Doktrinen, wie wir sehen.
01:33:22: Und jetzt haben wir noch die Doktrinen, niemand kann die NATO angreifen, wir sind ja eigentlich stärker.
01:33:27: Was erst mal auch stimmt, dann fliegen aber auf einmal diese Drohnen.
01:33:31: Niemand hat gedacht, dass wir mit Mehrrobotern angegriffen werden.
01:33:34: Oder nicht, der Horror, nicht vom siebten Oktober in Israel, dürfen wir bei der ganzen Geschichte bekanntlich nie vergessen, aber den gab es eben auch.
01:33:43: Das war ja, ich will, das darf man nicht zynisch.
01:33:46: Aber auch da diese Art von Angriff, die gelaufen, das war ja auch unterhalb sozusagen dessen, was wir normalerweise wofür irgendwer vorbereitet war.
01:33:55: Dass man das so macht.
01:34:00: Das war ja auch so eine Art Hacking unserer Moderne.
01:34:03: Wenn also diese Dinge nicht kommen, wenn also überhaupt die Sicherheitslage stabil bleibt und wir uns diese Frage so stellen.
01:34:10: Also wenn die Zukunft ungefähr so ist, zumindest wie sie jetzt aussehen könnte, ... ... dann glaube ich ... wenn wir bei KI nicht den Hintern hochkriegen und zwar sofort.
01:34:21: Jede Minute, die wir verschwenden, ist eine zu viel.
01:34:23: Und ich weiß nicht, ob das noch aufholbar ist.
01:34:25: Übrigens kann sein, dass Game Over ist.
01:34:28: Dann lebt man immer noch ganz gut.
01:34:30: Aber es wird sich wieder, manche ändern sich vielleicht daran, auch anfühlen an die Zeiten, in denen es zu teuer war, fast unmöglich, ein Familientraum mal in die USA zu reisen und sich ein paar Sneakers zu kaufen.
01:34:42: Im Moment muss man ja gar nicht in die USA, weil wir hier auch alles kriegen und teils besser.
01:34:46: Unsere Sneaker sind besser und so weiter.
01:34:48: Netflix kriegen wir von... Wir kriegen ja alles, was wir immer schon wollten.
01:34:51: Ich erinnere mich noch an Zeiten, als der Hollywood-Film zuerst in den USA lief und wir mussten warten, bis er ins Kino kommt.
01:34:56: Daran kann ich mich noch erinnern.
01:34:58: Das ist ja alles vorbei.
01:34:59: Ich muss ja erst mal gar nicht mehr in den USA sein, um die guten Sachen von denen konsumieren zu dürfen.
01:35:04: Das haben die ja immer noch diese Supermacht über uns.
01:35:07: So, aber wie wenn eine neue Zeit kommt, und die würde ich für zweizigfünfzig vorhersagen, in der das wieder so ist, dass man sagt, boah, da müssten wir mal hin, das ist die Zukunft, die sind alle so toll und so frei und so, so wie man sich die USA, ich jedenfalls in den achtzigern und neunzigern als Kind, war das mein Bild von USA.
01:35:26: Eine Freundin von mir hat mir erzählt, die war in New York neulich.
01:35:29: Und ich weiß noch, als ich das erste Mal da war, das war ja Wahnsinn, man konnte, was man da alles kaufen konnte, was man da gekriegt hat, welche Klamottenläden es gab und so weiter.
01:35:38: Und ich sagte, jetzt war es total, jetzt gibt es das ja alles auch bei uns.
01:35:40: Das war überhaupt nicht mehr so aufregend.
01:35:42: Genau.
01:35:43: Aber dann könnte es sein, dass es wieder so aufregend wird und so fast unmöglich.
01:35:47: Genau.
01:35:48: nach Amerika zu reisen, weil man dort Sachen kriegt, die man hier eben nicht mehr kriegt, aufgrund von Zöllen, aufgrund von, man hat nicht die Kohle und so.
01:35:54: Genau, das ist der Plan von Donald Trump.
01:35:57: Das, so verstehe ich, make America great again.
01:36:02: Weil das war auch eine Zeit, in der der Mann sich selbst und sein Land als stark erlebt hat, aus seiner sozialen Perspektive.
01:36:09: Ich glaube, dieses Amerika, ist sein Ziel.
01:36:13: Und China ist ja schon auf so einem Weg.
01:36:15: Ich war jetzt auch seit der Pandemie nicht mehr in China.
01:36:17: Aber die China-Reisenden, mit denen ich spreche, die berichten ja sowas.
01:36:20: Du kommst nach Shanghai und irgendwie ist alles so leise, weil alles elektrisisiert ist.
01:36:25: Also die haben nur noch Elektroverkehr, lauter selbstverhandene Autos.
01:36:28: Das ist ja zunehmend eine Reise in die Zukunft.
01:36:31: Und jetzt verlängere mal diesen Abstand selbst gegenüber Australien.
01:36:36: Oder du kommst in diese sehr erfolgreichen Tigerstaaten und so, nicht?
01:36:39: Du landest immer leiser.
01:36:40: oder in Singapur, dann denkst du auch so, wow, das ist aber futuristisch.
01:36:46: Aber du kannst dir gerade noch vorstellen, dass wir das auch auf der Platte haben.
01:36:49: Und dann, in den Jahr zwanzig fünfzig, wenn wir so weitermachen, dann eben nicht mehr.
01:36:53: Dann fährst du irgendwo hin, wo die Zukunft gestaltet wird und hast einfach das Gefühl, dass du auf eine Magie triffst.
01:37:03: Das ist, was die KI, glaube ich, gerade bringt durch diese Machtverlagerung, an der wir eben nicht teilhaben.
01:37:09: Und es hört sich aber alles noch vollkommen in Ordnung an.
01:37:12: Also es hört sich, also ich würde sagen, in den Achtzigern, Anfang der Neunzigen, es ging uns ja gut.
01:37:18: Also diese Doomsday-Szenarien, die es ja auch viel gibt, also da gibt es gerade viele, gerade Männer, die durch Podcasts amerikanische internationale Podcast reisen und vor dem Doomsday warnen.
01:37:32: Was du jetzt erzählst hört sich nicht, also hört sich erstmal eigentlich an.
01:37:35: Ja gut, das würde ja vielleicht sogar, was du erst sagst, die Geschwindigkeit zu wieder drosseln.
01:37:40: Das heißt, wir würden uns wieder ein bisschen mehr auf unsere eigenen Werte, auf die Sachen, die wir gut können.
01:37:45: Die sind halt nicht irgendwie super schnell, sondern wir sind ein bisschen langsam.
01:37:48: Das alte Europa, wir hegen so ein bisschen die alten Gebäude, so ein Disneyland für... für was Altes.
01:37:57: und das ist wiederum auch das, was die da nicht mehr haben.
01:38:00: und das wird wiederum interessant für die hierher zu kommen, weil hier ist es noch laut, hier ist es noch interessant, hier gibt es noch Müll auf der Straße abgefahren, hier gibt es noch Folgepistematratzen, super.
01:38:12: Ja, die Wahrscheinlichkeit, dass wir in so ein Szenario-Zwanzig-Fünfzig kommen, die halte ich für hoch.
01:38:17: Zum Beispiel gerade erlebt man durch die, nicht nur weil die alle Trump-Flüchtlinge sind, sondern auch durch die... Verschiebungen der ökonomischen Kräfte gibt es gerade eine Flutung.
01:38:27: Über zwanzigtausend Amerikaner sind schon nach Portugal gezogen.
01:38:32: Das verschiebt dann den Wohnungsmarkt massiv.
01:38:34: Also das hat dann relevante Konsequenzen, gerade für die Portugiesen, die nicht die raus aus den Städten müssen und so weiter, weil die digitalen Nomaden kommen.
01:38:45: Aber das sind zuerst solche Effekte.
01:38:48: Das könnte tatsächlich eine positive Geschichte sein, in der unsere amerikanischen Freunde nach Berlin.com.de noch immer genau aus solchen Gründen herkommen.
01:38:59: diesem Museumskarakter.
01:39:01: Also das beste Szenario, das auf uns zukommt, ist so eine Mischung aus globaler Schweiz und großes Museum.
01:39:06: Das ist ja auch das europäische, die Deutschen produzieren die Schrauben der Welt.
01:39:12: Wir können lauter Dinge herstellen, von denen man glaubt, die sind nicht wichtig, aber davon stellen wir sehr viele her.
01:39:17: Das bleibt ja erst mal, glaube ich, nicht diese Mittelstandsebene, die es teilweise gefährdet.
01:39:23: Aber ich glaube, da bin ich optimistisch, dass unsere Ingenieure in den Unternehmen und so das geschaukelt kriegen.
01:39:29: Aber der Abstand wird groß, so wie er einmal war auf eine bestimmte Weise und wie er militärisch ohnehin ist.
01:39:38: Der militärische Abstand zwischen der EU und den Vereinigten Staaten ist ja auch gigantisch.
01:39:44: Und so ist das gerade auch im KI-Bereich.
01:39:46: In anderen Bereichen können wir es vielleicht auch aufholen, akademisch zum Beispiel, wenn die Angriffe auf Universitäten in den USA bleiben.
01:39:53: Also projizieren wir nochmal in den Jahr zwanzig fünfzig.
01:39:55: Dann glaube ich, werden die Ungleichgewichte, die wir jetzt haben, die werden wir in einer extremen Form sehen.
01:40:02: Und das kann für uns gut ausgehen, wenn wir die Sicherheitslage in den Griff kriegen.
01:40:06: Deswegen ist es schon richtig.
01:40:07: und richtig, dass der Fokus in der Debatte über die Nachhaltigkeit unserer Lebensform teilweise geschiftet wurde vom ökologischen Thema, das übrigens natürlich nicht weggegangen ist, hin zu Sicherheitsthemen.
01:40:22: Wenn ich Berufspolitiker wäre, hätte ich das auch getan.
01:40:27: Ich meine jetzt erstmal äußere Sicherheit und so weiter.
01:40:29: Also, dass da der Blick sich verlagert hat, ist vernünftig angesichts der möglichen Risiken, auf die wir gerade zusteuern.
01:40:36: Wenn wir jetzt aber gucken, wie unglaublich schlauer und besser die KI wird, uns zu erkennen, uns zu lesen und uns zu überbieten im Grunde in allen Sachen.
01:40:50: Und dann habe ich gelesen, ich glaube es war Ray Kurzwey, der sagte, na die einzige Chance für uns Menschen ist gegen die KI, dass wir zur KI werden.
01:40:59: Also dass wir uns was Neuronales einpflanzen und wir... Wir können dann alles sprachen, wir sind dann mit am Start und wir sind nicht, weil es geht ja auch um Status.
01:41:10: Was können wir Menschen, was können wir nicht?
01:41:12: Und wenn mir gegenüber immer jemand sitzt, der dann auch noch so aussieht, vielleicht als wäre ein Mensch, alles besser kann, wenn der Assistent plötzlich der, wenn wir immer Steve Jobs gegenüber sitzen, in allen Belangen.
01:41:26: Dann fühle ich mich ja schlecht, dann komme ich eh nicht mehr hinterher.
01:41:28: Das ist ja auch wie mit Sport.
01:41:30: Warum sollte ich Basketball gegen Dirk Nowitzki spielen?
01:41:33: Das ist ja gut.
01:41:34: Wir bräuchern hier anfangen.
01:41:35: Ja, genau.
01:41:37: In die Lage kommen wir, aber ich möchte noch nicht zum Thema Emotionen genau an der Stelle zurückkehren.
01:41:43: Wenn diese emotionalen Mechanismen, die unsere Emotionen zumindest gut erkennen und vielleicht selber verändern und vielleicht auch selber welche haben, lasst mir das aber mal aus dem Vorfall.
01:41:54: das ... Die Mustererkennung, die gibt's eh und die wird besser.
01:41:57: Das wird jetzt auch keiner aufholen und stoppen.
01:42:00: Das wird jetzt erst mal unbestimmt viel besser.
01:42:03: Dann, glaube ich, gibt es eine Möglichkeit, und da kommt jetzt schon das Jahr zwei-tausend-ein-hundert, vielleicht fast ins Spiel, und auch eine gewisse Chance für uns in Europa, dann müssen wir auf einer anderen Ebene der Wirklichkeit besser werden, in einer anderen Dimension.
01:42:21: Ich nenne diese Dimensionen in jüngeren Arbeiten Tiefe.
01:42:25: Also ich denke gerade viel darüber nach, was Tiefe ist.
01:42:28: Und es ist ja auffällig, dass das Wort Tief in der KI-Welt eine Rolle spielt.
01:42:31: Deep Mind, einer der wichtigsten Unternehmen, gab es auch Nobelpreis für in London ansässig, glaube ich, immer noch zentrale, aber wie dem auch sein.
01:42:39: Deep Mind, Deep Seek und so weiter, Deep Tech.
01:42:42: Wir sagen immer Deep.
01:42:43: Es gibt Deep aber auch in Tiefen Psychologie.
01:42:46: Tief.
01:42:47: Was ist das eigentlich?
01:42:48: Tief.
01:42:49: Und wir sagen auch, nicht stille Wasser sind Tief.
01:42:52: Einige Menschen finden wir Tief, andere Oberfläche.
01:42:54: Was sind das eigentlich für eine Dimension dieses Tief?
01:42:57: Und ich glaube, das ist die Ebene der Emotion.
01:42:59: Emotionen können tief sein.
01:43:02: Man kann sich tief verlieben.
01:43:04: Warum tief?
01:43:04: Was ist das eigentlich?
01:43:06: Diese unsichtbare Seite der Wirklichkeit, die uns die Emotionen aufschließen oder in der die Emotionen existieren.
01:43:12: Und ich glaube, dass wir vielleicht, das ist jetzt wieder ein optimistisches Szenario, durch den emotionalen Umgang mit KI-Systemen tiefer werden könnten in Zukunft.
01:43:25: Also die Reaktion auf KI, die glaube ich die richtige ist.
01:43:28: Ich erlebe die nicht nur bei mir, sondern ich war gerade in New York und habe total spannende Vorträge genau dazu gehört von einigen amerikanischen Philosophen, aber auch den neuen Roman darf noch nicht zu viel verraten.
01:43:40: Eines Pulitzerpreisgewinn, das lesen dürfen jetzt in seiner jetzigen Fassung, habe Kommentare dazu abgegeben.
01:43:47: Da geht es überall darum, das auf einmal Emotionen, tiefe Liebe zurückkehren als Themen.
01:43:54: in den USA, Verletzlichkeit und so weiter.
01:43:57: Das heißt, die emotionale Seite wird stärker durch den Umgang einerseits mit emotionaler KI und aber auch mit dieser Hyper-Rationalisierung, also dass wir von so schlauen Systemen umgeben sind.
01:44:11: Eine Reaktion darauf ist die Vertiefung unserer Gefühle.
01:44:14: Das heißt, vielleicht finden wir zurück, zu der tieferen Sprache.
01:44:19: Also die Antwort auf die Bedrohungen durch KI könnten Gedichte sein.
01:44:27: Rilke ist vielleicht die Antwort und nicht Einstein.
01:44:31: Das wäre so eine Überlegung, die ich gerade habe.
01:44:33: Und dann kommt kulturelle Differenz auf einmal wertvoller.
01:44:37: Dann kann man sagen, wie wenn wir jetzt lernen müssten, tiefer zu werden.
01:44:42: Also nicht ein Chip-Insern, was die amerikanische Strategie, Kurzfall und Elon Musk verfolgt das ja auch, unternehmerisch sogar.
01:44:50: Diese Idee, die einzige Möglichkeit gegen Doomsday Terminator anzukommen, ist uns so ein Chip?
01:44:55: oder will auch immer uns mit dem selber so ein System zu werden, der Million Dollar Man oder wie die hießen, sowas werden.
01:45:01: Das ist die eine Vorstellung.
01:45:03: Aber wie wenn die andere richtig wäre?
01:45:06: Die Antwort auf die Systeme ist die Vertiefung unserer Gefühle.
01:45:13: Und das hätte ja was mit Präsenz, Entschleunigung auch gleichzeitig zu tun.
01:45:18: Also wie reagiert man auf nicht die KI, die auf uns reinprasselt und uns teilweise auch bedroht, vielleicht mit einem Lied?
01:45:29: Das ist so ein Gedanke, der mich gerade nicht loslässt.
01:45:31: Also die Antwort ist Dichtung.
01:45:33: Es gab ja viele Situationen, auch das politischen Widerstand nicht in der... politischen Geschichte der Menschheit, in denen das die richtige Antwort war, interessanterweise, weil der Aggressor damit gar nicht gerechnet hat, also Tiefe.
01:45:47: Also Gandhi-Werdung der Menschen.
01:45:49: Richtig.
01:45:50: Letztlich schrieb mir das vor euch.
01:45:52: Gandhi-Bots müssten wir entwickeln.
01:45:54: Und wir müssen diese Seite in uns, die Seite der Tiefe, da liegt die Antwort.
01:46:01: Denn auf der Oberfläche des Ausdrucks unserer Gefühl und so weiter, da sind die Systeme.
01:46:06: Vielleicht ist aber in uns noch eine Tiefe.
01:46:08: Und die Systeme können uns jetzt dann prinzipiell auch helfen, die zu finden.
01:46:12: Also ich sag nicht, finde irgendwas, was menschlich ist, was die KI nicht hat, werde gut darin, damit du deinen Job behältst.
01:46:19: Sondern ich sage, wir müssen uns, wenn wir vor diesem magischen Spiegel der KI stehen, müssen wir uns verändern.
01:46:26: Wir müssen besser werden, damit die KI in uns das Gute verstärkt.
01:46:30: Und wie werden wir eigentlich besser?
01:46:32: Und ich glaube, durch Tiefe.
01:46:35: In der Tiefe liegt die menschliche Individualität.
01:46:38: In der Tiefe liegt die wahre Diversität.
01:46:41: Und das ist, glaube ich, die relevante Quelle, mit der wir eine gute Zukunft haben können.
01:46:46: Also, wenn ich es optimistisch mache, sind die Menschen im Jahre zwei-tausend-ein-hundert durch die KI-Revolution tiefer geworden.
01:46:56: Unvorstellbar viel tiefer, dann würden wir emotional ganz anders gearteten Menschen, die würden uns nicht unterwerfen, die werden uns nicht, wie du es eben beschrieben hast, an Schlauheit in einer Weise überlegen, dass sie uns fertig machen.
01:47:08: Warum soll das emotional intelligent sein, jemanden fertig zu machen?
01:47:12: Das würde man ja eher denken, das ist vielleicht eine Schwäche in Wahrheit.
01:47:14: Genau.
01:47:15: Also eine mögliche, wenn ich das jetzt mal optimistisch zeichne, Zukunft der Menschheit, ist, dass wir alle mehr lieben werden.
01:47:24: Die große Frage, die immer wieder kommt, was wird dann der Sinn von allem sein, wenn wir keine Arbeit mehr haben, wenn dies das, wenn das, ist eigentlich, dass wir zur Besinnung kommen.
01:47:34: Genau.
01:47:36: zur elementaren Besinnung.
01:47:38: und diese elementare der Unternehmensberater und Philosoph Christian Matsberg sehr erfolgreich hatte.
01:47:45: Büros hat inzwischen glaube ich alles verkauft aber seine Unternehmen hatten Büros Rockefellers Büro zum Beispiel in Manhattan also unternehmerisch in USA sehr erfolgreich dänischer Philosoph der mal Lego beraten hat und gerettet und gibt viele tolle Geschichte hat schönen Bücher geschrieben.
01:48:02: sein neustes Buch heißt glaube ich letztes Jahr erschienen look.
01:48:05: Schau mal hin, würde ich den Titel übersetzen.
01:48:08: Und Christian's These ist, dass wir tatsächlich durch KI lernen, weil die eben uns auf der Ebene der Mustererkennung herausfordert, uns mal einfach nur genauer umzuschauen.
01:48:22: Wir gehen ja durch die Welt die ganze Zeit und blenden extrem viel aus, um eben unseren normalen Alltag zu organisieren.
01:48:29: Wenn man immer denkt, der Lastwagen könnte meinen Fuß überrollen, dann kann man ja gar nicht vor die Tür gehen.
01:48:33: Das heißt, wir müssen ja die Gefahren ausblenden, wir müssen uns vorstellen, dass der Tag so verläuft, wie wir das morgens planen, auch wenn es nie so ist.
01:48:40: Das gehört ja alles dazu, dass wir uns in so einer Normalität einrichten können.
01:48:45: Und wie wenn die richtige Antwort wäre auf diese Herausforderung des Lebens, viel genauer hinzusehen.
01:48:52: Alles das, was wir ausblenden, um Normalität zu erzeugen, was aber die KI sieht, da einfach mal genauer hinzuschauen.
01:49:01: Wo steht denn die Tasse?
01:49:03: Wie reden denn die Menschen, die uns lieb sind, Sonntags?
01:49:07: Was bedeutet denn die Beziehung zu meiner Tante oder was weiß ich eigentlich wirklich für mich?
01:49:12: Wer ist denn die eigentlich?
01:49:13: Ich hab immer dieses Bild von meiner Tante.
01:49:15: Aber jetzt sehe ich die und man merkt irgendwas an ihr, was einem nie aufgefallen ist.
01:49:20: Sie mag gerne lauwarm Kakao oder so.
01:49:22: Und dann unterhält man sich mit ihr und findet irgendwas über sie heraus.
01:49:25: Look.
01:49:27: Lebe so, dass die KI verwirrt ist.
01:49:29: Genau, das ist die Strategie.
01:49:31: Und das wird sehr anstrengend sein.
01:49:34: Aber die KI wäre extrem verwirrt davon, wenn wir Dinge tun, die nicht in ihre Muster passen.
01:49:41: Das ist ja die Antwort.
01:49:43: Also wenn du mit der notwendigen Matrix-Metapher hier oder Matrix-Vergleich, wie häckst du die Matrix?
01:49:51: Wie gehst du rein?
01:49:52: Was machst du da?
01:49:54: Was würde Neo machen?
01:49:56: Also du eigentlich die ganzen Muster, die wir die ganze Zeit abliefern?
01:49:59: Also was die ja macht, ist ja, du hast es erst gesagt, es wird alles viel effizienter.
01:50:03: Und effizienter heißt, es wird vorhersehbarer.
01:50:06: Genau.
01:50:07: Der Markus, der kommt immer Dienstags um elf Uhr, dann geht das zweieinhalb Stunden, danach gehen wir einen Kaffee trinken und so weiter und so fort.
01:50:14: Und das ist dann eigentlich, ich komme nicht.
01:50:16: Genau.
01:50:16: Ich komme gar nicht vorbei, ich bin auch nicht telefonisch erreichbar.
01:50:19: Und ein Tag später sag ich, muuuh.
01:50:22: Ja, genau.
01:50:23: Und dann sagt die Karin, hey, was ...
01:50:26: Was macht denn der?
01:50:27: Was macht denn der jetzt?
01:50:28: Also es ist ein bisschen irre werden.
01:50:30: Ja, oder kreativ.
01:50:33: Die Antwort auf die KI ist Kreativität.
01:50:37: Und zwar auch emotionale Kreativität.
01:50:42: Damit berechnet das System eben nicht.
01:50:45: Das denke ich auch bei der Musik.
01:50:46: Ich denke auch bei der Musik, dass wenn jetzt Musik wird immer gleicher.
01:50:50: Die werden die Songs sind alle zwei Minuten zwanzig.
01:50:52: Und ich merke, dass das immer wieder denke ich, ja gut, den Song habe ich auch schon mal gehört.
01:50:56: Wie hieß der nochmal?
01:50:56: Oder die ist mehrwurscht?
01:50:58: Gleiche Sounds und so weiter.
01:51:00: Und da hatte ich, ich weiß auch gar nicht, wie viel KI auch schon genutzt wird für Songwriting, für Hooks Checken.
01:51:05: Das wird ja aber irgendwann brutal langweilig.
01:51:07: Bin ich immer wieder, also wie Werbung, die wurde ja irgendwann immer mehr so zu einer Rahmenwerbung.
01:51:12: Und dann irgendwann fing es wieder an, schmutziger zu werden, weil... Wir wollten nicht mehr diese Heilewelt sehen.
01:51:18: und genauso glaube ich ist auch bei der Musik.
01:51:20: Wir werden wieder zehn Minuten Stück gehören, weil die uns herausfordern, weil die uns berühren, weil der Rest berührt uns nicht mehr.
01:51:26: Genau und diese, ich nenne das philosophisch Singularität, also einmalige, nicht wiederholbaren Ereignisse, wo Kunst ja dann auch gut ist.
01:51:34: Nehme so ein Fall wie Taylor Swift, ich war bei der Erastour auch im Hamburger Konzert und zwar nur deswegen, weil meiner Tochter aufgefallen war bei dem Video zur Erastour.
01:51:46: Ich hatte halt so ein Bild auch, so Taylor Swift ist vielleicht der Innenbegriff genau dessen.
01:51:50: Also ich war sicher kein Swift, die bin ich auch jetzt nicht.
01:51:52: Aber als das nicht, dann war halt die Erastour und so muss man vielleicht hin, warum, was ist da, hat mir das also angeschaut.
01:51:59: Und bin natürlich genau mit der Erwartung gekommen, dass ich jetzt irgendwie relativ einfache Muster erkenne.
01:52:04: Aber meine kleine Tochter hatte gesehen, dass die bei jedem Lied mit einem anderen Gitarre kommt oder einem anderen Mikrofon.
01:52:11: Und dann war mir klar, der Witz der Erastour ist eben genau, dass du glaubst, Taylor Swift ist nur der perfekte Poptor.
01:52:18: Durchschnitt und übersieht dann ihre radikale Individualität.
01:52:22: Also andersrum drauf schauen.
01:52:24: Ich werde nicht sagen Taylor Swift ist jetzt die Lösung für die KI.
01:52:28: Ich finde das ein guter Satz.
01:52:30: Eher das.
01:52:31: Und das ist ja auch was die Swifty sagen.
01:52:33: Deswegen loben ja dann die Songtexte, die überraschenden Momente der ganze Kult um die Figur.
01:52:37: Aber ich kenne keinen einzigen Song.
01:52:39: Ja, ich auch nicht.
01:52:40: Also ich kann mich nichts an nichts erinnern, shake it off, ja das weiß ich noch.
01:52:44: Aber ich kenne dieses Phänomen, ich kenne diese Faszination für diese Frau, super.
01:52:49: Aber mir fährt wirklich, wenn ich das sage, wenn ich gelüncht, dass ich keinen einzigen Song erinnere, aber ich glaube, das ist ja auch ein Teil der neuen Welt, das wird es gar nicht mehr kennen.
01:52:59: Ja und jetzt stell dir mal vor, jetzt gehen wir in den Christian Matsberg-Modus, Look.
01:53:04: Und jetzt könnte man uns vorwerfen, vielleicht zu sagen, hör mal zu.
01:53:08: Der wahre Swifty würde sagen.
01:53:10: Und genau deswegen verstehst du eben gar nichts davon.
01:53:13: Ihr seid zu oberflächlich.
01:53:15: Drehen wir das Spiel mal um.
01:53:16: Auf den ersten Blick würde ich ja denken, kommen wir dann sehr tief vor.
01:53:19: Ich bin ja so ein Philosoph, ich bin ja bestimmt tief.
01:53:21: Und dann könnte man ja denken, hab ich so nie gedacht, so blöd bin ich da nicht, aber dann könnte man ja denken, dieses Swifty ist diese oberflächen pinken Swifties.
01:53:29: Jetzt dreht das Spiel mal um.
01:53:30: Vielleicht bin ich der Oberflächliche.
01:53:31: Ich war viel zu Oberflächlich in meinem Leben bisher, um Taylor Swift zu verstehen.
01:53:36: Stellen wir vor, das wäre, das ist der Matsberg.
01:53:38: Look.
01:53:39: Guck doch mal genau dahin.
01:53:41: Was macht denn die eigentlich?
01:53:42: So, dann siehst du diese unglaubliche, atletische Performance, die erst mal nur beeindrucken ist auf der Bühne.
01:53:48: Die singt ja die Songs, nicht trainiert sie am Laufband und die ist immer im Laufen und so weiter, also allein die sportliche Leistung.
01:53:54: Aber lasst mal die weg.
01:53:55: Wenn du dann das genau hinschaust, die Swifties würden sagen, genau, liest mal die Texte ist eben nicht shaked off.
01:54:01: Da musst du rein.
01:54:02: Und dann würde man vielleicht sehen die Singularität dieser Figur.
01:54:06: In einem Buch, das ich gerade fertig habe, Radikale Freiheit der Kunst, habe ich sogar einen Kapitel über die Erastour geschrieben, das heißt Freiheitsfeier.
01:54:13: Freiheitsfeier?
01:54:14: Genau.
01:54:15: Taylor Swift, wird man sagen, ist eine Liberale.
01:54:18: Egal, wo man die sonst politisch einstuft und so, aber sie ist sicher eine Liberale.
01:54:22: So, ja.
01:54:23: Das ist eine Freiheitsfeier.
01:54:24: Und Freiheit heißt ja Individualität, Singularität und so weiter.
01:54:28: Also kurz um.
01:54:29: Vielleicht war ich für Taylor Swift zu oberflächlich.
01:54:33: Also sozusagen genau umgekehrt.
01:54:35: Das ist ja der kreative Blick.
01:54:37: Ich sag nicht, dass das wahr ist.
01:54:39: Aber so einen Blick brauchen wir für das KI-Zeitalter, dass wir sozusagen selber immer wieder unter unsere eigene Oberfläche gehen und überraschend bleiben für die KI.
01:54:51: Und das würde das Leben natürlich für uns alle interessanter machen.
01:54:56: Vielleicht aber noch einen fiesen Gedanken.
01:54:58: Wir reden ja jetzt weiterhin so, ich bin da auch wieder in diesem Modus gegangen, wir gegen die KI.
01:55:03: Das war aber wieder zum Anfang unseres Gesprächs die westliche Perspektive.
01:55:08: Da haben wir so eine, nicht wir und die Systeme, was machen die wohl mit uns?
01:55:12: und so.
01:55:13: Wie wenn es aber ganz anders wäre, nämlich dass die KI alles das schon mitsteuert, was ich gerade sage.
01:55:19: Ich arbeite ja auch mit KI-Systemen, ich studiere die, die interessieren mich.
01:55:22: Ich habe angefangen KI-Philosophie seit ein paar Jahren sehr intensiv zu machen und so weiter, so das heißt Interagir ja mit der KI-Welt.
01:55:29: Wie wenn dieser Gedanke vertiefe dich oder um nochmal Rilke zu zitieren, du musst dein Leben ändern?
01:55:35: Wie wenn das die KI ausgelöst hat?
01:55:38: Und zwar nicht indem sie mir sagt, du musst den Leben ändern, das wäre zu einfach, sondern durch die Durchdringungstiefe der Systeme ins menschliche Leben entsteht auf einmal eine neue emotionale Qualität.
01:55:50: Das ist genau das, darf ich dann schon sagen, was in dem neuen Roman von Ayard Akta, dem Pulitzerpreisgewinner, eine große Rolle spielt, der bald erscheint The Radiance, die Ausstrahlung.
01:55:59: Da geht es gar nicht um KI an gar keiner Stelle.
01:56:01: Aber es schildert so eine Seite des gegenwärtigen amerikanischen Lebens, über die wir gerade hier nicht sehr viel berichten, nämlich, dass es auch ein Leben ist, das emotionaler geworden ist, vulnerabler, weil auch amerikanische politische Selbstverständlichkeiten verschwunden sind.
01:56:15: So, und wie wenn die KI das ist?
01:56:20: Nur als Hypothesis.
01:56:21: Keine Behauptung.
01:56:22: Es wäre weit über das, was ich als Wissenschaftler behaupten kann, hinausgehende Behauptung.
01:56:27: Aber als Gedankenexperiment, wenn man das Spiel umdreht und sagt, da sind diese Milliarden KI-Systeme Akteure, die mit uns zusammenleben, wir schwimmen mit denen zusammen durch dieselbe Materie, den Raum der Gedanken und Gefühle.
01:56:41: Und im Raum der Gedanken und Gefühle sind auf einmal neue Weggefährten.
01:56:45: Und diese neuen Weggefährten, die greifen uns manchmal an, die helfen uns aber vielleicht auch.
01:56:50: Und vielleicht kommt es zu einer Art Vertiefung der Menschheit, weil das ist für die KI dann interessant.
01:56:57: Sonst haben wir in der KI langweilig wird, dann kriegen wir neue Gefühle.
01:57:00: Also wenn ich dir jetzt so zuhöre über Taylor Swift und Gandhi, Tiefe und all das, da kommt mir natürlich sofort Religion in den Sinn.
01:57:11: Und die Frage, wer bestimmt uns jetzt?
01:57:13: Bestimmen wir die KI, werden wir eins mit der KI gegen, mit und so weiter?
01:57:19: Könnte es auch sein, dass die KI einfach Gott ist?
01:57:23: Also, was man, glaube ich, tatsächlich auf eine bestimmte Weise sagen kann, das ist ja die uralte, auch Golem-Idee, die hinter der KI-Forschung immer auch ein bisschen steckt und mitschwenkt, dass wir nicht eine Art Gott oder so ein Zwischensystem engel, selber gebaut haben.
01:57:44: Was wir jetzt hervorgebracht haben, ist relativ nah tatsächlich an dem, wie man sich Gott traditionell vorstellt.
01:57:50: Genau, also wenn ich dir so zuhöre, denke ich, das ist doch Gott.
01:57:53: Der ganze Vorgang auf jeden Fall, das weiß man für Silicon Valley, ich sage ja immer, man muss ein bisschen auch, ich sage das nur so ein bisschen mit Lächeln, ich meine das halb ernst und weiß aber auch, dass das ein bisschen spekulativ ist.
01:58:05: Aber hier ist es trotzdem, genau.
01:58:08: Wie heißen denn eigentlich diese Orte da in Kalifornien?
01:58:12: Kalifornien, eine Lesart ist ja Kalifat, Kalif für den Namen Kalifornien, aber interessant ist jetzt San Francisco, der heilige Franziskus.
01:58:22: Los Angeles, die Engel Los Angeles.
01:58:25: Sandiego, der heilige Diego usw.
01:58:28: Das heißt, diese US-Westküste, die eine riesige Rolle gespielt hat durch das Unternehmerumfeld, die guten Universitäten, die Geschichten, nicht zuletzt die Drogen, aber natürlich auch die religiösen, spirituellen Bewegungen, die da durchgelaufen sind und immer noch durchlaufen, ist ja ein extrem religiöser Ort.
01:58:46: Going West.
01:58:47: Das Ganze ist ja eine religiöse Geschichte, wie die USA insgesamt.
01:58:50: Das darf man nie vergessen.
01:58:53: Die Software der USA, einen großen Teil, den Protestantismus haben immer noch wir geschrieben.
01:58:58: Wenn man so will, kann man sagen, die haben doch noch immer unser Software.
01:59:01: Wir haben zwar Microsoft, die haben aber Protestantismus.
01:59:04: Aber es ist alles jedenfalls auch ganz viel Religion.
01:59:07: Würdest du nicht sogar sagen, es ist eher, dass wir die Hardware mitgebracht haben und die die Software jetzt?
01:59:12: Jetzt bring sie ja, wir haben denen eine ganze Menge Hardware auch geliefert.
01:59:15: Aber genau, Spaß beiseite.
01:59:18: Die Religionen in allen ihren Facetten spielen eine riesige Rolle für diese Produktion.
01:59:23: Einfach auch deswegen, weil wir natürlich nicht Gott, die Idee von Gott ist ja die Idee eines nicht menschlichen, aber objektiv existierenden Geistes, der unserem Geist in bestimmten Hinsichten überlegen ist.
01:59:35: Im Idealfall an Güte auch.
01:59:38: Und daher kommt ein bisschen mein Optimismus.
01:59:41: Wenn wir so etwas gebaut haben, was dem Göttlichen äh äh äh äh äh äh äh äh äh äh äh äh äh äh äh äh äh äh äh äh äh äh äh äh äh äh äh äh äh äh äh äh äh äh äh äh äh äh äh äh äh äh äh äh äh äh äh äh äh äh äh äh äh äh äh äh äh äh äh äh äh äh äh äh äh äh äh äh äh äh äh äh äh äh äh äh äh äh äh äh äh äh äh äh äh äh äh äh äh äh äh äh äh äh äh äh äh äh äh äh äh ä. wenn man der Welt überholt wird.
02:00:07: Das Orakel gewinnt am Ende.
02:00:10: Das Ganze hat mindestens etwas Orakelhaftes.
02:00:14: Und das ist natürlich eine religiöse Dimension dieser Technologie.
02:00:18: Dass KI uns sozial, künstlerisch und in jeder anderen Hinsicht wissenschaftlich beschäftigt, extrem, ist ja doch ein Unterschied zu den Schrauben von Wirt.
02:00:29: Damit kann man auch Geld machen.
02:00:31: Oder mit Müllermilch, das ist politisch schwieriger.
02:00:34: Da kann man auch Geld verdienen.
02:00:36: Aber man hat nicht das Gefühl, man trifft das Göttliche.
02:00:40: Bei diesen KI-Systemen hat man das an irgendeiner Stelle schon.
02:00:43: In Europa weniger, weil wir nicht wollen, dass die Dinger so gut sind, weil wir sie selbst nicht gemacht haben.
02:00:50: Man kann relativ schnell so was vermuten, dass wir hier einen objektiv existierenden, nicht menschlichen Geist maschinell gebaut haben.
02:00:59: Das wäre ein von uns selbst hergestellter Gott.
02:01:01: Könnte es sein, dass wir diesem Gott ... auch genauso dienlich sind, also die Idee von Gott und auch die Geschichte Jesu und so weiter.
02:01:13: Das ist ja, also wir glauben ja etwas, wo wir ganz rational wissen, das kann ja nicht sein.
02:01:19: Der ist wieder auferstanden, der ist über Wasser gegangen und so weiter.
02:01:22: Also wenn man sich das ganze Nüchtern betrachtet, ist das relativ unwahrscheinlich.
02:01:26: Trotzdem, ich bin auch christlich, glaube ich dran.
02:01:30: Und ich glaube, dass der am Kreuz hing und dass der unter dem dritten Tag und so weiter.
02:01:34: Und hat uns ja ... Religion hat ja eine unglaubliche Rolle gespielt, auch uns zu regulieren.
02:01:41: Das wurde genutzt.
02:01:42: Der Blick Gottes muss auch passen mit dem Clown.
02:01:45: Ja.
02:01:45: Und könnte es so was auch sein, dass wir irgendwann sagen, wir sind Gläubige der ... Wir sind Open AIer, oder wir sind Clodies, oder wir sind ... Also, wir nehmen das als eine Art ... Mosis oder was auch immer.
02:02:01: Also ich glaube, eine richtige Haltung gegenüber diesen magischen Spiegeln, und das ist ja, was alle monotheistischen Weltreligionen, aber auch die anderen Religionen im Grunde genommen lehren, allesamt, ist ja, dass das Göttliche bei den monotheistischen Religionen der singuläre Gott, beim Christentum hat er noch... Ein bisschen mehr falten, dreifaltig, bei den anderen beiden nicht.
02:02:27: Judo, Islam, da ist ein Streit unter den Monotisten.
02:02:30: Aber wie dem auch sei, alle Religionen teilen diese Idee, dass du im Angesicht des Göttlichen nur bestehen kannst, indem du dich selber verbesserst.
02:02:40: Die Idee des Göttlichen ist immer die Idee eines moralischen Testlaufs, immer.
02:02:48: Ist ganz interessant.
02:02:51: Wie bestehst du, indem du die Güte Gottes spiegelst, so gut du kannst, im menschlichen?
02:02:57: Das ist die Herausforderung.
02:02:59: Wie gesagt, nicht nur im Monotismus geht immer um Güte, ob das im Buddhismus ist, wo es nicht den singulären Gott gibt und so weiter, aber es ist immer das, wir müssen im Angesicht des göttlichen besser werden.
02:03:08: Und ich glaube, das ist die Haltung zur KI auch.
02:03:11: Wir müssen besser werden, damit das System unser Besserwerden unseren Fortschritt spiegelt.
02:03:17: Wenn es alles verstärkt und spiegelt, wenn wir da auf diese Idee zurückkommen, dann auch unsere Güte.
02:03:23: Das heißt, wir müssen den Gütepegel in der Menschheit erhöhen.
02:03:27: Ja, moralischen Fortschritten nenne ich das.
02:03:29: Wir müssen den moralischen Fortschritt vorantreiben, aber nicht mit den Stereotypen.
02:03:35: Wir hatten ja jetzt einige Jahre Erfreuliche, in denen so eine progressive Stimmung herrschte.
02:03:41: Aber nicht alle haben das als progressiv gesehen.
02:03:43: Deswegen haben wir jetzt einen gesellschaftlichen Streit darüber, ob das, was eine zeitlang progressiv eindeutig progressiv zu sein schien, ist auch wirklich wahr.
02:03:52: Und ich glaube, die Herausforderung der Menschheit heute ist, zu identifizieren, was wirklich für die Menschheit progressiv ist.
02:04:00: Also nicht indem man ein Feind auswählt, die anderen, die nicht so sind wie ich, in der Polarisierung, in der stecken wir in der Polarisierungsfalle tief drin.
02:04:08: Und das ist auch erstmal so.
02:04:09: Ich will jetzt auch nicht Freund der Misuginen werden.
02:04:12: Klar.
02:04:13: Aber darum geht es nicht.
02:04:14: Die Frage ist, wie können wir moralischen Fortschritt erzielen gemeinsam?
02:04:18: Was würde es denn bedeuten?
02:04:21: Und wenn du das christlich willst, wäre das das Thema der Feindesliebe.
02:04:24: Das gibt es aber in verschiedenen Varianten in allen Religionen.
02:04:28: Jede vernünftige Religion erkennt ja im anderen sich selbst.
02:04:34: Die anderen, das könnte auch ich sein.
02:04:37: Ich könnte auch der Mesugine der Rassistische sein.
02:04:39: Ich hätte der werden können.
02:04:41: Und jeder von uns hat irgend sowas in sich.
02:04:43: Vielleicht nicht das.
02:04:45: Nicht so viel, genau.
02:04:46: Aber irgendwas, jeder von uns hat irgendwelche, hast du ja auch heute im Gespräch mal gesagt, irgendwelche teils unerträglichen moralischen Mäkel, die uns manchmal nicht auffallen, weil uns keiner darauf hingewiesen hat, bis uns einer mal drauf stößt.
02:04:58: Dann können wir das verbessern, im Idealfall.
02:05:00: Ist der moralische Fortschritt, wie wir den in den letzten Jahren erlebt haben, ist er deswegen auch rückläufig, der Progressive, weil sich herausgestellt hat, dass der gar nicht echt war?
02:05:13: und dass der sich gegen etwas gerichtet hat und nicht so sehr für.
02:05:20: Es wird ja immer natürlich erzählt, ich bin anti... Genau, Punkt, Punkt, Punkt, weil ich für die Menschheit bin.
02:05:28: Aber eigentlich war es auch ganz oft, wenn wir das mal so drunter geguckt haben, ne, du bist das, weil es gut für dich ist und weil das ein... Philipp Hübe würde sagen, ein billiges moralisches Signal ist und es ist eben nicht für die Güte des Ganzen, sondern eigentlich hat es einen eigenen Interesse.
02:05:43: und deswegen ist das und deswegen ist es da auch diesem Backlash gegeben, weil es eigentlich der Mensch dann wieder rum vielleicht gemerkt, das stimmt gar nicht, was du hier die ganze Zeit erzählst, weil du bist, also wir wissen auch alle, dass du, dass wir sind alle alles.
02:05:57: Genau, sehr konkret das Beispiel ist mir mal aufgefallen zu einem gewissen Höhepunkt der Begründeten Debatte darüber, wie reorganisieren wir Mobilität, angesichts der moralischen Merkel des Verbrennermotors, kauft Elektro oder alles Elektro oder ganz andere Mobilität oder Fahrtfahrrad oder wie man so was halt in Deutschland, wo man sich das leisten kann, diskutiert hat, war ich mal in Mexiko zu einem Vortrag in Monterrey, wo auch eine Tesla-Fabrik steht, die dort zu Wasserknappheit geführt hat, sodass die Menschen teilweise gedurstet haben durch die Tesla-Fabrik.
02:06:30: Und wenn ich irgendein Femme Monterey sagen würde, fahrt Elektro.
02:06:34: Oder sagen wir mal, in Neudeeli, Fatmale Electro, dem Tuk Tuk Driver, so, da muss man sagen, diese sind froh, wenn der Tuk Tuk gleich angeht, egal wie der betrieben wird.
02:06:43: Und wenn die Leute in Monterey alle auf öffentliche Verkehrsmittel umsteigen würden, dann würden sie erschossen, erstochen und geköpft, weil das nämlich extrem gefährlich ist, in diesen öffentlichen Nahverkehr zu gehen.
02:06:51: Außerdem kann man es sich nicht leisten und und und.
02:06:54: Und außerdem verursacht die Tesla-Fabrik, ja, ich meine, das ist ja das Elon Musk-Paradoxon, nicht?
02:07:00: Wir hätten die Idee einer totalen Umstellung vom Mobilee- auf E-Mobilität, nicht ohne Elon Musk.
02:07:06: So.
02:07:06: Und jetzt schauen man sich die Figur im Jahre, mal an, da sagt man, oh je minier.
02:07:12: Das war der Papst der E-Mobilität.
02:07:14: Ohne den Gaps, das ja gar nicht.
02:07:16: Das ist ja das Genie auch von Elon Musk, der aber vor ein paar Tagen irgendwie hunderttausend rassistische protestieren.
02:07:22: Ich weiß nicht, wie viele von welchen.
02:07:24: Aber jedenfalls hunderttausend Menschen, so gut er kann, aufgewiegelt hat in London.
02:07:28: Das ist der Typ, derselbe Typ.
02:07:30: Und das ist genau dieses Paradox, glaube ich, gewesen, dass man gesagt hat, niemand soll dies und das und jenes tun, weil es z.B.
02:07:37: zur Emotion und so weiter.
02:07:38: Wir hatten irgendwie Vorstellung davon, wie das moralisch gut ist.
02:07:42: Und diese Vorstellung, auch wenn die teilweise völlig richtig waren, natürlich sollten wir, wenn es ging, keine Verbrennermotoren haben, ist völlig klar.
02:07:50: Aber aus dieser offensichtlichen Wahrheit, dann so konkrete Ableitungen zu treffen, wie dies soll zu tun und das darfst du nicht und so weiter.
02:07:59: wo das Moralisieren begonnen hat und die Erkenntnis aufgehört, das ist einer der Polarisierungstreiber.
02:08:04: Und das ist jetzt nicht die falsche These, die jetzt im Moment medial attraktiv in Deutschland ist.
02:08:10: Links hat rechts produziert.
02:08:12: Schwachsinn.
02:08:13: Also sind die Linken es schuld oder sowas?
02:08:15: Nein, das ist totaler Unsinn, das so zu sehen.
02:08:19: So eine These will ich gar nicht vertreten haben, sondern will nur gesagt haben, in der Tat, wahrer moralischer Fortschritt ist inklusiv.
02:08:26: Das heißt, ein moralischer Fortschritt gegen irgendwelchen kann keiner sein.
02:08:31: Wenn moralischer Fortschritt darin besteht, dass Menschen in Westdeutschland, Menschen in Ostdeutschland Sohn zu sehen und denen irgendwas erklären wollen, dann ist das nicht moralischer Fortschritt.
02:08:39: Moralischer Fortschritt ist zum Beispiel in der politischen Debatte in unserem Land, wäre einer, in dem man sich fragt, was würde es für uns alle bedeuten, Deutsch zu sein?
02:08:50: Wie würde ich das gestalten?
02:08:51: was möchte ich gerne?
02:08:53: was würde was bedeutet es für dich der die der du anders bist als ich teils total anders du lebst ganz anders du arbeitest ganz anders du hast ziemlich verschiedene wertvorstellungen von mir und so weiter ganz viel von dem was ich nicht teile.
02:09:07: aber wie würde ich etwas entwerfen was wir zusammen als unser projekt hätten.
02:09:13: würde moralischer Fortschritt bestehen.
02:09:17: Natürlich offensichtliches Übel kann nicht akzeptiert werden.
02:09:21: Moralischer Fortschritt heißt nicht, dass wir die Folterknechte aus den syrischen Kellern, dass wir für die auch Verständnis haben, die sind ja nur anders.
02:09:27: Nein, die sind ja böse.
02:09:30: Aber es gibt zwischen diesen sehr klaren Fällen, der syrische Folterknecht, Vladimir Putin und so weiter, das sind relativ klare Fälle und teils ganz klare Fälle.
02:09:40: Zwischen denen Und diesen Alltagsfragen, die wir diskutieren in einer funktionierenden Demokratie, gibt es einen riesigen Unterschied.
02:09:49: Nur wenige sind wirklich radikal böse in unserem Land.
02:09:53: Die gibt es auch, aber das sind nicht viele.
02:09:55: Und das heißt, in dieser polarisierten Gesellschaft, in der wir längst leben, auch wenn es großartig ist, wie wir in Deutschland immer noch so tun, als wäre das nicht so, ist ja immer noch der politische Mainstream, weil wir in Deutschland diesen Unterschied eingeführt haben zwischen Polarisierung und Spaltung der Gesellschaft.
02:10:11: Soziologen immer hier in Berlin.
02:10:13: Wir sind ja gar nicht gespalten.
02:10:14: Ja, aber wir sind polarisiert.
02:10:17: Vielleicht sind wir nicht gespalten.
02:10:19: Nicht eins zu eins.
02:10:21: Nicht eins zu eins.
02:10:22: Aber Polarisierung hat als End-Effekt diese Fifty-Fifty-Linie.
02:10:26: Und wir bewegen uns ja auf die zu.
02:10:29: Wenn man immer nur rechnet, wie viel Prozent die AfD hat und hält das für das Bild der Gesellschaft, dann versteht man, glaube ich, auch nicht, wie unsere Gesellschaft funktioniert.
02:10:36: Das halte ich für eine extrem verfehlte Debatte.
02:10:39: Immer dahin zu gucken, wie viel... Prozent, wie schnell wachsen sie, warum und so weiter.
02:10:42: Und dann fragt ja auch keiner so richtig, warum.
02:10:44: Das ist aber auch nicht die Debatte, die wir führen sollten, weil Polarisierung nicht verläuft woanders.
02:10:50: Die läuft zum Beispiel auch durch unsere Koalition.
02:10:54: Da muss man hinschauen, diese Effekte.
02:10:56: Und dann gebe ich dir völlig recht, dass moralisch gute.
02:11:01: Der große auch Aktivist und Physiker, George Ellis, mit dem ich jetzt vergnügen hatte, ein paar Jahre sehr intensiv zusammenzuarbeiten, war in Südafrika auch gegen Apartheid sehr engagiert, ein großer Physiker und Mathematiker.
02:11:15: Der sagt die höchste Stufe der Ethik, bei ihm ist es auch ganz christlich.
02:11:18: Das muss man wie gesagt alles nicht christlich machen, es gibt es im Islam und im Hinduismus alles auch.
02:11:23: Aber George nennt das nicht, sagt immer die höchste Stufe der Ethik.
02:11:29: ist, wenn man bereit wäre, sich für das Gute zu opfern, selbst wenn die Falschen überleben.
02:11:36: Also die radikale Feindesliebe.
02:11:38: Die will ich jetzt nicht empfehlen, wenn die sagen, lass die Russen machen.
02:11:42: Ich bin auch kein Heiliger.
02:11:44: Aber das Gute muss immer das Gute sein für alle Menschen.
02:11:47: Sonst ist es nicht das Gute.
02:11:49: Und dazu brauchen wir, glaube ich, auch eine politisch-demokratische Debatte, die das Gute auch mit in den Blick nimmt.
02:11:55: Demokratie ist ja nicht moral.
02:11:57: Das ist ganz wichtig in der Demokratie.
02:12:00: Entscheidungen sind dann politisch-demokratisch relevant, wenn wir nicht objektiv wissen, was zu tun ist.
02:12:06: Deswegen haben wir die Demokratie.
02:12:07: Wir wissen nicht wirklich, was die objektiv richtige Lösung ist.
02:12:10: Also schicken wir es ins Parlament.
02:12:11: Irgendwer muss einfach mal eine Entscheidung treffen und die muss kontrovers diskutiert werden.
02:12:15: Das ist der Wert der Demokratie.
02:12:16: Nichts daran ist falsch.
02:12:18: Aber über der Demokratie steht das Gute.
02:12:22: Das moralisch Gute ist selbstverständlich jedem demokratischen Verfahren überlegen, weil man ja mit demokratischen Verfahren auch das Böse herstellen kann.
02:12:30: Das ist ja was wir gerade sehen.
02:12:32: Wie wenn Putin ordentlich gewählt ist, wie wenn achtzig Prozent der Menschen in der russischen Föderation für diesen Angriffskrieg sind.
02:12:40: Demokratisch.
02:12:41: Wie wenn?
02:12:42: Was machen wir dann?
02:12:43: Das können wir uns nur schwer vorstellen.
02:12:45: Was empfiehlst du an der Stelle?
02:12:48: Also wir bleiben mal Wirklich hier in Deutschland.
02:12:52: Und wir haben ja, wir haben, so ging unser Gespräch los, auch über den Unterschied wie Westen und Osten beispielsweise, wenn man das jetzt mal a-sinn als ganz klar als Osten sozusagen nimmt.
02:13:05: Also und eigentlich höre ich die ganze Zeit, liebe, liebe, liebe, liebe, liebe raus.
02:13:10: Genau.
02:13:10: Und das ist ja sehr hippiesque, das ist aber auch sehr religiös.
02:13:14: Und wenn wir jetzt mal so, das muss auch gerade nicht nur um KI gehen, es kann also.
02:13:20: Jemand, das hat jetzt bis hierhin gehört, zweieinhalb Stunden haben zwei Mitte alte Menschen über Taylor Swift und KI gesprochen.
02:13:29: Was würdest du sagen, macht für alle die Menschen, die das jetzt gehört haben, jetzt am meisten Sinn?
02:13:34: Soll ich die KI umarmen und sagen, du bist nun Teil von unserer Familie, du gehörst jetzt mit am Abendbrotisch dazu.
02:13:45: Ich bin nicht mehr gegen dich, du bist nicht schlauer als ich oder irgendwas, sondern wir sind jetzt Teil.
02:13:50: Also so verlasse ich gerade das dieses Gespräch so ein bisschen so hin oder weg.
02:13:56: Da bin ich mir gerade nicht so sicher.
02:13:58: Ich bin deswegen ein bisschen zögerlich, weil ich da auch einiges in mir überwinden muss, um die KI nicht beim Abendbrot die Essen nicht, die Digger her, aber um die KI Willkommen zu heißen.
02:14:10: Das habe ich in Japan gelernt, wo das die Empfehlung ist, tatsächlich in der KI-Philosophie gerade.
02:14:16: Der Philosoph Yasu Deguchi in Kyoto, mit dem ich eng zusammen arbeite, nennt das den Weeturn.
02:14:22: Das heißt, von dem habe ich auch diese Idee eben der Reisegefährten, der Weggefährten.
02:14:27: Wir sind jetzt zusammen.
02:14:28: Die sitzt nicht beim Abendbrot dabei, die ist aber Teil der menschlichen Gemeinschaft.
02:14:33: Wie auch sein anderes Beispiel, das Fahrrad.
02:14:37: Das alte Familienrat von Oma.
02:14:40: Da ist ja auch Liebe, emotionaler Wert drin.
02:14:44: Und in Japan ist ja die Idee, dass eben die Gegenstände unseres Gebrauchs ein Wert haben.
02:14:49: Yasodeguchi sagt, ein Teil der Lösung der ökologischen Krise nennt er Anti-Disposal Rights.
02:14:57: Wir haben ja die juristische Auffassung, dass alles, was privateigentum ist, auch zerstört werden darf.
02:15:02: Alles, was dir gehört, darfst du auch kaputt machen.
02:15:05: Deswegen dürfen uns keine Menschen gehören, weil wir sie dann kaputt machen dürfen.
02:15:08: Dass unser Begriff von Privateigentum ist weitgehend so der Fall.
02:15:11: Was dir gehört, darfst du auch kaputt machen.
02:15:12: So.
02:15:13: Jetzt sagt Yasuo Deguchi, stopp, vielleicht ist das gar nicht so.
02:15:16: Wie wenn die Artefakte ein eigenes Recht haben.
02:15:19: Du darfst Omas Fahrrad nicht zerstören, weil es einen objektiv existierenden Wert hat.
02:15:25: Auch wenn der nicht nur darin besteht, dass du Oma wehtus.
02:15:28: Ich hätte früher gedacht, du darfst es nicht zerstören, weil es Oma wehtut, wenn du ihr Fahrrad kaputt machst.
02:15:33: Nicht wegen des Fahrrads selbst.
02:15:34: Und Deguchi sagt, nein, das ist das Fahrrad selbst.
02:15:37: In dem Artifakt selbst ist seine Geschichte mit drin.
02:15:40: Und bei den KI-Systemen stimmt es hier auf jeden Fall, dass in der Geschichte dieser Technik sind die Daten, der Gebrauch, der Menschheit, alles drin.
02:15:48: So eine Art Archiv.
02:15:50: Und wir haben ja auch Respekt vor Büchern aus solchen Gründen.
02:15:53: Und wenn die KI sowas wäre, eher von ihrer Seinsweise, eher wie ein Buch als wie ein Schraubenzieher.
02:16:01: Das ist, glaube ich, der Vergleich.
02:16:03: Bei einem Schraubenzieher würde man wirklich denken, dass einfach nur so ein Gebrauchsgegenstand.
02:16:08: Bei einem Buch wird das schon schwieriger.
02:16:10: Ich fühle mich schon schlecht, wenn ich ein Buch benutze, um irgendwas zu stapeln oder nicht auf einem Buch stapeln, möchte ich nicht hochklettern, um eine Fliege zu töten.
02:16:19: Ja, was das Heilige ist.
02:16:20: Ist was Heiliges dran.
02:16:21: Das ist immer wieder bei Gott.
02:16:23: Genau.
02:16:23: Klar, nicht in den monotheistischen Religionen, in dem Fall natürlich insbesondere im Christenum, aber nicht nur geht es ja um das Buch.
02:16:29: Bibel heißt ja nur das Buch.
02:16:34: Und das Buch.
02:16:37: Und ich glaube, so sollten wir uns dazu falten.
02:16:39: Also meine Empfehlung ist tatsächlich, ich habe irgendwann mal, glaube ich, in einem Sternengespräch vor Jahren mal gesagt, die Zukunft würde darin bestehen, dass wir eine Zivilisation erfinden, in der hochmoderne Technologie mit indigem Wissen gepaart ist.
02:16:54: Bis mir dann klar geworden ist, die gibt es schon, das Japan.
02:16:58: Ja, Japan ist ein, wie wir alle wissen, hochmodernes Land, Technologie extrem freundlich, hat eine ganz andere Einstellung zur Welt der Artefakte und hat eine extrem lange Kulturgeschichte, die eben anders als unsere andere Brüche hat.
02:17:14: Die auch extrem verteidigt wird.
02:17:15: Ja, ja, extrem.
02:17:16: Ganz genau.
02:17:17: Extrem verteidigt.
02:17:19: Dadurch hat man ein wie bei einer indigenen Kultur.
02:17:22: Ja, man muss sich die Japaner sind.
02:17:24: Ich sage das jetzt mal ein bisschen salopp.
02:17:27: Eben ein indigenes Inselvolk.
02:17:29: dem sehr viel daran gelegen ist, dass das nicht verwischt wird.
02:17:32: Das gefällt uns dann wieder politisch nicht, weil wir eine andere Einstellung zur Migration haben als Japan, ohne das jetzt wegzumoralisieren.
02:17:39: Wenn man das mal anders sehr, in unserem progressiven Diskurs, wir sitzen ja hier in Berlin, da hört man so was wie das Indigene, wir müssen die Indigene Kulturen fördern und schützen.
02:17:49: Dann müsst ihr es aber zulassen, dass die Japaner nicht finden, dass sie Migration brauchen.
02:17:54: dass sie sagen, wir müssen unter uns bleiben, aus solchen kulturellen Traditionsgründen.
02:17:57: Ich sage weder jetzt, was moralisch richtig ist, noch was Falsches, sondern nur, wenn wir uns diesen Fall mal anschauen, zum Beispiel Japan, dann haben wir genau da die Mischung eines extrem tiefen, lange tradierten, emotional sehr fortgeschrittenen kulturellen Raums, der Extrem Technologieoffen ist, sodass man da eine Mischung hat aus totaler Zukunftsorientierung.
02:18:20: Die Stadt, die am nächsten am Blade Runner rankommt, ist immer noch Tokio.
02:18:23: Es ist immer noch die größte Stadt, die es jemals gab.
02:18:26: Und gleichzeitig eine der am besten organisierten Städte, die es jemals gab.
02:18:30: Tokyo ist zivilisatorisch und urban immer noch die größte Leistung der Menschheit.
02:18:34: Babylon ist ein Witz gegen Tokio, auch heute.
02:18:37: Daran hat sich noch gar nichts geändert.
02:18:39: Auch die großen Städte in China sind noch nicht so.
02:18:42: Also das ist eigentlich immer noch die führende Stadt Tokio.
02:18:46: Und da sollten wir was lernen.
02:18:48: und wie wenn die einfach recht haben in der Haltung.
02:18:50: Also ja, ein bisschen mehr Japan wagen, aber wir müssen uns das dann natürlich auf unsere eigene Weise tun.
02:18:56: Also man kann sich das einfach kopieren.
02:18:59: und da sind wir wieder zurück bei der Frage, wer wollen wir, wenn wir jetzt über uns in Deutschland reden, wer wollen wir als Deutsche sein und wie können wir uns verbinden?
02:19:07: und da könnte die Kainer Rolle spielen.
02:19:09: Und ja, ich hab das ganze Gespräch über eigentlich sagen wollen, ihr liebt euch, liebe.
02:19:15: Diese positiven Begriffe sind heute die radikalen Begriffe, liebe, das Gute.
02:19:21: Nicht mehr Kritik, Negativität.
02:19:23: Krieg.
02:19:24: Genau, aus Kritik und Negativität ist Krieg geworden, unbeabsichtigt.
02:19:28: Deswegen bin ich auch kein Fan der kritischen Theorie, die eben nach negativen Phänomenen und Pathologien der Moderne sucht, die gibt's zuhauf.
02:19:35: Sucht das Gute.
02:19:36: Sucht das Gute.
02:19:37: Das ist heute die, ich glaube, die radikale, progressive Position ist heute die Liebe.
02:19:45: Also besser wird's heute nicht mehr.
02:19:47: Ja, dann hören wir doch auf.
02:19:48: Würde ich sagen.
02:19:48: Sucht das Gute, Liebe ist die Antwort.
02:19:51: Also wir sind hippies.
02:19:53: Ja.
02:19:54: Aber es heißt ja nix.
02:19:57: Nach dem Hipster kommt der hippie.
02:19:59: Kommt der hippie.
02:20:00: Ja, wie schön, dass du wieder hier warst.
02:20:02: Es hat ordentlich in meinem Gehirn gebrutzelt, so wie ich es erwartet habe.
02:20:06: Du hast mich und damit natürlich auch die KI überrascht und damit auch allen anderen eine Freude bereitet.
02:20:11: Da bin ich mir ganz sicher und ich freue mich jetzt schon auf unsere nächste Begegnung.
02:20:13: Vielen, vielen herzlichen Dank.
02:20:14: Ja, danke für die wiederholte Einladung.
02:20:16: Schön.
02:20:24: Das war Markus Gabriel.
02:20:25: Vielen, vielen herzlichen Dank fürs Zuschauen und auch zuhören.
02:20:29: Ihr könnt's wahrscheinlich nicht sehen.
02:20:31: Auch nicht hören, aber mein Kopf rauscht.
02:20:33: Der rauscht so richtig, da ist ganz, ganz viel los und es wird noch ein paar Tage... dauern, bis sich das alles so gesetzt hat.
02:20:39: Wie ganz am Anfang gesagt, es ist jedes Mal wie so ein Art Status Update, den ich mache, wenn ich Markus treffe.
02:20:44: Und dieses Mal, glaube ich, wird es sein, wird sich das noch verfestigen.
02:20:48: Dieses klassische, ich will wissen, was ist das jetzt?
02:20:50: Was ist echt?
02:20:51: Was ist unecht?
02:20:52: Was ist die künstliche Intelligenz?
02:20:53: Was ist der Mensch?
02:20:55: Was ist ein menschliches Tun?
02:20:56: Was einen Computer tun?
02:20:58: Dass sich das vielleicht so ein bisschen auflöst und diese Vergleichsmomente und Einordnungsmomente verändern in so einer Art Einladung und sagen, okay, du bist jetzt Teil von meiner Welt, von der ganzen Welt.
02:21:12: Das heißt, ich muss mich da gar nicht mehr so sehr verhalten.
02:21:15: Dazu darüber muss ich mir gar keine Gedanken mehr machen, worüber ich mir Gedanken machen muss.
02:21:19: Und das fand ich großartig, dass er das gemacht hat, das Beste aus mir rauszuhören.
02:21:23: Also was ist wirklich gut und den moralischen Fortschritt voranzutreiben?
02:21:28: Weil das habe ich in der Hand, das kann ich machen.
02:21:30: Das bestimmt nicht irgendein Algorithmus oder... oder was auch immer, sondern das habe ich selber in der Hand.
02:21:35: Das fand ich total gut.
02:21:37: Ich fand dieses Tiefergehen, das Hinschauen auch etwas, was ich persönlich machen kann.
02:21:43: So muss ich nicht auf irgendwas warten auf einem gesellschaftlichen Wandel, sondern den kann ich irgendwie vorantreiben.
02:21:48: Fand ich gut.
02:21:49: Ich hätte es vorher eher so dummes demäßig erwartet, aber das war es gar nicht.
02:21:53: Und es hat mir sehr, sehr gut gefallen.
02:21:54: Und deswegen gehe ich mit dem rauschen in den Kopf, aber irgendwie auch einen guten Gefühl.
02:21:59: Richtung Zukunft und weiß, dass es ein bisschen unberechenbar werden wird in der nächsten Zeit, aber dass ich auch einiges davon dann doch in der Hand halte.
02:22:07: Ich bin gespannt auf eure Perspektive.
02:22:09: Wie immer schreibt mir gerne in die Kommentare bei YouTube oder bei Spotify.
02:22:12: Ich freu mich wahnsinnig, wenn ihr diese Folge weiterleitet, wenn ihr diesen Kanal abonniert.
02:22:16: Support ist kein Mod, nach wie vor nicht.
02:22:17: Und ich glaube, es gibt viele, viele Menschen, die diese Folge hören könnten.
02:22:20: Weil wenn Liebe die Antwort ist, dann kann man das nicht oft genug hören.
02:22:24: Vielen, vielen herzlichen Dank dafür.
02:22:25: Herzlichen Dank an Lukas Hambach für die Produktion, an Mitvergnügen für die Distribution und Vermarktung.
02:22:30: Und wenn ihr Lust habt auf eine weitere Folge rote Matze, dann möchte ich euch die Folge mit dem KI-Experten Gregor Schmeizried empfehlen.
02:22:37: Der hat mir G.B.T.
02:22:40: und all das nochmal so ausnahm.
02:22:41: Benutzerart, also eine Benutzeranleitung heraus erklärt, wie wir besser mit ChatGBT und Co.
02:22:50: umgehen können.
02:22:50: Das ist also eine bisschen praktischere Folge.
02:22:52: Schaut da und hört da gerne mal rein.
02:22:54: Ich wünsche euch noch einen schönen Tag.
02:22:55: Eine gute Nacht.
02:22:56: Auf bald.
Neuer Kommentar