#93 - Interview mit Marco Selva - Serienunternehmer, KI- & Datenexperte, Mitgründer von Ferris Labs & Solution
Shownotes
🎙️ Shownotes
CapricornConnect Podcast – Wie Daten & KI unsere Zukunft gestalten Gast: Marco Selva, Serienunternehmer, KI- & Datenexperte, Mitgründer von Ferris Labs & Ferris Solutions
Daten und künstliche Intelligenz verändern Wirtschaft, Gesellschaft und Arbeitswelt grundlegend – doch viele Unternehmen scheitern an der praktischen Umsetzung. In dieser Folge des CapricornConnect Podcasts spricht Jakob Barandun mit Marco Selva über die Realität hinter dem KI-Hype und darüber, wie Daten wirklich Mehrwert schaffen.
Marco verbindet technologische Expertise mit einem klaren Blick auf gesellschaftliche Entwicklungen, Leadership und Verantwortung.
Themen dieser Episode:
- Warum viele KI-Initiativen in Unternehmen nicht erfolgreich sind
- Die Rolle von Datenqualität und warum „mehr Daten“ nicht automatisch bessere Ergebnisse liefern
- Wie Datensilos Innovation verhindern und Organisationen ausbremsen
- Die politische Dimension von Large Language Models
- Gesellschaftliche Risiken durch fehlendes kritisches Denken
- Der Einfluss von Social Media auf Polarisierung und Meinungsbildung
- Welche Berufe durch KI verschwinden – und welche an Bedeutung gewinnen
- Warum Handwerks- und praktische Berufe ein Comeback erleben
- Weshalb die gesellschaftliche „Mitte“ für Stabilität und Fortschritt entscheidend ist
Für wen ist diese Folge relevant?
- Führungskräfte und Entscheidungsträger
- Unternehmer:innen und Start-ups
- Daten-, KI- und Technologieverantwortliche
- Alle, die die Auswirkungen von KI jenseits von Buzzwords verstehen wollen
Transkript anzeigen
00:00:06: Capricorn
00:00:06: Connect.
00:00:07: Mensch, Potenzial,
00:00:32: Technologie.
00:00:35: Daten, Technologie, wie sie damit umgehen und erfolgreich werden.
00:00:40: Marco selber freut mich, dass du heute da bist.
00:00:42: Wie geht's dir?
00:00:42: Vielen Dank.
00:00:43: Wunderbar.
00:00:44: Marco, wir hatten ja auch schon den Audiopodcast macht jetzt auch auf Video.
00:00:48: Freut mich ganz besonders, dass du da bist und ich würde einfach mal gern wissen.
00:00:52: Marco, was macht ihr bei Fairy Solutions genau?
00:00:56: Fairy Solutions, da geht es um eigentlich etwas ganz Einfaches.
00:00:59: Daten in einem Enterprise-Kontext so zusammennehmen, damit man AI sinnvoll einsetzen kann.
00:01:05: Das Problem ist, in Großunternehmen, vor allem sind die Daten irgendwelchen zielos versteckt.
00:01:11: Die können nicht miteinander reden.
00:01:12: und wie will KI als Intelligenz intelligent sein, wenn es die Daten darunter nicht sind.
00:01:19: Das versuchen wir zusammenzubringen.
00:01:21: Du hast ja selber auch gesagt, Daten sind diese wertvolle Ressource, das Öl der Neuzeit.
00:01:28: Was meinst du denn genau damit?
00:01:31: Wir haben ja heute das Thema Large-Language-Models, die Jajibites dieser Welt schießen die Pilze aus dem Boden.
00:01:38: Mittlerweile ein politisiertes Thema, können wir ja sicher auch noch darauf kommen.
00:01:44: Wie sind die so intelligent geworden?
00:01:47: Es sind die Daten, die im Internet zur Verfügung gestellt werden und jeder Mann abgreifen kann, mit denen wurden Intelligenzen trainiert.
00:01:56: Und nur weil Large Language Model Anbieter aus Daten quasi Intelligenz generieren können, heißt das ja, dass es die entscheidende Ressource ist, Intelligenz zu produzieren, ohne Daten keine künstliche Intelligenz.
00:02:12: Also Daten sind unglaublich wichtig, die Basisressource, die man braucht, um überhaupt mit künstlicher Intelligenz arbeiten zu können.
00:02:21: Genau,
00:02:21: genau.
00:02:22: Und was ganz wichtig ist, die Datenqualität.
00:02:29: Solange die Daten, die jetzt mit den KI's trainiert werden, in Anführungszeichen stimmen, dann kommen intelligente Algorithmen auch tatsächlich daraus.
00:02:43: Wir leben in einer Gesellschaft von immer mehr Fake News.
00:02:46: Ich bin gespannt, wohin die Reise geht, wenn die Trainingsdaten immer schlechter werden und wir dann die Resultate dann entsprechend auch.
00:02:55: Das wird noch ein interessanter Weg, der vor uns steht.
00:02:57: Also
00:02:57: Daten sind nicht gleich Daten?
00:02:59: Nein.
00:03:00: Marco, was kommen für gesellschaftliche Veränderungen auf uns zu?
00:03:07: Ich habe es ganz kurz angetönt.
00:03:09: Large Language Model wird politisiert letztlich.
00:03:14: Ich möchte unbedingt ganz klar einen Raum stellen.
00:03:19: Large Language Model ist nicht AI.
00:03:22: Das ist einer von etwa sieben, acht der Technologien, die im Einsatz sind.
00:03:27: Ich komme noch aus der klassischen Pattern-Recognition Welt mit Machine Learning.
00:03:31: Aber das ist quasi so, wie sich das ein Laie heute vorstellt, ist AI gleich Chatshipity.
00:03:38: Es ist viel mehr.
00:03:39: Wenn ich mich jetzt aber nur auf die ganze... Large-Language-Modelwelt-Beschränke ist es unglaublich, was für mittlerweile ganz anständige Antworten zurückkommt und wie es die Gesellschaft verändert ist für mich eigentlich relativ klar.
00:03:59: Ich komme noch aus einer Welt, ich kann einen Prompt, der nicht als Antwortkriege beurteilen, weil ich den Kontext kenne, weil ich den Background hab.
00:04:08: Wie will das?
00:04:09: jemand, der zwanzig Jahre ist und die seine Erfahrung nicht hat?
00:04:12: Der muss ja per Definition die Antwort als gegeben nehmen.
00:04:16: Also Stichwort Halluzination wird er nicht wahrnehmen können.
00:04:20: Wenn man das durch eine Welt extrapoliert, die so politisch aufgeladen ist, ist das eine schwierige Ausgangslage, dass die Leute nicht mehr in der Lage sind, kritisch zu denken, Sachen zu hinterfragen.
00:04:36: und mit einem wissenschaftlichen Approach an die eigene Meinungsbildung herangehen.
00:04:44: Das heißt, du meinst, dass die gesellschaftlichen in die Richtung verändert hat, dass die Leute weniger kritisches Denken haben als, ja, ich sag mal, vor vor vor vor zwanzig, dreißig Jahren vielleicht?
00:04:56: Absolut.
00:04:57: Man wird denkbar.
00:04:59: Aufgrund von der Language Models oder ChatGBT.
00:05:02: Also man gibt alles, man bildet sich eine Meinung, gibt etwas in ChatGBT ein und hat eine vorgefertigte Meinung.
00:05:11: Man sieht es ja auch teilweise schon in den Schulen.
00:05:13: Da kommen wir jetzt auch zum Thema Ausbildung und Bildung, wenn jetzt ein Lehrer einen Aufsatz verlangt.
00:05:22: Ich kann ja jetzt einfach ChatGPT einen Auftrag eingeben, kriegt dann den perfekten Aufsatz und muss dann gar nicht mehr denken.
00:05:29: Genau.
00:05:30: Und ich denke, ich habe die Politisierung erwähnt, mittlerweile geht es eigentlich, hinter KI steckt letztlich die Frage, welche Wertesysteme in der Welt sind die überlegenen, also Stichwort Amerika versus China.
00:05:47: Dahinter steht auch, kann genügend Energie produziert werden, um diese Rechenzentren, die es braucht, für dieses Wachstum zu erzeugen und dieses Ever-Growing, dieses Thema Ever-Growing weiterzuführen, ob die überhaupt zur Verfügung stehen.
00:06:03: Da steht uns auch, was die Energieknappheit betrifft, die das mit sich bringt.
00:06:09: Da stehen noch harte Zeiten vor uns.
00:06:13: Ich bin auch stolz, dass die Schweiz auch jetzt in das Rennen einsteigt, der Perthus-ETH, dass man zumindest auch beginnt, sich zu überlegen, dass die Large-Language-Model auch eine politische Dimension haben.
00:06:27: Wenn ich ein amerikanisches Modell brauche, bezahle ich einmal auf der einen Seite.
00:06:37: den Service, ich bezahle aber auch mit meinem Daten und ich bezahle auch, dass ich helfe ein System zu trainieren, dass das System besser macht.
00:06:45: und meine Konkurrenz, mein Nachfolger profitiert dann von besser trainierten Antworten oder besser trainierten System.
00:06:54: Und das ist letztlich etwas, was immer unterschätzt wird, um welchen Wert wir als Benutzer einem Large Language Model zurückgeben und diesen Mehrwert ist die Frage, wer kassiert jetzt diesen Mehrwert?
00:07:08: Solange der gesellschaftlich fair verteilt wird in einer Gesellschaft, wo es nach den Bedürfnissen der Menschen erfolgen sollte, ist das eine gute Sache.
00:07:21: Sollte aber dieser Mehrwert allein den Tech Companies gehören, dann haben wir mittelfristig ein gesellschaftliches Problem.
00:07:30: Das heißt, da kommen noch einiges auf uns zu und da muss ja auch die Politik eine Verantwortung übernehmen.
00:07:36: Absolut,
00:07:37: absolut.
00:07:38: Marco, du hast auch unsere Zeit angesprochen, die sehr politisch aufgeladen ist.
00:07:44: Also es gibt ja, früher hatten wir immer so den Discours.
00:07:47: Ich habe eine Meinung, du hast eine Meinung und irgendwo findet man sich.
00:07:51: Aber heutzutage schlägt man ja sich teilweise auch ziemlich die Köpfe ein und der Konsens wird ein bisschen weniger gesucht.
00:07:59: Woher kommt das?
00:08:00: Ist das jetzt eine Ursache der neuen Technologie oder ist es einfach eine gesellschaftliche Entwicklung?
00:08:06: Wie kannst du dir das erklären?
00:08:07: Dass es so dieses Tribal-Denken gibt.
00:08:12: Du hast nicht meine Meinung, dann bist du nicht mein Freund.
00:08:15: Also, woher kommt das?
00:08:18: Ja, da ist ein Large-Language-Models festzumachen.
00:08:21: Das greift zu kurz, selbstverständlich.
00:08:25: Ich denke, Social Media haben die... haben die Eigenschaft, dass sie polarisieren aus einem simplen Grund.
00:08:36: Und das ist nichts Neues, dass so funktionieren Medien.
00:08:39: Spannende Artikel müssen aufreißerisch mit einer Headline aufgebaut werden, damit sie gelesen werden.
00:08:50: So haben die Medien immer funktionierten.
00:08:52: Da ist Social Media eigentlich ja gar nichts Neues.
00:08:54: Was sich für mich aber verändert hat, Zeitungen wurden doch mehr oder weniger von Profis erstellt, das waren in der Regel Journalisten, die haben eine journalistischen Background, die wissen, wie man Stories schreibt, die wissen aber auch, wie man möglichst ausgewogen, fagtenorientiert schreibt und das dann halt einfach so verkleiden, dass es ein bisschen attraktiver daherkommt.
00:09:19: Social Media hat die ganze Welt zu Creators gemacht und die folgen nicht diesen journalistischen Standards.
00:09:27: Ich behaupte jetzt, es sind ja nicht alles polarisierende Menschen, die jetzt irgendwelchen Content kreieren, aber die höchste Klickrate haben diejenigen, die am lautesten bellen.
00:09:41: Also, sprich, clickbait wird da wirklich systematisch angewendet.
00:09:47: Also, ich muss möglichst eine schräge Meinung haben, eine völlig verquere Meinung oder eine hochaggressive Meinung.
00:09:56: Das wollen, da klicken die Leute drauf und das kreiert Content.
00:10:01: Und ich glaube, das ist für mich der Unterschied.
00:10:02: Die Medien haben immer schon so funktioniert, aber plötzlich sind die Medien quasi demokratisiert worden.
00:10:08: Jeder kann als Content-Creator reinschreiben und diese Elektion über die Algorithmen erfolgen, über die extremen Meinungen.
00:10:17: Und ich denke schon, dass in unserem politischen Diskurs damit auch ein Stück weit diese Mitte verloren gegangen ist.
00:10:24: Und dann auf deine Frage zurückgekommen, wie haben die Mitte verloren?
00:10:29: Wir hören extreme von zwei Seiten und sind nicht mehr in der Lage, irgendwo diesen klassischen, ich sag den der Schweiz, sagen wir mal in diesem klassischen Konsens, irgendwo auch noch zu zelebrieren, sondern man konsumiert... immer in seiner eigenen Echo-Chamber sein Thema auf seine Art und versteht gar nicht mehr, wie die Welt um sich herum wirklich funktioniert.
00:10:51: Siehst
00:10:51: du da auch eine Gefahr, dass man zu sehr dann in seiner eigenen Blase dann ist und dass man dann sich bestätigt von derselben Meinung?
00:10:58: Absolut,
00:10:59: absolut.
00:11:00: Wo siehst du dann eine Gefahr?
00:11:02: Ja, also wenn ich mir die politische Entwicklung in den USA heute anschaue, dann frage ich mich, Wie ist das alles möglich, dass sich ein Land schleichend wirklich zu einer Diktatur verwandelt?
00:11:16: Und der Schlüssel liegt ganz klar in dieser Art und Weise, wie Medien dargestellt sind, dass Fakten plötzlich nur noch eine Meinung sind und nicht mehr Fakten.
00:11:28: Es gibt eine Studie, die belegt, dass in Deutschland auch in den Menschen Fakten als Meinung wahrnehmen und nicht als Fakten.
00:11:38: Sie verstehen nicht, was das Wort Fakt heißt, sondern es ist für sich eine weitere Meinung.
00:11:43: Und ich denke auch die ganze Corona-Situation mit dieser aufgeladenen Situation hat ja auch dazu geführt, dass die Wissenschaft als Fach, die früher ... Ja, wurde kaum wahrgenommen.
00:11:58: Und jetzt redet uns die Wissenschaft in unseren Alltag rein, was wir zu tun haben, was wir nicht zu tun haben sollen.
00:12:04: Also da geht es um die Medizin.
00:12:06: Was jetzt Virologen finden, ist das Richtige.
00:12:09: Da haben die Leute plötzlich das Gefühl, sie reden nicht in einem wissenschaftlichen Diskurs, sondern da hat jemand eine Meinung und ich habe eine andere.
00:12:18: Und es gibt jetzt mittlerweile eben auch diese Social-Midias, wo ich diese Meinung vertreten kann.
00:12:24: Weil man sich ja als Mensch gesehen, man sich gerne zu denen, die ähnlich denken, ist es sehr viel einfacher geworden, diese Art von Ähnlichdenken zu finden und sich mit ihnen nachher auszutauschen.
00:12:37: Und ich denke, plötzlich steiger man sich da in diesen Gruppen in Wasser rein, was dann immer abstruser wird.
00:12:44: Und um auf die politischen Veränderungen in den USA den Bezug nehmen, ich denke, das hat Parallelitäten.
00:12:52: Wie kann plötzlich eine vermeintliche Wahrheit, die mein Leben lang immer klar unangefordert, es gibt Fakten, die sind richtig, bis sie widerlegt sind.
00:13:02: Das ist ein Prozess, quasi überboten werden mit Meinungen, die je abstruser sie sind, mehr Anhänger finden.
00:13:11: Das ist für mich die Frage, steuert das jemand, was steht wirklich dahinter?
00:13:20: Und vor allem, wie wird das jetzt im speziellen Situation wie in den USA eben auch politisch genutzt für die eigenen Zwecke?
00:13:28: Irgendjemand hat ja immer gesagt, war das Goebbels, glaube ich, oder Hitler.
00:13:30: Je größer die Lüge, desto mehr Leute glauben es.
00:13:35: Das ist ein bisschen was wahres dran.
00:13:37: Genau.
00:13:38: Und
00:13:40: die Stimme der Vernunft ist leise.
00:13:43: Und eben nicht
00:13:44: langweilig.
00:13:45: Und
00:13:45: langweilig,
00:13:46: ja.
00:13:47: Marco, das heißt also... Unsere Debattenkultur ist doch dann sehr hoch emotionalisiert geworden.
00:13:53: Also Emotion hat fast die Wahrhaftigkeit oder Wahrheit oder die Fakten ersetzt, kann man ja fast sagen.
00:14:01: Genau,
00:14:02: genau.
00:14:04: Und die Unfähigkeit, aufeinander noch zuzugehen, wenn man anderer Meinung sind, es polarisiert sich immer.
00:14:11: Ich denke, wir sind in der Schweiz noch mit unserer Debattenkultur und wie wir unsere politische Meinungen doch im Sinne einer klassischen Meinungsbildung mit Fernsehen, Arena etc.
00:14:24: Ich finde das eigentlich unglaublich reif, wie wir versuchen in der Schweiz unsere Themen anzugehen.
00:14:30: Aber auch hier sehen wir die Tendenzen... Sowohl auch von links als auch rechts, dass dieser Art und Populismus immer mehr um sich greift und diese Debattenkultur immer zu kurz
00:14:43: kommt.
00:14:43: Ja, was mir hat auch aufgefallen, vor allem bei der neuen Generation ist das Fernsehen, vor allem bei der neuen Generation, das war ja das Hauptmedium.
00:14:50: Also als ich aufgewachsen bin, gab es ja noch drei, also es gab damals den ARD ZDF und das dritte.
00:14:58: Das war das einzige Fernsehmedium oder Medium, was wir hatten.
00:15:02: Und mittlerweile schauen die Jungen gar kein Fernsehen mehr.
00:15:07: Das ist ja auch eine interessante Entwicklung.
00:15:10: Absolut.
00:15:10: Und wenn man YouTube und den ganzen Katalog vor sich hat und sieht, dass man sich auswählen kann, was man gucken möchte.
00:15:23: Ich hatte noch nie einen Fernseher zu Hause und seit es YouTube gibt, muss ich tatsächlich zugeben.
00:15:30: Ich gucke dann eben meinen Content.
00:15:32: Meistens sind das wissenschaftliche Sendungen, die mich interessieren.
00:15:35: Aber ich habe plötzlich Zugriff auf Wissen, das ich früher nicht hatte.
00:15:40: und das mich immer brennend interessiert hat.
00:15:42: Also auch hier, damit den Messer kannst du Leute umbringen oder die Karotten schälen, das ist nicht das Schuld des Messers, sondern es ist immer der Nutzer, der letztlich aus dem Messer eine Waffe oder etwas Friedliches macht.
00:15:56: Und ich denke, das ist genau auch bei YouTube und anderen Social-Media.
00:16:00: Absolut.
00:16:01: Marco, wir haben ja viel mit dem Arbeitsmarkt auch zu tun.
00:16:05: Mich würde mal deine Perspektive gerne interessieren.
00:16:09: Wie siehst du den Einfluss von der neuen Technologie jetzt auf, also im Punkt und Daten KI, auf den Arbeitsmarkt?
00:16:16: Also wie wird sich der Arbeitsmarkt verändern?
00:16:18: Für mich ist die ganz große Frage, die im Raum steht, um die Arbeitsmarktfrage dann damit indirekt zu beantworten ist, ist AI ein Hype?
00:16:28: Ist es die nächste, wie die Dotcom-Base?
00:16:30: Oder ist da mehr dran?
00:16:31: Und ich glaube an dieser Fragestellung, die sich nicht so einfach erklären lässt, wird sich dann auch zeigen, wie dann die Auswirkungen auf den Markt sind.
00:16:39: Wenn das ein Hype ist, der vorbei geht, dann ist die Auswirkung in den Markt relativ glimpflich, dann kommt es auch ergänzend dazu, aber wird nicht das neue Standbein, auf der die zukünftigen Wirtschaftssysteme gebaut werden.
00:16:55: Weil das ist ja die Wette, die letztlich Trump eingeht.
00:16:58: Mit seiner großen Schuldenlast ist die einzige Möglichkeit, wie er diese wieder wegbringt, ist ... bedingungslos quasi eine neue Grundlage zu schaffen, wie die ganze Wirtschaftsordnung im eigenen Land aufgestellt ist.
00:17:13: Mit einem extremen Produktivitätsbus.
00:17:17: Jetzt gehen wir davon aus und wo stehen wir mit AI jetzt in der Anwendung?
00:17:22: Wir stehen eigentlich genau dort, dass es in allen Unternehmungen verwendet wird, aber in der Regel sehr schlecht umgesetzt wird.
00:17:29: Darum auch mein Unternehmen, das versucht dort, bessere Weichenstellungen, die Daten besser zusammenzubringen, weil AI allein macht nicht Intelligenz, sondern die Daten dazu.
00:17:39: Und da ist für mich die entscheidende Frage, was das beim Arbeitsmarkt auswirkt.
00:17:44: Wenn dieser Hype ... sagen wir zugrunde geht, dann ist es wahrscheinlich nicht, weil es die Technologie es nicht hergeben würde, sondern weil es die Leute zu schlecht angewendet haben, dass es zu diesen Veränderungen führt.
00:18:00: Dann kommt es zu Enttäuschungen.
00:18:01: Nach der Enttäuschung ist vielleicht doch nix.
00:18:04: Und dann braucht es vielleicht eine two dot zero, wie bei der Dotcom Blase braucht es einen Internet zwei Punkt Null, bis es vielleicht dann später wieder kommen könnte.
00:18:12: Also das ist für mich die Frage, die Wette, die da im Raum steht.
00:18:16: Im Moment, wenn man den Auguren glauben möchte, dann sieht das Raben-Schwarz aus für alle Wissensarbeiter.
00:18:30: Früher wurden halt die einfachen Bürojobs rationalisiert.
00:18:33: Jetzt kann man auch vom Juristen bis zu einer Regulatory-Fachperson eigentlich KI-mäßig alles... mindestens gleich gut anbieten.
00:18:50: Also für mich ist da wirklich die Frage, wie geht das dort weiter?
00:18:55: Ich persönlich glaube, dieses Obe wird nicht so heiß gegessen, wie sie gekocht wird.
00:19:02: schlicht untergreifen nicht weil es die technologie her gibt sondern weil die adaption in der wirtschaft einfach viel viel langsamer vorwärts geht als es theoretisch möglich wäre.
00:19:12: und ich finde das ist gut.
00:19:14: also nicht so viel dem halb glauben oder es wird auch viel natürlich in den medien viel angst gemacht natürlich auch.
00:19:24: Das heißt, da auch behutsam damit umgehen und sich nicht aus der Ruhe bringen lassen.
00:19:29: Es gibt übrigens einen Trend, der mein Sohn, der jetzt studiert, der studiert, Jura, gesagt hat, Papi, weißt du, dass jetzt im Moment die lehrberufe, die handwerkliche Lehrberufe einen Riesenboom bei meinen Kollegen haben.
00:19:45: Und ich gesagt, oh, wow, nein, wusste ich nicht.
00:19:47: K.I.
00:19:47: geschuldet.
00:19:49: Die Leute haben verstanden, dass es nicht KI gefährdet, wenn ich ein guter Handwerker werde.
00:19:55: Und ich denke, das hat ja was Gutes.
00:19:57: Wir haben genau diesen Mangel und wenn sich der Markt in diese Richtung orientiert und die Leute das von früher schon feststellen, dass ich da ein längerfristiger Job habe, der mir sicher ist, ist das auch
00:20:11: gut.
00:20:11: Absolut, absolut.
00:20:13: Marco, zum Abschluss hätte ich noch auch ein paar persönliche Fragen an dich, damit unsere Zuschauer dich auch ein bisschen von der persönlichen Seite kennenlernen.
00:20:21: Ich frage immer gerne die Frage, welche Superpower hättest du gerne.
00:20:25: Also, ich gebe dir jetzt einen Wunsch frei.
00:20:27: Du kannst mir in der Superpower heute das Büro verlassen.
00:20:31: Was würdest du dir aussuchen?
00:20:35: Ja, passend zum Thema.
00:20:37: Mitte finden, Leute zusammenzubringen, die jetzt die Extrempositionen aufzulösen, Fähigkeiten haben, den Leuten zuzuhören, ohne ihnen das Gefühl zu geben, du hast Unrecht, Fähigkeit den Leuten wieder... wieder die Fähigkeit geben einander zu trauen und nicht nur zuzuhören, sondern auch zu trauen, um eigentlich dieser ganz gefährlichen Entwicklung entgegenzuwirken.
00:21:02: Wir brauchen die Mitte.
00:21:04: Wir brauchen die Mitte.
00:21:05: Gibt es eine Autobiografie, die wir kaufen?
00:21:08: Das heißt, wenn du dir eine kaufen würdest, welche würdest du dir kaufen?
00:21:12: Da gibt es ganz viele.
00:21:14: Aber für mich ist ein erster Mandela wahrscheinlich auch, wenn das abgetroschen klingt, einer der wichtigsten Integrationsfiguren, der genau dieses geschafft hat.
00:21:22: Und ich denke, wenn man seine Geschichte kennt, wie er in den Gefängnissen letztlich auch geläutert wurde, weil er genau diesen Denkprozess durchgemacht hat, rauskommen und mit noch mehr Hass in diese Welt zu gehen oder rauskommen und sagen, ja, was können wir machen, um aufeinander zuzugehen?
00:21:43: Und ich denke, hätte es diese Person nicht gegeben, würden wir gar nicht das Gefühl haben, dass so etwas überhaupt möglich ist.
00:21:50: Und wenn man den Appartheit startet und dort, wo er sich dann aufgelöst hat, denkt und wie er versucht hat, diese eigentlich diese absolut unvereinbaren Fronten zusammenzubringen und was er gemacht hat, das ist für mich eindrücklich und das ist für mich das Paradebeispiel.
00:22:06: Es geht ja doch.
00:22:08: Auf jeden Fall.
00:22:09: Gibt es einen Satz, Motto, Credo oder Mission Statement, was dich beeinflusst oder nachdem du lebst?
00:22:17: Ja, wisse wer du bist, sonst kannst du machen, was
00:22:20: du willst, du tust das falsche.
00:22:22: Gefällt mir gut.
00:22:24: Und zum Abschluss, wie wird KI dein Leben in zwei Jahren verbessern?
00:22:31: In zwei Jahren?
00:22:32: Also ich denke, es wird letztlich darauf hinauslaufen, dass meine Arbeitsprozesse einfacher unterstützt werden, also wenn jetzt ein Large Language Model geht.
00:22:43: Ich denke, wir werden schon mal die ersten.
00:22:45: Roboter oder so sehen, die mittelfristig dann halt vielleicht diesen Gap, den ich ein Pflegepersonal haben, vielleicht Welt machen können.
00:22:53: Ich wäre persönlich froh, wenn mich ein Pflegeroboter pflegt, weil es wahrscheinlich nicht genügend Menschen mehr gibt, die das tun können.
00:22:59: Das ist da die längerfristige Perspektive.
00:23:02: Also mich schreckt es das weniger wie andere und das ist für mich die persönliche Seite an KI für die Zukunft.
00:23:08: Vielleicht wird jetzt auch damit für mich eben auch im Alter
00:23:11: gesorgt.
00:23:12: Marco Selva, Serienunternehmer und Gründer von Ferris
00:23:16: Lab
00:23:16: und Ferris Solutions, hat mir sehr viel Freude gemacht.
00:23:19: Vielen Dank, dass du heute da warst und ich wünsche dir weiterhin viel Erfolg und ja, und jetzt natürlich bald frohe Weihnachtung.
Neuer Kommentar