Herzlich willkommen zu einer neuen Folge von Digital Breakfast!
Stell dir vor, deine nächste Beförderung wird von einer künstlichen Intelligenz entschieden – wie würdest du dich dabei fühlen?
In dieser Episode dreht sich alles um Vertrauen in KI und wie Künstliche Intelligenz unseren Arbeitsalltag sowie wichtige Entscheidungen im Unternehmen beeinflusst.
Host Patrick Seibold begrüßt Prof. Dr. Michael Groß, einen der erfolgreichsten deutschen Schwimmer und heutigen Experten für Transformation und KI in Unternehmen.
Gemeinsam werfen sie einen Blick auf eine aktuelle Studie, die zeigt, wie verbreitet KI tatsächlich schon im Berufsalltag ist, wo Mitarbeitende und Führungskräfte Chancen, aber auch große Vorbehalte sehen – besonders, wenn es um persönliche Themen wie Beförderungen oder Gehaltsentscheidungen geht.
Wo zieht der Mensch die Grenze zwischen Mensch und Maschine, wem vertrauen wir mehr und wie sollte der richtige Umgang mit KI aussehen? Diese und viele weitere spannende Fragen erwarten dich in dieser Episode.
Viel Spaß beim Zuhören!
Der dazugehörige Live-Stream findet am 13.05.2025 um 17:30 Uhr statt.
TRANSKRIPT
Patrick Seibold [00:00:00]:
Stell dir vor, deine nächste Beförderung wird von einer KI entschieden. Künstliche Intelligenz verändert die Art, wie wir im Job Entscheidungen treffen und wirft dabei Fragen auf, die jeden von uns betreffen. Wie viel Kontrolle geben wir ab? Welche Rolle spielt unsere Führungskraft dabei? Und vor allem, wem vertrauen wir mehr? Mensch oder Maschine? In der heutigen Folge des Digital Breakfast geht es Entscheidungen und Vertrauen in die KI. Ich bin Patrick Seibold und heute zu Gast bei mir Professor Dr. Michael Kroos. Michael Kroos ist Professor an der Goethe-Universität in Frankfurt. Er ist Unternehmensberater und er wird viel noch unter einem anderen Namen bekannt sein, nämlich Albatros. Mit 21 Titel gewinnen bei Olympischen Spielen, Welt- und Europameisterschaften gilt er als zweiterfolgreichster deutscher Schwimmer aller Zeiten.
Patrick Seibold [00:00:57]:
Hallo Michael, schön, dass du da bist.
Michael Groß [00:01:00]:
Ja, hallo Patrick, vielen Dank für deine Einladung.
Patrick Seibold [00:01:02]:
Michael, künstliche Intelligenz ist ja in aller Munde. Und ihr habt etwas sehr Spannendes gemacht. Ihr habt eine Studie zum Thema KI-Entscheidungen und Vertrauen gemacht. Und was ich da besonders spannend finde, ist ja dieser Blick sozusagen in die Unternehmen rein. Wie wird KI gelebt? Was sind Dinge, die sofort funktionieren? Was vielleicht auch weniger? Kannst du vielleicht uns am Anfang so ein bisschen abholen und ein paar Worte zu der Studie sagen? Wer war daran beteiligt? Wer waren die Studienteilnehmer?
Michael Groß [00:01:35]:
Also, erstmal vielen Dank, dass ich über dieses Thema reden darf, weil, wie ich es gerade schon sage, ich habe ja eine andere Herkunft, aber beschäftige mich seit 30 Jahren mit dem Thema Transformation. Und da gehört natürlich das Thema künstliche Intelligenz seit mehreren Jahren, nicht jetzt erst seit zwei, drei Jahren schon dazu, die man die Arbeitswelt von morgen gestalten kann. Das ist mein Thema. Habe dazu ja auch ein Buch gemacht vor einem Jahr KI-Revolution der Arbeitswelt. Also das Ganze habe ich mir jetzt nicht quasi aus dem rohlen Bauch ausgesucht. Und deshalb gibt es dann auch die Partner, die wir jetzt zusammen da getrommelt haben für diese erste Studie zum den Weichenfaktoren. Das ist einmal das Center for Leadership in Behavioural Organizations von der Goethe-Uni, die auch die Umfrage durchgeführt haben. Dann das Deutsche Forschungszentrum für Künstliche Intelligenz in Berlin, haben wir mit ins Brot geholt.
Michael Groß [00:02:24]:
Und ganz wichtig war natürlich dann auch noch die Frankfurter Allgemeine Zeitung, die das Ganze dann verbreitet hat und da exklusiver Medienpartner ist bei dieser Studie. So, und dann haben wir eine Umfrage gestartet, die über 1.000 Mitarbeiterinnen und Fügungskräfte ausgefüllt haben, also sehr breit angelegt und sehr intensiv, und haben dann wirklich herausgefunden, dass die weichen Faktoren, die du gerade schon in der Anmoderation angesprochen hast, nämlich das Thema Vertrauen und Akzeptanz in Entscheidungen, die von KI getroffen werden oder zumindest beeinflusst werden, elementar sind, dass die möglichen Mehrwerte, die diese künstliche Intelligenz erzeugen kann, auch umgesetzt werden. Kurz gesprochen, das ist so ein Klassiker im Transformationsmanagement bei mir schon seit vielen, vielen Jahren, die harten Faktoren, also Die Technologie, sind core to play, sind also Kern, dass man überhaupt mitspielen kann, so wie im Sport, auf dem Fußballplatz, wer nicht Fußball spielen kann, der sollte nicht auf den Platz gehen. Aber die weichen Faktoren, die sind der Schlüssel zum Erfolg, key to win auf Englisch. Und die weichen Faktoren in diesem Fall ist das Thema Vertrauen und Akzeptanz. Also in sofern die Ergebnisse zeigen das sehr eindrücklich, dass es da ganz klare Grenzziehungen gibt aktuell, wo Mitarbeiter und Führungskräfte sagen, also bis dahin kann die KI gehen, aber hier haben wir doch ganz, ganz wenig Vertrauen.
Patrick Seibold [00:03:54]:
Das ist sehr, sehr spannend. Du hast gesagt, eingangs über tausend Teilnehmer. Ich möchte ein bisschen einsteigen in die KI-Nutzung. Ich muss persönlich sagen, ich war überrascht, wie hoch die Nutzung von KI bereits in den Unternehmen verbreitet ist. Auch nochmal vielleicht so ein bisschen an die Zuhörer, was jeder schätzt, wie hoch es ist. Tatsächlich liegen wir da im Bereich von 80 Prozent bei euren Befragungen. Ist das ein Ergebnis, wo du auch überrascht warst oder hast du schon gesagt, nee, das ist inzwischen schon so etabliertes Thema?
Michael Groß [00:04:28]:
Also überrascht war ich persönlich nicht. Gibt ja ein Unternehmen, was ich häufig mittlerweile feststelle, sogar schon das Problem der sogenannten Schatten-KI. Das ist beispielsweise, dass Mitarbeiterinnen oder Führungskräfte KI nutzen, mehr oder weniger informell für Texte erstellen, für alle möglichen kleineren Co-Pilot-Funktionen, ohne dass das im Unternehmen reguliert wird, sondern das macht man mehr oder weniger so halb privat. Und das ist natürlich eine Herausforderung, da kann es schnell mal, wenn man Unternehmensdaten damit verknüpft und zwar gar nicht böswillig, sondern einfach so aus praktischen Gründen natürlich schon zu ziemlichen Problemen kommen. Insofern waren die 80 Prozent nicht überraschend. Was dann deutlich geworden ist, dass bei den 80 Prozent viele dabei sind, die wirklich das für Anwendungen machen, die wir alle kennen, nämlich Zusammenfassung von Texten, Terminplanungsthemen, Präsentationsthemen. Nur wenn es richtige, harte Geschäftsprozesse geht und du hast ja schon in der Anmoderation einen Punkt genannt, nämlich Karriereentscheidungen, Leistungsbewertung beispielsweise, dann bricht das Vertrauen sofort runter. Also ganz signifikant.
Michael Groß [00:05:35]:
Das hat uns dann schon überrascht, dass man sagt, okay, so die netten Geschichten, die so unkritisch sind und die auch in unser Beruf und in unsere alltägliche Arbeit nicht eingreifen und meine Zukunft der Arbeit nicht wirklich eingreifen, nämlich einen Text zusammenzufassen beispielsweise, da sind wir absolut okay mit KI. Wenn es darum geht, wie sieht meine künftige Karriere aus, Stichwort Beförderung, und zwar sogar schon die Empfehlung, also die Vorbereitung aus vielen unendlichen Daten. Oder auch, wie geht es Einstellungsentscheidungen oder Gehaltsempfehlungen? Da sieht die Welt ganz anders aus. Da sagen viele, Moment mal, das geht mir zu weit. Und da gibt es auch einen Unterschied zwischen Mitarbeiterinnen und Mitarbeitern, und zwar wirklich signifikant, sogar für wissenschaftlich signifikant, und Führungskräften. Beispiel Beförderung. Führungskräfte sind wesentlich eher bereit, Empfehlungen der KI dort wahrzunehmen und vertrauen denen als Mitarbeiterinnen und Mitarbeiter. Die sagen sich, nein, also das Vertrauen, in diesem Fall auf einer Skala von 1 bis 7, liegen wir dort bei den Mitarbeiterinnen und Mitarbeitern beinahe zwei und bei den Führungskräften schon in Richtung drei, was signifikanter Unterschied ist bei dieser Zahl, die wir untersucht haben.
Michael Groß [00:06:57]:
Warum ist das so? Kann man natürlich orakeln. Ein Punkt wird sicherlich sein, dass so etwas natürlich eine Arbeitserleichterung ist für Führungskräfte, wenn sie dort schon Empfehlungen bekommen und sie sich weniger Arbeit machen müssen, die ganzen Daten zu bewerten etc.
Patrick Seibold [00:07:14]:
Und das vielleicht noch mal kurz in den Kontext zuzurücken, auch für die Zuhörer. Wir haben eine 80-prozentige Nutzungsrate in den Unternehmen und es gibt einen Unterschied zwischen keine Führungskraft und Führungskraft. Das heißt, die Führungskräfte sind durchweg stärker vertreten in der KI-Nutzung als keine Führungskräfte, was auch schon mal ein sehr spannender Punkt ist und auch das aufgreift, was du gerade gesagt hast, Michael, nämlich Arbeitserleichterungen in Entscheidungen. Wenn wir noch mal ein bisschen tiefer einsteigen in dieses Thema, wie sehr wird künstlicher Intelligenz vertraut? Was sind für den Zuhörer da so die Top 3 nochmal, wo sie sagen, da vertraue ich komplett oder sehr, sehr stark, habe ich völliges Vertrauen vielleicht sogar? Und was sind vielleicht nochmal auf der anderen Seite die drei Bereiche, wo KI noch gar nicht eingesetzt wird und auch nicht vertraut wird.
Michael Groß [00:08:07]:
Also ich denke, völliges Vertrauen gab es an keinem Punkt. Das wäre auf einer Skala von eins bis sieben natürlich alles über sechs. Und das gab es Selbst bei der Zusammenfassung von Texten nicht. Da liegen wir bei 5, 6 Führungskräfte und 5, 4 Führungskräfte. So, jetzt deine Frage. Also, der erste Punkt ist ganz klar, dass KI unterstützende Funktionen haben kann, aber kein Ersatz für menschliche Entscheidungen. Ja, ich gebe mal ein Beispiel, was ein sehr spannendes Ergebnis war. Wir haben ja verschiedene Szenarien gehabt, das heißt, die Befragten wurden in verschiedenen Szenarien konfrontiert.
Michael Groß [00:08:44]:
Wir wussten nicht, dass es verschiedene gibt, das wussten wir und haben dann geguckt, wie denn dann das Vertrauen von diesen Szenarien sich darstellt. Überraschenderweise war es so, selbst wenn die KI eine positive Entscheidung trifft, zum Beispiel über eine Erhöhung des Bonus, Also man bekommt mehr Geld, weil die KI festgestellt hat, ich hab einen guten Job gemacht und ich hab das Recht, mehr Geld zu bekommen. Selbst so eine Entscheidung, die man ja sagen könnte, prima, ja, läuft ja besser als erhofft, ich bekomme mehr Geld, hat einen wesentlich höheren Bedarf an Diskussionen, als wenn ein Mensch das entscheiden würde. Also generell ist der Diskussionsbedarf bei Entscheidungen mit KI wesentlich höher. Weil wenn KI bestimmte Entscheidungen ersetzt von Menschen, man grundsätzlich so eine Art Akzeptanzproblem hat. Das war also für uns auch überraschend, selbst bei positiven Entscheidungen. Deshalb sollte KI nicht autonom entscheiden. Das zeigen uns Daten ganz klar, und zwar bei wesentlichen Geschäftsprozessen.
Michael Groß [00:09:50]:
Also bei wesentlichen Geschäftsprozessen wie beispielsweise Beförderungen, Einstellungen, Boni, Leistungsbewertung, also fast alles im Bereich Personalbereich, soll der Mensch wesentlich die Entscheidung tragen. Also da sind sich alle doch relativ einig und deswegen das die zweite Aussage. Und die dritte Aussage ist, was du schon sagtest, dass an verschiedenen Punkten die Führungskräfte, nämlich überall, wo es Unterstützungsfunktionen geht, die Führungskräfte der KI stärker vertrauen als die Mitarbeitenden. Und wie gesagt, wir haben das jetzt noch nicht erforscht, warum das so ist und haben nicht die Leute befragt. Das wird ein nächster Schritt in dieser Studie sein, wie die Ergebnisse zustande kommen. Und häufig ist ja die einfachste Erklärung die naheliegendste und wahrscheinlichste und in diesem Fall geht es Zeitersparnis. Dass KI den Führungskräften an vielen klassischen Führungsthemen in Zeit sparen kann und deswegen die Führungskräfte eine höhere Bereitschaft haben, der KI zu vertrauen und sie zu akzeptieren, weil sie einen konkreten Nutzen für die Führungskräfte schaffen.
Patrick Seibold [00:11:00]:
Das ist ein super spannender Punkt mit dem Diskussionsbedarf, weil das ganze Thema KI ist ja auch immer stark an das Thema Produktivität geknüpft. Und wenn ich jetzt im Endeffekt Entscheidungen an die KI Auslagere, erhöhe aber dann gleichzeitig meinen Diskussionsbedarf. Ist ja vielleicht so die Frage, gleicht sich das dann wieder aus? Hätte ich das Ganze auch ohne KI machen können? Was ist so dein Gefühl bei diesem Zwiespalt zwischen, ich sag mal so, es muss nachvollziehbar sein, Es gibt Diskussionsbedarf, diese Blackbox zu öffnen. Aber gleichzeitig auch den Wunsch, produktiver zu arbeiten.
Michael Groß [00:11:41]:
Das ist ein entscheidender Punkt, den du ansprichst, Patrick. Da sind die sogenannten Friktionskosten. In der Analyse unserer Studie, die dann auch von der Goethe-Universität durchgeführt worden ist nach wissenschaftlichen Maßstäben, kann man da zurzeit, weil da muss man ein bisschen tiefer jetzt gehen in die Analyse, aber doch durchaus die Behauptung aufstellen, dass ein erhöhter KI-Ansatz zu höheren sogenannten Friktionskosten, also Folgekosten in Unternehmen führen könnte. Beispielsweise, es wird intensiver diskutiert, man braucht mehr Zeit, das zu akzeptieren, Vertrauen zu gewinnen etc. Und diese Kosten, die ja nicht mit der klassischen KI-technischen Einführung unmittelbar verbunden sind, sind aber Kosten, die entstehen werden. Und das ist ein ganz entscheidender Punkt, weil es sind ja nicht nur Kosten, sondern es ist ja auch Zeit und Aufwand. Und deswegen spielt dann hier das Thema der Transformation, der Begleitung dieses Prozesses eine ganz entscheidende Rolle. Und man sollte sich nicht, und das ist ein ringender Appell jetzt von meiner Seite aus, über die ersten Ergebnisse und die Leichtigkeit, wie man beispielsweise solche einfachen KI-Anwendungen im Unternehmen einsetzen kann, nämlich Textunterstützungen, Präsentationsunterstützungen, Bilder zu generieren, all solche Geschichten, die also leicht von der Hand gehen, sollte man sich nicht blenden lassen, weil wenn es dann an die eigentlichen Geschäftsprozesse geht, wo dann vielleicht auch wirklich in das eigene Arbeitsprofil eingegriffen wird, es verändert wird, dann entstehen automatisch diese sogenannten zusätzlichen Friktionskosten.
Michael Groß [00:13:17]:
Das ist aus unserer Studie ableitbar. Da gibt es eine Korrelation, wie wir in der Wissenschaft sagen. Nur ob es eine Kausalität gibt, also wenn dann, Beziehung, kann man da nicht sagen.
Patrick Seibold [00:13:31]:
Ja, das ist ein sehr, sehr guter Punkt, den du ansprichst mit den Friktionskosten. Muss man natürlich auch noch mal im Kontext betrachten, dass diese Friktionskosten natürlich auch nur bei sehr speziellen Themen auftreten. Wir haben jetzt zum Beispiel gehabt, gerade im HR-Bereich. Ich glaube, Ich weiß nicht, wie habt ihr das ein bisschen aufgeteilt, auch noch mal für die Zuhörer in den Kontext zu setzen. Ich sehe so ein bisschen das Ergebnis. Wir haben dieses Thema Zusammenfassen von Texten, wir haben IT-Unterstützung, Bewertung von Projekterfolg. Das sind ja alles so Themen, ja, würde ich sagen, persönliche Arbeit, Projektmanagement. Und dann hast du dieses abfallende Vertrauen bei allen persönlichen Themen.
Patrick Seibold [00:14:09]:
Würdest du das auch so zusammenfassen?
Michael Groß [00:14:11]:
Genau, also im Prinzip, wenn man das jetzt versucht, wirklich zu vereinfachen, ja, man muss immer aufpassen, wenn man so was jetzt einbringt. Nur die Zahlen ergeben ganz klar, je stärker KI in meine eigene Arbeit, in meine eigene Karriere Einfluss nimmt, desto größer ist das Misstrauen. Nichts ist eine menschliche Reaktion, könnte man sagen. Jetzt gibt es viele, die sagen, die KI hat so viele Vorteile. Beispielsweise ist der eine Grundannahme, dass KI, weil wir Menschen schlechte Entscheider sind, es gibt genügend Beispiele, KI es schaffen soll und uns unterstützen soll, weil sie objektive Daten nutzt, etc., dass wir bessere Entscheidungen treffen wie Menschen, ja, schneller zu besseren Entscheidungen kommen. Das gilt sicherlich für, wo es wirklich reine objektive Daten gibt, wie wenn Maschinen Daten produzieren, ja, also beispielsweise Zuverlässigkeitsdaten, wann soll ich eine Maschine am besten warten etc. Nur Menschen, die werden sich nie, das ist jetzt meine persönliche Überzeugung, nie komplett in objektive Daten von einer KI, die ja letztlich regnet, ja, und man sind ja Rechenoperationen bewerten lassen. Insofern wird es da sehr viel Grauzonen geben und das ist eine spannende Entwicklung, die wir jetzt in den nächsten Jahren vor uns haben, wenn nämlich die KI in unserer Arbeit, in unserer Zukunft, Karriere-Zukunft, größeren Einfluss bekommen wird, direkt oder indirekt, wie wir damit umgehen und damit reagieren.
Michael Groß [00:15:39]:
Eine rundere Studie sagt ganz klar, Achtung, da gibt es aktuell eine Ganz klar schon eine Art Chinese Wall, wie man so schön sagt. Ja, also wirklich, die Daten brechen ein. Also wir reden dann von Zustimmungsquoten, die bei die zwei liegen auf einer Skala von eins bis sieben. Und eins ist, ich stimme ganz und gar nicht zu. Ja. Und zwei ist, ich stimme gar nicht, ich stimme nicht zu. Also das ist wirklich die massivste Ablehnung, die man haben kann. Also da ist noch ein langer Weg vor uns, was das Thema Akzeptanz und Vertrauen anbetrifft, für diese sehr in unsere Arbeit eingreifenden, unsere Karriere, Zukunft eingreifenden KI-Anwendung.
Patrick Seibold [00:16:23]:
Ich finde den Begriff der Chinese Wall, also der chinesischen Mauer, sehr, sehr passend, sehr, sehr gut. Das heißt, wir können uns so vorstellen, gerade aktuell existiert diese chinesische Mauer, so diese Personal-Karriere-Themen. Diese chinesische Mauer siehst du ja noch als stabil an oder sagst du, nee, da wird die Akzeptanz und das Vertrauen auch weiter zunehmen, dass diese irgendwann einstürzt?
Michael Groß [00:16:47]:
Also aus unserer Studie ergibt sich ganz klar, dass es diese Chance sicherlich gibt. Nur man braucht dann Überzeugungsarbeit, man braucht stabile KI-Systeme und das ist ein langer Prozess. Das geht nicht mit Schalter umlegen. Und deswegen, also aus unserer Studie gibt es ganz klar den Appell, wenn es diese technologischen Möglichkeiten geben sollte und diese Systeme auch stabile Ergebnisse erbringen, heißt das noch lange nicht, dass die Menschen dem Vertrauen und das Akzeptieren, sondern es ist ein paralleler Prozess, Mitarbeitende und Führungskräfte eine Hand zu nehmen. Es gibt noch ein anderes Beispiel, was wir ja auch aufgenommen hatten, Vertrauen in neue Geschäftsmöglichkeiten. Also das ist die KI, Was ja jetzt nicht mit der eigenen Person zu tun hat, aber schon mit der eigenen Karrieremöglichkeit, nämlich mit der Zukunft des Unternehmens. Neue Geschäftsmöglichkeiten für das Unternehmen. Da ist die Zustimmungsquote wieder höher und hier ist die Zustimmungsquote vor allem bei den Führungskräften signifikant höher, nämlich über 5 in der Skala von 1 bis 7.
Michael Groß [00:17:52]:
So und das zeigt, dass wenn die KI es schafft, dass das Unternehmen, in dem ich arbeite, höhere Zukunftsaussichten hat, bessere Zukunftsaussichten hat, dann bin ich auch bereit, das zu akzeptieren. Im Umkehrschluss bedeutet das natürlich auch einen Einfluss dann auf meine Arbeit, wenn die KI neue Produkte generiert, Kundenservices beispielsweise. Das haben wir ja auch abgefragt. All diese Themen, da ist die KI, Produktivitätssteigerung, da ist man durchaus positiv. Dass im daraus folgend natürlich für die eigene Arbeit sich auch Veränderungen ergeben, ist ja wiederum eine andere Geschichte. Auch dort kannte ich aber referenzieren aus meiner beruflichen Erfahrung, Das ist ja nichts Neues, weil wir Menschen ändern uns ja nicht, wie wir ticken und geprägt sind, nur weil es jetzt die KI gibt. Also sprich diese auf der einen Seite Ja zu sagen, prima, neue Geschäftsmöglichkeiten, Produktivitätssteigerung, all diese Themen sehen wir durchaus positiv und sind eher bereit, der KI zu vertrauen, wenn sie dementsprechende Vorschläge macht und dann auch Anwendungen umgesetzt werden. Die Folge daraus, die sich von meiner eigenen Arbeit ergibt, ist aber noch lange nicht akzeptiert.
Michael Groß [00:18:59]:
Also Beispiel, dass in Unternehmen gesagt wird, ja, wir wissen, dass es über diese Anwendungen, wir besser miteinander arbeiten können, wir besser mit Kunden zusammenarbeiten können, sogar neue Möglichkeiten im Wettbewerb bekommen. Nur meine Arbeit möchte ich deshalb noch nicht ändern. So etwas erlebt man auch häufig ohne KI und deswegen ganz klarer Appell an alle, die jetzt hier zuhören, sich dieses Thema der weichen Faktoren minimum genauso intensiv zu kümmern und parallel zu kümmern wie die technischen Faktoren bei der KI.
Patrick Seibold [00:19:33]:
Ja, ganz ganz wichtiger Punkt. Was ich in dem Kontext spannend finde, habe ich gestern bei Twitter oder wie es jetzt auch heißt, X gesehen und zwar die Top 5 Use Cases, die Menschen verwenden im Bereich Generative AI Und tatsächlich auf Platz 1 ist Therapie. Also es nutzten viele im privaten Umfeld. Large Language Model, Generative AI für therapeutische Anwendungsfelder. Teil 2 war, ihr Leben zu organisieren. Dritte ist, finding purpose, also ihren Sinn zu finden, gesteigerte Lernanwendungen. Und der fünfte war dann erst ein technischer Part, nämlich das Generieren von Computer-Code. Was ich da persönlich entspannend finde, und da wird ja wahrscheinlich auch ein Spannungsfeld irgendwann entstehen, und zwar privat scheinen dann die Nutzer schon viel weiter zu sein, als das vielleicht auch in dem beruflichen Kontext stattfindet.
Patrick Seibold [00:20:30]:
Gibt es Sitzer, die im privaten Umfeld schon wirklich also therapeutische Anwendungsfälle suchen, was ja ein hohes Vertrauen möglicherweise impliziert. Was sind da so deine Gedanken, dieses, dieser private Teil und auch dieser professionelle, jetzt auch im Kontext eurer Studie?
Michael Groß [00:20:46]:
Also natürlich, diesen Aspekt, der ist extrem wichtig, weil er führt natürlich dann auch zu der Option der sogenannten Schatten-KI, was wir jetzt schon am Anfang besprochen hatten, dass man die Mitarbeiterinnen, Mitarbeiter, Führungskräfte, Anwendungen auch im Unternehmenskontext einsetzen, wo es dann eventuell vielleicht zu kritischen Situationen kommen kann aufgrund der Daten. Und das ist generell bei der KI eine Herausforderung, weil, das darf man nicht vergessen, KI ist ja kein neues IT-System und die Anwendung, die du gerade im privaten Bereich geschildert hast, zeigt ja, KI ist der Kollegen im Unternehmenskontext oder Partnerin im privaten Kontext. Kann es zumindest sein. Und entwickelt sich ja weiter. Ansonsten wäre zum Beispiel Therapie gar nicht möglich. Also die Interaktion mit uns Menschen verändert ja auch die Systeme. Und wir haben festgestellt und wir haben einen absoluten Profi, der auch in der Studie mitgemacht hat, der Kevin Bauer, neuer Professor an der Goethe-Universität, für dieses Thema. Und er sagt nach wie vor, obwohl wir diese sehr rasante Entwicklung auch im Bereich der Qualität in den letzten zwei, drei Jahren bei der KI und den Large-Language-Models erlebt haben, wenn man die KI richtig stresst und richtig unter Druck setzt über dementsprechende Prompts und all sowas, dann fängt die an zu halluzinieren und Dinge zu erfinden.
Michael Groß [00:22:09]:
Hintergrund ist, dass KI ja immer freundlich sein möchte und eine Lösung anbieten möchte. Versucht mal der KI ein, nein, das weiß ich nicht abzuringen. Das passiert bei natürlich unethischen, also komplett unethischen Dingen und bei Fragen, die absolut illegal sind, dann passiert so etwas, ja, wenn eine KI gut moderiert ist. Aber bei solchen Gewaltzonen, da kann man die KI relativ schnell nach wie vor aufs Glatteis führen, was, wie gesagt, jetzt die Forscher der Goethe-Universität festgestellt haben. Und deswegen sollte man grundsätzlich immer einen Tick gesundes, menschliches Misstrauen behalten. Das ist jetzt meine persönliche Meinung.
Patrick Seibold [00:22:50]:
Wenn man so die Ergebnisse der Studie betrachtet und vielleicht auch noch ein bisschen zusammenfasst, was wir jetzt heute auch gesprochen haben in diesem Podcast, wo siehst du jetzt wirklich noch mal so konkret die Chancen zum einen, zum anderen die Risiken und vor allem auch aus deiner Brille des Leaderships der Transformationsprozesse im Unternehmen.
Michael Groß [00:23:11]:
Also, dass KI enorme Chancen bietet, insbesondere über uns jetzt hier in Deutschland, wo wir ja erstens eine Wissensnation sind und zweitens über den demografischen Wandel einfach weniger Arbeitskraft besitzen, sodass an vielen Stellen KI uns wirklich eine große Hilfe sein kann, ist es einfach und durch unsere Studie ganz klar der riesige Appell, liebe Leute, kümmert euch parallel die technischen Themen und die menschlichen Themen. Damit wirklich Maschine und Mensch Kollegen werden können, ist diese Interaktion und diese Gestaltung der Interaktion extrem wichtig. Also, dass man beispielsweise beste Eckpunkte hat, wo man sich über die Qualität der KI unterhält, wo man sich über die Lernerfahrung der Menschen unterhält, was die Einsatz der KI anbetrifft und das nicht einfach nur laufen lässt. Und das kostet Zeit. Also, dass man wirklich sagt, KI kostet und zwar dauerhaft Zeit, dieser neuen Kollegien, Künstlich Intelligent, sich zu beschäftigen, egal bei welcher Anwendung. Und ich weiß es beispielsweise jetzt von unserem Partner FAZ, also wo es Journalismus geht. Und da gibt es ganz klar schon Daten, auch wissenschaftliche Daten, dass die Nutzer, Nutzerinnen erwarten, dass diese Texte von Menschen gemacht sind, eventuell eine Unterstützung an der einen oder anderen Stelle stattgefunden hat, die aber transparent gemacht werden sollte. Ansonsten glaubt man den Medien dort nicht, diesen Qualitätsmedien.
Michael Groß [00:24:41]:
Das verfolgen die ganz stark. Das Gleiche gilt auch für Unternehmen, dass man den KI-Einsatz transparent macht, nach innen und nach außen, den Vorteil zu zeigen und dass wir Menschen nach wie vor, jeder für sich einzeln, entscheiden kann, wie weit man in der Nutzung gehen kann. Also das ist extrem wichtig, die Transparenz zu schaffen, wann, wo, wie das eingesetzt wird.
Patrick Seibold [00:25:06]:
Also so die Oberbegriffe Transparenz und das Abholen sozusagen der Mitarbeiter, also die Interaktion. Das sind vielleicht so diese zwei Begrifflichkeiten.
Michael Groß [00:25:16]:
Also das ist ein technisches Thema logischerweise, noch ein sehr technisches Thema. Nur das weiche Thema, was wir jetzt auch in unserer Studie versucht haben, meinen ersten Schritt zu machen, das zu untersuchen und da Fleisch an den Knochen zu kriegen, weil bislang wurde immer nur Rum-Oraket. Damit die Potenziale auf der technischen Ebene und auch auf der Geschäftsprozess Ebene genutzt werden können für Unternehmen und die Vorteile geschaffen werden können. Was extrem wichtig ist bei uns hier in Deutschland, ist das menschliche Thema extrem wichtig. Es ist kein neues IT-System. Also das kann man nicht vergleichen, wie ich mache ein neues IT-System für ein Unternehmen und dann irgendwann wird der Schalter umgelegt und dann habe ich eine neue Buchhaltungssoftware, es mal so zu sagen. Ja, oder auch eine Personalsoftware, die die Gehaltsabrechnung macht. Das ist KI ja nicht.
Michael Groß [00:26:05]:
KI entwickelt sich in der Interaktion ja weiter und verändert sich fortlaufend die Anwendung mit uns Menschen. Interessant ist, wenn ich darüber rede mit Führungskräften, in Trainings beispielsweise, die ich durchfälle, das haben viele noch gar nicht so richtig durchdrungen, was daraus folgt, aus dieser eigentlich vermeintlichen simplen Überlegung. Ja, es folgt nämlich daraus, dass man sich mit dieser Interaktion fortlaufend beschäftigen sollte und zwar nicht nur technisch, Stichwort Qualitätsmanagement, sondern auch menschlich, was dabei rauskommt. Und das kostet wiederum Zeit, die man vielleicht spart. Also KI ist nicht die eierlegende Wollmilchsau, Kosten zu reduzieren.
Patrick Seibold [00:26:43]:
Das ist ein spannender Punkt, nämlich es ist kein Thema, wo ich einmal einschalte und das ist dann damit erledigt, sondern es ist ein wiederkehrendes Thema, mit dem ich mich immer wieder beschäftigen muss im Unternehmen, weil natürlich auch die Modelle sich verändern, die Möglichkeiten, aber auch natürlich dann wiederum die Verbreitung innerhalb des Unternehmens. Jetzt vielleicht zum Abschluss noch, der ein oder andere Zuhörer oder Zuhörerin sagt, klingt mega, vor allem auch dieser Aspekt mit den Weichenfaktoren. Was wären für dich so die vielleicht die schnellsten Maßnahmen oder Hebel aus deiner Erfahrung raus, auch mit Führungskräften, zu sagen, okay, so kann man das in einen stabilen Rahmen bringen, das ganze Thema, sowohl auf der technischen als auch auf der weichen Seite.
Michael Groß [00:27:25]:
Also auf der weichen Seite ist es wichtig, wie bei jedem Veränderungsprozess, die sogenannte Changeability, sich mit zu beschäftigen. Also die Bereitschaft und Fähigkeit zur Veränderung. Das ist extrem wichtig. Wo stehen eigentlich meine Leute, meine Fügungskräfte, mein Bereich, meine Abteilung, mein Team? Und das zu besprechen, das festzustellen, da gibt es, das führt jetzt ein bisschen zu weit, Jeder, der möchte, kann mich ja kontaktieren. Ich bin einfach zu finden. Da gibt es verschiedene Methoden. Das ist keine Raketenwissenschaft, das eben festzustellen. Wo stehen meine Leute, meine Organisation, auch ich selber, wo stehe ich eigentlich? Und dann das weitere Vorgehen, Transparenz zu machen.
Michael Groß [00:28:01]:
Was möchten wir eigentlich mit der KI erreichen, die wir einsetzen wollen. Was sind die wesentlichen Anwendungsfälle? Also wir starten eigentlich immer über den Nutzen, den die KI bringen soll. Weil ansonsten macht das Ganze ja keinen Sinn. Wir brauchen jetzt keine KI als Selbstzweck. Deswegen, Was sind die Anwendungsfälle, die auch den Mitarbeiterinnen und Mitarbeitern, den Fügungskräften Nutzen bringen, auch in ihrer Arbeit? Und wenn ich das besprechbar gemacht habe, das besprochen habe, und dann gehe ich an die Umsetzung in einem kooperativen Prozess. Also es sollte nicht so sein, dass dann irgendwann so, ich sag mal, die Technikleute, die man natürlich braucht an die IT und auch externe braucht, das gilt ja sogar für die großen Konzerne, die sich die Spezialisten dann reinholen auf der technischen Seite, dass dieser Prozess parallel auch mit den Anwendern hinterher erfolgt. Dass transparent ist, wo die ganze Sache sich hinter entwickelt. Und dass nicht irgendwann, wie so Kai aus der Kiste, die KI da kommt.
Michael Groß [00:28:56]:
Und hier haben wir jetzt das neue Kundenmanagement-System mit KI, halt zu gucken, was ist das nächste beste Angebot für unsere Kundinnen und Kunden. Und die Kundenservice Einheit sagt, ja toll, wie ist das zustande gekommen? Warum wurden wir nicht integriert? Also ich kann da dringend empfehlen, das wirklich als kooperativen Prozess zu machen. Und er kostet eben Zeit, weil dann kann sich das vertrauen und die Akzeptanz der Menschen entwickeln und nicht ist oder frisst oder stirbt. Das funktioniert bei der IDI ganz und gar nicht.
Patrick Seibold [00:29:27]:
Ja, das war ein sehr, sehr schöner Schlusssatz, lieber Michael. Vielen, vielen Dank, dass du heute zu Gast warst. Und wir erleben dich und auch noch andere Speaker am 13.05. Live. Da möchte ich jetzt auch noch mal hier kurz an der Stelle ein bisschen Werbung dafür machen. Genau, wir haben ein Live-Event am 13.05. Von 17.30 Uhr bis 19 Uhr. Da werdet ihr nochmal detailliert die Ergebnisse eurer Studie präsentieren.
Michael Groß [00:29:58]:
Genau, da sind dabei die Silke Piech vom Deutschen Forschungszentrum für Künstliche Intelligenz, der Rolf van Dijk von der Goethe-Universität, der das CLBO leitet. Meine Wenigkeit wird dabei sein, der Holger Schmidt von der FAZ wird auch dabei sein. Also da sind die ganzen Spezialisten von den verschiedenen Ebenen dabei. Anderthalb Stunden gehen wir noch mal tiefer rein, was wir jetzt in der Kürze der Zeit nicht besprechen konnten. Da werden wir uns auch noch mehr mit den Zahlen beschäftigen. Wirklich, da sieht man alles. Und ich kann jedem raten, empfehlen, sich die anderthalb Stunden Zeit zu nehmen. Wer sich für diese Themen, die wir jetzt gesprochen haben, interessiert, ist da an der richtigen Stelle.
Michael Groß [00:30:36]:
Anmeldung, es ist kostenfrei. Ja, wie gesagt, es ist ein wissenschaftliches Projekt, auch was wir da gestartet haben. Das heißt, wir machen da alles kostenfrei und würde mich freuen, dass wir uns dann wieder hören und dann sogar sehen.
Patrick Seibold [00:30:49]:
Ja, vor allem, wir haben drei, vielleicht auch noch mal kurz für die Zuhörer, drei spannende Impulsverträge. Zum einen Vertrauen in KI, das Führen mit KI und das Entscheiden mit KI. Und das Ganze ist dann so ausgelegt, dass wir jemals 15 Minuten jeden Impulsvortrag für die Fragen aller Zuhörer und Zuhörerinnen. Das ist also auch ein sehr interaktives Format, wo die Interessierten einfach ihre Fragen einbringen können und dann in einem Expertenkreis besprochen werden. Michael hat es schon gesagt, Anmeldung ist kostenlos. Das Ganze unter digitalbreakfast.de, alles in einem Wort geschrieben. Und ja, Michael, Vielen, vielen Dank nochmal für diesen Einblick, für dieses vor allem sehr, sehr wichtige und relevante Thema. Und ich bin schon wirklich super gespannt auf den 13.05.
Patrick Seibold [00:31:38]:
Und freue mich darauf.
Michael Groß [00:31:39]:
Ja, ich auch. Also insofern, wir sehen uns und allen jetzt hier noch einen Schönen Tag. Tschüss. Tschüss.