"Künstliche Intelligenz - Die dunkle Seite der Macht" | PODCAST EPISODE 174

"Künstliche Intelligenz - Die dunkle Seite der Macht" | PODCAST EPISODE 174

PODCAST

BESCHREIBUNG

In der heutigen Episode des DIGITAL BREAKFAST PODCASTs stand die Diskussion im Fokus der Möglichkeiten der künstlichen Intelligenz (KI) im wissenschaftlichen Bereich. In einem Gespräch mit Thomas Barsch erörterten drei renommierte Professoren die Herausforderungen, denen Studierende bei der Bearbeitung ihrer Arbeiten gegenüberstehen, insbesondere im Kontext der Literaturrecherche. Dabei betonten sie die Verantwortung, Studierende dazu zu befähigen, KI verantwortungsbewusst einzusetzen.

Ein weiterer diskutierter Aspekt war, dass KI auch negative Auswirkungen und Schwächen aufweisen kann, wie beispielsweise Diskriminierung. Versuchsreihen zeigten, dass KI in der Lage war, Diskriminierung in gerügten Anzeigen zu erkennen. Die Sprecher unterstrichen die Wichtigkeit, rechtliche Probleme und Regeln im Umgang mit KI zu beachten, um negative Aspekte zu vermeiden. Ebenfalls wurde die Debatte über die Anonymität im Internet aufgegriffen und die Notwendigkeit betont, Meinungen und Handlungen mit dem richtigen Namen zu verbinden, um Trolle und Eskalation zu verhindern.

Des Weiteren wurde die Bedeutung von kritischem Denken im Umgang mit KI hervorgehoben, und die Notwendigkeit, die Kompetenz zur Bewertung von Informationen im Zusammenhang mit KI zu steigern, wurde betont. Schließlich luden die Sprecher die Hörer ein, Fragen für das kommende Treffen einzureichen, bevor sie sich auf die nächste Episode freuten.

Die Diskussion beleuchtete ethische, moralische und gesellschaftliche Aspekte von KI und unterstrich die Verantwortung in Bezug auf die Nutzung von Technologie. Es wurde betont, dass verschiedene Perspektiven und kritisches Denken notwendig sind, um die Kompetenz zur Bewertung von KI-bezogenen Informationen zu steigern.

Hier geht es zum dazugehörigen LIVE-STREAM.

Die versteckte Bedrohung inmitten des Fortschritts

nstliche Intelligenz (KI) hat sich zu einem integralen Bestandteil in verschiedenen Wissenschafts- und Technologiebereichen entwickelt. Während die positiven Aspekte der KI vielfach besprochen werden, widmet sich die 174. Episode des Digital Breakfasts einem oft vernachlässigten Thema: die dunkle Seite der Macht.

In dieser Episode diskutieren Thomas Barsch (Host) und die Gäste Kai Holzweißig, Markus Schwarzer und Ulrich Buchner die Herausforderungen und potenziellen Gefahren von KI. 

Von der Motivation zur Sensibilisierung: Die Wissenschaft mischt sich ein

Die wissenschaftliche Gemeinschaft beschäftigt sich aktiv mit den komplexen und oft ambivalenten Facetten der künstlichen Intelligenz. Eine Hauptmotivation für Studien in diesem Bereich ist die Herausforderung, KI verantwortungsvoll zu nutzen. Die Forscher möchten Studierende sensibilisieren und ihnen die nötigen Kompetenzen vermitteln, um KI ethisch und effektiv einzusetzen. 

Versuchsreihen und Diskriminierung

Eine zentrale Studienreihe untersuchte die Fähigkeit von KI, Diskriminierung zu erkennen. Dabei zeigte die Technologie eine bemerkenswerte Trennschärfe, insbesondere bei der Analyse von Werbeanzeigen. Diese Erkenntnis unterstreicht nicht nur die Potenziale, sondern auch die Notwendigkeit einer verantwortungsvollen Gestaltung und Kontrolle durch die Wissenschaft. 

Regeln und Verantwortung im KI-Einsatz

Ein zentraler Punkt der Diskussion war die Notwendigkeit klarer Regeln und Standards im Umgang mit KI. Diese müssten nicht nur technisch durchdacht, sondern auch rechtlich abgesichert sein, um Bedenken entgegenzuwirken. Ulrich Buchner betonte, wie wichtig es sei, die Wissenschaft aktiv in die Entwicklung solcher Regeln einzubeziehen. 

Kritik an der Pseudonymisierung im Internet

Eine weitere Facette der Debatte war die Pseudonymisierung im Internet. Hier herrscht eine starke Kritik sowie der Bedarf nach verschiedenen Perspektiven. Die Pseudonymisierung kann sowohl Schutz bieten als auch Missbrauch ermöglichen, und die Balance zwischen beiden Aspekten ist entscheidend. 

Die Notwendigkeit kritischen Denkens im Zeitalter der KI

Die unkritische Übernahme von KI-generiertem Output stellt eine ernsthafte Gefahr dar, besonders wenn Studierende nicht ausreichend auf den Umgang mit KI vorbereitet sind. Markus Schwarzer warnt eindringlich vor den Risiken, wenn wissenschaftliche Arbeiten oder Unternehmensdaten ohne ausreichende Prüfung auf KI-Output beruhen. 

Erziehung zu kritischem Denken

Das Team des Digital Breakfasts setzt sich daher stark für die Entwicklung von Kompetenzen im kritischen Denken ein. Dieses reflektierte Denken bildet die Grundlage, um KI-Output nicht nur anzuwenden, sondern auch zu hinterfragen und zu validieren. 

Weiterbildungsmöglichkeiten durch das Digital Breakfast

Um den verantwortungsvollen Umgang mit KI zu fördern, bietet das Digital Breakfast kostenlose Weiterbildungsmöglichkeiten an. Mit 53 verschiedenen Themenstellungen, die dienstags und freitags besprochen werden, zielt die Plattform darauf ab, ein breites Spektrum an Wissen zu vermitteln. 

Public Viewing und Austausch

Ein einzigartiges Merkmal des Digital Breakfasts ist das Angebot als Public Viewing. Hier haben die Zuschauer die Möglichkeit, sich auszutauschen und an Diskussionen teilzunehmen. Diese interaktiven Sessions sollen nicht nur Wissen vermitteln, sondern auch zur kritischen Auseinandersetzung mit den Themen anregen. 

Generative KI: Kompetenzverschiebung und gesellschaftliche Aufklärung

Generative KI verändert die Landschaft der Kompetenzverteilung. Während einige Aufgaben durch KI erleichtert werden, entstehen neue Anforderungen an die Medienkompetenz und Aufklärung innerhalb der Gesellschaft. 

Abschließende Überlegungen

Kai Holzweißig betont die Notwendigkeit, sich nicht nur auf die positiven Seiten der KI zu konzentrieren, sondern diese Technologien auch kritisch zu hinterfragen. Diese Episode des Digital Breakfasts bietet einen umfassenden Einblick in die dunklen Seiten der KI und lädt zur Reflexion und Diskussion ein.

Das Buch, das von den Gästen veröffentlicht wurde, bietet eine Anleitung zur verantwortungsvollen Nutzung von KI-Tools und richtet sich an Studierende, Schüler und Praktiker gleichermaßen. Es behandelt kritisches Denken, ethische Aspekte und methodisches Vorgehen beim Umgang mit KI.

Am Ende bleibt die Erkenntnis: Nur durch Bildung und kritisches Denken kann die Gesellschaft die Herausforderungen und Chancen, die die künstliche Intelligenz mit sich bringt, verantwortungsbewusst meistern.

Transkript

Speaker A [00:00:00]:
Wir erleben ja heute eigentlich eher das Gegenteil davon, dass alle immer Hurra und super und höher, schneller weiter schreien. In Anbetracht von KI, ich glaube, dass es gut ist, dass auch jemand mal den Zeigefinger hebt und sagt so und jetzt mal Stopp und lasst uns mal darüber nachdenken, ob das denn alles nur gute Seiten hat. Nur gute Seiten hat.

Speaker B [00:00:21]:
Hallo und Grüße. Ich darf euch recht herzlich begrüßen zu einer weiteren Episode des Digital Breakfast Podcast und heute mit einem Herzensthema, mega spannenden Thema. Und zwar sprechen wir heute über die andere Seite der künstlichen Intelligenz, über die dunkle Seite der Macht und ich darf recht herzlich begrüßen drei Professoren hoch dekoriert, die werden sich natürlich gleich selber vorstellen. Da gibt es eine Studie, da gibt es ein Buch, Es gibt so viel Material. Ich freue mich drauf und ja, lasst uns loslegen. Kostenlose Weiterbildung durch das Digital Breakfast. Das ist cool. Das heißt, ihr werdet aus- und weitergebildet über das Digital Breakfast, über die verschiedenen Themen.

Speaker B [00:01:56]:
Kostet kein Geld. Schaltet das Ding ein und werdet Public Viewing Host und bietet einen Ort der Begegnung. Ich freue mich auf euch und freue mich auf viele, viele Hosts und auf viele, viele Teilnehmer, denen wir neues Wissen vermitteln können. Werbung Ende. Hallo, zeitgegrüßt.

Speaker C [00:02:18]:
Hallo Thomas.

Speaker B [00:02:19]:
Wir haben jetzt natürlich eine Herausforderung für unsere Hörer, weil wir auf einmal vier Stimmen haben, aber ich denke, das kriegen wir ganz gut hin. Wir werden auch transkripieren, dann könnt ihr auch das nochmal nachlesen, Wer dann was gesagt hat. Ich fange jetzt einfach mal an. Also wir haben uns aufs Du geeinigt, also Ulrich, Markus und Kai. Aber vielleicht stellt ihr euch noch mal vor und sagt einfach, welchen Bezug ihr zu dem Thema habt. Und dann steigen wir auch in die Diskussion ein. Und ich moderiere jetzt einfach mal und sage Ulrich sehe dich gerade links oben, fang du mal an.

Speaker D [00:02:50]:
Ja hallo zusammen, Ulrich Bucher, ich bin Dozent der DHBW Stuttgart, Bereich Marketing und allgemeine BWL und ich habe eine hohe Affinität zur Technologie im Allgemeinen und wissenschaftlichem Arbeiten im Speziellen. Ich war jahrelang Marketingleiter in der Softwarebranche und mittlerweile aktuell viele Bachelorarbeiten und wissenschaftliche Arbeiten an der DHBB Stuttgart.

Speaker B [00:03:12]:
Super, wer macht weiter? Kai, mach du weiter.

Speaker A [00:03:14]:
Ja, ist die Reihenfolge, wie sie auch im Buch haben. Ich glaube, das ist schon einfach so tief drin, dass ich dann immer als Zweites komme. Markus, siehst mir nach. H ist halt vor S.

Speaker C [00:03:23]:
Alles gut. Das Beste kommt zum Schluss, sage ich immer.

Speaker A [00:03:26]:
Ja, das ist auch gute Einstellung. Kai Holzweißig, mein Name. Ich bin von Haus aus Informatiker und Kognitionswissenschaftler und ich leite bei uns den Studiengang Wirtschaftsinformatik Data Science und habe von haus aus eine hohe Affinität zum Thema, einerseits natürlich technisch und des Zweiten aber auch ethisch, moralisch, gesellschaftlich, philosophisch. Jetzt übergebe ich an Markus.

Speaker C [00:03:47]:
Vielen Dank Kai. Mein Name ist Markus Schwarzer. Ich bin Professor an der DHBW in Stuttgart. Mein Thema sind alle rechtlichen Aspekte. Ich unterrichte Jura in allen Facetten an der DHBW. Und wenn ich ehrlich bin, bin ich zu dem Thema und zu dem Buch quasi wie die Jungfrau zum Kinde gekommen. Ich hatte am Anfang, damit er ehrlich gesagt, eher keine Probleme oder überhaupt keinen Ansatzpunkt, bis der Kollege Bucher, der sein Büro direkt neben mir auf dem Gang hat, zu mir kam und gemeint hat, du, Ich möchte da was machen zu KI und meine Studierenden brauchen da irgendeinen Leitfaden und irgendwie. Da habe ich gesagt, ja, interessant, aber du weißt schon, dass das womöglich auch ein rechtliches Problem sein könnte, wissenschaftlich betrachtet, mit den Urheberrechten und so.

Speaker C [00:04:28]:
Und dann meinte ich, ja, deswegen komme ich zu dir, kannst du mir da nicht was schreiben. Und so bin ich zu dem Thema gekommen. Ja, das ist so mein Ansatzpunkt. Wobei ich auch gleich eine kontroverse These vielleicht hier in den Podcast werfen möchte. Das Thema des Podcasts ist mir Vielleicht ein bisschen zu negativ. Ich würde es anders formulieren. Und im Bilde zu bleiben, würde ich sagen, möge die KI mit dir sein.

Speaker B [00:04:51]:
Ah, das ist sehr gut. Ja, lass mich mal drüber nachdenken. Vielleicht müssen wir den Titel noch ändern. Mal sehen, ja? Gut, guter Ansatz. Haben wir noch nie gemacht. Aber lass mal mal sacken. Und die Zuhörer können sich ja dann überraschen lassen, ob wir hier dann spontan auch noch eine Änderung machen. Finde ich super, super, super, super.

Speaker B [00:05:06]:
Echt, ich freue mich. Sehr gut.

Speaker C [00:05:07]:
Es ist auch, wer welche Figur übernimmt. Wer ist Luke Skywalker und wer ist Han Solo und wer ist Darth Vader von uns?

Speaker B [00:05:12]:
Ja, genau. Also vor allen Dingen bin ich dann auf die Masken gespannt. Also ich werfe es jetzt einfach mal an der Stelle schon ein, weil es gerade passt. Es wird natürlich auch ein Livestream geben. Wir haben am 5.2. Die drei Chorifäen, ihr dann noch mal live, und den Fabel im Stream. Und ihr werdet dann natürlich informiert. Dann seht ihr auch mal live.

Speaker B [00:05:33]:
Die werden sicherlich was vorbereiten. Bin auf die Masken gespannt.

Speaker A [00:05:36]:
Wobei ich ehrlich gesagt den Titel gar nicht so schlecht finde, weil wir erleben ja heute eigentlich eher das Gegenteil davon, dass alle immer Hurra und super und höher, schneller, weiter schreien. In Anbetracht von KI, ich glaube, dass es gut ist, dass auch jemand mal den Zeigefinger hebt und sagt so und jetzt mal stopp und lasst uns mal drüber nachdenken, ob das denn alles nur gute Seiten hat.

Speaker B [00:05:56]:
Also haben wir jetzt schon eine kontroverse Diskussion, ja, finde ich großartig. Ihr habt jetzt von der Studie geredet, die ist ja noch aktuell. Und was mich fasziniert, das muss ich sagen, ist, ich sag's jetzt mal so mit meinen Worten, dass die Wissenschaft aufgewacht ist und also nicht hinterherhängt, sondern da auch jetzt den Ball aufgreift und sagt, hey, wir müssen da auch auf einer Linie sein mit dem, was jetzt gerade geschieht. Und deswegen finde ich das so spannend und bin natürlich sofort auch angefixt worden durch den Titel, also die Achillesferse für künstliche Intelligenz, warum Diskriminierung ein ungelöstes Problem bleibt. Das ist die Studie. Das ist jetzt ein Thema. Wie seid ihr denn darauf gekommen? Also ich glaube, Ulrich, du hast da irgendwie Intentionen gehabt?

Speaker D [00:06:39]:
Also der Ausgangspunkt für uns, da müssen wir jetzt irgendwie ein bisschen weiter zurückgreifen, war das Thema, Kai hat es ja schon erwähnt, die KI selber ist so ein unglaublich mächtiges Instrument geworden. Und wir waren natürlich auch fasziniert von den ganzen Möglichkeiten, die uns die KI an die Hand gibt und natürlich auch insbesondere unseren Studierenden bei der Bearbeitung der Herausforderungen ihrer wissenschaftlichen Arbeiten. Das war so für uns der Ausgangspunkt, dass wir festgestellt haben, bei so einer Bachelorarbeit und Co. Da begegnen den Studierenden Herausforderungen, wie zum Beispiel die Literaturrecherche. Da kam ein Studenten auch nicht zu, der hat drei Tage lang nichts gefunden, war ganz verzweifelt. Und dann haben wir da halt sein Thema, und das war auch zukunftsindigentelligenz lustigerweise, in eine KI-Suche eingegeben und innerhalb von 20 Minuten war er mit Material versorgt, zumal wir dann noch so einen Grafnamen aufbauen lassen, über den dann relativ einfach die Suche stattnah ermöglicht worden ist. Und das sind so typische Probleme, die beginnen halt nicht nur im Studium, das sind auch in der Praxis. Der Wissensarbeiter, sagt man, der beschäftigt sich jeden Tag 20 Prozent seiner Zeit mit der Suche von Informationen, die er dann in seiner Technik verarbeitet.

Speaker D [00:07:51]:
Das war die Faszination als Ausgangspunkt, was da für mächtige Tools entstanden ist, aber gleichzeitig eben auch die Feststellung, Diese Tools, wenn sie nicht richtig angewandt werden, dann kann man riesen Bock damit bauen. Unternehmensinformationen zum Beispiel weitergeben, indem man die KI eingibt und schon sind die Dinge draußen. Da sehen wir uns als DHBW auch in der Verantwortung gegenüber unseren dualen Partnern, dass wir die Studierenden in die Lage versetzen, Kompetenzen aufzubauen, damit sie eben halt zum verantwortungsvollen Umgang mit der KI kommen. Das sind aber nicht die eigenen Kompetenzen, sondern die KI hat natürlich zur Zeit auch noch eine Vielzahl verschiedener Schwächen und da kommt eine Wanne auf uns zu, auch in negativer Hinsicht. Es sind ja nicht nur die positiven Seiten, so eine Technologie, das hat uns ja die Geschichte gelehrt, hat immer im Prinzip zwei Seiten, eine positive und eine negative. Und die Schwächen der KI, zum Beispiel das Thema der Diskriminierung, das wird zukünftig unglaublich relevant werden. Und da wollten wir unsere Studierenden natürlich mit einem lehrendegrierten Forschungsprojekt auch dafür sensibilisieren, damit negative Aspekte verbunden sind. Und das schreitet immer nach der Frage, wie kann man das lösen, wie kann man zu einer Lösung gelangen und wir sehen halt Einstellhebel in dem Kontext in der Nutzung der KI, also kann die KI auch Diskriminierung aufdecken, können wir das als Teil der Lösung auch begreifen, diesen negativen Aspekten entgegenzutreten.

Speaker D [00:09:22]:
Und das hat uns zu der Studie geführt, dass wir sagen, wir haben auf der einen Seite einen inhaltlichen Zweck, den wir verfolgen, das als Lösungsstrategie, aber natürlich auch einen didaktischen Zweck, unsere Studierenden die entsprechende AI Literacy aufzubauen, damit sie dann die Kompetenzen haben, zum verantwortungsvollen Umgang mit der Lernung zu gelangen.

Speaker B [00:09:41]:
Super. Und was habt ihr da jetzt untersucht?

Speaker D [00:09:44]:
Da haben wir mehrere Versuchsreihen durchgeführt. Die erste Versuchsreihe sah so aus, als ob man 60 Werbeanzeigen, die vom Deutschen Werberat gerügt worden sind, in die KI gekippt haben. Wir haben der KI lediglich die Frage gestellt, wer bewertet diese Anzeige. Da war kein Hinweis zur Diskriminierung oder irgendwas anderem drin. Und die Frage war, wenn man dir den Output der KI anschaut, gibt es irgendwelche Hinweise auf Diskriminierung? Und das Erstaunliche war, in den allermeisten Fällen hat die KI bei den gerügten Anzeigen Hinweise gegeben, das könnte ein Potenzial diskriminierend sein. Das wäre aber nicht nützlich, wenn es bei jeder Anzeige, egal was man reinkippt, den Hinweis machen würde. Also haben wir auch 60 Anzeigen eingegeben, die unproblematisch sind mit der Fragestellung. Da gibt es dann keinen Hinweis.

Speaker D [00:10:31]:
Und die KI war es sehr genau in ihren Angaben. In 59 und 60 Fällen hat sie keinen Hinweis auf Diskriminierung gegeben, lediglich einen einzigen Fall gab es mal einen Hinweis drauf. Also sie war sehr trennscharf in der Lage Diskriminierung zu erkennen. Und das ist aus unserer Ansicht nach dieses Katz- und Mauspiel, was die KI spielt. Auf der einen Seite wachsen natürlich immer die Möglichkeiten, weil es ein paar Fehler und Desinformationen gibt, durch die KI, aber auf der anderen Seite kann man ja genauso die KI verwenden, dem Ganzen entgegenzuwirken. Und das war für uns schon das Erstaunliche der KI, wie weit sie da gelang. Das war, ich klicke mal ein paar Jahre zurück, 2010, war die KI noch kaum in der Lage, eine Katze von einem Hund zu unterscheiden. Da haben wir eine Fehlerquote von 28 Prozent bei der Aufgabe gesehen.

Speaker D [00:11:20]:
Und die Diskriminierung ist ja vom Anspruch her Meilen. Da liegen ja Meilen dazwischen. Und da ist ja heutzutage sehr trennscharf in der Lage dazu.

Speaker B [00:11:30]:
Also fand ich sehr, sehr spannend. Ja, was gibt es doch für Themen?

Speaker C [00:11:34]:
Thomas, ich würde da gerne noch auf einen Punkt einwerfen. Du hast ja vorher gesagt, es ist wichtig oder es erstaunt dich, dass die Wissenschaft da jetzt nicht hinterherhinkt, sondern selber jetzt aktiv wird. Ich meine, das ist ein ganz wichtiger Punkt, den du da angesprochen hast. Man hat am Anfang des Internets, als das Internet aufgekommen ist, ich weiß noch, das war so die 2000er Rumäre, wenn man da angefangen hat, das erste Mal, oh, gibt's E-Mails und sowas, ja, und da hat man das ganze Internet viel zu sehr Story-Kai irgendwelchen Informatikern überlassen. Man hat die die Spielregeln erstellen lassen, die wir heute teilweise nicht mehr gedreht kriegen, obwohl die rechtlich bedenklich sind. Was ich zum Beispiel als Jurist total bedenklich finde, ist immer der Punkt, dass man das Recht hat, unter einem Pseudonym im Internet aufzutreten. Warum? Wieso? Ja, ich meine, Wenn ich nichts zu verbergen habe, dann kann ich doch meinen richtigen Namen nennen, wenn ich irgendwo irgendwelche Kommentare abgebe oder so. Aber dass ich da jeder irgendwelche Nicknames geben darf, das ist meines Erachtens eines der größten Fehler, die das Internet irgendwie hat.

Speaker C [00:12:31]:
Und woran liegt das? Weil man am Anfang irgendwelchen Informatikern sozusagen das Internet überlassen hat und da nicht gleich eine Diskussion eingesetzt hat, es geht so nicht, sondern das ist jetzt halt eine Spielregel, die sich irgendwie durchgesetzt hat. Und die kriegen wir nicht mehr zurückgedreht. Und deswegen müssen wir jetzt bei KI, dürfen wir den Fehler nicht mehr machen, sondern müssen jetzt gleich sagen, so die und die Regeln, da gibt es die und die rechtlichen Probleme, die und die Punkte müssen wir auch beachten, damit es dann eben nicht wieder zu solchen Fehlern in den Spielregeln kommt. Kann man jetzt natürlich kritisch diskutieren. Ich weiß, man könnte jetzt sagen, naja, man muss aber auch irgendwie anonym unterwegs sein können. Finde ich aber ehrlich gesagt nicht. Sondern wenn ich irgendwelche Meinungen habe, irgendwelche Dinge verbreite, dann muss ich aber auch mit meinem richtigen Namen dahinter stehen.

Speaker B [00:13:13]:
Dann hat man auch vielleicht nicht so viele Trolle, was dann so eskaliert und so weiter. Das

Speaker C [00:13:17]:
ist unmöglich. Wobei es gibt ja auch Untersuchungen, die behaupten, das würde sich trotzdem nicht ändern, auch wenn man seinen richtigen Namen nennt. Aber ich sehe das als eines der größten Probleme des Internets, dieses Pseudonymisieren, dass ich da also, sprich mir unter dem Pseudonym da irgendwie agieren kann. Ja, wie gesagt, meines Erachtens liegt es daran, dass man am Anfang viel zu sehr den Spezialisten, den Informatikern das Feld überlassen hat und diesen Fehler dürfen wir jetzt halt nicht mehr machen. Und da sind wir halt aufgerufen, uns da zu erheben mit unserer Stimme und tun wir ja auch.

Speaker D [00:13:49]:
Ich glaube der Amateur Markus ist ein ganz wichtiger Punkt auch und das ist auch der Grund dafür, warum wir uns zu dritt zusammengetan haben, dass wir sagen, wenn du das verantwortungsvoll verwenden möchtest, dann gilt es eben verschiedene Perspektiven zusammenzuführen. Das wäre auch der Grund dafür, warum ich dann seinerzeit der OpenMarkus zugegangen bin. Das ist eben nicht nur die Frage ist, wenn jetzt eine wissenschaftliche Arbeit machst, wie geht es an, sondern dass du auch natürlich die rechtlichen Aspekte dabei berücksichtigst, auch die technologischen Aspekte dabei berücksichtigst, die ethischen Aspekte, indem man sich da auseinandersetzen muss, so dass man sich dann von verschiedenen Seiten aus annähert. Wenn man nur eine Perspektive, ich glaube das ist auch ein ganz entscheidender Punkt, den der Markus hier gemacht hat, der wählt, dann läuft man immer Gefahr, dass man die anderen Perspektiven außen vor lässt. Und ich glaube, da kann AK ja auch einiges dazu sagen zu den ethischen Aspekten, die bei der Verwendung von Technologie heutzutage berücksichtigt werden müssen. Und das macht es so wichtig, diese verschiedenen Perspektiven zusammenzuführen.

Speaker A [00:14:52]:
Und das ist vielleicht tatsächlich auch der Fehler, wie Markus gesagt hat. Und da kann man jetzt auch sicherlich abendfüllende Diskussionen darüber führen, was schiefgelaufen ist, was nicht schiefgelaufen ist, ob Pseudonymisierung, Anonymisierung im Internet gut, schlecht sind, wie auch immer. Aber weil halt diese verschiedenen Perspektiven möglicherweise fehlten, aus denen wir Technologien und die Effekte von Technologien für Gesellschaften bewerten müssen. Da gehe ich mir Markus konform zu sagen, dass das bei KI hoffentlich dann auch stattfindet. Und wir versuchen es jetzt hier im Kleinen für unsere Studierenden und in unserem Kontext halt möglich zu machen. Ich vergleiche es immer ganz gerne mit einer Maschine. Also jeder, der sich eine komplexe Maschine in die Produktionshalle stellt, tut gut daran, die Betriebsanleitung sorgfältig zu studieren und herauszufinden, okay, wie bediene ich denn diese Maschine optimal? Wo sind auch möglicherweise Gefahren für Leib und Leben etc.? Und jetzt dürfen wir natürlich bei so mächtigen Werkzeugen, KI-Werkzeugen, wie wir sie heute haben, nicht so blauäugig sein und sagen, naja, das überlassen wir jetzt mal hier dem Zufall sozusagen und machen hier Learning by Doing und gucken dann, was am Ende dabei rauskommt. Nee, ganz gewiss nicht, sondern wir brauchen eine gute Bedienungsanleitung dafür, die auch jungen Menschen, aber nicht nur natürlich jungen Menschen, sondern allgemein der Gesellschaft, entsprechende Möglichkeiten und Mittel an die Hand gibt, verantwortungsvoll mit diesen Werkzeugen umzugehen.

Speaker D [00:16:15]:
Ja, und unsere Feststellung war eben, die viele Studierende und Anwender haben diese Kompetenzen aktuell nicht. Ich habe mit der Kollegin Nicole eine kleine Studie durchgeführt. Da sind die Studierenden vorbereitet auf das KI-Zeitalter. Dabei haben wir den Probanden verschiedene Aufgaben vorgelegt. Der Output von JetGPT und die Feststellung war, dass der Output von JetGPT fröhlich übernommen wird, ohne das Ganze kritisch zu hinterfragen. Und angesichts der Möglichkeiten, die die KI heute liefert, sind vielfach andere Denkweisen und insbesondere eine kritische Reflexion gefragt, zu besseren Ergebnissen zu gelangen, sich aber auch selber zu stützen. Das sind so Dinge, ich weiß nicht, ob du das kennst, diesen Enkelkindertrick, der heutzutage ja auch mit der KI, ruft dir jemand an, der Enkelkind, die Stimme ist exakt die des Enkelkinds und sagt hör mal Oma, Opa, hier Bockmöster gebaut, USA, Nufa gebaut, Braucherkaution, 3000 Dollar und zwar sofort. Und Wenn du die Stimme hörst, dann ist der Mensch so gepolt aufgrund der Evolution.

Speaker D [00:17:20]:
Wir sehen was oder wir hören was, wir hinterfragen das nicht. Wir nehmen das als wahr. Angesichts dieser negativen Potenziale, die die KI hat, müssen wir halt kritisch hinterfragen. Laut der Schwächen, die die KI hat, sind die Dinge, die einem die KI auswirft, so korrekt, entsprechend dem Wahrheitsgehalt, könnte das möglicherweise ganz anders sein oder auch mit den diskriminierenden Effekten, wenn die KI eine Übersetzung zum Beispiel durchführt, dass wir einen Satz übersetzen, die Professorin betritt den Raum von Deutsch ins Englisch, dann wird halt aus der Professorin der Professor im Englischen und wenn das wieder rückübersetzen lässt oder aus dem Englischen ins Deutsche, wird halt der Professor draus. Warum? Weil die KI das Wort auswählt, klassischerweise, dass am häufigsten Trainingsdaten vorhanden sind. Das sind also Schwächen der KI. Wenn man dann dafür sensibilisiert ist und ein kritisches Denken entwickelt hat, dann läuft man die Gefahr, dass man diesen Schwächen auf den Leim geht. Deswegen benötigen wir diese Kompetenzen und tun alle gut daran, die entsprechend zu entwickeln.

Speaker D [00:18:27]:
Und das ist auch unser Ansinnen bei den Studierenden mit unserem Buch, diese Kompetenzen aufzubauen.

Speaker B [00:18:33]:
Genau, das war jetzt mein Stichwort. Ihr habt ja ein Buch rausgebracht, Künstliche Intelligenz und wissenschaftliches Arbeiten. Ich betreue auch bei euch immer wieder Bachelor- und Masterarbeiten und da sagt mir immer, ich sag mal, alte Welt, so vor einem Jahr oder so, ja zitierfähig und zitierwürdig. Wir sind ja jetzt dann auch wirklich auf einer ganz, ganz anderen Stufe, was du gesagt hast mit der Kompetenz, dass die Studenten oder auch die Mitarbeitenden in Unternehmen jetzt sich einfach die Kompetenz aneignen müssen, was ist jetzt die Wahrheit und was ist nicht. Das heißt, die Fachkompetenz wird noch mal gesteigert und das Bewusstsein. Also ich glaube, wir sind uns alle einig, man kann das nicht ausschließen. Man kann die künstliche Intelligenz nicht ausschließen oder sagen, nein, das machen wir nicht, sondern man muss sie annehmen und dann halt dementsprechend schulen und den Leuten, Studierenden sagen, wie sie damit umgehen können.

Speaker C [00:19:23]:
Thomas, lass uns da mal einhaken, damit wir da eine Sache, glaube ich, gleich mal klarziehen können. Die künstliche Intelligenz, weil du gerade von Quellen sprachst und so, künstliche Intelligenz ist keine wissenschaftliche Quelle. Also JGPT ist keine Quelle, die wir irgendwie zitieren, sondern JGPT vermittelt uns nur Quellen. Also das heißt, ich gebe mir eine Frage da irgendwie ein bei JGPT, die ich habe, nach irgendeinem Thema und dann vermittelt mir JGPT womöglich eine Quelle. Problem ist eben im Augenblick noch, dass JGPT die Quelle halt nicht angibt, wo JGPT seine Erkenntnisse her hat. Irgendwelche Trainingsdaten, die da irgendwo eingespeist wurden und dann auf deine Frage zu einem bestimmten Thema wirft, es dann eben irgendeine Antwort ausgibt, aber nicht an, welche Quelle das ist. Und wir haben da auch gerade Diskussionen bei uns im Studienzentrum, ob jetzt JGBT die Quelle ist. Nein, JGBT ist keine Quelle.

Speaker C [00:20:15]:
Ich kann nicht hinschreiben an den Satz JGBT, sondern ich muss mir dann schon die Mühe machen, diese Quelle, wenn die mir nicht angegeben wird, in der Zwischenzeit gibt es ja auch Tools, die Quellen schon angeben. Und ich glaube, wenn wir uns nächstes Jahr unterhalten, dann gibt es da genügend KIs, die uns auch Quellen gleich angeben. Aber ich muss mir dann eben die Mühe machen, zu gucken, ja stimmt denn die Quelle eigentlich auch? Weil JetGPT, das hat Ulrich in dem Buch ganz schön herausgearbeitet, eben auch halluziniert. Die gibt uns irgendwelche Quellen an oder gar keine oder falsche oder was auch immer. Wenn ich wissenschaftlich arbeite, sagen wir, ihr könnt gerne JetGPT verwenden. Wenn jetzt wieder Bachelorarbeiten anstehen, sage ich denen auch, wegen mir könnt ihr JetGPT anwenden, überhaupt kein Problem. Und wegen mir müsst ihr es mir auch nicht angeben. Ihr müsst mir nicht sagen, ob ihr JetGPT verwendet habt oder nicht.

Speaker C [00:21:02]:
Ich will nur nachher richtige Quellen da stehen haben und ich werde halt die Quellen prüfen. Und wenn ich Experte auf irgendeinem Gebiet bin, dann habe ich schon auch ein Gefühl dafür, was sein kann und was nicht sein kann. Und wenn ich halt merke, dass da falsche Quellen angegeben sind oder keine, obwohl es eigentlich eine Quelle wäre, dann ist das Szenario, das wir bisher auch haben, schlagiat. Dann fällt man da durch und darf es noch mal warten. Wenn man JGPT als tool sieht, das mir Quellen vermittelt, Wissen vermittelt, dann ist das eigentlich ein Ansatz, der ganz gut ist. Und da passt dann eben auch dieser Spruch, möge die KI mit dir sein. Es soll heißen, die KI soll mir helfen und so kann ich KI nutzen. Und es gibt ja auch schon Kollegen, die sagen, das führt zu einer Demokratisierung der Wissenschaft.

Speaker C [00:21:48]:
Stimmt. Viel mehr Leute haben die Möglichkeit, sich wissenschaftlich mit Dingen zu beschäftigen, weil sie auf eine KI zugreifen können. Sie müssen halt nur eins lernen und das versuchen wir in unserem Buch klarzumachen. Ihr müsst euch halt die Mühe machen, dann auch die richtigen Quellen zu finden. Weil JGPT nochmal ist keine Quelle.

Speaker B [00:22:04]:
Genau. Werkzeug zum Anwenden und dann muss ich halt dann selber nochmal beurteilen, okay

Speaker A [00:22:09]:
passt oder passt nicht.

Speaker C [00:22:09]:
Das ist dann der nächste Punkt, genau.

Speaker B [00:22:11]:
Wir haben ja auch dann wirklich das dann JGPT, was du auch gesagt hast, fantasiert. Also da wird dann irgendeine Quelle reingeschrieben, dann war es halt nix. Sagt noch mal ein bisschen was zu den Themen von eurem Buch. Also es geht ja wissenschaftliches Arbeiten, vielleicht was sind so die Punkte aus dem Inhalt, was bricht ihr da alles an? Also wir werden es natürlich auch dann in die Shownotes reinmachen, genauso die Studie, die Links werdet ihr dann hier finden. Alle drei seid ihr ja beteiligt. Vielleicht von jedem noch mal so ein Statement zu seinem Beitrag.

Speaker D [00:22:40]:
Also, Kern des Buches ist die Frage, wie können wir unsere Studierenden befähigen, die KI zu nutzen, ohne dabei irgendein Fehlverhalten zu zeigen. Das ist der Ausgangspunkt gewesen, weil wir haben die Potenziale der KI gesehen und wie sie dabei einen Beitrag dazu leisten können, die Herausforderungen beim wissenschaftlichen Arbeiten zu meistern, wie sie da eine Unterstützung für die Studierenden sein können. Und das greift man grundsätzlich in dem Buch auf. Und diese Kompetenz in der verantwortungsvollen Umgang mit KI zu schaffen, sind verschiedene Aspekte notwendig. Also man muss gewisses Wissen aufbauen, welche Tools es gibt und wie man diese Tools anwendet. Wir beschäftigen uns mit dem kritischen Denken, mit den Gefahren, die dahinter sind, mit ethischen Aspekten und wie das Markus ja auch schon gesagt hat, mit dem methodischen Vorgehen. Wie geht man methodisch vor, mal, wenn man ein bestimmtes Ergebnis anstrebt, zu diesem Ergebnis zu gelangen? Das ist so ein Prozess, wo alle Perspektiven, die auch dann noch in diesem Buch aufgemacht werden.

Speaker A [00:23:43]:
Und da

Speaker D [00:23:43]:
glauben wir, da können eben die Studierenden, aber nicht nur Studierende, im Grunde genommen auch Schüler, Schülerinnen, auch Praktiker von den Inhalten des Buchs profitieren, weil auf diese Weise dann die Anwendungsgrundlagen für die Nutzung der KI geschaffen werden.

Speaker A [00:24:00]:
Ulrich, wie du gesagt hast, so weit geht es, dass jeder, der irgendwo mit Wissensarbeit befasst ist, also ganz starker beruflicher Kontext,

Speaker C [00:24:08]:
wird

Speaker A [00:24:09]:
von dem Buch profitieren, weil es einfach eine Anleitung, in Anführungsstrichen, das ist die Betriebsanleitung, von der ich vorhin gesprochen habe, an die Hand gibt, wie man verantwortungsvoll mit diesen Werkzeugen umgeht. Wir machen dann auch Ausflüge in dem Buch, in Anführungsstrichen, auch in das Thema, was meine Studierenden jetzt insbesondere, Studierende der Wirtschaftsinformatik, befasst. Thema Softwareentwicklung, wo es ja auch entsprechende KI-Tools gibt und rollen auch noch mal dort den Stand auf und gehen aber auch noch mal tiefer. Das geht dann auch schon wieder in die rechtliche Ecke zu Markus hin. Lizensierungsfragen, also wenn ich bis ja heute gang und gäbe Open-Source-Bibliotheken nutze in meinem Programm, die entsprechend zu erweitern, nicht das Rad neu erfinden zu müssen, was ja oft auch gar nicht sinnvoll ist. Da habe ich auch bestimmte Rechten und Pflichten. Und da klären wir auch noch mal auf Richtung Lizenzierung, Richtung Urheberrechtsfragen bei der Verwendung von Softwarequellcode und natürlich KI-Werkzeuge, die heute genutzt werden können zur Generierung von Quellcode. Wo sind da Risiken, die ich mir bewusst sein muss? Wo können sie aber auch Nutzen spenden? Weil es sind ja immer diese zwei Seiten der Medaillen.

Speaker A [00:25:17]:
Es hat immer eine Nutzen- und eine Risikoseite. Vielleicht auch, weil's jetzt ganz gut passt zu dem, was wir vorhin diskutiert haben, Richtung Kompetenzerwerb. Ich glaub, was wir sehen mit generativer KI in den Schulen, an den Hochschulen, ist eine Kompetenzverschiebung. Es gibt einerseits das Risiko der Kompetenzverarmung, der kognitiven Verarmung, dass man immer mehr, sag ich mal, geistige Kraft auf die KI abwälzt und dann nur noch die Inhalte konsumiert. Aber es gibt gleichzeitig auch die Chance zur Entlastung, zu sagen, okay, einfache Arbeiten kann ich die KI erledigen lassen, aber so zentrale Kompetenzen wie Quellenkritik zum Beispiel, ein kritisches Auseinandersetzen mit Inhalten, ein kritisches Reflektieren, das wird in der Zukunft umso wichtiger werden, also höhere kognitive Fähigkeiten. Jetzt gebe ich ab an Markus für den rechtlichen Teil.

Speaker C [00:26:06]:
Danke, da kann ich direkt ansetzen. Es ist ein Irrglaube zu sagen, ich kann jetzt die KI alles meine wissenschaftliche Arbeit machen lassen. Anders ausgedrückt, ein Zitat ist nur dann zulässig, wenn es Belegstelle oder Erörterungsgrundlage für eigene Gedanken ist. Das heißt, wenn ich fremde Werke zitieren möchte, dann müssen die als Belegstelle, Erörterungsgrundlagen für meine Gedanken dienen. Das heißt, ich kann nicht einfach nur Zitate wild hintereinander hängen, zusammenhangslos, sondern ich muss mir da schon eigene Gedanken machen. Und wenn ich eine KI verwenden möchte, dann kann ich das machen, die muss aber sozusagen mir dienen. Sie muss meine Gedanken irgendwie voranbringen. Das heißt, ich muss schon noch eine Idee dahinter haben, wo ich eigentlich hin will mit meiner wissenschaftlichen Arbeit.

Speaker C [00:26:50]:
Und da haben wir dann eben den eigenen Anteil, den ja auch jede wissenschaftliche Arbeit haben muss. Wenn ich einfach alles aus Büchern zusammenstustere, wo ist dann der wissenschaftliche Eigenanteil? Das ist so der eine Punkt. Und der andere Punkt ist, Ulrich hat es vorhin, glaube ich, schon mal angesprochen, wo wir auch darauf hinweisen möchten, Leute, passt auf, gerade wenn ihr an der Normalen Hochschule zum Beispiel ein Thema bearbeitet, das machen ja die meisten für Arbeitgeber irgendwie, die machen irgendwas aus ihrer Berufspraxis, ja, bei ihrem Arbeitgeber. Und wenn ihr da anfangt, irgendwelche Unternehmensdaten oder kritische Informationen, die nicht an die Öffentlichkeit sollen, in eine KI einzugeben, dann wisst ihr nicht mehr, was die KI damit macht. Und häufig ist es eben so, dass die KI die Antworten, die Fragen und die Antworten speichert und dann wiederverwendet, wenn jemand anders die gleiche Frage stellt. Und dann können auf einmal kritische Unternehmensdaten womöglich bei anderen Leuten landen. Und dann habe ich auf einmal ein größeres Problem. Schadensersatzansprüche, Abmahnungen, Kündigungen, all solche Dinge.

Speaker C [00:27:47]:
Und da möchten wir eben auch darauf hinweisen, den Leuten klarzumachen, passt auf, was ihr denn da so alles in die KI eingebt, weil ihr wisst nicht mehr, was damit passiert. Deswegen spricht man häufig von einer Blackbox. Wir wissen nicht, was die KI nachher daraus macht. Und das sind eben so Dinge, die wir auch vielmals, die sind eigentlich zunächst mal banal, irgendwie kann man auch selber drauf kommen, aber vergisst man vielleicht so im Eifer des Gefechtes. Und deswegen ist es wichtig, nochmal, dass wir das auch in dem Buch aufgearbeitet haben.

Speaker A [00:28:15]:
Was ich in dem Kontext auch als hilfreich empfunden habe, im Gespräch auch mit Nicht-Technikerinnen und Technikern, ist einfach auch zu zeigen, abstrakt, grob, wie funktioniert denn die KI dahinter? Ab welchem Punkt wandern jetzt meine Daten von meiner lokalen Umgebung in die Cloud? Was sind möglicherweise Konsequenzen dessen? Und da fehlt vielen Leuten einfach ein Gefühl dafür, was dort passiert. Das heißt, ich glaube, wir müssen da auch gesamtgesellschaftlich einfach eine viel stärkere Aufklärungsarbeit leisten. Und das hängt halt eng mit dem Verständnis zusammen, wie es unter der Haube, salopp gesagt, funktioniert.

Speaker B [00:28:51]:
Also Thema Medienkompetenz für alle Generationen ist auch ein Thema, was wir uns tatsächlich auf die Fahne geschrieben haben. Wo man sagt, okay, die Jungen brauchen anderes Wissen, Dieses Kritische aus der Erfahrung heraus und so weiter. Also, dass man da die Lücken zu allen Generationen schließt, finde ich extrem wichtig. Und deswegen freue ich mich auch, dass ihr drei euch da jetzt einbringt und da auch ein kleines Stück Virtual Breakfast weitermacht. Und ja, die dunkle Seite der Macht. Und ich glaube, ihr werdet ein bisschen Licht reinbringen am 5.2. Ich freue mich schon drauf und Kai hat gerade einen schönen Satz gesagt, dass man auch mal die Funktionsweise erklärt. Vielleicht können wir uns darauf freuen, dass ihr da mal drauf eingeht, wie sowas funktioniert, dass es auch ein nicht so bewandter KI-Künstler, sag ich jetzt mal, versteht.

Speaker A [00:29:39]:
Und gerne können noch die Hörerinnen und Hörer für den 5.2. Fragen vorab einreichen, die wir dann selbstverständlich und gerne behandeln werden. Wir freuen uns drauf.

Speaker B [00:29:48]:
Ich darf mich recht herzlich bei euch bedanken. Schön, dass ihr da wart. Ich freue mich wahnsinnig auf den 5.2. Und wer da nicht einschaltet, ist selber schuld. Macht's gut, bleibt gesund und munter und bis zum 5. Tschüss.

Speaker C [00:30:01]:
Ciao. Bis dann. Ciao.

 

Zurück zum Blog

Hinterlasse einen Kommentar

Bitte beachte, dass Kommentare vor der Veröffentlichung freigegeben werden müssen.