Marburger KI-Professorin über Chancen und Risiken von Künstlicher Intelligenz
Chat-GPT ist in aller Munde – für die einen ist es ein Zeitvertreib oder sogar eine Arbeitserleichterung. Andere fragen sich, wie sich die Künstliche Intelligenz kontrollieren lässt. Christin Seifert ist Professorin für Künstliche Intelligenz und erklärt im Express-Interview, warum die aktuelle Debatte gefährlich ist.
Express: Hallo Frau Seifert! Muss mir die rasante Entwicklung von Chatt-GPT Angst machen?
Christin Seifert: Das kann ich nicht abschließend beantworten, weil das eine komplizierte Debatte ist – und auch eine gefährliche. Die Wahrheit liegt irgendwo zwischen Hype und Untergangsstimmung. Was ich sicher sagen kann, ist, dass wir die Künstliche Intelligenz nicht mehr aufhalten können. Im Prinzip müssen wir lernen mit KI zu leben und entscheiden, wie wir als Gesellschaft mit ihr umgehen wollen. Denn selbst wenn Deutschland beschließen würde, dass wir mit KI-Entwicklung und Nutzung aufhören müssten, machen andere Länder weiter. Außerdem sind wir ohnehin so international verflochten – wir benutzen Google, Amazon, um nur ein paar Beispiel zu nennen –, dass es illusorisch ist, zu denken, man könnte um die Nutzung von KI herumkommen. Stattdessen müssen wir bestimmen, wie eine verantwortungsvolle Regulierung der Künstlichen Intelligenz aussehen könnte.
Sie haben eben gesagt, dass das eine gefährliche Debatte ist. Worin liegt die Gefahr bei Chat-GPT?
Menschen können nicht erkennen, ob ein Text von einer KI oder einem Menschen geschrieben wurde. Das ist problematisch, weil Chat-GPT sich nicht immer an Fakten hält. Chat-GPT halluziniert. Wenn dann unzählige KI-generierte Texte im Netz auftauchen und nicht wie bei journalistischen Texten überprüft wird, ob die Fakten stimmen, dann besteht die Gefahr, dass das Internet mit Fake-News geflutet wird – in einem noch nie dagewesenen Ausmaß. Als Konsumentin kann ich dann nicht erkennen, ob eine Maschine oder ein Mensch Autor oder Autorin war. Das ist ein großes Problem, wenn es ums Internet geht, auch weil Chat-GPT auf einem hohen und überzeugenden Sprachniveau formuliert.
In welchen Bereichen ist das noch problematisch?
Letztens kam ein Student zu mir, der sich von Chat-GPT einen Überblick über alles hat geben lassen, was zu seinem neuen Hausarbeits-Thema bekannt ist. Er fragte mich nach einer Quelle, die Chat-GPT ihm gegeben hat, die er jedoch nirgends finden konnte. Die Quelle sah korrekt zitiert aus, obwohl Chat-GPT sie frei erfunden hat inklusive Titel, Autoren, Journal und so weiter
Wieso denkt sich Chat-GPT sowas aus?
Im Prinzip lernt die KI von Statistiken, um uns das Ergebnis zu liefern, was wir sehen wollen. Chat-GPT überprüft, wie so eine Quelle aussehen muss, damit sie glaubwürdig wirkt, baut dann einen Namen dazu und einen sinnvoll klingenden Titel. Das geht auch mit Bildern – das beste Beispiel ist die Fälschung vom Papst mit der weißen Daunenjacke. Man könnte wahrscheinlich ein Bild von mir erstellen, wie ich gerade eine Bank ausraube. Woran erkennt man die Fälschung? Da ist die Gefahr.
Sie sagten eben, dass man als Konsumentin nicht erkennen kann, ob Maschine oder Mensch Autor oder Autorin ist. Ist das gänzlich unmöglich?
Naja, das geht nur mit Expertenwissen. Das versuche ich auch Studierenden beizubringen. Sie können Chat-GPT nutzen, denn es ist ja auch nicht alles falsch, was die KI produziert. Der Output kann eine erste Inspiration sein, aber dann muss mit dem Wissen der Studierenden und mit echten Quellen abgeglichen werden, was davon tatsächlich stimmt. Die KI ist ein Werkzeug und ich muss wissen, wofür ich es benutzen kann oder soll: Ich kann einen Hammer benutzen, um jemandem zu verletzen oder um ein Haus zu bauen. Und dass ich den Hammer nicht benutze, um jemanden zu verletzen, haben wir rechtlich festgelegt. Die KI muss auch rechtlich umrahmt werden – das wären die Regulierungen von denen ich eben sprach. Auch wenn die KI gefährlich sein kann, ist sie ein sehr nützliches und beeindruckendes Werkzeug.
Auch für Sie, obwohl Sie sich viel mit KI auseinandersetzen?
Chat-GPT war ein Durchbruch in der Wissenschaft, ja. Vorher gab es diese KI-Modelle nur für einzelne Aufgabenbereiche: entweder konnte mir die KI einen Text vereinfachen, mir etwas aus dem Internet suchen, mir einen Text zusammenfassen oder einen Text im Stil von Shakespeare schreiben. Das „oder“ ist entscheidend. Für jede dieser Anwendungen hatte ich vorher ein anderes KI-Modell. Chat-GPT ist jetzt als Erstes in der Lage, viele verschiedene Aufgaben zu lösen.
Setzen Sie sich in ihrer Forschung mit Chat-GPT auseinander?
Chat-GPT ist ein Sprachmodell wie die, die wir auch in der Medizin anwenden. Wir schreiben zum Beispiel ärztliche Befunde, die ja bekanntlich viele Fachwörter enthalten, in einfachere Sprache um, welche die Patienten ohne medizinische Ausbildung verstehen können. Und zwar mit derselben Technologie, die hinter Chat-GPT steckt. Mein Forschungsgebiet umfasst jedoch auch andere Arten, nicht nur sprachbasierte KI. Grundsätzlich versuchen wir die Entscheidungen und insbesondere die Fehlentscheidungen der KI erklärbar zu machen.
Inwiefern?
Wir wollen das Funktionieren einer KI verstehen. Um das zu tun, muss man sich die KI wie ein kleines künstliches Gehirn vorstellen: viele künstliche Nervenzellen, die miteinander verbunden sind und Signale aneinander schicken können. Das ist analog zum menschlichen Gehirn aufgebaut, aber viel einfacher und viel größer. Den Nervenzellen versuchen wir das Lösen von Aufgaben beizubringen.
Und was machen Sie mit den Fehlern?
Eigentlich macht die KI nichts falsch. Sie lernt, was wir ihr zeigen. Wenn man sich nun so ein großes Gehirn mit Billionen von Parametern, also Stellschrauben, an denen man dreht, vorstellt, das dann am Ende eine Antwort ausspucken soll, versuche wir zu erforschen, aufgrund welcher Stellschrauben die KI zu dieser Entscheidung gekommen ist. Wir versuchen das Muster dahinter aufzudecken und dann die Programmierung zu korrigieren. Das ist zum Beispiel in der Medizin ganz wichtig, denn hier gibt es keine Spielraum für falsche Vorhersagen.
Zum Beispiel?
Wir haben einer KI beigebracht, wie sie Hautkrebs erkennt. Wenn sie Hautkrebs fälschlicherweise nicht diagnostiziert, ist das fatal. Wenn wir die Fehlerquellen beseitigen, können wir der KI beibringen, dass sie zum Beispiel Bilder von Leberflecken automatisch analysiert. Die KI ist bei der Diagnose viel schneller – und auch teilweise verlässlicher– als die Fachleute. Die KI wird ja nicht müde. Wenn man die KI demnach als Werkzeug versteht und dieses anzuwenden weiß, dann kann sie uns viel Arbeit abnehmen.
Interview: Leonie Theiding
Zur Person
Seit April ist Christin Seifert Professorin für Künstliche Intelligenz am Fachbereich Mathematik und Informatik in Marburg. Ihr Forschungsschwerpunkt ist „Intelligente Entscheidungsunterstützungssysteme“, insbesondere in der Medizin.
Die KI-Professur wurde an der Universität neu eingerichtet. Sie ist eine der ersten Professuren am „Hessischen Zentrum für Künstliche Intelligenz“. Das Zentrum wird vom Land mit rund 38 Millionen Euro für die fünfjährige Aufbauphase bis 2024 finanziert. Es wird von 13 hessischen Hochschulen getragen und soll dafür sorgen, dass Hessen in den KI-Technologien wettbewerbsfähig bleibt.
Weltweit erstes KI-Gesetz
Mitte Juni hat das EU-Parlament das weltweit erste KI-Gesetz auf den Weg gebracht. Es soll sicherstellen, dass die in der Europäischen Union eingesetzten KI-Systeme die hiesigen Datenschutz- und Sicherheitsstandards einhalten, transparent, nicht-diskriminierend, und umweltfreundlich sind. Eine biometrische Gesichtserkennung im öffentlichen Raum soll nach dem Willen der Abgeordneten verboten werden. In den kommenden Monaten muss der Gesetzentwurf mit den Mitgliedstaaten und der EU-Kommission weiter im Detail ausgehandelt werden.