Zum Inhalt springen
VGSD-Netzwerktag mit Barcamp am 14./15. Oktober in Frankfurt: zu 80% ausverkauft Jetzt Platz sichern
Mitglied werden

GPT-4, DeepL und KI "Die Gefahr liegt nicht in der Technik, sondern in der Überschätzung ihrer Potenziale"

Der Hype ist riesig: Die neuen Fähigkeiten Künstlicher Intelligenz begeistern und verunsichern gleichzeitig viele unserer Mitglieder. Die Soziologin Sabine Pfeiffer ordnet die Entwicklungen ein und erklärt, warum es falsch ist, schon jetzt ganze Berufsgruppen abzuschreiben.   

Sabine Pfeiffer fordert, die Entwicklung Künstlicher Intelligenz zu regulieren. Ansonsten werde "die Demokratie zur Farce und die Wirtschaft allein bestimmt von wenigen großen Akteuren".

Zu jedem Anlass gibt es im Internet eine Auswahl an Textvorschlägen, abgenutzte Phrasen, genauso wie witzige Pointen. Und doch sind es weiterhin Menschen, die uns emotional berühren. Gleichzeitig richten wir uns schon seit vielen Jahren eine Welt ein, in der Maschinen mehr können als wir selbst. Der SZ-Journalist Johan Schloemann warnt: "Die KI soll für den Menschen Dinge vereinfachen, aber sie erhöht nur noch einmal die Komplexität."

Die neueste Version GPT-4 hat einen Hype entfacht. Schon wird überlegt, in welche Systeme sich das neue Tool integrieren, wie mit anderen verbinden lässt. Wie umwälzend diese Entwicklungen sind, lässt sich nur erahnen. Neben Euphorie herrscht aber auch Panik: Davor, dass die immer intelligenteren Maschinen den Menschen überflüssig machen oder sich vielleicht sogar verselbstständigen könnten. Auch die Kontrollierbarkeit ist ein großes Problem, denn bisher werden die Entwicklungen von wenigen privaten Konzernen dominiert. Eine Gefahr für die Demokratie und unsere Gesellschaft? Die Soziologin Sabine Pfeiffer, Professorin an der Friedrich-Alexander-Universität Erlangen-Nürnberg, weiß mehr. 

VGSD: Frau Pfeiffer, Sie beschäftigen sich als Soziologin seit vielen Jahren damit, wie Technik unsere Arbeit und Gesellschaft verändert. Wie beurteilen Sie die aktuellen Fortschritte im Bereich Künstlicher Intelligenz?

Sabine Pfeiffer: Seit dem Aufkommen der sogenannten Industrie 4.0, seit dem digitalen Wandel und dem Entstehen autonomer Systeme, bis hin zu ChatGPT und anderen „Large Language Models“, beobachte ich eine starke Überschätzung. Natürlich sind die Fähigkeiten gewaltig, aber oft wird medial der Eindruck vermittelt, dass die KI jetzt „weiß“ was sie ausspuckt beziehungsweise dass sie wirklich „mit einem redet“. Die Gefahr von ChatGPT gegenüber Vorgängermodellen ist, dass Antworten plausibel wirken können, auch wenn sie falsch sind. Früher war offensichtlicher, wenn die Systeme Quatsch produzierten. 

Dennoch sind auch die neuen Tools nicht fehlerlos. 

Es bleiben stochastische Modelle, die manchmal zu lügen scheinen. Wobei das Wort „lügen“ natürlich auch falsch ist. Hinter einer Lüge steckt eine Intention, die KI aber hat keine. Sie produziert eine Antwort auf Basis von Lerndaten und Wahrscheinlichkeiten. Auch wenn die Ergebnisse zum Teil wirklich beeindruckend sind: Am Ende muss der Mensch entscheiden, ob die Maschine die richtigen Antworten liefert, und feststellen, wo die Fehler sind. Diese Grenze sollte man immer im Kopf behalten. Stattdessen zählen manche sogenannten Experten und Expertinnen wieder mal die Berufe, die bald aufgrund der technologischen Fortschritte aussterben sollen. 

Da Sie schon selbst die angezählten Berufe ansprechen: Müssen beispielsweise Journalisten oder Übersetzer befürchten, dass ihre Jobs bald von Maschinen übernommen werden?

Im Journalismus bin ich mir tatsächlich nicht so sicher. Häufig geht es nur noch darum, schnell und ohne viel Aufwand „Content“ zu produzieren beziehungsweise zu kopieren. Je weniger eigene Recherche und eine eigenständige Sichtweise in der Arbeit stecken, desto leichter lässt sich die Arbeit an Maschinen delegieren. Erstmals trifft es also auch so genannte „geistige“ Berufe, das zumindest ist relativ neu in der Geschichte der Automatisierung. 

Aber?

Das Ausmaß dürfte weit kleiner sein als manche Horrorszenarien uns glauben machen wollen. Zum Beispiel Übersetzungen: Auch Professionelle in diesem Feld werden schon länger mit Übersetzungstools wie etwa DeepL arbeiten – trotzdem schaut da immer noch ein Mensch am Ende gründlich über die Texte. Ich gebe meine wissenschaftlichen Paper auch einem englischen Übersetzungsdienst, damit sprachlich wirklich alles 1A ist. Und wissen Sie was: Gerade in den vergangenen Wochen war dieser völlig mit Aufträgen ausgelastet!

Das heißt, der Mensch muss schauen, dass er weiterhin klüger bleibt als die Maschinen?

Bleiben wir beim Beispiel DeepL: DeepL hat gelernt und lernt weiterhin anhand von Übersetzungen, die Menschen machen. Was macht dieses Programm, wenn wir alle aber keine neuen eigenen Übersetzungen mehr anfertigen, weil wir alle nur noch DeepL nutzen? In the long run wird immer weniger neuer Content ins System hereinkommen. Keine neuen Daten heißt: das System kann sich nicht mehr weiterentwickeln. Schon gute Systeme brauchen aber immer mehr statt weniger Daten, um noch besser zu werden oder um wenigstens so gut zu bleiben wie sie mal waren. Da Sprache sich aber laufend verändert, könnte die KI das über die Zeit gar nicht mehr ausreichend mitbekommen, wenn wir DeepL nur noch nutzen und nicht mehr füttern. Das System könnte dann wieder schlechter werden. Das ist eines der Grundprobleme mit lernenden Systemen: Wir müssen damit umgehen, dass sie unter Umständen auch wieder schlechter werden könnten. Wir müssen also wenigstens immer selbst so gut bleiben als Menschen, dass wir das wenigstens noch merken würden. Letzten Endes wird es auch darum gehen, wer darüber entscheidet, was die Maschinen lernen – und wie sie sich an Veränderungen anpassen sollen. 

Jetzt sind wir beim Thema Marktmacht. Und Kontrolle. 

Ja, vieles was im KI-Bereich für uns heute kostenlos ist, wird zukünftig Geschäftsmodell sein – also in der Nutzung kosten. Unsere Daten und Werke werden aktuell von den Konzernen meist frei abgeschöpft; die Produkte dieser Unternehmen für die Kunden werden es nicht sein. Und die rasante Entwicklung bei ChatGPT beruht vor allem auf der enormen Fütterung mit Datenmengen, weniger auf der Weiterentwicklung des Algorithmus. Und das ist ein ganz großes Problem: Wer das große Kapital mitbringt, um die KI an immensen Datenmengen lernen zu lassen, macht das Rennen. Nicht das kleine am Gemeinwohl orientierte Start-up, selbst wenn es vielleicht ein sehr viel innovativeres Modell entwickelt hat. Das führt zwangsläufig zu einer weiteren Konzentration der Unternehmen, die sich mit viel Kapital im Rücken die notwendige Serverleistung einkaufen können. 

Wie könnte man gegensteuern?

Gesellschaft und Politik müssten konkret gestalten. Allgemeine ethische Debatten oder der geforderte sechsmonatige Entwicklungsstopp – all das hilft alleine nichts. Die Politik rennt, wie oft bei der Digitalisierung in den vergangenen Jahren, hinterher. Aber nicht nur weil demokratische Meinungsbildungsprozesse eben Zeit brauchen. Sondern auch weil Politik sich schwer damit tut, Unternehmen zu regulieren – das ist transnational schwierig, und vor allem traut sich Politik zu wenig. 

Sie sind also für mehr Regulierung? 

Das Problem bei Regulierung ist, dass die Regeln nicht mit der Entwicklung mithalten können. Bis passende Gesetze beschlossen sind, ist die Praxis schon wieder einige Schritte weiter. Das kann aber nicht bedeuten, dass man Regulierung einfach sein lässt. Und immerhin: ob Datenschutzgrundverordnung oder KI, in der EU tut sich da durchaus was.

Drohen wir durch strenge Regulierung als Wirtschaftsstandort nicht den Anschluss zu verpassen?  

Das Argument, dass Innovationen durch Regulierungen gebremst werden, ist albern. Historisch hat Regulierung immer einen stabilen Rahmen gebildet, worauf sich Unternehmen und Investoren verlassen können. Ein klarer Rahmen ist vor allem auch gut für kleine Unternehmen und Selbständige: Denn das Risiko in ein unreguliertes Feld zu investieren trägt nur leicht, wer damit nur das Geld anderer riskiert. 

Trotzdem könnten wir Arbeitsplätze ans Ausland verlieren. 

Ja. Das tun wir allerdings seit Jahrzehnten. Auch ganz ohne KI. Einfach deshalb, weil Unternehmen in Malaysia oder sonst wo billiger produzieren können oder weil man sich Zugang zu Märkten sichern will. Nicht wegen der ein oder anderen Regulierung. 

Lassen sich denn aus Ihren wissenschaftlichen Studien keine Regeln ableiten, welche Berufsgruppen vom Fortschritt bei KI am meisten profitieren? Und welche am meisten verlieren werden?

Je mehr Prozesse standardisiert sind, desto leichter lassen sich diese automatisieren. Und wo immer das geht, und wo immer man sich dadurch ökonomische Vorteile verspricht, wird das passieren. Anstatt uns zu fragen, welche Tätigkeiten oder Berufe wann und in welchem Ausmaß verschwinden, sollten wir uns fragen, was bedeutet es, wenn wir uns immer mehr auf Maschinen verlassen, die mit 98 Prozent Wahrscheinlichkeit das richtige Ergebnis liefern – aber zu 2 Prozent das falsche? Dass Antworten, die super plausibel aussehen, trotzdem einen Denkfehler haben können. Wir müssen lernen damit umzugehen, dass man nie wissen kann, ob die KI richtig oder falsch liegt. 

Anderes Thema. Sie sagten in einem Interview 2018 einmal: Die Wirtschaft werde zwar immer produktiver, dennoch müsse der Einzelne aber immer mehr leisten. Eigentlich hoffen wir doch alle, künftig weniger arbeiten zu müssen – ist das unrealistisch? 

Studien zeigen, dass mehr Produktivität nicht automatisch dazu führt, dass wir weniger arbeiten müssen. Stattdessen geht es um die Verteilung: die Verteilung der Produktivitätsgewinne zum einen, die Verteilung der Arbeitszeit zum anderen: In der Pflege sind zum Beispiel die Dokumentationspflichten immens. Es bleibt immer weniger Zeit für die eigentliche Pflege. Wenn eine KI nun diese Dokumentationspflichten abnähme, könnten Qualität der Arbeit und Qualität der Pflege profitieren. Wahrscheinlicher aber ist, dass Politik und Kostenträger anders – nämlich rein ökonomisch – entscheiden und die freigewordene Zeit mit mehr zu Pflegenden „auffüllen“. Dann haben weder die Beschäftigten noch die zu Pflegenden gewonnen. 

Das heißt?

Wir werden uns die Frage stellen müssen, wie wir mit den Zeit- und Produktivitätsgewinnen durch KI umgehen: Gewinnen vor allem die Shareholder oder haben wir alle künftig mehr Freizeit? Und die Antwort auf diese Frage hängt nur zum Teil davon ab, wer die KI-Modelle baut, und wie sie programmiert sind. Sondern vor allem davon, ob wir als Gesellschaft den großen KI-Akteuren diese Entscheidungen überlassen oder uns einmischen und gestalten wollen und werden. 

Was können Selbstständige und Arbeitnehmer tun, um sich auf diese Veränderungen einzustellen? 

Jeder und jede sollte sich die neuen Tools anschauen, ausprobieren – und testen, welche Vorteile es für die eigene Arbeit gibt. Es macht immer Sinn, neue Tools zu nutzen. Nur so kann man auch ihre Grenzen kennenlernen. Wer feststellt, dass die Algorithmen die eigene bisherige Arbeit genauso gut oder sogar besser und schneller machen können, muss wohl sein „Geschäftsmodell“ überdenken. Und sich vielleicht stärker darauf besinnen, was das Besondere und Einzigartige der eigenen Kompetenz ist, das so schnell kein Algorithmus nachahmen kann. 

Zum Ende noch eine etwas polemische Frage: Haben Sie angesichts der aktuellen Entwicklungen Angst vor der Zukunft?

Ich mache mir Sorgen. Aber die Gefahr liegt nicht in der Technik, sondern in der Überschätzung ihrer Potenziale. Ich halte wenig von den Science-Fiction-Szenarien, wonach die KI bald ein eigenes Bewusstsein entwickelt, die Macht an sich reißt und feststellt, dass die Welt ohne uns Menschen eine viel bessere wäre. Davon sind wir, glaube ich, noch weit entfernt. 

Aber?

Die Überwachung: Wie wollen wir etwas steuern, in das wir nicht oder nur bedingt reinschauen können? Wie können einzelne Staaten noch ein Gemeinwesen organisieren, auch gegen die Interessen einer finanzstarken Tech-Welt, die jeden Tag neue Fakten schafft? Die Politik sieht sich dabei oft genug leider als Steigbügelhalter der großen Lobbyisten, kleine Unternehmen, Solo-Selbstständige und Beschäftigte haben in diesem Spiel oft zu wenig Gehör. Und vor allem: demokratische Entscheidungen brauchen Zeit – und diese Zeit nehmen wir uns nicht. Dennoch müssen wir Antworten finden, und wir müssen lernen, wie man die großen Tech-Unternehmen in einen geeigneten Rahmen einhegen kann. Ansonsten wird die Demokratie zur Farce und die Wirtschaft allein bestimmt von wenigen großen Akteuren. 

Sabine Pfeiffer ist Professorin für Soziologie an der Friedrich-Alexander-Universität Erlangen-Nürnberg. Schon seit Mitte der 1990er Jahre beschäftigt sie sich mit den Themen Technik und Arbeit. Dabei spielt insbesondere die digitale Transformation und Industrie 4.0 eine große Rolle. Pfeiffer beschäftigt sich in ihrer Forschung mit Automobilherstellern, der Software-Entwicklung oder der Tele-Kommunikationsbranche. 

Neuester Hilfreichster Kontroversester
Kommentar schreiben
Abbrechen

Du möchtest Kommentare bearbeiten, voten und über Antworten benachrichtigt werden?

Jetzt kostenlos Community-Mitglied werden

Zum Seitenanfang

#

#
# #