Laptopnutzer im Dialog mit ChatGPT / Warum Unternehmen vor ChatGPT zurückschrecken

Chatbots eröffnen zahlreiche neue Anwendungsmöglichkeiten. Unternehmen sollten beim Einsatz von Tools wie ChatGPT jedoch eher Vorsicht walten lassen. (Bild: Adobe Stock / Sutthiphong)

Experten wie Martin Ruskowski, Professor an der Uni Kaiserslautern und Forschungsbereichsleiter Innovative Fabriksysteme am Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI) in Kaiserslautern sind sich sicher: „ChatGPT bringt ein sehr großes Anwendungspotenzial für organisatorische Bereiche mit. Das gilt insbesondere mit Blick auf Robotic Process Automation immer dort, wo es um ausprogrammierte Regeln zum Treffen von Entscheidungen in wiederkehrenden Abläufen geht.“ Das gilt etwa beim Erstellen von Angeboten, dem Umgang mit Reklamationen oder beim Bewerbermanagement. Die Technologie biete hier gute Möglichkeiten, individuelle Antworten zu verfassen.

Was ist das Potenzial von ChatGPT?

Trotz des großen Hypes um den Chatbot von Open AI und der SciFi-Angst vor einer KI, die die Weltherrschaft übernimmt, gibt es bei KI-Profis viel Bodenhaftung. „ChatGPT ist von der unterliegenden Technologie her nicht so innovativ, wie Laien anhand des erstaunlich guten Outputs denken. Der Durchbruch liegt eher in der einfachen Nutzbarkeit, die KI-Technologie jetzt allen zugänglich und damit zum Mainstream macht“, erklärt Alexander Thamm, Geschäftsführer der gleichnamigen, auf Automotive spezialisierten KI-Beratung. Prinzipiell könnten mit ChatGPT zum Beispiel schnell Antworten auf Mails vorbereitet oder Analysen mit Blick auf Finance und Controlling zusammengestellt werden. Vom Arbeitsvertrag bis hin zu Social-Media-Posts im Marketing seien viele Effizienzgewinne zu erzielen.

Die Nutzung von Chatbots ist eine rechtliche Grauzone

Ob sich die KI-Technologie für den Einsatz im Unternehmen in der jetzigen Form eignet, muss allerdings bezweifelt werden. „ChatGPT ist ein Sprachmodell, in das sehr unterschiedliche Dokumente und Quellen eingeflossen sind. Es hat die Fähigkeit, gut klingende Texte zu produzieren. Doch ob die Fakten stimmen, ist völlig unklar“, so Ruskowski. Unternehmen begeben sich damit in eine Grauzone. Der Diebstahl von geistigem Eigentum ist aus Sicht des KI-Professors rechtlich definitiv ein schwieriges Thema: „Die genutzten Inhalte wurden aus dem Netz abgezogen und es ist unklar, ob darunter geschütztes Material ist“.

Wer schon damit arbeitet, muss sich zudem auf manuelle Kontrollen der Texte einstellen. „Selbst wenn ChatGPT nicht blind genutzt werden kann, weil mit bis zu 20 Prozent Falschaussagen gerechnet werden muss, können die 80 Prozent einen substanziellen Beitrag leisten“, stellt Thamm jedoch fest. Das gelte vor allem dort, wo es mehr auf Geschwindigkeit und weniger auf die Recherchetiefe beim Texten ankomme. So nutze Coca-Cola die Technologie bereits im Marketing.

Doch es gibt weitere Gefahren. Als warnendes Beispiel dient derzeit Samsung, das seinen Mitarbeitenden die Nutzung des Tools erlaubt hatte. Dann wurde ChatGPT von Samsung-Ingenieuren um Hilfe bei Programm-Codes rund um Chiptechnologie gebeten und dafür mit vertraulichen Daten gefüttert. Eine Person nahm ein Business-Meeting auf, ließ es durch ein KI-Tool transkribieren und wollte eine Zusammenfassung von ChatGPT haben. Dass der Code und die Meeting-Informationen – und damit potenzielle Firmengeheimnisse von Samsung – bei anderen Nutzern landen, ist nicht ausgeschlossen. Die Erkenntnis daraus: Ein einmal gesagtes Wort kann nicht zurückgenommen werden. Jede Information, die an ChatGPT geht, ist für immer verloren.

Wie kann ChatGPT in der Industrie weiterhelfen?

Auch auf anderer Ebene zeichnen sich massive Herausforderungen ab. „Es gibt schon jetzt sehr viele Probleme mit Fake News und sozialen Medien. Ich sehe das Risiko, dass die Menschen wirklich glauben, was ChatGPT produziert“, meint Ruskowski. Klar ist: Erst wenn die Technologie auf verifiziertem Wissen aufsetzt, ist ein vertrauensvoller Umgang damit im Unternehmenskontext möglich.

Das DFKI erprobt bereits KI-Technologien mit Partner Empolis im Forschungsprojekt SmartFactory. Dabei geht es darum, aus Handbüchern, Kundenberichten und Produktinfos Wissen zu ziehen, um zum Beispiel die Mitarbeitenden in Support-Hotlines mit der jeweils benötigten Information zu versorgen. Hier liegt der Fokus auf dem Finden von Information, sprachlich ist das bisher weniger elaboriert. Doch gerade beim Thema Wissensmanagement könne sich das Zusammenbringen dieser Ansätze mit ChatGPT lohnen, meint Ruskowski. Mit der Kombination aus gut gepflegten, konsolidierten Unternehmensdaten und generischen Sprachmodellen könnte perspektivisch viel erreicht werden. Statt nach Informationen in einzelnen Anwendungssilos zu suchen, kann KI-Technologie bald wirklich ein Unternehmensauskunftssystem ermöglichen, bei dem Fragen in natürlicher Sprache möglich sind.

Insbesondere mit Blick auf das Produktionsumfeld würden jedoch derzeit kurzfristige Erwartungshaltungen geschürt, die nicht erfüllt werden könnten – einfach weil die Grundlagen fehlen, konstatiert Ruskowski. Man sei noch dabei, überhaupt die Daten aus den Maschinen verfügbar zu machen, von Dialogsystemen sei man weit entfernt. Alexander Thamm sieht auch in Entwicklung und Qualität einiges Potenzial: „Im Qualitätsmanagement verbringen Ingenieure viel Zeit damit, Daten aus unterschiedlichen Systemen zusammenzutragen, auf Analysen zu warten und der Komplexität Herr zu werden. Hier kann KI starke Entlastung bringen, damit sich Fachleute auf Ingenieurskunst spezialisieren können“.

Gibt es europäische Alternativen zu ChatGPT?

Dass Anwendungen wie ChatGPT aus den USA kommen, sehen Experten wie Thamm problematisch. „Mittlerweile gibt es deutsche Alternativen wie das KI-Modell des Startups Aleph Alpha, das den Faktencheck von KI-Ergebnissen in den Fokus nimmt“, berichtet Thamm. Ganz klar genügt ChatGPT auch nicht der DSGVO. OpenAI holt für das Training nicht das Einverständnis von Usern oder Quellen ein. Zudem ist für die Nutzung von Inhalten außerhalb des eigentlichen kontextuellen Umfelds ebenfalls eine Zustimmung erforderlich, denn hierdurch könnte die Integrität von Informationen untergraben werden.

„Es ist wichtig, dass es eine europäische Alternative für ChatGPT gibt. An der Umsetzung von Large European AI Models (LEAM) arbeitet beispielsweise der Bundesverband KI“, so Thamm. Eine Machbarkeitsstudie zeigte kürzlich die Potenziale von LEAM auf. Ziel ist, Europas digitale Souveränität nicht zu gefährden und die Aufholjagd gegenüber den USA und China zu starten, die bei KI die Nase vorn haben. Auch Microsoft arbeite an einer regionalen Variante. Hier wird sich perspektivisch entscheiden, ob große Player ein echtes Interesse daran haben, die KI-Technologie so in ihre Produkte und Plattformen einzubeziehen, dass sie sich auch für den europäischen Markt eignen.

Sie möchten gerne weiterlesen?