Chatbots in der Arbeitswelt
Die Chancen und Risiken von ChatGPT werden auch in der Arbeitswelt debattiert und ausgetestet. Wo kann der Einsatz von künstlicher Intelligenz hilfreich sein, wo ist er problematisch? Wolf Siebert hat sich umgeschaut.
Samuel Walter will, dass ChatGPT auf einen kritischen Social Media-Kommentar reagiert. Der Projektmanager von Yes, and … Productions (YAP) gibt ein, was er sich ungefähr wünscht. Die Berliner Firma konzentriert sich auf künstlerische Fassadengestaltung und Street-Art-Projekte und realisiert Ausstellungen im "Urban Nations Museum" in der Bülowstraße.
Die künstliche Intelligenz antwortet sofort: "Sehr geehrter Herr, vielen Dank für Ihre Reaktion. Wir schätzen es, dass Sie sich Zeit nehmen und auf unsere Fassadengestaltung reagieren. Wir verstehen Ihre Bedenken…." Das klingt eher nichtssagend und oberflächlich, Walter ist noch nicht zufrieden. "Das ist zwar ein guter Aufschlag, aber für Social Media ein bisschen zu lang". Er tippt ein: "Fasse mir das in 250 Zeichen zusammen". Auch das zweite Ergebnis ist noch nicht zur Veröffentlichung geeignet, es ist zu förmlich meint Walter.
Das Beispiel zeigt: ChatGPT liefert schnell, und vieles ist auch brauchbar, manches sogar sehr gut. Aber Walter und sein Team müssen in der Erprobungsphase die Ergebnisse der KI kritisch gegenlesen: "KI weiß nicht alles, macht auch Fehler. Deshalb müssen wir Texte immer wieder nachschärfen. Ich möchte, dass alles, was von uns rausgeht, von unseren Mitarbeitern verifiziert wird, und dass sie auch komplett dahinterstehen."
Das zehnköpfige Team YAP nutzt ChatGPT auch, um Präsentationen und Konzepte zu erstellen, Kunden zu akquirieren, Standard-Mails und auch Zeugnisse zu schreiben. Die Vorteile überwiegen, sagt Samuel Walter: "Wir sparen viel Zeit. Denn normalerweise habe ich eine Idee, sitze aber erst mal vor einem leeren weißen Blatt, einer E-Mail, einem Konzept oder einem Förderantrag und müsste mir alles selbst aus den Fingern saugen. Insofern habe ich die Wahl: Ich mache es alleine oder nutze ChatGPT wie einen Assistenten, den ich briefe, worüber und was er schreiben soll."
Auch Albert Heiser vom Creative Game Institut in Berlin sammelt noch Erfahrungen mit ChatGPT. Heiser berät bei der Konzeption von Werbekampagnen. Das Institut forscht, lehrt und berät bei der Gestaltung von Auftragskommunikation. Seine ersten Eindrücke: "Häufig sind die Texte nicht emotional genug. Wie bringe ich der KI bei, dass die Texte spezifischer sein müssen?"
Ein guter Text in der Werbebranche sei immer die Abweichung von der Norm, die KI werde aber mit regelkonformen Informationen gefüttert. "Ein erfolgreicher Slogan wie 'Hier werden sie geholfen' stammt von einem Menschen, nicht von einer KI." Grundsätzlich aber ist er mit den Ergebnissen, die ChatGPT liefert, nicht unzufrieden. Manchmal seien auch "Perlen" darunter wie: "Ein Blau, dass man darin baden möchte".
ChatGPT basiert auf künstlicher Intelligenz (KI) und kann eine ganze Menge: Recherchieren, Texte, Bilder und Videos produzieren, Briefe, Mails und Konzepte schreiben, wissenschaftliche Literatur zusammenfassen, in Unternehmen beim Recruiting eine Vorauswahl treffen und auch mit Bewerbern sprechen. Man kann mit dem Chatbot menschenähnlich kommunizieren und - er lernt aus dieser Kommunikation.
Voraussetzung ist, dass ChatGPT vorher von Menschen mit Daten entsprechend gefüttert wird. Aus ihrem elektronischen Fundus setzt der Chatbot Antworten zusammen, die schlüssig klingen, aber nicht immer "richtig" sind. "ChatGPT vertritt wortgewandt auch Argumente, die falsch sind", schreibt Gerald Dyker von der Ruhr-Universität Bochum.
Seit Anfang des Jahres probieren Samuel Walter von YAP und sein Team die neue Technik aus, testen "was geht". Denn die Konkurrenz mache bereits ganze Kampagnen mithilfe von künstlicher Intelligenz. Im Moment muss Walter ChatGPT noch die basics und das richtige wording beibringen: Der Chatbot soll "urbane Kunst" und nicht "Graffiti" schreiben.
Da ChatGPT aber ein lernendes System ist, könnte sie bald selbst Kunst produzieren und sogar den Künstler ersetzen.
Anders ist es in der Psychotherapie. Christina Jochim, Vize-Chefin der Deutschen Psychotherapeutenvereinigung, ist sicher: ChatGPT wird nicht an die Stelle der Therapeutin treten. "Eine KI kann nicht denken und handeln, zum Beispiel Stimmungen im Raum erfassen, Doppeldeutigkeiten im Zusammenhang interpretieren. Ein und derselbe Satz kann bei unterschiedlichen Menschen eine ganz andere Bedeutung haben. Auch bei identischen Äußerungen von Emotionen kann das so sein. All das kann eine KI nicht erfassen."
Nur ein menschlicher Therapeut könne schwer kranke Menschen durch anstrengende Veränderungsprozesse individuell begleiten, sagt Christina Jochim. Sie nennt ein Beispiel, wie es nicht laufen sollte. In den USA gab es eine Hotline für Menschen mit Essstörungen. Der Ratgeber war eine künstliche Intelligenz. Sie empfahl den Hilfesuchenden abzunehmen. Für die Therapeutin Christina Jochim war das ein fataler Rat: "Bei einer Essstörung Menschen zu raten, sie sollen abnehmen, ist potenziell lebensgefährlich. Eigentlich muss ich ja erkennen: Was teilt mir der Patient mit? Und: Wie kann ich ihm im Umgang mit seiner psychischen Erkrankung helfen? Das sind zwei unterschiedliche Dinge."
Dass ChatGPT die Psychotherapeuten ersetzen kann, sei heute nicht möglich. "Der Chatbot hat keinerlei Krankheitskonzept und hat auch keine Idee davon, wie man eine Therapie strukturieren kann", sagte etwa der Psychologe Kevin Hilbert vom Institut für Psychologie der HU Berlin in einem Interview mit der "Zeit" [Bezahlschanke].
Das ist der Stand heute - ob auch das in Zukunft so bleibt? Trotz ihrer Skepsis ist Psychologin Christina Jochim neugierig, welche Veränderungsprozesse durch ChatGPT und KI angestoßen werden. Aber sie sieht die Gefahr, dass KI irgendwann doch in der Therapie zum Einsatz kommen wird – um Kosten zu sparen.
Die umstrittene Hotline für Essstörungen in den USA wurde übrigens inzwischen eingestellt.
Sendung: rbb24 Inforadio, 06.06.2023, 07:55 Uhr
Beitrag von Wolf Siebert
Artikel im mobilen Angebot lesen