Categories: Anzeige

ChatGPT: Insights, Chancen und Risiken für Unternehmen

Auch wenn es im Gebrauch anders anmutet: ChatGPT besitzt kein Wissen im eigentlichen Sinn, sondern kann vor allem sehr gut von Input auf Output schließen. Das Sprachmodell kennt auch keine mathematischen Regeln, sondern erarbeitet seine Texte Wort für Wort. Deshalb beginnt ChatGPT je häufiger zu „halluzinieren“, desto tiefgreifender ein Dialogfluss verläuft. Es wird dann einfach falscher Text generiert oder Dinge werden durcheinandergebracht. Dies mag im Privatgebrauch mitunter komisch, bestenfalls nicht weiter schlimm sein. Wer ChatGPT jedoch für unternehmerische Zwecke einsetzt, muss genau diese und andere Stolpersteine berücksichtigen, damit aus dem Gebrauch des Bots kein größerer Schaden entsteht.

Seiner Handhabung nach ist ChatGPT eine Software, mit der Informationen in Form von Konversationen ausgetauscht werden. Das Dialogformat ermöglicht, wie bei einem Chatbot, Fragen zu stellen und Antworten zu erhalten. ChatGPT kann auf Deutsch Anfragen verstehen und Inhalte erzeugen. Auch in anderen verbreiteten Sprachen (u. A. Deutsch, Spanisch, Italienisch) ist das Modell bedienbar. Allerdings kann aufgrund des geringeren Anteils der fremdsprachigen Trainingsdaten die Qualität im Vergleich zu englisch etwas geringer ausfallen. Für komplexere Fragestellungen und Aufgaben ist deshalb Englisch als Eingabesprache empfehlenswert, aber nicht notwendig.

Kommerzielle Nutzung

Die Urheberrechtsfrage ist noch in Erörterung. Um Content möglichst authentisch zu gestalten empfiehlt es sich, die generierten Texte als Vorlage zu verwenden und diese dann mit eigenen Gedanken und Worten zu optimieren. Die kostenfreie Version von ChatGPT ist in ihrer Verfügbarkeit und dementsprechend Übertragungsstabilität und -sicherheit eingeschränkt. Verlässlicher ist deshalb die Premiumversion ChatGPT Plus für aktuell $20 im Monat. Bei dieser Version erhält man stets Zugriff auf die Server, schnellere Antwortzeiten und Vorabzugriff auf neue Funktionen.

Möglichkeiten der ChatGPT API

Über den Azure Preis Kalkulator kann man sehr einfach Restriktionen bzw. Kostenkonditionen ermitteln. Direkt bei OpenAI gibt es eine Preisinfo für Pay-As-You-Go: https://openai.com/pricing. Generell wird nach sog. „Tokens“ abgerechnet. Ein Token ist ein Wort oder auch ein Teil eines Wortes. Als Faustformel gilt: 1000 Tokens entsprechen ungefähr 750 Wörtern. Es wird immer pro 1000 Tokens bepreist. Aber Vorsicht: Sowohl Input-Tokens als auch Output-Tokens werden zu unterschiedlichen Preisen berechnet!

Aufwertung mit eigenen Inhalten

Azure OpenAI Service wirbt bereits mit Optimierungs-Möglichkeiten. Wichtig sind u.a. die sog. Embeddings. Darüber lässt sich individueller Content als Referenz einarbeiten. Man könnte auch individuelle Retrainings durchführen. Dies ist allerdings recht teuer und lohnt sich oft nicht.

Inhouse-Version für Unternehmen auf eigener Infrastruktur?

Zum jetzigen Stand kann ChatGPT über Azure OpenAI bezogen werden, eine „on-premises“ Version ist derzeit eher unwahrscheinlich. Grob hochgerechnet bräuchte man Hardware im mittleren fünfstelligen €-Segment, nur um das Modell initial zu laden, hinzu kämen Infrastruktur für Retraining, Embeddings und API-Management sowie die Energiekosten: Der Stromverbrauch für das Training des KI-Modells GPT wurde im Januar 2023 mit fast einer Gigawattstunde in 34 Tagen geschätzt; dies entspricht insgesamt etwa dem Verbrauch von 3000 europäischen Durchschnittshaushalten im gleichen Zeitraum. Oder 300.000 € bei angenommenen 0,30 € pro kwh.

Eigene Sprachmodelle zu trainieren, die dann auch auf den individuellen Themenbereich fokussiert sind, ist möglich und funktioniert für bestimmte Einsatzzwecke auch erstaunlich schnell. KI-Spezialisten wie X-Integrate geben hierbei Hilfestellung.

Konkurrierende / alternative Angebote

Google hat bereits mit „LaMDA“ ein ähnlich gutes Sprachmodell, Meta arbeitet ebenfalls an großen Sprachmodellen (bspw. Galactica). Allerdings sind beide Unternehmen etwas vorsichtiger, was die Veröffentlichung betrifft, da diese Modelle (genau wie ChatGPT) teilweise Falschaussagen treffen. Genau aus diesem Grund wurde bspw. die Google-Variante auch schnell wieder der Öffentlichkeit entzogen. Darüber hinaus haben zahlreiche Anbieter spezialisierte Chatbots in ihrem Angebot: IBM Watson Assistant, Microsoft Azure Power Virtual Agent, Jasper Chat, Bing Chat, YouChat, Sparrow von Deepmind sind nur einige Beispiele. Auch eine vielversprechende Open Source Initiative gibt es: https://bigscience.huggingface.co/blog/bloom.

Die Nutzung von Sprachmodellen für den unternehmerischen Einsatz steht noch am Anfang. Schon heute aber lassen sich – wenn man bestimmte Regeln einhält – durch umsichtigen Einsatz der Technik erhebliche Effizienzgewinne erzielen. Die Zukunft in diesem Bereich hat erst begonnen.

Frank Zscheile

Recent Posts

Salesforce: Mit Einstein GPT zurück auf die Überholspur?

Salesforce forciert den Ausbau seiner Industry Clouds. Mit ihrem Prozesswissen könnten deutsche IT-Dienstleister davon profitieren.

15 Stunden ago

Neue Backdoor: Bedrohung durch Malvertising-Kampagne mit MadMxShell

Bisher unbekannter Bedrohungsakteur versucht über gefälschte IP Scanner Software-Domänen Zugriff auf IT-Umgebungen zu erlangen.

2 Tagen ago

BSI-Studie: Wie KI die Bedrohungslandschaft verändert

Der Bericht zeigt bereits nutzbare Angriffsanwendungen und bewertet die Risiken, die davon ausgehen.

3 Tagen ago

KI-Wandel: Welche Berufe sich am stärksten verändern

Deutsche sehen Finanzwesen und IT im Zentrum der KI-Transformation. Justiz und Militär hingegen werden deutlich…

3 Tagen ago

Wie ein Unternehmen, das Sie noch nicht kennen, eine Revolution in der Cloud-Speicherung anführt

Cubbit ist das weltweit erste Unternehmen, das Cloud-Objektspeicher anbietet. Es wurde 2016 gegründet und bedient…

3 Tagen ago

Dirty Stream: Microsoft entdeckt neuartige Angriffe auf Android-Apps

Unbefugte können Schadcode einschleusen und ausführen. Auslöser ist eine fehlerhafte Implementierung einer Android-Funktion.

3 Tagen ago