top of page

Ein Pferd hat wahrscheinlich keine Federn

Kolumne zur Cybersicherheit: Cyberkriminelle (Teil 14)


An dieser Stelle geht es jeden Monat um Cyberkriminelle, IT-Sicherheitslücken oder neue, interessante digitale Themen. Heute erkläre ich mal, wie die künstliche Intelligenz chatGPT funktioniert.


An dieser Stelle geht es jeden Monat um Cyberkriminelle, IT-Sicherheitslücken oder neue, interessante digitale Themen. Heute erkläre ich mal, wie die künstliche Intelligenz chatGPT funktioniert.

In letzter Zeit werde ich häufig gefragt, wie eine künstliche Intelligenz wie chatGPT eigentlich funktioniert. Vielen fällt auf, dass die Antworten, die chatGPT Ihnen gibt, in den meisten Fällen unfassbar gut, fast menschlich, sind. Auf der anderen Seite scheitert(e bis vor kurzem) chatGPT zum Teil an so banalen Dingen, wie «Schreibe Banane rückwärts». Wie kann das sein?


Zunächst: chatGPT ist keine Wissendatenbank. Es ist ein Sprachmodell, das Wahrscheinlichkeiten von Wortfolgen berechnet hat. Dazu wurden tausende Texte und Webseiten analysiert. Wikipedia, Gedichte, Kindergeschichten und Märchen bis hin zu Zeitungsartikeln über Politik, Morde, Demos und Reitturniere.


Doch was sind Wahrscheinlichkeiten von Wortfolgen? Dieser Text beginnt mit «In letzter …» Wenn ich Sie frage, welches Wort nun folgen wird, werden die meisten spontan «Zeit» sagen, manche «Konsequenz» und noch weniger nennen «Instanz». chatGPT weiss das, weil in den 45 TB an Texten, an denen es gelernt hat, auch am häufigsten «Zeit» vor «Konsequenz» vor «Instanz» nach «In letzter …» folgt.


Es weiss auch, dass nach dem Wort «Pferd» (zwar nicht unmittelbar aber) sehr häufig Begriffe wie «Fell», «Hufe», «Mähne» und «Schweif» folgen. Und zwar in ganz vielen Texten auf Wikipedia, bei «Bibi und Tina» und in Berichten über Reitturniere. Nur sehr selten folgten die Worte «Flügel», «Federn», «Schuppen» oder «Krallen».


Bitten wir chatGPT ein Pferd zu beschreiben, wird es das aus reiner Wahrscheinlichkeit mit Fell, Hufen, einer Mähne und einem Schweif ausstatten – und uns als Fragesteller verblüffen, wie gut es ein Pferd beschreiben kann und «weiss», dass es Fell und keine Federn hat.


Nur warum scheitert(e) die KI daran, «Banane» rückwärts zu schreiben? Ganz einfach, weil es in den Trainingsdaten wenige oder keine Texte gab, in denen die Worte «Banane», «rückwärts» und «enanab» aufeinander folgen.


Manchmal erfindet chatGPT auch Antworten, was «Halluzination» genannt wird. So zum Beispiel, als ein Rechtsanwalt eine gerichtliche Eingabe mit der Auflistung möglichst vieler Präzedenzfälle von chatGPT hat schreiben lassen. Mangels ausreichenden Daten erfand die KI einfach mehrere Referenzen. Wie gesagt – es ist ein Sprachmodell und keine Datenbank.


Der Anwalt hat die Halluzination der KI nicht bemerkt, der Richter und die Anwälte der Gegenseite hingegen schon. Ich bin mir aber sicher, dass chatGPT dem schummelnden Advokaten hervorragende Antworten auf unbequeme Fragen der Anwaltskammer formulieren wird. Es ist sehr wahrscheinlich, dass darin das Wort «Entschuldigung» vorkommt. Das Wort «Federn» hingegen (wahrscheinlich) auch dieses Mal nicht.


Wenn Sie für Ihre Firma an Schulungen für IT-Sicherheit interessiert sind, dann schreiben Sie mir doch an info@bortoli.ch – vorne mit i und hinten erst mit kleinem L und dann kleinem i.


Schützen Sie sich proaktiv! Erfahren Sie, wie Sie das machen können - buchen Sie einen unverbindlichen und kostenlosen Beratungstermin.




bottom of page