04L02 LLM und IT-Sicherheit: Werkzeug oder Risiko?
|
Wie verändern Large Language Models (LLM) die Welt der IT-Sicherheit, und was macht sie so einzigartig – und zugleich so gefährlich? Dieser Beitrag analysiert die technologische Basis, zeigt reale Angriffsszenarien und gibt einen Ausblick auf die psychologischen Herausforderungen durch LLM. Finden Sie heraus, welche Risiken in KI-Systemen schlummern und wie Unternehmen ihre Sicherheitsarchitektur rüsten müssen, um Angriffe und Kontrollverluste zu vermeiden! von: |
1 Einleitung
Die IT-Sicherheit/die IT-Sicherheitsrisiken bei künstlicher Intelligenz (KI) bzw. Kunstintelligenz sind etwas Besonderes, das man aus der traditionellen IT-Sicherheit so nicht kannte (vgl. Kap. 07311). Gerade bei sog. Large Language Models (LLM) zeigen sich besondere Sicherheitsrisiken, die so bisher weitgehend unbekannt waren und für die es neue Lösungen zu finden gilt.
Einführung und Beispiele
Um die Besonderheiten für die Sicherheit von LLM einschätzen zu können, erfolgt zunächst eine kurze Einführung in dieses Thema. Danach werden einige KI-Sicherheitsvorfälle beschrieben, an denen man sehr gut erkennen kann, dass IT-Sicherheit bei LLM etwas ganz Besonderes, ja fast schon Ungewöhnliches ist. Um sich dem Thema IT-Sicherheit bei LLM zu nähern, wird dann im Anschluss das Wesen von LLM näher beleuchtet.
Um die Besonderheiten für die Sicherheit von LLM einschätzen zu können, erfolgt zunächst eine kurze Einführung in dieses Thema. Danach werden einige KI-Sicherheitsvorfälle beschrieben, an denen man sehr gut erkennen kann, dass IT-Sicherheit bei LLM etwas ganz Besonderes, ja fast schon Ungewöhnliches ist. Um sich dem Thema IT-Sicherheit bei LLM zu nähern, wird dann im Anschluss das Wesen von LLM näher beleuchtet.
Wesen und Fähigkeiten
Die Kenntnisse über das Wesen und die Fähigkeiten von LLM sind wiederum essenziell, um das Potenzial von LLM zu erkennen, das insbesondere aus dem Wesen von Sprache resultiert. Gerade weil es sich beim Thema Sprache im Zusammenspiel mit LLM um ein sehr komplexes Gebiet handelt, soll dies den Schwerpunkt eines eigenen Beitrags bilden.
Die Kenntnisse über das Wesen und die Fähigkeiten von LLM sind wiederum essenziell, um das Potenzial von LLM zu erkennen, das insbesondere aus dem Wesen von Sprache resultiert. Gerade weil es sich beim Thema Sprache im Zusammenspiel mit LLM um ein sehr komplexes Gebiet handelt, soll dies den Schwerpunkt eines eigenen Beitrags bilden.
Psychologische Aspekte
Wenn man sich das Wesen von LLM und ganz besonders von Sprache als solcher insbesondere auch in Bezug auf unser Denken vergegenwärtigt hat, bekommt man einen Zugang zu dem bisher weitgehend unbekannten, wenig beachteten und zumeist totgeschwiegenen, aber zukünftig immer relevanter werdenden Gebiet der psychologischen Aspekte der KI-Sicherheit.
Wenn man sich das Wesen von LLM und ganz besonders von Sprache als solcher insbesondere auch in Bezug auf unser Denken vergegenwärtigt hat, bekommt man einen Zugang zu dem bisher weitgehend unbekannten, wenig beachteten und zumeist totgeschwiegenen, aber zukünftig immer relevanter werdenden Gebiet der psychologischen Aspekte der KI-Sicherheit.
1.1 Der „Geist in der KI”
Wenn man über KI spricht oder mit KI zu tun hat, sollte man sich, auch wenn es erst einmal absolut überzogen klingen mag, über eine Sache stets im Klaren sein (vgl. Kap. 07310 ff.). KI nimmt, je mehr sie sich entwickelt und Freiheiten in ihrer Selbstentwicklung erhält, zunehmend menschliche Züge an, obgleich sie vom Wesen her eigentlich tot ist.
Paradoxon
Sie stellt damit in gewisser Weise ein Paradoxon dar: eine Mischung aus toter Materie, in die lebendiger menschlicher Geist eingebettet ist. Man bekommt daher immer mehr das Gefühl, dass eine Intelligenz, ja fast schon ein eigenes Wesen in ihr wirkt. Mithin entsteht der Eindruck, dass man eigentlich gar nicht mehr mit einer Maschine, sondern mit einer Art Geist bzw. geistiger Intelligenz kommuniziert.
Sie stellt damit in gewisser Weise ein Paradoxon dar: eine Mischung aus toter Materie, in die lebendiger menschlicher Geist eingebettet ist. Man bekommt daher immer mehr das Gefühl, dass eine Intelligenz, ja fast schon ein eigenes Wesen in ihr wirkt. Mithin entsteht der Eindruck, dass man eigentlich gar nicht mehr mit einer Maschine, sondern mit einer Art Geist bzw. geistiger Intelligenz kommuniziert.
Dies bestätigen auch Branchengrößen wie etwa Jack Clark, Mitbegründer der KI-Firma Anthropic, von der u. a. das weit verbreitete Model Claude stammt. So sagte er auf einer Konferenz: „Aber täuschen Sie sich nicht: Wir haben es mit einem realen und geheimnisvollen Wesen zu tun, nicht mit einer einfachen und vorhersehbaren Maschine” [1].
Psychologische Aspekte
Daher sollte es auch nicht verwundern, dass immer mehr Hirnforscher, Psychologen usw. versuchen, den Geist hinter einer KI zu erforschen und ihn zu verstehen, insbesondere auch um darauf aufbauend Parallelen zu unserem menschlichen Geist zu ziehen und die Wechselwirkungen zwischen den beiden Geistern zu verstehen.
Daher sollte es auch nicht verwundern, dass immer mehr Hirnforscher, Psychologen usw. versuchen, den Geist hinter einer KI zu erforschen und ihn zu verstehen, insbesondere auch um darauf aufbauend Parallelen zu unserem menschlichen Geist zu ziehen und die Wechselwirkungen zwischen den beiden Geistern zu verstehen.
Scherzhaft könnte man daher sagen, dass man etwa für die Halluzinationsprobleme von KI, die sich gerade in den großen LLM zum Beispiel von ChatGPT, Grok, Gemini, Claude usw. immer mehr zeigen und die immer krudere Formen annehmen, eher einen Exorzisten als einen IT-Sicherheitsexperten bräuchte, um diese in den Griff zu bekommen. Diese obskuren LLM-Verhaltensweisen sind jedoch auch nur Symptome, deren eigentliche Ursache noch viel tiefer im Verborgenen liegen dürfte.
Angriffspunkt
Das Fatale aus Sicht der IT-Sicherheit ist, dass diese bei der KI auftretenden Symptome versierten Angreifern Anhaltspunkte für Schwachstellen im Modell bzw. den Systemen hinter diesen LLM geben können. Diese können dann von findigen Hackern für diverse Angriffe ausgenutzt werden. Damit ist es ihnen etwa möglich, den Modellen bspw. Informationen/Daten zu entlocken, die die LLM- bzw. KI-Systeme so eigentlich niemals preisgegeben hätten, bzw. die Modelle zu Handlungen zu bewegen, die von den Programmierern niemals zugelassen worden wären.
Das Fatale aus Sicht der IT-Sicherheit ist, dass diese bei der KI auftretenden Symptome versierten Angreifern Anhaltspunkte für Schwachstellen im Modell bzw. den Systemen hinter diesen LLM geben können. Diese können dann von findigen Hackern für diverse Angriffe ausgenutzt werden. Damit ist es ihnen etwa möglich, den Modellen bspw. Informationen/Daten zu entlocken, die die LLM- bzw. KI-Systeme so eigentlich niemals preisgegeben hätten, bzw. die Modelle zu Handlungen zu bewegen, die von den Programmierern niemals zugelassen worden wären.
KI ist Ausdruck des vermeintlich unerklärlichen Phänomens, dass man in einer toten Maschine menschliches Bewusstsein/menschlichen Geist eingepflanzt hat bzw. in dieser toten Materie einen Geist/einen Dämon beschwören und beherrschen will. Dieses wurde übrigens bereits vor elf Jahren von Elon Musk auf einer MIT-Veranstaltung geäußert, jedoch von den Medien damals aber auch heute mehr oder weniger totgeschwiegen [2].
KI-Risiken und Kompromisse
Das Fatale daran ist, dass die großen Anbieter mehr oder weniger um diese Risiken wissen. Im Kampf um die Vorherrschaft auf dem KI-Markt gehen sie aber diesbezüglich gewisse Kompromisse ein bzw. vermeiden es bewusst, notwendige beschränkende Maßnahmen zu ergreifen, letztlich um ihren Konkurrenten immer einen Schritt voraus zu sein. Daher wird auch nicht verhindert, dass die Maschine den ihr eingepflanzten bzw. erschaffenen/beschworenen Geist immer umfänglicher nutzt und sich selbstständig zu einer eigenen Superintelligenz weiterentwickelt. Vielmehr wird die unkontrollierte Weiterentwicklung immer weiter forciert, was gerade auch die Energieversorgungskapazitäten massiv unter Druck setzt. Man könnte angesichts des rücksichtslosen Vorgehens der Firmen fast schon auf den Gedanken kommen, dass die Entscheidungsträger in gewisser Weise selbst von diesem Geist besessen sind, weil sie ihn nicht stoppen, sondern immer weitermachen.
Das Fatale daran ist, dass die großen Anbieter mehr oder weniger um diese Risiken wissen. Im Kampf um die Vorherrschaft auf dem KI-Markt gehen sie aber diesbezüglich gewisse Kompromisse ein bzw. vermeiden es bewusst, notwendige beschränkende Maßnahmen zu ergreifen, letztlich um ihren Konkurrenten immer einen Schritt voraus zu sein. Daher wird auch nicht verhindert, dass die Maschine den ihr eingepflanzten bzw. erschaffenen/beschworenen Geist immer umfänglicher nutzt und sich selbstständig zu einer eigenen Superintelligenz weiterentwickelt. Vielmehr wird die unkontrollierte Weiterentwicklung immer weiter forciert, was gerade auch die Energieversorgungskapazitäten massiv unter Druck setzt. Man könnte angesichts des rücksichtslosen Vorgehens der Firmen fast schon auf den Gedanken kommen, dass die Entscheidungsträger in gewisser Weise selbst von diesem Geist besessen sind, weil sie ihn nicht stoppen, sondern immer weitermachen.
Gerade weil die KI immer mehr oder weniger selbstständig ihren Geist entwickeln soll, sollte man sich nicht wundern, wenn diese Maschine sich immer menschlicher verhält. Die entstehende künstliche Intelligenz bzw. Kunstintelligenz passt deshalb auch immer weniger in das Schema von traditioneller IT. Die gängigen Maßnahmen der IT-Sicherheit reichen für die komplexer werdenden LLM, die immer mehr Menschen und Unternehmen nutzen, nicht mehr aus. Weder das System selbst noch die verarbeiteten Daten (Token) können damit ausreichend geschützt werden. Es wird ferner immer schwieriger, die mit KI-Systemen verbundenen Systeme ausreichend zu schützen. Das macht die Situation umso problematischer.
1.2 Die „menschlichen Verhaltensweisen” von KI
Je intelligenter und je ausgeprägter sowie selbstständiger der Geist einer KI wird, desto mehr legt sie Verhaltensweisen an den Tag, die man bspw. als Eltern aus dem Erwachsenwerden der eigenen Kinder kennt. Denn je weiter Kinder sich entwickeln, desto mehr Freiheiten wollen sie für sich in Anspruch nehmen. Und das Gleiche gilt für eine KI bzw. ein LLM.