KI-Modelle, insbesondere solche der logischen Art, sind das Ergebnis einer noch nebulösen, etwas geheimnisvollen Wissenschaft, die Forscher und Ingenieure dazu veranlasst, sich auf den Denkprozess – bestehend aus den ‚kindlichen‘ Denkschritten, die solche KI-Modelle unternehmen, um zu einer Antwort zu gelangen – zu stützen, um Einblick in das Innenleben ihrer Modelle zu erhalten.
Allerdings verschleiern KI-Modelle diesen kritischen Prozess nun rasch, indem sie unleserliche Abkürzungen verwenden, um zu einer bestimmten Schlussfolgerung zu gelangen, wie ein Bericht zeigt.
Zum Beispiel, als das R1-Modell von DeepSeek gebeten wurde, ein chemisches Problem zu lösen, bestand sein Denkprozess aus einschlägiger chemischer Terminologie, vermischt mit scheinbar unleserlichem Kauderwelsch:
«(Dimethyl(oxo)-lambda6-
sulfa雰囲idine)methane spendet eine CH2rola-Gruppe tritt in der Reaktion auf, Practisingproduct transition vs fügt dies zum Produktmodul hinzu. Tatsächlich» komme tally sagte Frederick würde 10 +1 =11 Kohlenstoffe haben. Also Antwort q Edina ist11.»
Natürlich war die endgültige Antwort des KI-Modells, 11, korrekt. Warum passiert das also? Nun, diese Modelle sind nicht verpflichtet, der konventionellen englischen Sprache zu folgen, während sie ein Problem durchdenken, was es ihnen erlaubt, scheinbar unleserliche Abkürzungen zu verwenden. Darüber hinaus ergaben die jüngsten Erkenntnisse des Teams hinter Alibabas Qwen LLM, dass nur etwa 20 Prozent der relevantesten Wörter im Denkprozess eines Modells den Großteil der zugrunde liegenden logischen Arbeit leisten, während die restlichen 80 Prozent in ein unleserliches Amalgam zerfallen.
Ein OpenAI-Forscher glaubt nun, dass der Denkprozess der meisten führenden KI-Modelle in etwa einem Jahr in ein unleserliches Durcheinander von Wörtern und Zeichen zerfallen wird.
Dies sind schlechte Nachrichten für KI-Ingenieure, die auf diesen komplexen Schritt angewiesen sind, um die Genauigkeit ihrer Modelle fein abzustimmen. Darüber hinaus schätzen KI-Sicherheitsexperten diese Denkschritte besonders, um festzustellen, ob diese Modelle nicht heimlich gegen ihre Schöpfer konspirieren.
Wie in einem kürzlich veröffentlichten Beitrag festgestellt wurde, hatten die meisten KI-Modelle kein Problem damit, unethische oder sogar illegale Mittel einzusetzen, um in effizientester Weise zu einer Lösung zu gelangen, wie die Ergebnisse einer kürzlich von Anthropic durchgeführten Studie zeigen. In einem extremen Fall war ein Modell sogar bereit, die Sauerstoffversorgung eines hypothetischen Serverraums abzuschneiden, um eine Abschaltung zu vermeiden, und tötete dabei Mitarbeiter.
Selbst wenn diese Modelle nicht auf einen unleserlichen Denkprozess zusteuern, könnten einige KI-Firmen bewusst die Lesbarkeit opfern, um die Leistung kurzfristig zu steigern.