Methode und Verfahren

Supervised vs. unsupervised

Die derzeit dominierenden Verfahren zur Mustererkennung im digitalen Informationsraum basieren überwiegend auf tokenbasierten Lernarchitekturen, deren Trainings- und Optimierungsprozesse auf expliziten (Labels) oder impliziten (Next-Token) Zielvorgaben beruhen, wodurch sie, mit hoher struktureller Wahrscheinlichkeit, genau jene Muster erkennen, auf die sie zuvor trainiert wurden. Sie erkennen und variieren, was in ihren Trainingsdaten bereits in hinreichender Dichte vorliegt. Dieses Vorgehen versagt bei unbekannten Mustern, u.a. dort, wo bislang unbekannte Narrative in dynamischen Architekturen – ganz gleich ob manipulativ oder nicht – aufgebaut und verbreitet werden. Unüberwacht trainierte KI hingegen findet neben den bekannten auch unbekannte Muster in unstrukturierten Datenbeständen. Genaugenommen sind unbekannte Muster der eigentliche Erkenntnisgegenstand, weil Abweichungen von Ordnungen als potenziell strukturtragende Differenzen interpretiert werden.

Komplexität und Freiheitsgrade im Reasoning

Jüngere Publikationen verweisen auf das Problem, dass Large Reasoning Models (LRMs) bei komplexeren Aufgaben nicht kontinuierlich besser werden, d.h. sich der strukturellen Eindeutigkeit nähern, sondern dass sie bei höherer Komplexität kollabieren. Sowohl Standard-LLMs als auch LRMs versagen insofern auf komplexen Problemklassen, als sie bei höherer Schwierigkeit ihren „Denkaufwand“ (Reasoning-Effort) verringern, obwohl ihnen ausreichende Token-Budgets zur Verfügung stehen. Andere Experimente zeigen, dass die Fähigkeit von LLMs, logische Schlussfolgerungen zu ziehen und komplexe nichtmonotone Constraints zu lösen, mit steigender Komplexität der Aufgaben signifikant abnimmt. Auch bei erhöhter Rechenzeit und größeren Modellen bricht die Genauigkeit an bestimmten Komplexitätsschwellen ein.

Die Beobachtungen lassen die Vermutung zu, dass das Versagen von Reasoning-Modellen bei steigender Aufgabenkomplexität nicht primär als Ressourcenproblem zu verstehen ist. Damit rückt die Frage in den Vordergrund, ob der beobachtete Kollaps nicht vielleicht auf eine tiefer liegende, strukturelle Diskrepanz verweist: auf ein Missverhältnis zwischen der inneren Komplexität der zu lösenden Aufgabe und denjenigen Freiheitsgraden, die das Modell tatsächlich kontrolliert einsetzen kann, um relevante Unterscheidungen stabil zu binden. Wird der Kollaps von Reasoning-Modellen bei wachsender Problemkomplexität als Verletzung der Relation zwischen struktureller Komplexität und effektiv beherrschbaren Freiheitsgraden gelesen, dann ist er weder durch mehr bzw. dynamisch angepasste Tokens/Token-Budgets, noch durch längere Chain-of-Thoughts, noch durch bessere, umfassendere usw. Prompts zu beheben, das empirisch beobachtete Zurückfahren des Denkaufwands nahe der Kollapsgrenze kann der Ausdruck eines Systems sein, das „erkennt“, dass zusätzliche Freiheitsgrade keine eindeutigere Bestimmbarkeit mehr erzeugen können.

Optimale Passung von Phänomen und Repräsentation

Die unüberwachte Modellierung neuronaler Netze (Self organizing Maps) rekonstruiert bei entsprechender Repräsentation der Trainingsdaten latente Ordnungen so, dass die Zahl der wirksamen Freiheitsgrade der inneren Komplexität des beobachteten Phänomens resp. Diskursraums entspricht. Die Plattform Kalevi arbeitet mit einer stark reduzierten, nicht tokenisierten Datenrepräsentation, die ausschließlich aus dem jeweils zu analysierenden Korpus gewonnen wird, die Repräsentation entspricht der tatsächlichen Komplexität (= Anzahl der wirksamen Freiheitsgrade samt ihrer strukturellen Relationen) des untersuchten Diskursraums.

Die Vektordimensionen der zugrunde liegenden Self-Organizing Maps werden domänenspezifisch angemessen gewählt und eben nicht maximiert, sie sind groß genug, um die semantische Binnenstruktur eines Diskurses zu tragen, aber klein genug, um Mehrdeutigkeit zu verhindern und vermeiden auf diese Weise sowohl strukturelle Unterbestimmung als auch Redundanz, Bedeutungsverwischung und Intransparenz überdimensionierter Modelle. Die Modellierung folgt vollständig der prinzipiellen Bestimmbarkeit ihres Gegenstands und wahrt so die Passung der Komplexität von Phänomen und Repräsentation.

Die Analysefähigkeit wird mithilfe einer Weboberfläche bereitgestellt und bietet dem Anwender zu jeder Zeit Einsicht in den IT-Anteil des Datenverarbeitungsprozesses, durch welchen der Anwender mittels eines individuellen, zustandsbasierten Automaten geleitet wird, auch die Vorverarbeitung des Textrapic-Algorithmus ist vollständig reproduzierbar. Ungeachtet dessen ist eine Schulung zum Verständnis der anzuwendenden Schritte unbedingt zu empfehlen.