Deduktives Denken ohne Halluzinationen
Mit "e1" stellt das Karlsruher Unternehmen embraceableAI eine neue Architektur für künstliche Intelligenz vor, die durch deduktives Denken und hybride Systemstruktur mehr Transparenz, Kontrolle und Zuverlässigkeit bieten soll – ein Ansatz, der besonders für regulierte und sicherheitskritische IT-Umgebungen interessant sein könnte. Das System nimmt dabei Anleihen bei der Bionik.
Das KI-System e1 von embraceableAI setzt auf deduktives, sequenzielles Denken. Im Gegensatz zu gängigen LLM-basierten Reasoning-Modellen, etwa OpenAIs GPT-4o oder DeepSeeks R1, will e1 nicht bloß einen inneren Monolog simulieren, sondern nachvollziehbare, kausal verknüpfte Schlussfolgerungen generieren. Ziel ist es, Halluzinationen deutlich zu reduzieren und die Verlässlichkeit von Entscheidungen zu erhöhen.
Bionic Reasoning statt Black Box
Kernstück des Systems ist eine zweigeteilte Architektur: Eine dedizierte Reasoning-Engine dient als Kontrollinstanz, analysiert den semantischen Rohoutput kleiner bis mittelgroßer Open-Weight-Sprachmodelle und überführt diese in logisch konsistente Ketten von Schlussfolgerungen. Die Entwickler sprechen von "Bionic Reasoning", einer Analogie zur Bionik – also der Übertragung biologischer Prinzipien auf Technologie. Dies soll eine neue Qualität maschineller Rationalität hervorbringen, deren Entscheidungswege für Anwender jederzeit transparent sind.
Halluzinationsquote drastisch gesenkt
Laut embraceableAI lässt sich e1 in verschiedenen IT-Umgebungen betreiben – darunter Public Clouds in der EU, Hyperscaler, On-Premises-Installationen oder hybride Szenarien. In Benchmarks schnitt e1 hinsichtlich Konsistenz und Halluzinationsfreiheit angeblich besser ab als GPT-4o oder o3-mini: Während letztere bis zu 79 Prozent fehlerhafte Antworten bei einfachen Wissensfragen lieferten, erzielte e1 laut internen Tests eine deutlich höhere Zuverlässigkeit.
Perspektive: Agentic AI für den Unternehmenseinsatz
Die Einsatzfelder von e1 reichen von dialogbasierten Services bis hin zur Automatisierung komplexer Entscheidungsprozesse. In einer laufenden Closed-Beta werden auf e1 basierende "AI MicroWorker" in realen Business-Szenarien getestet – etwa zur regelgestützten Fallbearbeitung. Die modulare Architektur ohne kostspieliges Pretraining könnte dabei insbesondere europäische IT-Verantwortliche ansprechen, die in sicherheitskritischen Umgebungen auf kontrollierbare, rechtskonforme KI setzen möchten.