Die LiveReader GmbH hat ihre Produkte ALTERNIS, NOTITIA und NOVA einer Selbsteinschätzung auf Grundlage der EU-KI-Verordnung (AI Act) sowie der zugehörigen GPAI-Leitlinien der EU-Kommission und des Verhaltenskodex für GPAI-Modell-Anbieter unterzogen. Geprüft wurde insbesondere die Einstufung als KI-System bzw. GPAI-System, die Risikoklassifizierung sowie die sich daraus ergebenden Transparenzpflichten.
Diese Seite fasst die Ergebnisse in Kurzform zusammen. Die ausführliche Herleitung mit den jeweiligen AI-Act-Artikeln und unserer Positionierung dazu wird intern bereitgestellt.
Hinweis
Stand der Einordnung: 16.12.2025. Die Selbsteinschätzung dient Partnern und Kunden als Orientierung bei der Erfüllung ihrer eigenen AI-Act-Pflichten. Mit der Einrichtung der zuständigen nationalen Stellen wird sie zur offiziellen Einordnung eingereicht.
ALTERNIS verarbeitet gesprochene Sprache: Transkription, Übersetzung und Sprachsynthese in Echtzeit.
NOTITIA modelliert und führt wissensintensive Prozesse aus. Das zentrale Steuerungssegment (NOTITIA Engine) basiert auf symbolischer KI – ein deterministisches und erklärbares Verfahren. Lediglich nachgelagerte Aufgaben werden durch eingebettete KI-Modelle in eng begrenztem Kontext übernommen.
NOVA ist ein autonom agierender Voicebot und stellt eine Sonderform von NOTITIA dar. Die technischen Aspekte sind identisch zu NOTITIA, der Anwendungskontext (autonomer Dialog mit Anrufenden) verändert jedoch die Risikobewertung.
Einsatzfreigabe von NOVA
Bei einem unkritischen Verwendungszweck (Risikoklasse 2: Limited Risk) kann NOVA ohne Bedenken eingesetzt werden. Bei einem kritischen Verwendungszweck (Risikoklasse 3: High-Risk) untersagt LiveReader als Systemanbieter den Einsatz grundsätzlich; eine Einzelfallfreigabe setzt eine Risikoanalyse durch den Anwender voraus.
Zusätzlich zur eigenen Bewertung wurde die Einordnung von ALTERNIS und NOTITIA mit dem KI-Compliance-Kompass der Bundesnetzagentur gegengeprüft. Das Ergebnis (Eigenprüfung am 10.12.2025):
Der Compliance-Kompass bestätigt die Einstufung als KI-System ohne verbotene Praktiken, ohne Hochrisikoeinstufung und mit Transparenzanforderungen nach Artikel 50 (1).
Die ausführliche Herleitung – mit den zitierten AI-Act-Artikeln und unserer jeweiligen Positionierung dazu – ist im internen Bereich verfügbar (für Partner und Mitarbeitende).