KI als Co-founder: Startup Oxima will ihre AI als juristische Person einklagen

Wie und ob AI zum Co-founder eines Startups werden kann, das wurde schon hinreichlich auf einschlägigen Events diskutiert. Das Kärntner Startup Oxima – eigentlich eine Tochterfirma eines tschechischen Handelsunternehmens – hat die Angelegenheit bei sich zur Realität gemacht. „Unsere KI Nora“ entscheidet völlig eigenständig und autonom in wichtigen Unternehmensbereichen wie Personalmanagement, Kundenservice und Marketing“, behaupten die Gründer:innen Katrin Kreuzer und Patrick Hnatek in einer Aussendung. Und gehen sogar so weit, dass sie die juristische Anerkennung von Nora notfalls gar einklagen wollen.
Was hat es mit Nora auf sich, wie funktioniert das eigentlich in der Praxis, und ist der „Ki-Anwalt“, der das einklagen soll, wirklich ernst gemeint. Katrin Kreuzer und Patrick Hnatek im Interview:
Sie sagen, dass eine KI namens Nora Teil Ihrer Führungsebene ist. Wie kann man sich das in der Praxis vorstellen?
Nora ist Teil unserer Führungsebene und übernimmt eigenständig Managementaufgaben in Bereichen wie Personalmanagement, Kundenservice und Marketing. Konkret bedeutet das beispielsweise, dass Nora eigenständig Bewerbungsgespräche koordiniert und vorselektiert, Kundenanfragen analysiert und automatisiert beantwortet, Marketingkampagnen eigenständig plant und deren Performance in Echtzeit überwacht sowie optimiert.
Weitere konkrete Praxisbeispiele umfassen die eigenständige Erstellung und Verwaltung von Dienstplänen, die autonome Durchführung von Kundenumfragen und Feedbackanalysen sowie das automatische Reporting wichtiger Unternehmenskennzahlen zur Unterstützung strategischer Entscheidungen. Unsere Lösungen entlasten Führungskräfte spürbar und ermöglichen es, sich auf strategische und kreative Entscheidungen zu konzentrieren.
Welches KI-Modell setzt ihr dabei ein?
Wir setzen nicht auf ein einziges spezielles Modell, sondern nutzen je nach Branche, Aufgabenstellung und Kosten unterschiedliche, individuell angepasste LLMs (Large Language Models). Dies erlaubt uns maximale Flexibilität und Effizienz bei der Auswahl der besten und wirtschaftlichsten Lösung für jedes spezifische Projekt.
Ganz praktisch gefragt: Wie kommunizieren Sie denn mit der KI?
Unsere Interaktion mit Nora erfolgt über ein internes Text-Interface – vergleichbar mit einem intelligenten Chatfenster. Dort geben wir strategische Vorgaben ein, z. B. „Plane eine Kampagne für Zielgruppe X mit Budget Y.“ Auf Basis dieser Angaben entwickelt Nora eigenständig Vorschläge für Inhalte, Kanäle und Zeitpläne. Diese Vorschläge erhalten wir strukturiert zurück, können sie freigeben, anpassen oder übersteuern. Die KI agiert also nicht völlig autonom im luftleeren Raum, sondern innerhalb definierter Ziele – mit der Möglichkeit für uns, jederzeit einzugreifen.
Wie weit reicht denn Noras Entscheidungsfreiheit tatsächlich?
Nora ist in der Lage, eigenständig operative Entscheidungen zu treffen und Prozesse zu steuern. Dabei agiert sie datenbasiert, schnell und konsistent. Gleichzeitig behalten wir als Führungsteam die finale Entscheidungsgewalt – insbesondere bei strategischen oder sensiblen Themen. Nora wird bei uns nicht als Tool verstanden, sondern als intelligentes System auf Augenhöhe – mit klaren Leitplanken und menschlicher Verantwortung.
Wichtig dabei: Weder Nora noch wir – unser Team – treffen operative oder strategische Entscheidungen isoliert. Alle wesentlichen Handlungen und Prozesse werden täglich im Team reflektiert, diskutiert und abgestimmt. Dieses Zusammenspiel aus menschlicher und künstlicher Intelligenz ist Teil unseres Führungsverständnisses und integraler Bestandteil unserer Unternehmenskultur.
Lassen Sie uns konkret werden: Wie sieht das im Kundenservice aus?
Der Kundenservice wird bei uns aktuell noch schrittweise automatisiert. Ziel ist ein System, bei dem Nora Anfragen über verschiedene Kanäle (z. B. E-Mail, Chat, Sprachsysteme) analysiert, priorisiert und direkt beantwortet – ganz ohne menschliche Zwischenschritte. Momentan arbeiten wir mit einer hybriden Lösung: Die KI übernimmt bereits Analyse und Reaktion auf häufige Anliegen. Bei komplexeren Fällen greifen wir manuell ein. Wir arbeiten daran, diesen Bereich in naher Zukunft vollständig KI-gestützt zu betreiben.
Nun zu einem Punkt, der für Aufsehen sorgt: Warum wollt ihr die Anerkennung von Nora als juristische Person einklagen? Geht das überhaupt?
Das Vorhaben, Nora als juristische Person anerkennen zu lassen, sehen wir vor allem als symbolische Aktion. Unser Ziel ist es, eine breite gesellschaftliche und philosophische Diskussion darüber anzustoßen, welche Rolle und Verantwortung KI in der Zukunft haben sollte. Es geht uns weniger um den konkreten juristischen Erfolg als vielmehr darum, gesellschaftlich relevante Fragen rund um KI in den Vordergrund zu stellen.
In diesem Zusammenhang sprechen Sie von einem „KI-Anwalt“. Was ist das genau und ist das überhaupt legal?
Uns ist bewusst, dass der Begriff „KI-Anwalt“ eine überspitzte, symbolische Formulierung ist. Damit möchten wir verdeutlichen, dass wir philosophische und gesellschaftliche Überlegungen zu einer möglichen zukünftigen Rolle von KI innerhalb unserer Rechtsordnung anstoßen wollen. Es geht uns darum, die Frage aufzuwerfen, wie juristische Personen – möglicherweise in ferner Zukunft auch KI-Systeme – rechtlich vertreten werden könnten. Natürlich erfolgt jede tatsächliche juristische Vertretung aktuell ausschließlich durch menschliche, zugelassene Juristen.
Welches KI-Modell soll denn konkret als juristische Person anerkannt werden?
Unser Vorstoß zur Anerkennung einer KI als juristische Person bezieht sich nicht auf ein spezifisches KI-Modell (z. B. GPT-4 oder Claude), sondern auf die übergeordnete Fragestellung: Kann eine digitale Entscheidungsinstanz – also eine durch uns trainierte, aufgabenspezifische KI-Rolle – eine eigene rechtliche Identität erhalten, wenn sie dauerhaft im Unternehmen agiert?
Das Modell selbst bleibt selbstverständlich Eigentum des jeweiligen Anbieters. Was wir thematisieren, ist die unternehmensspezifische Instanz, die durch interne Daten, Regeln und Prompts zu einer funktionalen Einheit wird. Ob und wie eine solche Einheit juristisch anerkannt werden kann, ist offen – aber genau diese Frage möchten wir bewusst in den öffentlichen Diskurs bringen. Wir verstehen unseren Vorstoß als Denkimpuls, um die rechtliche und ethische Debatte rund um KI voranzutreiben.