Zurück zur Startseite

Unsere KI-Investmentphilosophie

Warum wir glauben, dass die Zukunft der KI darin liegt, menschliches Fachwissen zu erweitern, nicht zu ersetzen

Das Problem

Warum die meisten KI-Unternehmen im Unternehmensbereich scheitern

Der Drang, alles zu automatisieren, übersieht eine fundamentale Wahrheit: In Hochrisiko-Domänen ist menschliches Urteilsvermögen kein zu behebender Fehler, sondern das Hauptmerkmal.

Vollautomatisierte KI

Risiko Hoch

Eliminiert menschliches Urteilsvermögen aus kritischen Entscheidungen, was zu Fehlern in Grenzfällen und Verlust von institutionellem Wissen führt

Black-Box-Modelle

Risiko Hoch

Mangelnde Erklärbarkeit macht es unmöglich, Entscheidungen zu prüfen oder Fehlermodi in regulierten Branchen zu verstehen

Universallösungen

Risiko Mittel

Generische KI-Tools erfassen nicht die domänenspezifischen Nuancen und Expertenintuition, die den Wettbewerbsvorteil definieren

Unternehmenskunden im Gesundheitswesen, in Rechtsdienstleistungen, Finanzdienstleistungen und anderen regulierten Branchen suchen nicht nach KI, die ihre Experten ersetzt. Sie suchen Werkzeuge, die ihre Experten 10-mal effektiver machen und gleichzeitig Verantwortlichkeit und Kontrolle wahren.

Die Lücke zwischen explizitem und implizitem Wissen

Verstehen, was KI aus Daten allein lernen kann und was nicht

Explizites Wissen

Informationen, die kodifiziert, dokumentiert und durch schriftliche oder verbale Kommunikation übertragen werden können.

  • Medizinische Diagnosen basierend auf Symptomen
  • Rechtspräzedenzfälle und Statuten
  • Finanzformeln und Kennzahlen
  • Standard-Betriebsabläufe

KI zeichnet sich bei der Verarbeitung expliziten Wissens in großem Maßstab aus

Implizites Wissen

Tiefgehendes Fachwissen, das durch Erfahrung erworben wurde und schwer zu artikulieren oder zu übertragen ist.

  • Klinische Intuition über Patientenrisiko
  • Verhandlungsinstinkte bei Geschäftsabschlüssen
  • Mustererkennung bei Betrugserkennung
  • Kontextabhängige Urteile

Hier bleibt menschliches Fachwissen unersetzlich

Die Erfolgsformel

KI verarbeitet explizites Wissen mit übermenschlicher Geschwindigkeit und Skalierung.
Menschen bringen implizites Wissen und endgültige Entscheidungskraft ein.

Human-in-the-Loop-Architektur

Wie wir KI-Systeme für Hochrisiko-Entscheidungen strukturieren

Schritt 1

KI-Verarbeitung

Modelle des maschinellen Lernens analysieren Daten, identifizieren Muster und generieren Empfehlungen

Schritt 2

Menschliche Überprüfung

Domänenexperten prüfen KI-Ausgaben, wenden kontextuelles Wissen an und üben Urteilsvermögen aus

Schritt 3

Entscheidung und Handlung

Endgültige Entscheidungen werden mit menschlicher Verantwortlichkeit getroffen und erzeugen einen Prüfpfad

Vorteile

  • Wahrt menschliche Verantwortlichkeit bei Entscheidungen
  • Schafft Vertrauen bei Unternehmenskunden
  • Erfasst implizites Wissen im Workflow
  • Erstellt vertretbare Prüfpfade
  • Ermöglicht kontinuierliche Modellverbesserung
  • Reduziert das Risiko katastrophaler Ausfälle

Reale Auswirkungen

10x

Produktivitätssteigerung vs. Menschen ohne Unterstützung

99,9%

Genauigkeit bei Hochrisiko-Entscheidungen

100%

Entscheidungen mit klarer menschlicher Verantwortlichkeit

Domänenbeispiele

Wie Human-in-the-Loop-KI Wert über alle Branchen hinweg schafft

Gesundheitswesen

KI-Rolle

Analysiert medizinische Bilder, markiert Anomalien, schlägt Differentialdiagnosen vor

Menschliche Rolle

Der Radiologe überprüft die Befunde, berücksichtigt die Patientenhistorie, stellt die endgültige Diagnose

Ergebnis

Schnellere Reaktionszeit bei gleicher oder besserer Genauigkeit, klare Verantwortungskette

Rechtswesen

KI-Rolle

Prüft Verträge, identifiziert nicht-standardisierte Klauseln, hebt Risikobereiche hervor

Menschliche Rolle

Der Anwalt bewertet den geschäftlichen Kontext, verhandelt Bedingungen, bietet Beratung

Ergebnis

80% Zeitersparnis bei Dokumentenprüfung, Anwälte fokussieren sich auf Strategie

Finanzdienstleistungen

KI-Rolle

Überwacht Transaktionen, erkennt Anomalien, bewertet Betrugwahrscheinlichkeit

Menschliche Rolle

Der Analyst untersucht markierte Fälle, berücksichtigt Kundenkontext, genehmigt/lehnt ab

Ergebnis

10-mal mehr überprüfte Fälle bei niedrigerer Falsch-Positiv-Rate

Fertigung

KI-Rolle

Überwacht Sensordaten, prognostiziert Geräteausfälle, empfiehlt Wartung

Menschliche Rolle

Der Ingenieur validiert Vorhersagen, plant Interventionen, optimiert Betriebsabläufe

Ergebnis

70% Reduzierung ungeplanter Ausfallzeiten, bessere Ressourcenzuweisung

Vertretbare Burggräben aufbauen

Warum Human-in-the-Loop-Unternehmen stärkere Wettbewerbsvorteile schaffen

Daten-Netzwerkeffekte

Jede menschliche Entscheidung verbessert das Modell. Je mehr Experten das System nutzen, desto wertvoller wird es für alle Nutzer.

Workflow-Integration

Tief integriert in Experten-Workflows bedeutet hohe Wechselkosten. Das System wird Teil der Arbeitsweise von Teams.

Domänenexpertise

Erfordert tiefes Verständnis von Branchenworkflows und Vorschriften. Generische KI-Unternehmen können dies nicht einfach replizieren.

Kontinuierliches Lernen

Menschliches Feedback erzeugt ein Schwungrad: Bessere KI zieht mehr Nutzer an, mehr Nutzer generieren bessere Trainingsdaten.

Der zusammengesetzte Vorteil

Jahr 1

Anfangsmodell + Feedback der Early Adopters

Jahr 2

Verbesserte Genauigkeit zieht mehr Kunden an

Jahr 3+

Marktführende Leistung, schwer zu verdrängen

Im Gegensatz zu reinen Automatisierungsstrategien, die schnell zur Handelsware werden, akkumulieren Human-in-the-Loop-Systeme proprietäres Wissen, das sich mit der Zeit zusammensetzt. Je länger ein Unternehmen operiert, desto breiter wird sein Burggraben.

Unsere Investitionskriterien

Was wir bei Human-in-the-Loop-KI-Unternehmen suchen

Klare menschliche Rolle

Das System definiert explizit, wo Menschen Wert hinzufügen und wahrt Verantwortlichkeit

Enterprise GTM

Verkauf an Unternehmen mit Budget und Compliance-Anforderungen, nicht an Verbrauchermärkte

Domänenexpertise

Das Gründerteam besitzt tiefgehende Erfahrung in der Branche, für die sie entwickeln

Bereit, die Zukunft zu gestalten?

Wenn Sie Human-in-the-Loop-KI für eine Hochrisiko-Domäne entwickeln, möchten wir von Ihnen hören.

$500K-$2M

Anfangsinvestition

Pre-Seed/Seed

Zielphase

48 Stunden

Antwortzeit

Die zentrale Einsicht

Die Explizit-Implizit-Lücke:
warum sie überall auftaucht.

Epistemologen unterscheiden zwischen zwei Arten von Wissen. Diese Unterscheidung ist das intellektuelle Fundament von Noodles Investitionsthese — und der Grund, warum das Problem, das wir lösen, strukturell ist, nicht zufällig.

Explizites Wissen

KI handhabt dies gut

Das geschriebene Verfahren, die veröffentlichte Regel, die dokumentierte Best Practice. KI-Systeme sind außergewöhnlich fähig, diese Schicht abzurufen, zu synthetisieren und anzuwenden — schneller und konsistenter als jeder menschliche Praktiker.

Beispiele: MARPOL-Regulierungsanhänge, evidenzbasierte klinische Protokolle, nationale Lehrplanrahmen, sportbiomechanische Forschung.

Implizites Wissen

Der dominierende Faktor für Ergebnisse

Der Kliniker, der weiß, dass dieser bestimmte Patient das Standardprotokoll nicht befolgen wird, unabhängig davon, was empfohlen wird. Der Trainer, der sieht, dass die Rückhand eines Spielers unter psychischem Druck versagt, nicht wegen körperlicher Ermüdung. Der Compliance-Beauftragte, der weiß, dass eine bestimmte Aufsichtsbehörde derzeit eine strengere Auslegung anwendet als der veröffentlichte Text erfordert.

Dieses Wissen ist verkörpert, relational und kontextuell. Es lebt in Menschen, nicht in Datenbanken. Und es ist der dominierende Faktor für die Ergebnisqualität in praktisch allen hochwertigen Domänen.

Unternehmen, die lernen, die Explizit-Implizit-Lücke systematisch zu schließen, werden diejenigen übertreffen, die es nicht tun. Signifikant. Dauerhaft.

Data-Science-Notiz: Die Lücke formalisieren

In bayesianischen Begriffen bildet explizites Wissen den Prior: gut dokumentiert, stabil, übertragbar. Implizites Wissen ist die Likelihood-Funktion — das nuancierte, kontextsensitive Update, das einen generischen Prior in einen für diese spezifische Situation nützlichen Posterior verwandelt.

Aktuelle KI-Systeme sind außergewöhnlich gut darin, Priors zu approximieren. Sie sind strukturell unfähig, Likelihood-Funktionen zu erfassen, die nie geschrieben wurden. Die Explizit-Implizit-Lücke ist formal der Unterschied zwischen:

  • P(Ergebnis | dokumentierter Kontext) — wofür KI optimiert
  • P(Ergebnis | dokumentierter Kontext + relationaler Kontext + Praktikerurteil) — was Entscheidungen tatsächlich erfordern

Das Delta zwischen diesen beiden Verteilungen ist, wo Wert zerstört wird, und wo Noodle operiert.

Die Architekturverschiebung

Von Probabilistisch
zu Deterministisch

Dies ist der am häufigsten missverstandene Aspekt des KI-Einsatzes im großen Maßstab und zentral dafür, warum Noodles Ansatz einen dauerhaften Wettbewerbsvorteil schafft.

Warum reine KI irreduzibel probabilistisch ist

Ein Sprachmodell oder prädiktives System produziert Ausgaben, die statistisch wahrscheinlich sind angesichts seiner Trainingsverteilung. Es kann nicht anders sein: Das Modell ist diesem Patienten, dieser Aufsichtsbehörde, dem emotionalen Zustand dieses Schülers heute nie begegnet. Jede Ausgabe ist grundsätzlich eine Schätzung — eine Wahrscheinlichkeitsverteilung über mögliche richtige Antworten, kollabiert zu einer einzigen Antwort.

Dies ist kein Defekt. Es ist eine architektonische Eigenschaft. Die Frage ist nicht „Wie machen wir KI wahr?" Die Frage ist „Wie verankern wir probabilistische Ausgaben in den deterministischen Anforderungen der realen Welt?"

Wie HITL das System in Richtung Determinismus verschiebt

Die Human-in-the-Loop-Schicht eliminiert nicht die probabilistische Argumentation. Sie wandelt probabilistische KI-Ausgaben in Entscheidungen um, die den deterministischen Standards entsprechen, die Ergebnisse tatsächlich erfordern.

Probabilistische KI-AusgabeDeterministische Anforderung
Die wahrscheinlichste Behandlung für diese Präsentation ist XDieser Patient wird X nicht einhalten; verschreiben Sie Y
Diese Einreichung erfüllt wahrscheinlich Vorschrift ZDiese Aufsichtsbehörde verlangt explizite Zitierung von Abschnitt 4.2 — fügen Sie sie hinzu
Die Leistung dieses Schülers deutet auf Fokus auf Algebra hinDieser Schüler blockiert unter Zeitdruck — passen Sie das Bewertungsformat an

Der menschliche Experte überschreibt die KI nicht. Er kontextualisiert sie — verwandelt eine statistisch gültige Antwort in eine situativ korrekte. Im Laufe der Zeit werden durch unsere progressive Codierungsarchitektur diese kontextuellen Korrekturen systematisch zurück ins System gespeist und verschieben die Ausgabeverteilung des Modells in Richtung der deterministischen Anforderungen der Domäne.

Data-Science-Notiz: Reduzierung epistemischer Unsicherheit durch menschliches Feedback

Es gibt zwei unterschiedliche Quellen der Unsicherheit in prädiktiven Systemen:

  • Aleatorische Unsicherheit: irreduzibles Rauschen, das dem datengenerierenden Prozess inhärent ist
  • Epistemische Unsicherheit: Modellunsicherheit, die aus unzureichenden oder nicht-repräsentativen Trainingsdaten entsteht

Die aktuellen KI-Ausfälle in Hochrisiko-Domänen sind überwiegend epistemisch, nicht aleatorisch. Das implizite Wissen, das die Ergebnisqualität antreibt, existiert einfach in keinem Trainingskorpus. HITL-Verfeinerung funktioniert als strukturierter Mechanismus zur Reduzierung epistemischer Unsicherheit — jede menschliche Korrektur ist eine beschriftete Stichprobe aus der wahren posterioren Verteilung, auf die das Modell nicht allein durch Vortraining zugreifen kann.

Präziser gesagt: Jede HITL-Intervention erzeugt ein Tupel (Kontext, KI-Ausgabe, Expertenkorrektur, Ergebnis). Im Laufe der Zeit bevölkern diese Tupel die effektive Trainingsverteilung des Modells mit Beispielen aus genau der distributionalen Region, in der seine epistemische Unsicherheit am höchsten war. Dies ist aktives Lernen auf Domänenebene.

Wofür wir investieren

Die HITL-Architektur:
ein struktureller Burggraben, kein Feature.

Noodle investiert in Unternehmen, die auf der Human-in-the-Loop (HITL)-Verfeinerungsarchitektur aufgebaut sind — einer strukturierten Methodik zur Interception von KI-Ausgaben, ihrer Anreicherung mit kontextuellem menschlichem Urteil und der progressiven Rückcodierung dieses Urteils ins System.

Dies ist kein Chatbot mit menschlichem Reviewer. Es ist eine zusammengesetzte Wissensinfrastruktur.

Phase 1

Extraktion impliziten Wissens

Bevor KI irgendeinen Workflow berührt, bringen wir die impliziten Regeln, Heuristiken und Ausnahmen der besten Domänenpraktiker an die Oberfläche. Wir verwandeln gelebte Erfahrung in strukturierten Kontext, innerhalb dessen KI operieren kann — nicht als Nachgedanke, sondern als Grundlage.

Phase 2

Menschliche Interception und Verfeinerung

KI generiert den ersten Entwurf. Domänenexperten gestalten ihn um — nicht um Fehler zu korrigieren, sondern um eine technisch gültige Ausgabe in eine kontextuell umsetzbare zu übersetzen. Dies ist der Unterschied zwischen einem Plan, der richtig ist, und einem, der in dieser Situation, mit dieser Person, unter diesen Bedingungen tatsächlich funktionieren wird.

Phase 3

Progressive Wissenscodierung

Jede Verfeinerung fließt zurück in verbesserte Prompts, kontextuelle Leitplanken und domänenspezifische Muster. Die menschliche Schicht lehrt das System kontinuierlich. Im Laufe der Zeit sinken die Interventionskosten, während die Basis-Ausgabequalität steigt. So skaliert das Modell, ohne einfach Personal hinzuzufügen.

Phase 4

Ergebnisgesteuerte Feedbackschleifen

Reale Ergebnisse fließen zurück ins System. Die Schleife schließt sich nicht bei Nutzerzufriedenheit, sondern bei tatsächlichen Ergebnissen: Hielt die Compliance-Einreichung der Prüfung stand? Verbesserte sich die Aufschlagquote des Athleten? Stieg die Bewertungspunktzahl des Schülers? Leistungsdaten verfeinern jeden nachfolgenden Zyklus.

Data-Science-Notiz: Die HITL-Schleife als Verstärkungslern-Signal

Die Vier-Phasen-Architektur lässt sich direkt auf ein Verstärkungslern-Framework abbilden:

  • Zustand: der aktuelle Domänenkontext (Patient, Athlet, regulatorisches Umfeld, Schüler)
  • Aktion: die KI-Ausgabe-Empfehlung
  • Menschliche Verfeinerung: ein Policy-Korrektursignal von einem Experten, der als Belohnungsmodell fungiert
  • Ergebnis-Feedback: das wahre Belohnungssignal, das die Schleife von Umgebung zu Policy schließt

Im Gegensatz zu Standard-RLHF (Reinforcement Learning from Human Feedback), das generische Präferenzdaten verwendet, generiert die Noodle-Architektur Belohnungssignale, die domänenspezifisch, ergebnisvalidiert und kumulativ sind. Das Belohnungsmodell ist kein Proxy — es sind echte Domänen-Leistungsdaten. Dies erzeugt ein grundlegend schärferes und zuverlässigeres Optimierungssignal als Feinabstimmung nur auf Basis von Präferenzen.

Inteligencia Pragmática

Por Qué los Enfoques Pragmáticos
Superan a los Correctos

Este principio es contraintuitivo, y es una de las lecciones más importantes del despliegue de IA a escala.

Los sistemas de IA optimizan para la corrección: la respuesta que es más consistente con la evidencia documentada, más estadísticamente probable dado los datos de entrenamiento, más alineada con las mejores prácticas publicadas. Esto es exactamente lo que deberían hacer, y exactamente por qué fallan en el despliegue.

Los resultados del mundo real no están determinados por respuestas correctas. Están determinados por respuestas que funcionan — dado quién está en la sala, qué restricciones están activas, qué relaciones están en juego, y qué historia precede a este momento.

La Brecha Entre Correcto y Efectivo

Una recomendación de tratamiento clínicamente correcta que un paciente no seguirá es inferior a un protocolo ligeramente menos óptimo que realmente adoptará.

Un archivo legal técnicamente sólido que usa un lenguaje que un regulador particular encuentra adversarial tendrá un rendimiento inferior a uno pragmáticamente redactado.

Una secuencia de aprendizaje pedagógicamente óptima que un estudiante particular experimenta como abrumadora producirá peores resultados que un enfoque más suave que mantiene el compromiso.

El practicante que conoce la diferencia entre estas opciones no está anulando la IA. Está haciendo el trabajo que la IA no puede hacer: mapear una respuesta correcta a las condiciones del mundo real que determinan si tiene éxito.

Wie HITL pragmatische Intelligenz kodiert

Der progressive Kodierungsmechanismus erfasst diese pragmatische Intelligenz systematisch. Wenn ein Compliance-Experte eine KI-Einreichung anpasst, um den Präferenzen eines bestimmten Regulierers zu entsprechen — und diese Einreichung konsistent erfolgreich ist — lernt das System die Präferenz. Wenn ein Trainer einen KI-Trainingsplan modifiziert, weil ein bestimmter Athlet diese Woche Vertrauen mehr als Belastung braucht — und die Matchergebnisse sich verbessern — lernt das System die kontextuelle Prioritätsgewichtung.

Im Laufe der Zeit verringert sich die Lücke zwischen „korrekt" und „effektiv". Nicht weil die KI korrekter wird, sondern weil sie kontextuell kalibrierter wird. Dies ist eine qualitativ andere Art von Verbesserung — und eine, die spezifisch für die Domäne, Beziehungen und Geschichte ist, die Noodle aufgebaut hat. Sie kann nicht durch die Bereitstellung eines besseren Foundation-Modells repliziert werden.

Data-Science-Hinweis: Fehlausrichtung der Verlustfunktion und warum sie bestehen bleibt

Das Problem korrekt-vs-pragmatisch ist ein Problem der Fehlausrichtung der Verlustfunktion, das strukturell resistent gegen Standard-ML-Lösungen ist.

Der Trainingsverlust minimiert den Fehler gegen die Trainingsverteilung. Aber „pragmatische Effektivität" ist nicht in der Trainingsverteilung enthalten — sie ist eine emergente Eigenschaft eines spezifischen Einsatzkontexts, spezifischer menschlicher Beziehungen und spezifischer historischer Interaktionssequenzen. Sie kann nicht im Voraus gekennzeichnet werden.

Deshalb schließt das Skalieren der Modellgröße, das Hinzufügen von mehr Trainingsdaten oder das Anwenden von RLHF auf generische Präferenzdaten die Lücke nicht. Das Signal, das sie schließen würde — „Hat diese spezifische Ausgabe für diese spezifische Person in diesem spezifischen Kontext funktioniert?" — existiert nur in eingesetzten Feedbackschleifen.

Die Noodle-Architektur ist speziell darauf ausgelegt, dieses Signal zu erfassen, zu strukturieren und wieder einzuspeisen. Es ist eine Lösung für ein Problem, das Foundation-Modell-Anbieter nicht lösen können.

Warum Breite der Punkt ist

Eine Architektur.
Vier Domänen. Derselbe Vorteil.

Die Explizit-Implizit-Lücke tritt überall dort auf, wo KI eingesetzt wird. Die Methodik zu ihrer Schließung ist übertragbar. Erweitere jede Domäne, um zu sehen, wie sie sich entfaltet.

Posición Competitiva

Por qué esto es defendible:
Los tres fosos compuestos de Noodle.

Metodología Portable del Dominio. Profundidad Específica del Dominio.

La arquitectura HITL es transferible a través de sectores. El conocimiento tácito que captura en cada sector no lo es. Una base de conocimiento de cumplimiento marítimo construida a través de nuestra capa no puede ser replicada por un competidor que ingrese al espacio — está construida a partir de años de refinamiento experto y es específica de las relaciones, jurisdicciones y casos extremos que hemos encontrado. La metodología es nuestro motor. El conocimiento acumulado es nuestro foso.

La Capa Humana se Codifica a Sí Misma Fuera de Existencia — Con un Margen.

A medida que nuestros expertos humanos refinan las salidas de IA, codifican sistemáticamente su juicio en el sistema. Con el tiempo, la IA requiere menos intervención humana para alcanzar el mismo umbral de calidad. El costo de entrega cae mientras la calidad de salida aumenta. Los competidores que dependen de la salida de IA cruda nunca logran esto. Los competidores que dependen de la entrega humana pura no pueden escalarlo. Nos ubicamos en la intersección.

Costos de Cambio Que se Componen con la Profundidad de Relación.

Cuanto más tiempo opera la arquitectura de Noodle en un dominio — con un practicante, un cliente, una institución — más conocimiento tácito se ha extraído y codificado. Reemplazarnos significa perder esa memoria institucional e individual. El stack de IA construido sobre nuestra capa se vuelve dependiente de la capa de contexto que hemos construido. Ese contexto no se transfiere a un competidor.

Das Investment-Case

Nicht ein besseres Modell.
Die Schicht, die jedes Modell funktionieren lässt.

Der aktuelle KI-Deployment-Zyklus produziert eine große und wachsende Klasse von Enttäuschungen: fähige Systeme, schlechte Ergebnisse, frustrierte Nutzer. Der Fehlermodus ist fast immer derselbe — die Explizit-Implizit-Lücke.

Die Unternehmen, die dieses Problem systematisch lösen, über Domänen hinweg, mit einer Methodik, die skaliert und sich zusammensetzt, werden in der nächsten Phase der KI-Adoption unverhältnismäßigen Wert erfassen. Noodle Investments™ baut und unterstützt genau diese Unternehmen.

Wir setzen nicht auf ein besseres Modell. Wir setzen auf die Schicht, die jedes Modell tatsächlich funktionieren lässt — in der realen Welt, für reale Menschen, unter Bedingungen, die kein Trainingsdatensatz vollständig antizipiert hat.

Technischer Anhang

Ein Data-Science-Framework
für Noodles These

Dieser Anhang formalisiert die Investitionsthese für technische Zielgruppen und ordnet die Kernkonzepte etablierten Frameworks für maschinelles Lernen, Epistemologie und Systemdesign zu.

Für weitere Diskussionen über technische Architektur, Dateninfrastruktur oder domänenspezifische Deployment-Modelle kontaktieren Sie das Investmentteam von Noodle.