返回首页

我们的人工智能投资理念

为什么我们相信人工智能的未来在于增强人类专业知识,而非取代它

问题所在

为什么大多数AI公司在企业领域失败

追求自动化一切的冲动忽视了一个基本事实:在高风险领域, 人类判断不是要修复的错误,而是核心特征。

全自动AI

风险高

从关键决策中消除人类判断,导致边缘案例失败和机构知识丧失

黑盒模型

风险高

缺乏可解释性使审计决策或理解受监管行业的失败模式变得不可能

通用解决方案

风险中

通用AI工具无法捕获定义竞争优势的领域特定细微差别和专家直觉

医疗保健、法律服务、金融服务和其他受监管行业的企业客户 不是在寻找取代专家的AI。他们寻找的是让专家效率提高10倍 同时保持问责制和控制的工具。

显性知识与隐性知识的鸿沟

理解AI能从数据中学到什么,以及学不到什么

显性知识

可以编码、记录并通过书面或口头交流传递的信息。

  • 基于症状的医学诊断
  • 法律判例和法规
  • 财务公式和指标
  • 标准操作流程

AI擅长大规模处理显性知识

隐性知识

通过经验获得的深层专业知识,难以表达或传授。

  • 关于患者风险的临床直觉
  • 交易谈判中的本能判断
  • 欺诈检测中的模式识别
  • 依赖情境的判断

人类专业知识在这里仍然不可替代

成功公式

AI以超人的速度和规模处理显性知识。
人类贡献隐性知识和最终决策权。

人机协作架构

如何构建用于高风险决策的AI系统

步骤 1

AI处理

机器学习模型分析数据,识别模式并生成建议

步骤 2

人工审核

领域专家审查AI输出,应用情境知识并进行判断

步骤 3

决策与行动

在人类问责制下做出最终决策,并生成审计跟踪

优势

  • 保持决策的人类问责制
  • 建立企业客户信任
  • 在工作流程中捕获隐性知识
  • 创建可辩护的审计跟踪
  • 实现持续的模型改进
  • 降低灾难性故障风险

实际影响

10倍

相比无辅助人员的生产力提升

99.9%

高风险决策的准确率

100%

决策具有明确的人类问责制

领域应用案例

人机协作AI如何在各行业创造价值

医疗保健

AI角色

分析医学影像,标记异常,提出鉴别诊断建议

人类角色

放射科医生审查发现,结合患者病史,做出最终诊断

成果

更快的响应时间,同等或更高的准确性,清晰的责任链

法律服务

AI角色

审查合同,识别非标准条款,突出风险区域

人类角色

律师评估商业背景,协商条款,提供咨询

成果

文档审查节省80%时间,律师专注于战略工作

金融服务

AI角色

监控交易,检测异常,评估欺诈概率

人类角色

分析师调查标记案例,考虑客户背景,批准/拒绝

成果

审查案例数量增加10倍,误报率降低

制造业

AI角色

监控传感器数据,预测设备故障,推荐维护

人类角色

工程师验证预测,计划干预措施,优化操作流程

成果

计划外停机时间减少70%,资源配置更优

构建可防御的护城河

为什么人机协作企业创造更强的竞争优势

数据网络效应

每个人类决策都改进模型。越多专家使用系统,它对所有用户就越有价值。

工作流集成

深度集成到专家工作流意味着高转换成本。系统成为团队工作方式的一部分。

领域专业知识

需要对行业工作流程和法规的深刻理解。通用AI公司无法轻易复制。

持续学习

人类反馈创造飞轮:更好的AI吸引更多用户,更多用户生成更好的训练数据。

复合优势

第1年

初始模型 + 早期采用者反馈

第2年

提高的准确性吸引更多客户

第3年+

市场领先性能,难以取代

与迅速商品化的纯自动化玩法不同,人机协作系统积累的专有知识随时间复合。 企业运营时间越长,其护城河就越宽。

我们的投资标准

我们在人机协作AI公司中寻找什么

明确的人类角色

系统明确定义人类在哪里增加价值并保持问责制

企业级市场策略

向有预算和合规要求的企业销售,而非消费市场

领域专业知识

创始团队在其开发的行业拥有深厚的经验

准备好塑造未来?

如果您正在为高风险领域构建人机协作AI,我们希望听到您的声音。

$50万-$200万

初始投资

种子前期/种子期

目标阶段

48小时

响应时间

核心洞察

显性-隐性鸿沟:
为什么它无处不在。

认识论学者区分两种知识类型。这种区分是Noodle投资论点的智识基础——也是我们解决的问题结构性而非偶然的原因。

显性知识

AI处理得很好

书面程序、公布的规则、记录的最佳实践。AI系统非常擅长检索、综合和应用这一层——比任何人类从业者都更快、更一致。

示例:MARPOL法规附件、循证临床方案、国家课程框架、运动生物力学研究。

隐性知识

结果质量的主导因素

临床医生知道这个特定患者不会遵守标准方案,无论推荐什么。教练看到运动员的反手在心理压力下失败,不是因为身体疲劳。合规官知道特定监管机构目前正在应用比公布文本要求更严格的解释。

这种知识是具身的、关系性的和情境性的。它存在于人中,而不是数据库中。它是几乎所有高价值领域中结果质量的主导因素。

学会系统地弥合显性-隐性鸿沟的公司将超越那些不能的公司。显著地。持久地。

数据科学注释:形式化鸿沟

用贝叶斯术语来说,显性知识形成先验:有良好记录、稳定、可转移。隐性知识是似然函数——将通用先验转化为对这个特定情况有用的后验的细微的、上下文敏感的更新。

当前的AI系统非常擅长近似先验。它们在结构上无法捕获从未被写下的似然函数。显性-隐性鸿沟在形式上是以下两者之间的差异:

  • P(结果 | 记录的上下文) — AI优化的目标
  • P(结果 | 记录的上下文 + 关系上下文 + 从业者判断) — 决策实际需要的

这两个分布之间的差距是价值被破坏的地方,也是Noodle运营的地方。

架构转变

从概率性
到确定性

这是大规模AI部署中最常被误解的方面,也是Noodle方法创造持久竞争优势的核心原因。

为什么纯AI本质上是概率性的

语言模型或预测系统产生的输出在统计上是可能的,基于其训练分布。不能不是这样:模型从未遇到过这个患者、这个监管机构、今天这个学生的情绪状态。每个输出本质上都是估计——对可能正确答案的概率分布的坍缩成单一答案。

这不是缺陷。这是架构属性。问题不是"我们如何让AI说真话?"问题是"我们如何将概率输出锚定到现实世界的确定性要求中?"

HITL如何使系统向确定性转变

人机协作层不会消除概率推理。它将概率性AI输出转化为符合结果实际需要的确定性标准的决策。

概率性AI输出确定性要求
这种症状最可能的治疗方案是X这位患者不会遵守X;开Y处方
该提交文件可能符合法规Z该监管机构要求明确引用第4.2节——添加它
该学生的表现表明应专注于代数该学生在时间压力下会卡顿——调整评估格式

人类专家不是在推翻AI。他们在情境化它——将统计上有效的答案转化为情境上正确的答案。随着时间推移,通过我们的渐进式编码架构,这些情境修正被系统地反馈到系统中,将模型的输出分布向领域的确定性要求转移。

数据科学注释:通过人类反馈减少认识不确定性

预测系统中存在两种不同的不确定性来源:

  • 偶然不确定性:数据生成过程固有的不可约噪声
  • 认识不确定性:由训练数据不足或不具代表性引起的模型不确定性

当前高风险领域的AI失败主要是认识性的,而不是偶然性的。驱动结果质量的隐性知识根本不存在于任何训练语料库中。HITL改进作为减少认识不确定性的结构化机制——每次人工纠正都是来自真实后验分布的标记样本,模型无法仅通过预训练访问。

更准确地说:每次HITL干预都会生成一个元组 (上下文, AI输出, 专家纠正, 结果)。随着时间推移,这些元组用来自模型认识不确定性最高的分布区域的示例填充模型的有效训练分布。这是领域级的主动学习。

我们投资什么

HITL架构:
结构性护城河,而非功能。

Noodle投资于建立在人机协作(HITL)改进架构上的公司——一种结构化方法,用于拦截AI输出,用情境人类判断丰富它,并将该判断渐进式地编码回系统。

这不是带有人工审核员的聊天机器人。这是一个复合知识基础设施。

第1阶段

隐性知识提取

在AI触及任何工作流程之前,我们揭示最优秀领域从业者的隐性规则、启发式和例外情况。我们将活的经验转化为AI可以在其中操作的结构化上下文——不是作为事后考虑,而是作为基础。

第2阶段

人工拦截与改进

AI生成初稿。领域专家重新塑造它——不是纠正错误,而是将技术上有效的输出转化为情境上可操作的输出。这是正确的计划与在这种情况下、对这个人、在这些条件下实际有效的计划之间的区别。

第3阶段

渐进式知识编码

每次改进都流回到改进的提示、情境护栏和领域特定模式中。人类层持续教导系统。随着时间推移,干预成本下降,而基线输出质量上升。这就是模型如何扩展,而不仅仅是增加人员。

第4阶段

结果驱动的反馈循环

现实世界的结果流回系统。循环不是在用户满意度处关闭,而是在实际结果处:合规提交是否经受住审计?运动员的发球百分比是否提高?学生的评估分数是否上升?性能数据改进每个后续周期。

数据科学注释:HITL循环作为强化学习信号

四阶段架构直接映射到强化学习框架:

  • 状态:当前领域上下文(患者、运动员、监管环境、学生)
  • 动作:AI输出建议
  • 人工改进:来自作为奖励模型的专家的策略修正信号
  • 结果反馈:从环境到策略关闭循环的真实奖励信号

与使用通用偏好数据的标准RLHF(基于人类反馈的强化学习)不同,Noodle架构生成的奖励信号是领域特定的、结果验证的和累积的。奖励模型不是代理——它是真实的领域性能数据。这产生了一个根本更清晰、更可靠的优化信号,而不仅仅是基于偏好的微调。

实用智能

为什么实用方法
胜过正确方法

这一原则是反直觉的,也是大规模AI部署中最重要的教训之一。

AI系统追求正确性:与文档证据最一致的答案,根据训练数据统计上最可能的答案,与已发布最佳实践最一致的答案。这正是它们应该做的,也正是它们在部署中失败的原因。

现实世界的结果不是由正确答案决定的。它们由有效的答案决定——考虑到谁在场、哪些约束条件有效、哪些关系在起作用,以及这一时刻之前的历史背景。

正确与有效之间的差距

一个临床上正确但患者不会遵守的治疗建议,不如一个略微次优但患者实际会采纳的方案。

一个技术上完善但使用特定监管机构认为对抗性语言的法律文件,不如一个务实起草的文件效果好。

一个教学上最优但特定学生感到不堪重负的学习序列,不如一个保持参与度的温和方法产生的结果好。

知道这些选项之间差异的从业者并不是在推翻AI。他们在做AI无法做的工作:将正确答案映射到决定其成功的现实世界条件。

HITL如何编码实用智能

渐进式编码机制系统地捕获这种实用智能。当合规专家调整AI生成的提交文件以符合特定监管机构的偏好——并且该提交文件持续成功——系统学习该偏好。当教练修改AI训练计划,因为特定运动员本周更需要信心而非负荷——并且比赛结果改善——系统学习情境优先级权重。

随着时间推移,"正确"与"有效"之间的差距缩小。不是因为AI变得更正确,而是因为它变得更具情境校准性。这是一种质的不同改进——是Noodle构建的领域、关系和历史特有的改进。它无法通过部署更好的基础模型来复制。

数据科学注释:损失函数错位及其持续存在的原因

正确对实用的问题是一个损失函数错位问题,在结构上抵抗标准的机器学习解决方案。

训练损失最小化针对训练分布的误差。但"实用有效性"不在训练分布中——它是特定部署环境、特定人际关系和特定历史交互序列的涌现属性。它无法提前标注。

这就是为什么扩大模型规模、添加更多训练数据或在通用偏好数据上应用RLHF都无法弥合差距。能够弥合差距的信号——"这个特定输出在这个特定情境下对这个特定人有效吗?"——只存在于已部署的反馈循环中。

Noodle架构专门设计用于捕获、构建和反馈这一信号。这是基础模型提供商无法解决的问题的解决方案。

为什么广度是关键

一个架构。
四个领域。相同的优势。

显性-隐性鸿沟在AI部署的任何地方都会出现。弥合它的方法论是可转移的。展开每个领域以查看其如何展开。

竞争地位

为什么这是可防御的:
Noodle的三大复合护城河。

可移植的方法论。领域特定的深度。

HITL架构可跨部门转移。它在每个部门捕获的隐性知识则不能。通过我们的层构建的海事合规知识库无法被进入该领域的竞争对手复制——它是通过多年的专家改进构建的,并且特定于我们遇到的关系、司法管辖区和边缘案例。方法论是我们的引擎。积累的知识是我们的护城河。

人类层将自身编码出存在——带着利润。

随着我们的人类专家改进AI输出,他们系统地将自己的判断编码到系统中。随着时间推移,AI需要更少的人工干预就能达到相同的质量阈值。交付成本下降,而输出质量上升。依赖原始AI输出的竞争对手永远无法实现这一点。依赖纯人工交付的竞争对手无法扩展它。我们位于交叉点。

转换成本随关系深度复合。

Noodle架构在一个领域中运营的时间越长——与从业者、客户、机构——提取和编码的隐性知识就越多。取代我们意味着失去那些机构和个人记忆。建立在我们层之上的AI堆栈变得依赖于我们构建的上下文层。该上下文不会转移到竞争对手。

投资案例

不是更好的模型。
让每个模型都能工作的层。

当前的AI部署周期产生了一个庞大且不断增长的失望类别:能干的系统,糟糕的结果,沮丧的用户。失败模式几乎总是相同的——显性-隐性鸿沟。

系统地解决这个问题的公司,跨领域,使用可扩展和复合的方法,将在AI采用的下一阶段捕获不成比例的价值。Noodle Investments™正在构建和支持这些公司。

我们不是押注更好的模型。我们押注让每个模型在现实世界中、为真实的人、在没有任何训练数据集完全预期的条件下实际工作的层。

技术附录

Noodle论点的
数据科学框架

本附录为技术受众形式化投资论点,并将核心概念映射到机器学习、认识论和系统设计的既定框架。

如需进一步讨论技术架构、数据基础设施或领域特定部署模型,请联系Noodle投资团队。