لماذا نؤمن بأن مستقبل الذكاء الاصطناعي يكمن في تعزيز الخبرة البشرية، وليس استبدالها
الدافع لأتمتة كل شيء يتجاهل حقيقة أساسية: في المجالات عالية المخاطر، الحكم البشري ليس عيباً يجب إصلاحه، بل هو الميزة الرئيسية.
يزيل الحكم البشري من القرارات الحرجة، مما يؤدي إلى أخطاء في الحالات الحدية وفقدان المعرفة المؤسسية
عدم القدرة على التفسير يجعل من المستحيل تدقيق القرارات أو فهم أنماط الفشل في الصناعات المنظمة
أدوات الذكاء الاصطناعي العامة لا تلتقط الفروق الدقيقة الخاصة بالمجال والحدس الخبير الذي يحدد الميزة التنافسية
العملاء المؤسسيون في الرعاية الصحية والخدمات القانونية والخدمات المالية وغيرها من الصناعات المنظمة لا يبحثون عن ذكاء اصطناعي يحل محل خبرائهم. إنهم يبحثون عن أدوات تجعل خبراءهم أكثر فعالية بعشر مرات مع الحفاظ على المساءلة والسيطرة.
فهم ما يمكن للذكاء الاصطناعي تعلمه من البيانات وحدها وما لا يمكنه
المعلومات التي يمكن تدوينها وتوثيقها ونقلها من خلال التواصل الكتابي أو اللفظي.
يتفوق الذكاء الاصطناعي في معالجة المعرفة الصريحة على نطاق واسع
الخبرة العميقة المكتسبة من خلال التجربة والتي يصعب التعبير عنها أو نقلها.
هنا تبقى الخبرة البشرية لا غنى عنها
يعالج الذكاء الاصطناعي المعرفة الصريحة بسرعة وحجم يفوق البشر.
يجلب البشر المعرفة الضمنية والسلطة النهائية في اتخاذ القرار.
كيف نبني أنظمة الذكاء الاصطناعي للقرارات عالية المخاطر
نماذج التعلم الآلي تحلل البيانات، وتحدد الأنماط، وتولد التوصيات
خبراء المجال يفحصون مخرجات الذكاء الاصطناعي، ويطبقون المعرفة السياقية ويمارسون الحكم
تُتخذ القرارات النهائية مع المساءلة البشرية وتنشئ مساراً للتدقيق
زيادة الإنتاجية مقارنة بالبشر بدون دعم
الدقة في القرارات عالية المخاطر
القرارات مع مساءلة بشرية واضحة
كيف يخلق الذكاء الاصطناعي بنمط الإنسان في الحلقة قيمة عبر الصناعات
يحلل الصور الطبية، ويحدد الشذوذات، ويقترح التشخيصات التفاضلية
يراجع أخصائي الأشعة النتائج، ويأخذ في الاعتبار تاريخ المريض، ويقدم التشخيص النهائي
وقت استجابة أسرع مع نفس الدقة أو أفضل، سلسلة مساءلة واضحة
يراجع العقود، ويحدد البنود غير القياسية، ويسلط الضوء على مجالات المخاطر
يقيّم المحامي السياق التجاري، ويتفاوض على الشروط، ويقدم المشورة
80% توفير في الوقت في مراجعة المستندات، ويركز المحامون على الاستراتيجية
يراقب المعاملات، ويكتشف الشذوذات، ويقيّم احتمالية الاحتيال
يحقق المحلل في الحالات المميزة، ويأخذ في الاعتبار سياق العميل، ويوافق/يرفض
10x المزيد من الحالات التي تمت مراجعتها مع معدل إيجابية كاذبة أقل
يراقب بيانات المستشعرات، ويتنبأ بأعطال المعدات، ويوصي بالصيانة
يتحقق المهندس من التنبؤات، ويخطط للتدخلات، ويحسن العمليات
70% تقليل في وقت التوقف غير المخطط له، تخصيص أفضل للموارد
لماذا تخلق شركات الإنسان في الحلقة مزايا تنافسية أقوى
كل قرار بشري يحسن النموذج. كلما زاد عدد الخبراء الذين يستخدمون النظام، أصبح أكثر قيمة لجميع المستخدمين.
التكامل العميق في سير عمل الخبراء يعني تكاليف تبديل عالية. يصبح النظام جزءاً من طريقة عمل الفرق.
يتطلب فهماً عميقاً لسير عمل الصناعة واللوائح. لا تستطيع شركات الذكاء الاصطناعي العامة تكرار ذلك بسهولة.
تغذية ردود الفعل البشرية تنشئ دولاباً حركياً: الذكاء الاصطناعي الأفضل يجذب المزيد من المستخدمين، والمزيد من المستخدمين يولدون بيانات تدريب أفضل.
النموذج الأولي + ردود فعل المتبنين الأوائل
تحسين الدقة يجذب المزيد من العملاء
أداء رائد في السوق، يصعب إزاحته
على عكس استراتيجيات الأتمتة الخالصة التي تتحول بسرعة إلى سلع، تراكم أنظمة الإنسان في الحلقة معرفة خاصة تتراكم بمرور الوقت. كلما طالت فترة عمل الشركة، اتسع خندقها.
ما نبحث عنه في شركات الذكاء الاصطناعي بنمط الإنسان في الحلقة
يحدد النظام صراحةً أين يضيف البشر قيمة ويحافظ على المساءلة
البيع للمؤسسات ذات الميزانيات ومتطلبات الامتثال، وليس للأسواق الاستهلاكية
يمتلك فريق المؤسسين خبرة عميقة في الصناعة التي يبنون لها
إذا كنت تبني ذكاءً اصطناعياً بنمط الإنسان في الحلقة لمجال عالي المخاطر، نود أن نسمع منك.
الاستثمار الأولي
المرحلة المستهدفة
وقت الاستجابة
يميز علماء المعرفة بين نوعين من المعرفة. هذا التمييز هو الأساس الفكري لأطروحة استثمار Noodle — والسبب في أن المشكلة التي نحلها بنيوية، وليست عرضية.
الذكاء الاصطناعي يتعامل معها جيداً
الإجراء المكتوب، القاعدة المنشورة، أفضل الممارسات الموثقة. أنظمة الذكاء الاصطناعي قادرة بشكل استثنائي على استرجاع هذه الطبقة وتركيبها وتطبيقها — بشكل أسرع وأكثر اتساقاً من أي ممارس بشري.
أمثلة: ملاحق تنظيم MARPOL، البروتوكولات السريرية القائمة على الأدلة، أطر المناهج الوطنية، أبحاث الميكانيكا الحيوية الرياضية.
العامل المهيمن للنتائج
الطبيب الذي يعرف أن هذا المريض بالذات لن يلتزم بالبروتوكول القياسي، بغض النظر عن التوصيات. المدرب الذي يرى أن ضربة اللاعب الخلفية تفشل تحت الضغط النفسي، وليس بسبب الإرهاق البدني. مسؤول الامتثال الذي يعرف أن منظماً معيناً يطبق حالياً تفسيراً أكثر صرامة مما يتطلبه النص المنشور.
هذه المعرفة متجسدة وعلائقية وسياقية. تعيش في البشر، وليس في قواعد البيانات. وهي العامل المهيمن لجودة النتائج في كل المجالات ذات القيمة العالية تقريباً.
الشركات التي تتعلم كيفية سد الفجوة بين الصريح والضمني بشكل منهجي ستتفوق على تلك التي لا تفعل. بشكل كبير. بشكل دائم.
من منظور بايزي، تشكل المعرفة الصريحة المعرفة المسبقة: موثقة جيداً، مستقرة، قابلة للنقل. المعرفة الضمنية هي دالة الاحتمالية — التحديث الدقيق الحساس للسياق الذي يحول معرفة مسبقة عامة إلى معرفة لاحقة مفيدة لهذا الموقف المحدد.
أنظمة الذكاء الاصطناعي الحالية استثنائية في تقريب المعارف المسبقة. إنها غير قادرة بنيوياً على التقاط دوال الاحتمالية التي لم تُكتب أبداً. الفجوة بين الصريح والضمني هي رسمياً الفرق بين:
P(النتيجة | السياق الموثق) — ما يُحسّن له الذكاء الاصطناعيP(النتيجة | السياق الموثق + السياق العلائقي + حكم الممارس) — ما تتطلبه القرارات فعلياًالدلتا بين هذين التوزيعين هي المكان الذي تُدمر فيه القيمة، والمكان الذي تعمل فيه Noodle.
هذا هو الجانب الأكثر سوءاً للفهم في نشر الذكاء الاصطناعي على نطاق واسع ومركزي لسبب كون نهج Noodle يخلق ميزة تنافسية دائمة.
نموذج اللغة أو النظام التنبؤي ينتج مخرجات محتملة إحصائياً بالنظر إلى توزيع تدريبه. لا يمكن أن يكون غير ذلك: النموذج لم يلتق أبداً بهذا المريض، أو هذا المنظم، أو الحالة العاطفية لهذا الطالب اليوم. كل مخرج هو بشكل أساسي تقدير — توزيع احتمالي على الإجابات الصحيحة الممكنة، منهار في إجابة واحدة.
هذا ليس عيباً. إنها خاصية معمارية. السؤال ليس "كيف نجعل الذكاء الاصطناعي صحيحاً؟" السؤال هو "كيف نرسّخ المخرجات الاحتمالية في المتطلبات الحتمية للعالم الحقيقي؟"
طبقة الإنسان في الحلقة لا تلغي التفكير الاحتمالي. إنها تحوّل مخرجات الذكاء الاصطناعي الاحتمالية إلى قرارات تلبي المعايير الحتمية التي تتطلبها النتائج فعلياً.
| مخرج الذكاء الاصطناعي الاحتمالي | المتطلب الحتمي |
|---|---|
| العلاج الأكثر احتمالاً لهذا العرض هو X | هذا المريض لن يلتزم بـ X؛ صِف Y |
| من المحتمل أن يفي هذا التقديم بالتنظيم Z | هذا المنظم يطلب استشهاداً صريحاً بالقسم 4.2 — أضفه |
| أداء هذا الطالب يشير إلى التركيز على الجبر | هذا الطالب يتجمد تحت ضغط الوقت — اضبط تنسيق التقييم |
الخبير البشري لا يتجاوز الذكاء الاصطناعي. إنه يضعه في سياقه — يحوّل إجابة صحيحة إحصائياً إلى إجابة صحيحة ظرفياً. مع مرور الوقت، من خلال بنية الترميز التدريجي، يتم إعادة هذه التصحيحات السياقية بشكل منهجي إلى النظام، مما يحول توزيع مخرجات النموذج نحو المتطلبات الحتمية للمجال.
هناك مصدران متميزان لعدم اليقين في الأنظمة التنبؤية:
إخفاقات الذكاء الاصطناعي الحالية في المجالات عالية المخاطر هي في الغالب معرفية، وليست عشوائية. المعرفة الضمنية التي تدفع جودة النتائج ببساطة لا توجد في أي مجموعة تدريب. تحسين HITL يعمل كآلية منظمة لتقليل عدم اليقين المعرفي — كل تصحيح بشري هو عينة مُصنفة من التوزيع اللاحق الحقيقي الذي لا يمكن للنموذج الوصول إليه من خلال التدريب المسبق وحده.
بشكل أكثر دقة: كل تدخل HITL يولد مجموعة (السياق، مخرج_الذكاء_الاصطناعي، تصحيح_الخبير، النتيجة). مع مرور الوقت، تملأ هذه المجموعات توزيع التدريب الفعال للنموذج بأمثلة من المنطقة التوزيعية بالضبط حيث كان عدم يقينه المعرفي أعلى. هذا هو التعلم النشط على مستوى المجال.
ما نستثمر فيه
تستثمر Noodle في الشركات المبنية على بنية تحسين الإنسان في الحلقة (HITL) — منهجية منظمة لاعتراض مخرجات الذكاء الاصطناعي، وإثرائها بحكم بشري سياقي، وإعادة ترميز هذا الحكم تدريجياً في النظام.
هذا ليس روبوت محادثة مع مراجع بشري. إنها بنية تحتية معرفية مركبة.
قبل أن يمس الذكاء الاصطناعي أي سير عمل، نُظهر القواعد والاستدلالات والاستثناءات الضمنية لأفضل ممارسي المجال. نحوّل التجربة المعاشة إلى سياق منظم يمكن للذكاء الاصطناعي العمل ضمنه — ليس كفكرة لاحقة، بل كأساس.
يولد الذكاء الاصطناعي المسودة الأولى. خبراء المجال يعيدون تشكيلها — ليس لتصحيح الأخطاء، بل لترجمة مخرج صحيح تقنياً إلى مخرج قابل للتنفيذ سياقياً. هذا هو الفرق بين خطة صحيحة وخطة ستعمل فعلاً في هذا الموقف، مع هذا الشخص، في ظل هذه الظروف.
كل تحسين يتدفق مرة أخرى إلى موجهات محسنة، وحواجز سياقية، وأنماط خاصة بالمجال. الطبقة البشرية تعلّم النظام باستمرار. مع مرور الوقت، تنخفض تكاليف التدخل بينما تزداد جودة المخرجات الأساسية. هكذا يتوسع النموذج، دون مجرد إضافة موظفين.
النتائج الفعلية في العالم الحقيقي تتدفق مرة أخرى إلى النظام. الحلقة لا تنغلق عند رضا المستخدم، بل عند النتائج الفعلية: هل صمدت عملية تقديم الامتثال أمام التدقيق؟ هل تحسنت نقطة الإرسال للرياضي؟ هل ارتفعت درجة اختبار الطالب؟ بيانات الأداء تحسّن كل دورة لاحقة.
بنية المراحل الأربع تُربط مباشرة بإطار التعلم المعزز:
على عكس RLHF القياسي (التعلم المعزز من ردود الفعل البشرية)، الذي يستخدم بيانات تفضيل عامة، تولد بنية Noodle إشارات مكافأة خاصة بالمجال، ومُحققة بالنتائج، وتراكمية. نموذج المكافأة ليس وكيلاً — إنه بيانات أداء مجال فعلية. هذا ينتج إشارة تحسين أكثر حدة وموثوقية بشكل أساسي من الضبط الدقيق على أساس التفضيلات فقط.
هذا المبدأ غير بديهي، وهو أحد أهم الدروس من نشر الذكاء الاصطناعي على نطاق واسع.
أنظمة الذكاء الاصطناعي تحسّن للصحة: الإجابة الأكثر اتساقاً مع الأدلة الموثقة، الأكثر احتمالاً إحصائياً بالنظر إلى بيانات التدريب، الأكثر توافقاً مع أفضل الممارسات المنشورة. هذا بالضبط ما يجب أن تفعله، وبالضبط لماذا تفشل في النشر.
نتائج العالم الحقيقي لا تحددها الإجابات الصحيحة. تحددها الإجابات التي تعمل — بالنظر إلى من في الغرفة، وما القيود النشطة، وما العلاقات المطروحة، وما التاريخ الذي يسبق هذه اللحظة.
توصية علاج صحيحة سريرياً لن يتبعها المريض أدنى من بروتوكول أقل مثالية سيتبناه فعلاً.
ملف قانوني سليم تقنياً يستخدم لغة يجدها منظم معين عدائية سيكون أداؤه أقل من ملف تمت صياغته بشكل عملي.
تسلسل تعلم مثالي تربوياً يجده طالب معين مرهقاً سينتج نتائج أسوأ من نهج أكثر لطفاً يحافظ على الانخراط.
الممارس الذي يعرف الفرق بين هذه الخيارات لا يتجاوز الذكاء الاصطناعي. إنه يقوم بالعمل الذي لا يستطيع الذكاء الاصطناعي القيام به: ربط إجابة صحيحة بظروف العالم الحقيقي التي تحدد ما إذا كانت ستنجح.
آلية الترميز التدريجي تلتقط هذا الذكاء العملي بشكل منهجي. عندما يعدّل خبير امتثال تقديم ذكاء اصطناعي ليناسب تفضيلات منظم معين — وينجح هذا التقديم باستمرار — يتعلم النظام التفضيل. عندما يعدّل مدرب خطة تدريب ذكاء اصطناعي لأن رياضياً معيناً يحتاج إلى ثقة أكثر من حمل هذا الأسبوع — وتتحسن نتائج المباراة — يتعلم النظام ترجيح الأولوية السياقي.
مع مرور الوقت، تضيق الفجوة بين "الصحيح" و"الفعال". ليس لأن الذكاء الاصطناعي أصبح أكثر صحة، بل لأنه أصبح أكثر معايرة سياقياً. هذا نوع مختلف نوعياً من التحسين — ونوع خاص بالمجال والعلاقات والتاريخ الذي بنته Noodle. لا يمكن تكراره من خلال نشر نموذج أساسي أفضل.
المشكلة الصحيحة-مقابل-العملية هي مشكلة عدم توافق دالة الخسارة المقاومة بنيوياً لحلول التعلم الآلي القياسية.
خسارة التدريب تقلل الخطأ مقابل توزيع التدريب. لكن "الفعالية العملية" ليست في توزيع التدريب — إنها خاصية طارئة لسياق نشر محدد، وعلاقات بشرية محددة، وتسلسلات تفاعل تاريخية محددة. لا يمكن تصنيفها مسبقاً.
لهذا السبب توسيع حجم النموذج، أو إضافة المزيد من بيانات التدريب، أو تطبيق RLHF على بيانات تفضيل عامة لا يسد الفجوة. الإشارة التي ستسدها — "هل نجح هذا المخرج المحدد لهذا الشخص المحدد في هذا السياق المحدد؟" — موجودة فقط في حلقات التغذية الراجعة المنشورة.
بنية Noodle مصممة خصيصاً لالتقاط هذه الإشارة وهيكلتها وإعادة إدخالها. إنها حل لمشكلة لا يمكن لمقدمي النماذج الأساسية حلها.
لماذا الاتساع هو النقطة
الفجوة بين الصريح والضمني تظهر في كل مكان يُنشر فيه الذكاء الاصطناعي. المنهجية لسدها قابلة للنقل. وسّع أي مجال لرؤية كيف تتكشف.
الموقف التنافسي
بنية HITL قابلة للنقل عبر القطاعات. المعرفة الضمنية التي تلتقطها في كل قطاع ليست كذلك. قاعدة معرفة الامتثال البحري المبنية من خلال طبقتنا لا يمكن تكرارها من قبل منافس يدخل المجال — فهي مبنية من سنوات من التحسين الخبير وخاصة بالعلاقات والولايات القضائية والحالات الحدية التي واجهناها. المنهجية هي محركنا. المعرفة المتراكمة هي خندقنا.
مع قيام خبرائنا البشريين بتحسين مخرجات الذكاء الاصطناعي، يُرمِّزون حكمهم بشكل منهجي في النظام. مع مرور الوقت، يتطلب الذكاء الاصطناعي تدخلاً بشرياً أقل لتحقيق نفس عتبة الجودة. تنخفض تكلفة التسليم بينما تزداد جودة المخرجات. المنافسون الذين يعتمدون على مخرجات الذكاء الاصطناعي الخام لا يحققون هذا أبداً. المنافسون الذين يعتمدون على التسليم البشري البحت لا يمكنهم توسيعه. نحن نقع عند التقاطع.
كلما طالت فترة عمل بنية Noodle في مجال ما — مع ممارس، عميل، مؤسسة — زادت المعرفة الضمنية التي تم استخراجها وترميزها. استبدالنا يعني فقدان تلك الذاكرة المؤسسية والفردية. مجموعة الذكاء الاصطناعي المبنية على طبقتنا تصبح معتمدة على طبقة السياق التي بنيناها. هذا السياق لا ينتقل إلى منافس.
دورة نشر الذكاء الاصطناعي الحالية تنتج فئة كبيرة ومتنامية من خيبات الأمل: أنظمة قادرة، نتائج ضعيفة، مستخدمون محبطون. نمط الفشل دائماً تقريباً هو نفسه — الفجوة بين الصريح والضمني.
الشركات التي تحل هذه المشكلة بشكل منهجي، عبر المجالات، بمنهجية تتوسع وتتراكم، ستلتقط قيمة غير متناسبة في المرحلة التالية من اعتماد الذكاء الاصطناعي. تبني Noodle Investments™ وتدعم هذه الشركات بالضبط.
نحن لا نراهن على نموذج أفضل. نحن نراهن على الطبقة التي تجعل كل نموذج يعمل فعلياً — في العالم الحقيقي، للأشخاص الحقيقيين، في ظل ظروف لم يتوقعها أي مجموعة بيانات تدريب بشكل كامل.
يضفي هذا الملحق طابعاً رسمياً على أطروحة الاستثمار للجماهير التقنية، ويربط المفاهيم الأساسية بأطر راسخة للتعلم الآلي والإبستمولوجيا وتصميم الأنظمة.
لمزيد من المناقشات حول البنية التقنية، أو البنية التحتية للبيانات، أو نماذج النشر الخاصة بالمجال، اتصل بفريق الاستثمار في Noodle.