العودة إلى الصفحة الرئيسية

فلسفتنا فيالاستثمار في الذكاء الاصطناعي

لماذا نؤمن بأن مستقبل الذكاء الاصطناعي يكمن في تعزيز الخبرة البشرية، وليس استبدالها

المشكلة

لماذا تفشل معظم شركات الذكاء الاصطناعي في القطاع المؤسسي

الدافع لأتمتة كل شيء يتجاهل حقيقة أساسية: في المجالات عالية المخاطر، الحكم البشري ليس عيباً يجب إصلاحه، بل هو الميزة الرئيسية.

الذكاء الاصطناعي الآلي بالكامل

مخاطر عالية

يزيل الحكم البشري من القرارات الحرجة، مما يؤدي إلى أخطاء في الحالات الحدية وفقدان المعرفة المؤسسية

نماذج الصندوق الأسود

مخاطر عالية

عدم القدرة على التفسير يجعل من المستحيل تدقيق القرارات أو فهم أنماط الفشل في الصناعات المنظمة

حلول عامة لجميع الحالات

مخاطر متوسطة

أدوات الذكاء الاصطناعي العامة لا تلتقط الفروق الدقيقة الخاصة بالمجال والحدس الخبير الذي يحدد الميزة التنافسية

العملاء المؤسسيون في الرعاية الصحية والخدمات القانونية والخدمات المالية وغيرها من الصناعات المنظمة لا يبحثون عن ذكاء اصطناعي يحل محل خبرائهم. إنهم يبحثون عن أدوات تجعل خبراءهم أكثر فعالية بعشر مرات مع الحفاظ على المساءلة والسيطرة.

الفجوة بين المعرفة الصريحة والضمنية

فهم ما يمكن للذكاء الاصطناعي تعلمه من البيانات وحدها وما لا يمكنه

المعرفة الصريحة

المعلومات التي يمكن تدوينها وتوثيقها ونقلها من خلال التواصل الكتابي أو اللفظي.

  • التشخيصات الطبية بناءً على الأعراض
  • السوابق القانونية والقوانين
  • الصيغ والمقاييس المالية
  • إجراءات التشغيل القياسية

يتفوق الذكاء الاصطناعي في معالجة المعرفة الصريحة على نطاق واسع

المعرفة الضمنية

الخبرة العميقة المكتسبة من خلال التجربة والتي يصعب التعبير عنها أو نقلها.

  • الحدس السريري حول مخاطر المريض
  • غرائز التفاوض في إبرام الصفقات
  • التعرف على الأنماط في كشف الاحتيال
  • الأحكام المعتمدة على السياق

هنا تبقى الخبرة البشرية لا غنى عنها

صيغة النجاح

يعالج الذكاء الاصطناعي المعرفة الصريحة بسرعة وحجم يفوق البشر.
يجلب البشر المعرفة الضمنية والسلطة النهائية في اتخاذ القرار.

بنية الإنسان في الحلقة

كيف نبني أنظمة الذكاء الاصطناعي للقرارات عالية المخاطر

الخطوة 1

معالجة الذكاء الاصطناعي

نماذج التعلم الآلي تحلل البيانات، وتحدد الأنماط، وتولد التوصيات

الخطوة 2

المراجعة البشرية

خبراء المجال يفحصون مخرجات الذكاء الاصطناعي، ويطبقون المعرفة السياقية ويمارسون الحكم

الخطوة 3

القرار والإجراء

تُتخذ القرارات النهائية مع المساءلة البشرية وتنشئ مساراً للتدقيق

الفوائد

  • يحافظ على المساءلة البشرية في القرارات
  • يبني الثقة مع العملاء المؤسسيين
  • يلتقط المعرفة الضمنية في سير العمل
  • ينشئ مسارات تدقيق قابلة للدفاع
  • يمكّن التحسين المستمر للنموذج
  • يقلل من مخاطر الفشل الكارثي

التأثير الفعلي

10x

زيادة الإنتاجية مقارنة بالبشر بدون دعم

99.9%

الدقة في القرارات عالية المخاطر

100%

القرارات مع مساءلة بشرية واضحة

أمثلة المجالات

كيف يخلق الذكاء الاصطناعي بنمط الإنسان في الحلقة قيمة عبر الصناعات

الرعاية الصحية

دور الذكاء الاصطناعي

يحلل الصور الطبية، ويحدد الشذوذات، ويقترح التشخيصات التفاضلية

الدور البشري

يراجع أخصائي الأشعة النتائج، ويأخذ في الاعتبار تاريخ المريض، ويقدم التشخيص النهائي

النتيجة

وقت استجابة أسرع مع نفس الدقة أو أفضل، سلسلة مساءلة واضحة

القانون

دور الذكاء الاصطناعي

يراجع العقود، ويحدد البنود غير القياسية، ويسلط الضوء على مجالات المخاطر

الدور البشري

يقيّم المحامي السياق التجاري، ويتفاوض على الشروط، ويقدم المشورة

النتيجة

80% توفير في الوقت في مراجعة المستندات، ويركز المحامون على الاستراتيجية

الخدمات المالية

دور الذكاء الاصطناعي

يراقب المعاملات، ويكتشف الشذوذات، ويقيّم احتمالية الاحتيال

الدور البشري

يحقق المحلل في الحالات المميزة، ويأخذ في الاعتبار سياق العميل، ويوافق/يرفض

النتيجة

10x المزيد من الحالات التي تمت مراجعتها مع معدل إيجابية كاذبة أقل

التصنيع

دور الذكاء الاصطناعي

يراقب بيانات المستشعرات، ويتنبأ بأعطال المعدات، ويوصي بالصيانة

الدور البشري

يتحقق المهندس من التنبؤات، ويخطط للتدخلات، ويحسن العمليات

النتيجة

70% تقليل في وقت التوقف غير المخطط له، تخصيص أفضل للموارد

بناء خنادق قابلة للدفاع

لماذا تخلق شركات الإنسان في الحلقة مزايا تنافسية أقوى

تأثيرات شبكة البيانات

كل قرار بشري يحسن النموذج. كلما زاد عدد الخبراء الذين يستخدمون النظام، أصبح أكثر قيمة لجميع المستخدمين.

تكامل سير العمل

التكامل العميق في سير عمل الخبراء يعني تكاليف تبديل عالية. يصبح النظام جزءاً من طريقة عمل الفرق.

الخبرة في المجال

يتطلب فهماً عميقاً لسير عمل الصناعة واللوائح. لا تستطيع شركات الذكاء الاصطناعي العامة تكرار ذلك بسهولة.

التعلم المستمر

تغذية ردود الفعل البشرية تنشئ دولاباً حركياً: الذكاء الاصطناعي الأفضل يجذب المزيد من المستخدمين، والمزيد من المستخدمين يولدون بيانات تدريب أفضل.

الميزة المركبة

السنة 1

النموذج الأولي + ردود فعل المتبنين الأوائل

السنة 2

تحسين الدقة يجذب المزيد من العملاء

السنة 3+

أداء رائد في السوق، يصعب إزاحته

على عكس استراتيجيات الأتمتة الخالصة التي تتحول بسرعة إلى سلع، تراكم أنظمة الإنسان في الحلقة معرفة خاصة تتراكم بمرور الوقت. كلما طالت فترة عمل الشركة، اتسع خندقها.

معايير الاستثمار لدينا

ما نبحث عنه في شركات الذكاء الاصطناعي بنمط الإنسان في الحلقة

دور بشري واضح

يحدد النظام صراحةً أين يضيف البشر قيمة ويحافظ على المساءلة

استراتيجية الدخول للمؤسسات

البيع للمؤسسات ذات الميزانيات ومتطلبات الامتثال، وليس للأسواق الاستهلاكية

الخبرة في المجال

يمتلك فريق المؤسسين خبرة عميقة في الصناعة التي يبنون لها

مستعد لبناء المستقبل؟

إذا كنت تبني ذكاءً اصطناعياً بنمط الإنسان في الحلقة لمجال عالي المخاطر، نود أن نسمع منك.

$500 ألف - $2 مليون

الاستثمار الأولي

ما قبل التأسيس/التأسيس

المرحلة المستهدفة

48 ساعة

وقت الاستجابة

الرؤية الأساسية

الفجوة بين الصريح والضمني:
لماذا تظهر في كل مكان.

يميز علماء المعرفة بين نوعين من المعرفة. هذا التمييز هو الأساس الفكري لأطروحة استثمار Noodle — والسبب في أن المشكلة التي نحلها بنيوية، وليست عرضية.

المعرفة الصريحة

الذكاء الاصطناعي يتعامل معها جيداً

الإجراء المكتوب، القاعدة المنشورة، أفضل الممارسات الموثقة. أنظمة الذكاء الاصطناعي قادرة بشكل استثنائي على استرجاع هذه الطبقة وتركيبها وتطبيقها — بشكل أسرع وأكثر اتساقاً من أي ممارس بشري.

أمثلة: ملاحق تنظيم MARPOL، البروتوكولات السريرية القائمة على الأدلة، أطر المناهج الوطنية، أبحاث الميكانيكا الحيوية الرياضية.

المعرفة الضمنية

العامل المهيمن للنتائج

الطبيب الذي يعرف أن هذا المريض بالذات لن يلتزم بالبروتوكول القياسي، بغض النظر عن التوصيات. المدرب الذي يرى أن ضربة اللاعب الخلفية تفشل تحت الضغط النفسي، وليس بسبب الإرهاق البدني. مسؤول الامتثال الذي يعرف أن منظماً معيناً يطبق حالياً تفسيراً أكثر صرامة مما يتطلبه النص المنشور.

هذه المعرفة متجسدة وعلائقية وسياقية. تعيش في البشر، وليس في قواعد البيانات. وهي العامل المهيمن لجودة النتائج في كل المجالات ذات القيمة العالية تقريباً.

الشركات التي تتعلم كيفية سد الفجوة بين الصريح والضمني بشكل منهجي ستتفوق على تلك التي لا تفعل. بشكل كبير. بشكل دائم.

ملاحظة علوم البيانات: إضفاء الطابع الرسمي على الفجوة

من منظور بايزي، تشكل المعرفة الصريحة المعرفة المسبقة: موثقة جيداً، مستقرة، قابلة للنقل. المعرفة الضمنية هي دالة الاحتمالية — التحديث الدقيق الحساس للسياق الذي يحول معرفة مسبقة عامة إلى معرفة لاحقة مفيدة لهذا الموقف المحدد.

أنظمة الذكاء الاصطناعي الحالية استثنائية في تقريب المعارف المسبقة. إنها غير قادرة بنيوياً على التقاط دوال الاحتمالية التي لم تُكتب أبداً. الفجوة بين الصريح والضمني هي رسمياً الفرق بين:

  • P(النتيجة | السياق الموثق) — ما يُحسّن له الذكاء الاصطناعي
  • P(النتيجة | السياق الموثق + السياق العلائقي + حكم الممارس) — ما تتطلبه القرارات فعلياً

الدلتا بين هذين التوزيعين هي المكان الذي تُدمر فيه القيمة، والمكان الذي تعمل فيه Noodle.

التحول المعماري

من الاحتمالي
إلى الحتمي

هذا هو الجانب الأكثر سوءاً للفهم في نشر الذكاء الاصطناعي على نطاق واسع ومركزي لسبب كون نهج Noodle يخلق ميزة تنافسية دائمة.

لماذا الذكاء الاصطناعي الخالص احتمالي بشكل لا يمكن اختزاله

نموذج اللغة أو النظام التنبؤي ينتج مخرجات محتملة إحصائياً بالنظر إلى توزيع تدريبه. لا يمكن أن يكون غير ذلك: النموذج لم يلتق أبداً بهذا المريض، أو هذا المنظم، أو الحالة العاطفية لهذا الطالب اليوم. كل مخرج هو بشكل أساسي تقدير — توزيع احتمالي على الإجابات الصحيحة الممكنة، منهار في إجابة واحدة.

هذا ليس عيباً. إنها خاصية معمارية. السؤال ليس "كيف نجعل الذكاء الاصطناعي صحيحاً؟" السؤال هو "كيف نرسّخ المخرجات الاحتمالية في المتطلبات الحتمية للعالم الحقيقي؟"

كيف تحول طبقة HITL النظام نحو الحتمية

طبقة الإنسان في الحلقة لا تلغي التفكير الاحتمالي. إنها تحوّل مخرجات الذكاء الاصطناعي الاحتمالية إلى قرارات تلبي المعايير الحتمية التي تتطلبها النتائج فعلياً.

مخرج الذكاء الاصطناعي الاحتماليالمتطلب الحتمي
العلاج الأكثر احتمالاً لهذا العرض هو Xهذا المريض لن يلتزم بـ X؛ صِف Y
من المحتمل أن يفي هذا التقديم بالتنظيم Zهذا المنظم يطلب استشهاداً صريحاً بالقسم 4.2 — أضفه
أداء هذا الطالب يشير إلى التركيز على الجبرهذا الطالب يتجمد تحت ضغط الوقت — اضبط تنسيق التقييم

الخبير البشري لا يتجاوز الذكاء الاصطناعي. إنه يضعه في سياقه — يحوّل إجابة صحيحة إحصائياً إلى إجابة صحيحة ظرفياً. مع مرور الوقت، من خلال بنية الترميز التدريجي، يتم إعادة هذه التصحيحات السياقية بشكل منهجي إلى النظام، مما يحول توزيع مخرجات النموذج نحو المتطلبات الحتمية للمجال.

ملاحظة علوم البيانات: تقليل عدم اليقين المعرفي من خلال ردود الفعل البشرية

هناك مصدران متميزان لعدم اليقين في الأنظمة التنبؤية:

  • عدم اليقين العشوائي: الضوضاء غير القابلة للاختزال المتأصلة في عملية توليد البيانات
  • عدم اليقين المعرفي: عدم يقين النموذج الناشئ عن بيانات تدريب غير كافية أو غير تمثيلية

إخفاقات الذكاء الاصطناعي الحالية في المجالات عالية المخاطر هي في الغالب معرفية، وليست عشوائية. المعرفة الضمنية التي تدفع جودة النتائج ببساطة لا توجد في أي مجموعة تدريب. تحسين HITL يعمل كآلية منظمة لتقليل عدم اليقين المعرفي — كل تصحيح بشري هو عينة مُصنفة من التوزيع اللاحق الحقيقي الذي لا يمكن للنموذج الوصول إليه من خلال التدريب المسبق وحده.

بشكل أكثر دقة: كل تدخل HITL يولد مجموعة (السياق، مخرج_الذكاء_الاصطناعي، تصحيح_الخبير، النتيجة). مع مرور الوقت، تملأ هذه المجموعات توزيع التدريب الفعال للنموذج بأمثلة من المنطقة التوزيعية بالضبط حيث كان عدم يقينه المعرفي أعلى. هذا هو التعلم النشط على مستوى المجال.

ما نستثمر فيه

بنية HITL:
خندق بنيوي، وليس ميزة.

تستثمر Noodle في الشركات المبنية على بنية تحسين الإنسان في الحلقة (HITL) — منهجية منظمة لاعتراض مخرجات الذكاء الاصطناعي، وإثرائها بحكم بشري سياقي، وإعادة ترميز هذا الحكم تدريجياً في النظام.

هذا ليس روبوت محادثة مع مراجع بشري. إنها بنية تحتية معرفية مركبة.

المرحلة 1

استخراج المعرفة الضمنية

قبل أن يمس الذكاء الاصطناعي أي سير عمل، نُظهر القواعد والاستدلالات والاستثناءات الضمنية لأفضل ممارسي المجال. نحوّل التجربة المعاشة إلى سياق منظم يمكن للذكاء الاصطناعي العمل ضمنه — ليس كفكرة لاحقة، بل كأساس.

المرحلة 2

الاعتراض والتحسين البشري

يولد الذكاء الاصطناعي المسودة الأولى. خبراء المجال يعيدون تشكيلها — ليس لتصحيح الأخطاء، بل لترجمة مخرج صحيح تقنياً إلى مخرج قابل للتنفيذ سياقياً. هذا هو الفرق بين خطة صحيحة وخطة ستعمل فعلاً في هذا الموقف، مع هذا الشخص، في ظل هذه الظروف.

المرحلة 3

ترميز المعرفة التدريجي

كل تحسين يتدفق مرة أخرى إلى موجهات محسنة، وحواجز سياقية، وأنماط خاصة بالمجال. الطبقة البشرية تعلّم النظام باستمرار. مع مرور الوقت، تنخفض تكاليف التدخل بينما تزداد جودة المخرجات الأساسية. هكذا يتوسع النموذج، دون مجرد إضافة موظفين.

المرحلة 4

حلقات التغذية الراجعة المدفوعة بالنتائج

النتائج الفعلية في العالم الحقيقي تتدفق مرة أخرى إلى النظام. الحلقة لا تنغلق عند رضا المستخدم، بل عند النتائج الفعلية: هل صمدت عملية تقديم الامتثال أمام التدقيق؟ هل تحسنت نقطة الإرسال للرياضي؟ هل ارتفعت درجة اختبار الطالب؟ بيانات الأداء تحسّن كل دورة لاحقة.

ملاحظة علوم البيانات: حلقة HITL كإشارة تعلم معزز

بنية المراحل الأربع تُربط مباشرة بإطار التعلم المعزز:

  • الحالة: سياق المجال الحالي (المريض، الرياضي، البيئة التنظيمية، الطالب)
  • الإجراء: توصية مخرجات الذكاء الاصطناعي
  • التحسين البشري: إشارة تصحيح السياسة من خبير يعمل كنموذج مكافأة
  • ردود فعل النتائج: إشارة المكافأة الحقيقية التي تغلق الحلقة من البيئة إلى السياسة

على عكس RLHF القياسي (التعلم المعزز من ردود الفعل البشرية)، الذي يستخدم بيانات تفضيل عامة، تولد بنية Noodle إشارات مكافأة خاصة بالمجال، ومُحققة بالنتائج، وتراكمية. نموذج المكافأة ليس وكيلاً — إنه بيانات أداء مجال فعلية. هذا ينتج إشارة تحسين أكثر حدة وموثوقية بشكل أساسي من الضبط الدقيق على أساس التفضيلات فقط.

الذكاء العملي

لماذا النهج العملي
يتفوق على الصحيح

هذا المبدأ غير بديهي، وهو أحد أهم الدروس من نشر الذكاء الاصطناعي على نطاق واسع.

أنظمة الذكاء الاصطناعي تحسّن للصحة: الإجابة الأكثر اتساقاً مع الأدلة الموثقة، الأكثر احتمالاً إحصائياً بالنظر إلى بيانات التدريب، الأكثر توافقاً مع أفضل الممارسات المنشورة. هذا بالضبط ما يجب أن تفعله، وبالضبط لماذا تفشل في النشر.

نتائج العالم الحقيقي لا تحددها الإجابات الصحيحة. تحددها الإجابات التي تعمل — بالنظر إلى من في الغرفة، وما القيود النشطة، وما العلاقات المطروحة، وما التاريخ الذي يسبق هذه اللحظة.

الفجوة بين الصحيح والفعال

توصية علاج صحيحة سريرياً لن يتبعها المريض أدنى من بروتوكول أقل مثالية سيتبناه فعلاً.

ملف قانوني سليم تقنياً يستخدم لغة يجدها منظم معين عدائية سيكون أداؤه أقل من ملف تمت صياغته بشكل عملي.

تسلسل تعلم مثالي تربوياً يجده طالب معين مرهقاً سينتج نتائج أسوأ من نهج أكثر لطفاً يحافظ على الانخراط.

الممارس الذي يعرف الفرق بين هذه الخيارات لا يتجاوز الذكاء الاصطناعي. إنه يقوم بالعمل الذي لا يستطيع الذكاء الاصطناعي القيام به: ربط إجابة صحيحة بظروف العالم الحقيقي التي تحدد ما إذا كانت ستنجح.

كيف يُرمِّز HITL الذكاء العملي

آلية الترميز التدريجي تلتقط هذا الذكاء العملي بشكل منهجي. عندما يعدّل خبير امتثال تقديم ذكاء اصطناعي ليناسب تفضيلات منظم معين — وينجح هذا التقديم باستمرار — يتعلم النظام التفضيل. عندما يعدّل مدرب خطة تدريب ذكاء اصطناعي لأن رياضياً معيناً يحتاج إلى ثقة أكثر من حمل هذا الأسبوع — وتتحسن نتائج المباراة — يتعلم النظام ترجيح الأولوية السياقي.

مع مرور الوقت، تضيق الفجوة بين "الصحيح" و"الفعال". ليس لأن الذكاء الاصطناعي أصبح أكثر صحة، بل لأنه أصبح أكثر معايرة سياقياً. هذا نوع مختلف نوعياً من التحسين — ونوع خاص بالمجال والعلاقات والتاريخ الذي بنته Noodle. لا يمكن تكراره من خلال نشر نموذج أساسي أفضل.

ملاحظة علوم البيانات: عدم توافق دالة الخسارة ولماذا يستمر

المشكلة الصحيحة-مقابل-العملية هي مشكلة عدم توافق دالة الخسارة المقاومة بنيوياً لحلول التعلم الآلي القياسية.

خسارة التدريب تقلل الخطأ مقابل توزيع التدريب. لكن "الفعالية العملية" ليست في توزيع التدريب — إنها خاصية طارئة لسياق نشر محدد، وعلاقات بشرية محددة، وتسلسلات تفاعل تاريخية محددة. لا يمكن تصنيفها مسبقاً.

لهذا السبب توسيع حجم النموذج، أو إضافة المزيد من بيانات التدريب، أو تطبيق RLHF على بيانات تفضيل عامة لا يسد الفجوة. الإشارة التي ستسدها — "هل نجح هذا المخرج المحدد لهذا الشخص المحدد في هذا السياق المحدد؟" — موجودة فقط في حلقات التغذية الراجعة المنشورة.

بنية Noodle مصممة خصيصاً لالتقاط هذه الإشارة وهيكلتها وإعادة إدخالها. إنها حل لمشكلة لا يمكن لمقدمي النماذج الأساسية حلها.

لماذا الاتساع هو النقطة

بنية واحدة.
أربعة مجالات. نفس الميزة.

الفجوة بين الصريح والضمني تظهر في كل مكان يُنشر فيه الذكاء الاصطناعي. المنهجية لسدها قابلة للنقل. وسّع أي مجال لرؤية كيف تتكشف.

الموقف التنافسي

لماذا هذا قابل للدفاع:
الخنادق المركبة الثلاثة لـ Noodle.

منهجية المجال القابلة للنقل. العمق الخاص بالمجال.

بنية HITL قابلة للنقل عبر القطاعات. المعرفة الضمنية التي تلتقطها في كل قطاع ليست كذلك. قاعدة معرفة الامتثال البحري المبنية من خلال طبقتنا لا يمكن تكرارها من قبل منافس يدخل المجال — فهي مبنية من سنوات من التحسين الخبير وخاصة بالعلاقات والولايات القضائية والحالات الحدية التي واجهناها. المنهجية هي محركنا. المعرفة المتراكمة هي خندقنا.

الطبقة البشرية تُرمِّز نفسها خارج الوجود — بهامش.

مع قيام خبرائنا البشريين بتحسين مخرجات الذكاء الاصطناعي، يُرمِّزون حكمهم بشكل منهجي في النظام. مع مرور الوقت، يتطلب الذكاء الاصطناعي تدخلاً بشرياً أقل لتحقيق نفس عتبة الجودة. تنخفض تكلفة التسليم بينما تزداد جودة المخرجات. المنافسون الذين يعتمدون على مخرجات الذكاء الاصطناعي الخام لا يحققون هذا أبداً. المنافسون الذين يعتمدون على التسليم البشري البحت لا يمكنهم توسيعه. نحن نقع عند التقاطع.

تكاليف التبديل التي تتراكم مع عمق العلاقة.

كلما طالت فترة عمل بنية Noodle في مجال ما — مع ممارس، عميل، مؤسسة — زادت المعرفة الضمنية التي تم استخراجها وترميزها. استبدالنا يعني فقدان تلك الذاكرة المؤسسية والفردية. مجموعة الذكاء الاصطناعي المبنية على طبقتنا تصبح معتمدة على طبقة السياق التي بنيناها. هذا السياق لا ينتقل إلى منافس.

حالة الاستثمار

ليس نموذجاً أفضل.
الطبقة التي تجعل كل نموذج يعمل.

دورة نشر الذكاء الاصطناعي الحالية تنتج فئة كبيرة ومتنامية من خيبات الأمل: أنظمة قادرة، نتائج ضعيفة، مستخدمون محبطون. نمط الفشل دائماً تقريباً هو نفسه — الفجوة بين الصريح والضمني.

الشركات التي تحل هذه المشكلة بشكل منهجي، عبر المجالات، بمنهجية تتوسع وتتراكم، ستلتقط قيمة غير متناسبة في المرحلة التالية من اعتماد الذكاء الاصطناعي. تبني Noodle Investments™ وتدعم هذه الشركات بالضبط.

نحن لا نراهن على نموذج أفضل. نحن نراهن على الطبقة التي تجعل كل نموذج يعمل فعلياً — في العالم الحقيقي، للأشخاص الحقيقيين، في ظل ظروف لم يتوقعها أي مجموعة بيانات تدريب بشكل كامل.

الملحق التقني

إطار علوم البيانات
لأطروحة Noodle

يضفي هذا الملحق طابعاً رسمياً على أطروحة الاستثمار للجماهير التقنية، ويربط المفاهيم الأساسية بأطر راسخة للتعلم الآلي والإبستمولوجيا وتصميم الأنظمة.

لمزيد من المناقشات حول البنية التقنية، أو البنية التحتية للبيانات، أو نماذج النشر الخاصة بالمجال، اتصل بفريق الاستثمار في Noodle.