يجري التعلم الآلي في الوقت الفعلي
تتحول المنظمات إلى التعلم الآلي بسبب عائد الاستثمار. الأشخاص الذين يقومون بذلك في الوقت الفعلي يتصدرون المخططات. تشير التقارير إلى أن المنظمات التي تطبق التعلم الآلي في الوقت الفعلي تشهد زيادة في عائد الاستثمار
بعد التحدث إلى مهندسي التعلم الآلي والبنية التحتية في شركات الإنترنت الكبرى في جميع أنحاء الولايات المتحدة وأوروبا والصين ، ظهرت مجموعتان من الشركات. استثمرت إحدى المجموعات مئات الملايين من الدولارات في البنية التحتية للسماح بالتعلم الآلي في الوقت الفعلي وشهدت بالفعل عوائد على استثماراتها. لا تزال المجموعة الأخرى تتساءل عما إذا كانت هناك قيمة في التعلم الآلي في الوقت الفعلي.
خاصية مميزة
إدارة الذكاء الاصطناعي والتعلم الآلي في المؤسسة
تجري عمليات نشر الذكاء الاصطناعي والتعلم الآلي على قدم وساق ، ولكن بالنسبة إلى مدراء التنفيذيين ، ستكون المشكلة الأكبر هي إدارة هذه المبادرات ، ومعرفة المكان المناسب لفريق علوم البيانات وما هي الخوارزميات التي يجب شراؤها مقابل البناء.
اقرأ أكثر
لا يبدو أن حقيقة أن الإبلاغ عن عائد الاستثمار طريقة جيدة لجذب الانتباه قد ضاعت على Chip Huyen. Huyen هو كاتب وعالم كمبيوتر يعمل في البنية التحتية للتعلم الآلي في الوقت الفعلي. هي التي كتبت المقدمة أعلاه لنتائجها حول التعلم الآلي في الوقت الفعلي من أجل بلورة التجربة المتزايدة التي تراكمت لديها هي وزملاؤها.
عملت Huyen مع أمثال Netflix و Nvidia و Primer و Snorkel AI قبل تأسيس شركتها الناشئة (الخفية). تخرجت من جامعة ستانفورد ، حيث تقوم أيضًا بتدريس تصميم أنظمة التعلم الآلي وكانت من أفضل الأصوات على LinkedIn في عامي 2019 و 2020.
بعبارة أخرى ، يتمتع Huyen بمكانة جيدة للإبلاغ عما وصفه زميله المساهم في ZDNet توني باير بأنه “هدف بعيد المنال لأنظمة التشغيل والتحليلات” في توقعاته لعام 2022 لبياناته: توحيد البيانات المتحركة (المتدفقة) مع البيانات في حالة الراحة (البيانات الموجودة في قاعدة بيانات أو بحيرة بيانات). الهدف النهائي من القيام بذلك هو تحقيق نوع عائد الاستثمار الذي يقدمه Huyen للتقارير.
تنبؤات التعلم الآلي وتحديثات النظام في الوقت الفعلي
يشير تحليل Huyen إلى نماذج وأنظمة التعلم الآلي في الوقت الفعلي على مستويين. المستوى 1 عبارة عن تنبؤات عبر الإنترنت: أنظمة ML التي تقوم بعمل تنبؤات في الوقت الفعلي ، والتي تحدد الوقت الفعلي ليكون في حدود ميلي ثانية إلى ثانية. المستوى 2 هو التعلم المستمر: أنظمة ML التي تدمج البيانات الجديدة ويتم تحديثها في الوقت الفعلي ، والتي تحدد الوقت الحقيقي ليكون بترتيب الدقائق.
إن جوهر سبب أهمية أنظمة المستوى 1 ، كما يقول Huyen ، “بغض النظر عن مدى جودة نماذج ML الخاصة بك ، إذا استغرقت أجزاء من الثانية فقط وقتًا طويلاً للتنبؤات ، فإن المستخدمين سينقرون على شيء آخر”. كما أوضحت ، فإن “عدم الحل” للتنبؤات السريعة هو جعلها مجمعة في وضع عدم الاتصال ، وتخزينها ، وسحبها عند الحاجة.
يمكن أن يعمل هذا عندما تكون مساحة الإدخال محدودة – فأنت تعرف بالضبط عدد المدخلات الممكنة لعمل تنبؤات. أحد الأمثلة هو عندما تحتاج إلى إنشاء توصيات أفلام للمستخدمين – فأنت تعرف بالضبط عدد المستخدمين الموجودين. لذا فأنت تتوقع مجموعة من التوصيات لكل مستخدم بشكل دوري ، مثل كل بضع ساعات.
لجعل مساحة إدخال المستخدم محدودة ، فإن العديد من التطبيقات تجعل المستخدمين يختارون من بين الفئات بدلاً من إدخال استعلامات مفتوحة ، يلاحظ Huyen. ثم تشرع بعد ذلك في عرض أمثلة عن كيف يمكن لهذا النهج أن يؤدي إلى نتائج يمكن أن تضر بتجربة المستخدم ، من أمثال TripAdvisor و Netflix.
على الرغم من اقترانه بإحكام بمشاركة / احتفاظ المستخدم ، إلا أن هذا ليس فشلاً ذريعًا. قد تكون النتائج السيئة كارثية في مجالات أخرى ، مثل المركبات المستقلة للكشف عن الاحتيال. يتيح التبديل من تنبؤات الدُفعات إلى التنبؤات عبر الإنترنت استخدام الميزات الديناميكية لعمل تنبؤات أكثر صلة.
تحتاج أنظمة ML إلى مكونين لتتمكن من القيام بذلك ، كما يشير Huyen. إنهم بحاجة إلى استدلال سريع ، أي نماذج يمكنها عمل تنبؤات بترتيب أجزاء من الألف من الثانية. كما يحتاجون أيضًا إلى خطوط أنابيب في الوقت الفعلي ، أي خطوط أنابيب يمكنها معالجة البيانات وإدخالها في النماذج وإرجاع التنبؤ في الوقت الفعلي.
لتحقيق استدلال أسرع ، يضيف Huyen ، يمكن جعل النماذج أسرع ، أو يمكن تصغيرها ، أو يمكن جعل الأجهزة أسرع. التركيز على رقائق الاستدلال و TinyML و AI التي غطيناها في هذا العمود يتوافق تمامًا مع هذا ، وبطبيعة الحال ، هذه الأساليب ليست متبادلة أيضًا.
شرع Huyen أيضًا في تحليل أساسيات وأطر العمل المتدفقة ، وهو الأمر الذي شهد أيضًا تغطية واسعة لهذا العمود منذ وقت مبكر. تقوم العديد من الشركات بالتبديل من المعالجة المجمعة إلى معالجة الدفق ، من الهندسة المبنية على الطلب إلى الهندسة المعتمدة على الأحداث ، وهذا مرتبط بشعبية الأطر مثل Apache Kafka و Apachه فلينك. يلاحظ Huyen أن هذا التغيير لا يزال بطيئًا في الولايات المتحدة ولكنه أسرع بكثير في الصين.