आईएसएसएन: 2376-130X
काई वेहनेर
मशीन लर्निंग (ML) को मॉडल ट्रेनिंग और मॉडल इंफरेंस में विभाजित किया जाता है। ML फ्रेमवर्क आमतौर पर ऐतिहासिक डेटा को प्रोसेस करने और एनालिटिक मॉडल को प्रशिक्षित करने के लिए HDFS या S3 जैसे डेटा लेक का उपयोग करते हैं। वास्तविक समय में उत्पादन पैमाने पर मॉडल इंफरेंस और मॉनिटरिंग डेटा लेक का उपयोग करके एक और आम चुनौती है। लेकिन इवेंट स्ट्रीमिंग आर्किटेक्चर का उपयोग करके इस तरह के डेटा स्टोर से पूरी तरह बचना संभव है। यह वार्ता पारंपरिक बैच और बड़े डेटा विकल्पों के लिए आधुनिक दृष्टिकोण की तुलना करती है और सरलीकृत आर्किटेक्चर, विभिन्न मॉडलों को प्रशिक्षित करने के लिए उसी क्रम में घटनाओं को फिर से संसाधित करने की क्षमता और कम सिरदर्द और समस्याओं के साथ वास्तविक समय की भविष्यवाणियों के लिए एक स्केलेबल, मिशन-क्रिटिकल ML आर्किटेक्चर बनाने की संभावना जैसे लाभों की व्याख्या करती है। वार्ता बताती है कि कैसे काई वेहनर इसे ओपन सोर्स फ्रेमवर्क अपाचे काफ्का और टेन्सरफ्लो का लाभ उठाकर हासिल किया जा सकता है।