AI सगळीकडे असताना स्मार्ट टीम्स आता कशावर लक्ष ठेवून आहेत?
आर्टिफिशियल इंटेलिजन्स (AI) केवळ अस्तित्वात आहे म्हणून त्याचे कौतुक करण्याचा काळ आता संपला आहे. स्मार्ट टीम्स आता जनरेटिव्ह टूल्सच्या नवल करण्याच्या पलीकडे गेल्या आहेत आणि एका अधिक कठीण मेट्रिकवर लक्ष केंद्रित करत आहेत. ते मॉडेल जे सांगते आणि प्रत्यक्षात जे अचूकपणे तयार करते, यातील तफावत मोजत आहेत. हा बदल ‘अडॉप्शन’ कडून ‘व्हेरिफिकेशन’ कडे जाणारा आहे. आता केवळ एखादा विभाग लार्ज लँग्वेज मॉडेल्स (LLMs) वापरतो असे म्हणणे पुरेसे नाही. खरा प्रश्न असा आहे की, हे मॉडेल्स किती वेळा अशा प्रकारे चुकतात जे सामान्य निरीक्षकाला दिसत नाहीत. उच्च कामगिरी करणाऱ्या संस्था आता आपली संपूर्ण रणनीती ‘मेजरमेंट अनसर्टन्टी’ (मोजमापातील अनिश्चितता) वर केंद्रित करत आहेत. ते प्रत्येक आउटपुटला तथ्यात्मक विधानाऐवजी संभाव्य अंदाज मानतात. या दृष्टिकोनामुळे कॉर्पोरेट कार्यपद्धती पूर्णपणे बदलत आहे. जे संघ या बदलाकडे दुर्लक्ष करत आहेत, ते तांत्रिक कर्ज (technical debt) आणि अशा डेटाच्या जाळ्यात अडकत आहेत जो वरवर परिपूर्ण वाटतो पण दबावाखाली अयशस्वी ठरतो. आता लक्ष जनरेशनच्या वेगावरून निकालाच्या विश्वासार्हतेकडे वळले आहे.
मशीनमधील भूताचे प्रमाणीकरण
मेजरमेंट अनसर्टन्टी म्हणजे आउटपुटचे खरे मूल्य ज्या सांख्यिकीय मर्यादेत असते ती श्रेणी. पारंपारिक सॉफ्टवेअरच्या जगात, दोन अधिक दोनचे उत्तर नेहमी चार येते. आधुनिक AI च्या जगात, याचे उत्तर चार असू शकते किंवा चार या अंकाचा इतिहास सांगणारा एक मोठा निबंध असू शकतो, ज्यामध्ये चुकून असे म्हटले जाऊ शकते की ते कधीकधी पाच असते. स्मार्ट टीम्स आता प्रत्येक प्रतिसादाला ‘कॉन्फिडन्स स्कोअर’ देण्यासाठी विशेष सॉफ्टवेअर वापरत आहेत. जर एखाद्या मॉडेलने कमी कॉन्फिडन्स स्कोअरसह कायदेशीर सारांश दिला, तर सिस्टम ते त्वरित मानवी पुनरावलोकनासाठी फ्लॅग करते. हे केवळ चुका पकडण्याबद्दल नाही, तर मॉडेलच्या मर्यादा समजून घेण्याबद्दल आहे. जेव्हा तुम्हाला माहित असते की एखादे टूल कुठे चुकण्याची शक्यता आहे, तेव्हा तुम्ही त्या विशिष्ट मुद्द्यांभोवती सुरक्षा कवच तयार करू शकता. बहुतेक नवशिक्यांना वाटते की AI एकतर बरोबर असते किंवा चुकीचे. तज्ज्ञांना माहित आहे की AI सतत संभाव्यतेच्या स्थितीत असते. ते आता केवळ अपटाइम किंवा टोकन काउंट दाखवणाऱ्या साध्या प्लॅटफॉर्म रिपोर्टिंगच्या पलीकडे पाहत आहेत. त्याऐवजी, ते वेगवेगळ्या प्रकारच्या क्वेरीजमध्ये चुकांचे वितरण कसे आहे हे पाहत आहेत. त्यांना हे जाणून घ्यायचे आहे की मॉडेल क्रिएटिव्ह रायटिंगमध्ये सुधारत असताना गणितात कच्चे होत आहे का.
असा एक गैरसमज आहे की मोठे मॉडेल नेहमी कमी अनिश्चितता निर्माण करते. हे अनेकदा चुकीचे असते. मोठी मॉडेल्स कधीकधी त्यांच्या हॅल्युसिनेशन्स (भ्रम) बद्दल अधिक आत्मविश्वासी बनू शकतात, ज्यामुळे त्यांना ओळखणे कठीण होते. टीम्स आता ‘कॅलिब्रेशन’ नावाच्या गोष्टीचा मागोवा घेत आहेत. एक सुव्यवस्थित मॉडेलला माहित असते की त्याला उत्तर माहित नाही. जर एखादे मॉडेल एखाद्या तथ्याबद्दल ९० टक्के खात्रीशीर असल्याचे सांगत असेल, तर ते ९० टक्के वेळा बरोबर असले पाहिजे. जर ते फक्त ६० टक्के वेळा बरोबर असेल, तर ते अति-आत्मविश्वासू आणि धोकादायक आहे. हे बेसिक AI वापराच्या खालील एक रंजक स्तर आहे. यासाठी केवळ मजकूर वाचण्याऐवजी आउटपुटच्या गणितात खोलवर जाणे आवश्यक आहे. कंपन्या आता विशेषतः हा ‘ड्रिफ्ट’ मोजण्यासाठी डेटा सायंटिस्टना कामावर ठेवत आहेत. ते मॉडेल अस्पष्ट प्रॉम्प्ट्सचा अर्थ कसा लावते, यातील पॅटर्न शोधत आहेत. अनिश्चिततेवर लक्ष केंद्रित करून, ते एखादी सिस्टम ग्राहकासाठी समस्या निर्माण करण्यापूर्वी ती कधी बिघडणार आहे, याचा अंदाज घेऊ शकतात. हा सक्रिय दृष्टिकोनच कंपनीची प्रतिष्ठा धोक्यात न घालता व्यावसायिक वातावरणात या टूल्सना स्केल करण्याचा एकमेव मार्ग आहे.
विश्वासाचे जागतिक संकट
कठोर मोजमापाकडे होणारा हा प्रवास एका पोकळीत घडत नाहीये. हे अशा जागतिक वातावरणाला दिलेले उत्तर आहे जिथे डेटाची अखंडता (integrity) एक कायदेशीर गरज बनत आहे. युरोपियन युनियनमध्ये, 2026 च्या AI ॲक्टने हाय-रिस्क सिस्टम्सचे निरीक्षण कसे केले पाहिजे, याचा एक पायंडा पाडला आहे. टोकियो, लंडन आणि सॅन फ्रान्सिस्कोमधील कंपन्यांना आता हे उमजले आहे की ते ‘ब्लॅक बॉक्स’च्या नावाखाली लपून राहू शकत नाहीत. जर एखादी स्वयंचलित सिस्टम कर्ज नाकारत असेल किंवा नोकरीचा अर्ज फिल्टर करत असेल, तर कंपनीला त्रुटीचे प्रमाण (margin of error) स्पष्ट करता आले पाहिजे. यामुळे पारदर्शकतेसाठी एक नवीन जागतिक मानक तयार झाले आहे. ऑटोमेटेड लॉजिस्टिक्सवर अवलंबून असलेल्या सप्लाय चेन या मेट्रिक्ससाठी विशेषतः संवेदनशील आहेत. प्रेडिक्टिव्ह मॉडेलमधील एक छोटी चूक लाखो डॉलर्सचे इंधन किंवा इन्व्हेंटरी वाया घालवू शकते. आता हे धोके केवळ चॅट विंडोपुरते मर्यादित राहिलेले नाहीत. ते भौतिक आणि आर्थिक आहेत. या जागतिक दबावामुळे सॉफ्टवेअर प्रदात्यांना त्यांच्या सिस्टम्स उघड्या कराव्या लागत आहेत आणि त्यांच्या एंटरप्राइझ क्लायंटना अधिक ग्रॅन्युलर डेटा द्यावा लागत आहे. ते आता केवळ एक साधा इंटरफेस देऊ शकत नाहीत. त्यांना कच्चा कॉन्फिडन्स डेटा द्यावा लागेल जो टीम्सना माहितीपूर्ण निर्णय घेण्यास मदत करेल.
या बदलाचा परिणाम अशा क्षेत्रांमध्ये सर्वाधिक जाणवतो जिथे उच्च अचूकतेची आवश्यकता असते. हेल्थकेअर आणि फायनान्स ही नवीन रिपोर्टिंग मानके विकसित करण्यात आघाडीवर आहेत. ते जनरल-पर्पज असिस्टंटच्या कल्पनेपासून दूर जाऊन अरुंद, मोजता येण्याजोग्या ध्येयांसह अत्यंत विशेष एजंट्सकडे वळत आहेत. यामुळे अनिश्चिततेचे क्षेत्र कमी होते आणि कालांतराने कामगिरीचा मागोवा घेणे सोपे होते. आता हे अधिक स्पष्ट होत आहे की AI सिस्टमचा सर्वात मौल्यवान भाग मॉडेल स्वतः नसून, ते पडताळण्यासाठी वापरला जाणारा डेटा आहे. कंपन्या ‘गोल्डन डेटासेट्स’मध्ये मोठी गुंतवणूक करत आहेत जे त्यांच्या अंतर्गत चाचणीसाठी ‘ग्राउंड ट्रुथ’ म्हणून काम करतात. यामुळे ते प्रत्येक नवीन मॉडेल व्हर्जनला ज्ञात अचूक उत्तरांच्या संचाविरुद्ध चालवू शकतात, जेणेकरून अनिश्चिततेची पातळी बदलली आहे का हे पाहता येईल. ही एक कठोर प्रक्रिया आहे जी भूतकाळातील प्रायोगिक ‘प्रॉम्प्ट इंजिनिअरिंग’पेक्षा पारंपारिक इंजिनिअरिंगसारखी दिसते. ध्येय एक असे अंदाज लावता येण्याजोगे वातावरण तयार करणे आहे जिथे धोके माहित आहेत आणि व्यवस्थापित केले जातात. अशा प्रकारे मेजरमेंट अनसर्टन्टी ही एक जबाबदारी न राहता स्पर्धात्मक फायदा बनते.
जागतिक टीम्स या टूल्सच्या सांस्कृतिक प्रभावाशीही सामना करत आहेत. वेग आणि अचूकता यांच्यातील इच्छा यामध्ये संघर्ष आहे. अनेक प्रदेशांत अशी भीती आहे की अति-नियमनामुळे नाविन्य (innovation) मंदावेल. मात्र, या क्षेत्रातील नेत्यांचे म्हणणे आहे की तुम्ही वाळूच्या पायावर नाविन्य आणू शकत नाही. अनिश्चिततेसाठी स्पष्ट मेट्रिक्स स्थापित करून, ते प्रत्यक्षात जलद वाढ सक्षम करत आहेत. ते नवीन फीचर्स अशा विश्वासाने तैनात करू शकतात की त्यांची मॉनिटरिंग सिस्टम कामगिरीतील कोणतीही लक्षणीय तफावत पकडेल. यामुळे एक फीडबॅक लूप तयार होतो जिथे सिस्टम जशी स्मार्ट होते, तशी ती सुरक्षितही होते. जागतिक चर्चा आता