लोकांनी मिस केलेल्या सर्वात महत्त्वाच्या AI मुलाखती 2026
आर्टिफिशियल इंटेलिजन्सच्या (AI) भविष्याबद्दलचे सर्वात मोठे खुलासे सहसा झकास प्रेस रिलीज किंवा चकचकीत कीनोट प्रेझेंटेशन्समध्ये सापडत नाहीत. त्याऐवजी, ते लांबलचक मुलाखतींच्या मधल्या शांततेत, घाबरलेल्या उत्तरांमध्ये आणि तांत्रिक गोष्टींमध्ये दडलेले असतात ज्याकडे बहुतेक लोक दुर्लक्ष करतात. जेव्हा एखादा CEO तांत्रिक podcast वर तीन तास बोलतो, तेव्हा त्यांचा कॉर्पोरेट मुखवटा हळूहळू उतरतो. हे क्षण असे वास्तव समोर आणतात जे सार्वजनिक marketing च्या अगदी उलट असते. अधिकृत विधाने सुरक्षा आणि लोकशाहीकरणावर लक्ष केंद्रित करत असताना, अनस्क्रिप्टेड कमेंट्स मात्र कच्च्या शक्तीसाठी चाललेली जीवघेणी स्पर्धा आणि पुढचा रस्ता अधिक महागडा आणि अनपेक्षित होत असल्याची कबुली देतात. गेल्या वर्षातील उच्च-स्तरीय संवादांमधून मिळालेला मुख्य निष्कर्ष असा आहे की, ही इंडस्ट्री आता सामान्य वापराच्या chatbots कडून विशिष्ट, हाय-compute एजंट्सकडे वळत आहे ज्यासाठी मोठ्या प्रमाणावर infrastructure मध्ये बदल करणे आवश्यक आहे. जर तुम्ही फक्त हेडलाईन्स वाचल्या असतील, तर सध्याच्या scaling पद्धतींना मर्यादा येत असल्याची कबुली तुम्ही नक्कीच मिस केली असेल. खरी गोष्ट या नेत्यांनी त्यांच्या hardware मर्यादांचे केलेले वर्णन आणि इंटेलिजन्सच्या बदलत्या व्याख्यांमध्ये दडलेली आहे.
हे बदल समजून घेण्यासाठी OpenAI, Anthropic आणि Google DeepMind च्या नेत्यांच्या विशिष्ट संवादांकडे लक्ष देणे आवश्यक आहे. अलीकडील लांबलचक चर्चांमध्ये, मॉडेल्स काय करू शकतात यापेक्षा ते कसे तयार केले जातात यावर लक्ष केंद्रित केले गेले आहे. उदाहरणार्थ, जेव्हा Anthropic चे Dario Amodei scaling laws बद्दल बोलतात, तेव्हा ते फक्त मॉडेल्स मोठे करण्याबद्दल बोलत नसतात. ते अशा भविष्याकडे संकेत देत असतात जिथे एका मॉडेलला ट्रेन करण्याचा खर्च अब्जावधी डॉलर्सपर्यंत पोहोचू शकतो. इंडस्ट्रीच्या सुरुवातीच्या दिवसांच्या तुलनेत हा एक मोठा बदल आहे, जेव्हा काही दशलक्ष डॉलर्स स्पर्धेत टिकण्यासाठी पुरेसे होते. या मुलाखतींमधून अशा कंपन्यांमधील वाढती दरी दिसून येते ज्यांना हा “compute tax” परवडतो आणि ज्यांना परवडत नाही. प्रश्नांना बगल देणे हे उत्तरांइतकेच बोलके असते. जेव्हा ट्रेनिंग डेटा कुठून येतो असे विचारले जाते, तेव्हा एक्झिक्युटिव्ह अनेकदा synthetic data बद्दल बोलू लागतात. हा एक धोरणात्मक संकेत आहे की इंटरनेटवरील संसाधने आता संपत आली आहेत. इंडस्ट्री आता मॉडेल्सना केवळ मानवी मजकुराची नक्कल करण्याऐवजी स्वतःच्या लॉजिकमधून कसे शिकवायचे हे शोधण्याचा प्रयत्न करत आहे. धोरणातील हा बदल क्वचितच एखाद्या blog post मध्ये जाहीर केला जातो, परंतु तांत्रिक वर्तुळात हाच चर्चेचा मुख्य विषय आहे.
या शांत कबुलीचे जागतिक परिणाम खूप मोठे आहेत. आपण ज्याला ‘compute sovereignty’ म्हणतो त्याची ही सुरुवात आहे. देश आता केवळ सॉफ्टवेअर शोधत नाहीत, तर हे मॉडेल्स चालवण्यासाठी लागणारे फिजिकल infrastructure शोधत आहेत. मुलाखतींवरून असे सूचित होते की विकासाचा पुढचा टप्पा केवळ चतुर कोडिंगऐवजी energy production आणि chip supply chains द्वारे परिभाषित केला जाईल. याचा परिणाम सरकारी नियामकांपासून ते लहान व्यवसाय मालकांपर्यंत सर्वांवर होतो. जर आघाडीच्या मॉडेल्सना ट्रेन करण्यासाठी एखाद्या लहान शहराइतकी वीज लागत असेल, तर सत्ता नैसर्गिकरित्या काही मोजक्या संस्थांच्या हातात केंद्रित होईल. हे अनेक कंपन्या अजूनही प्रमोट करत असलेल्या ‘ओपन ॲक्सेस’च्या कथेला छेद देते. तांत्रिक चर्चांमध्ये दिलेले धोरणात्मक संकेत सूचित करतात की प्रगत सिस्टम्ससाठी AI चे “ओपन” युग प्रभावीपणे संपले आहे. हा बदल आधीच venture capital वाटपावर आणि वॉशिंग्टन व ब्रुसेल्समध्ये व्यापार धोरणे कशी लिहिली जात आहेत यावर परिणाम करत आहे. सामान्य जनता अजूनही नवीन chatbot फीचर्सवर लक्ष केंद्रित करत असली, तरी जग या मुलाखतींमधील वास्तवावर प्रतिक्रिया देत आहे. या बदलांच्या अधिक सखोल माहितीसाठी, तुम्ही बाजारातील हालचाली समजून घेण्यासाठी नवीनतम AI industry analysis फॉलो करू शकता.
वास्तविक जगावर होणारा परिणाम समजून घेण्यासाठी, एका मध्यम आकाराच्या सॉफ्टवेअर फर्ममधील लीड डेव्हलपरचा विचार करा. आज हा डेव्हलपर केवळ कोड लिहित नाही. कोणते APIs बंद होतील आणि कोणत्यांना अधिक compute मिळेल हे समजून घेण्यासाठी ते संशोधकांच्या मुलाखतींचे फुटेज तासनतास पाहत आहेत. जेव्हा एखादा संशोधक म्हणतो की “reasoning tokens” हे नवीन प्राधान्य आहे, तेव्हा अचानक त्या डेव्हलपरला समजते की त्यांची सध्याची integration strategy कालबाह्य झाली आहे. त्यांना साधे रॅपर्स् बनवण्याऐवजी लांबलचक रिझनिंग स्टेप्स हाताळू शकतील अशा सिस्टम्स डिझाइन करण्याकडे वळावे लागेल. हा काही सैद्धांतिक बदल नाही. एखाद्या छोट्या YouTube चॅनेलवरील दोन तासांच्या संभाषणातून समोर आलेल्या तांत्रिक दिशेमुळे ही एक व्यावहारिक गरज बनली आहे. बहुतेक लोकांचा असा समज आहे की AI हे एक तयार उत्पादन आहे, पण प्रत्यक्षात ते सतत बदलणारे लक्ष्य आहे. जेव्हा एखादा एक्झिक्युटिव्ह त्यांच्या नवीन मॉडेलच्या ऊर्जेच्या वापराबद्दलच्या प्रश्नाला बगल देतो, तेव्हा ते तुम्हाला सांगत असतात की तुमच्या API कॉल्सची किंमत वाढण्याची शक्यता आहे. जेव्हा ते मॉडेल बोलण्यापूर्वी “विचार” करत असल्याचे डेमो दाखवतात, तेव्हा ते तुम्हाला अशा भविष्यासाठी तयार करत असतात जिथे latency हा दोष नसून एक फीचर असेल. स्पर्धेत पुढे राहण्यासाठी हे माहितीचे संकेत मिळवणे हाच एकमेव मार्ग आहे.
या मुलाखतींमधील व्हिज्युअल गोष्टी असे पुरावे देतात जे केवळ शब्दांतून समजत नाहीत. जेव्हा एखाद्या CEO ला विशिष्ट नोकरी क्षेत्रांना मॉडेल्सद्वारे बदलण्याच्या संभाव्यतेबद्दल विचारले जाते, तेव्हा त्यांची देहबोली अनेकदा त्यांच्या शब्दांपेक्षा वेगळी खात्री दर्शवते. कॅमेऱ्यापासून चोरलेली नजर किंवा चेहऱ्यावरील अस्वस्थता हे सूचित करू शकते की अंतर्गत अंदाज सार्वजनिक विधानांपेक्षा कितीतरी पटीने जास्त आक्रमक आहेत. जेव्हा नेते Artificial General Intelligence च्या टाइमलाइनबद्दल चर्चा करतात तेव्हा हे आपल्याला दिसते. तोंडी उत्तर कदाचित “दशकाच्या आत” असू शकते, पण चर्चेची तीव्रता सूचित करते की ते खूपच कमी वेळेत हे साध्य करण्याच्या तयारीत आहेत. यामुळे लोकांच्या अपेक्षा आणि कंपन्या प्रत्यक्षात काय बनवत आहेत यामध्ये तफावत निर्माण होते. याचे व्यावहारिक परिणाम गंभीर आहेत. जर व्यवसायांनी संथ बदलाची तयारी केली आणि तंत्रज्ञान वेगाने पुढे गेले, तर होणारा आर्थिक संघर्ष तीव्र असेल. OpenAI o1 सिरीज सारख्या नवीन उत्पादनांची उदाहरणे दाखवतात की “विचार करणाऱ्या” मॉडेल्सचा मुद्दा खरा आहे. हे आता केवळ चांगल्या autocomplete बद्दलचे सिद्धांत राहिलेले नाहीत, तर मशिन लॉजिक कसे प्रोसेस करतात यातील हा एक मूलभूत बदल आहे.
या मुलाखतींकडे चिकित्सक नजरेने पाहिल्यास अनेक छुपे खर्च आणि न सुटलेले तणाव दिसून येतात. जर हे मॉडेल्स अधिक कार्यक्षम होत असतील, तर विजेची मागणी इतक्या वेगाने का वाढत आहे? इंडस्ट्री लीडर्स अनेकदा कार्यक्षमतेबद्दल बोलतात आणि त्याच वेळी नवीन data centers साठी शेकडो अब्ज डॉलर्सची मागणी करतात. हा एक विरोधाभास आहे ज्यावर अजूनही स्पष्ट उत्तर मिळालेले नाही. या infrastructure साठी शेवटी पैसे कोण देणार? छुपा खर्च केवळ आर्थिक नसेल तर पर्यावरणीय आणि सामाजिक देखील असू शकतो. “agentic” AI च्या युगात गोपनीयतेचा प्रश्नही उभा राहतो. जर एखाद्या AI ने तुमच्या वतीने काम करायचे असेल, तर त्याला तुमच्या अत्यंत संवेदनशील डेटाची गरज लागेल. उपयोगिता आणि सुरक्षा या दोन्ही गोष्टींचे समाधान होईल अशा प्रकारे या डेटाचे संरक्षण कसे केले जाईल, याचे स्पष्ट उत्तर या मुलाखतींमध्ये क्वचितच मिळते. या मॉडेल्ससाठी लागणाऱ्या श्रमाबद्दलही आपण विचार केला पाहिजे. “human in the loop” हा अनेकदा विकसनशील देशातील कमी पगारावर काम करणारा कामगार असतो जो कठीण परिस्थितीत डेटा लेबलिंग करत असतो. व्हिजनरी टॉक्समध्ये कथेचा हा भाग नेहमीच वगळला जातो.
BotNews.today सामग्री संशोधन, लेखन, संपादन आणि भाषांतरित करण्यासाठी AI साधनांचा वापर करते. माहिती उपयुक्त, स्पष्ट आणि विश्वसनीय ठेवण्यासाठी आमची टीम प्रक्रियेचे पुनरावलोकन आणि पर्यवेक्षण करते.
पॉवर युजर्स आणि डेव्हलपर्ससाठी, या मुलाखतींचा ‘geek section’ हा खऱ्या अर्थाने मोलाचा आहे. चर्चा अनेकदा सध्याच्या आर्किटेक्चरच्या विशिष्ट मर्यादांकडे वळते. आपण आता “memory wall” बद्दल अधिक ऐकत आहोत, जिथे प्रोसेसर आणि मेमरीमधील डेटा ट्रान्सफरचा वेग हा मुख्य अडथळा बनतो. म्हणूनच local storage आणि edge computing हे चर्चेचे मुख्य विषय बनत आहेत. जर रिअल-टाइम ॲप्लिकेशन्ससाठी क्लाउड खूप संथ किंवा महाग असेल, तर इंडस्ट्रीला ग्राहकांच्या hardware वर चालू शकणाऱ्या लहान आणि अधिक कार्यक्षम मॉडेल्सकडे वळावे लागेल. मुलाखतींवरून असे सूचित होते की आपल्याला दोन भागात विभागलेली बाजारपेठ पाहायला मिळेल. गुंतागुंतीच्या कामांसाठी क्लाउडमध्ये प्रचंड trillion-parameter मॉडेल्स असतील आणि दैनंदिन वापरासाठी अत्यंत ऑप्टिमाइझ केलेली मॉडेल्स असतील. डेव्हलपर्सनी “quantization” आणि “speculative decoding” यांसारख्या शब्दांकडे लक्ष दिले पाहिजे. हेच तंत्र ठरवेल की एखादे ॲप्लिकेशन मोठ्या लोकांसाठी व्यवहार्य आहे की नाही. API मर्यादा हा आणखी एक महत्त्वाचा घटक आहे. मार्केटिंगमध्ये अमर्याद क्षमता सांगितली जात असली तरी, तांत्रिक वास्तव हे रेट लिमिट्स आणि टोकन खर्चाविरुद्धचा सततचा लढा आहे. संशोधकांनी सांगितलेले workflow integrations समजून घेणे हे शाश्वत उत्पादने तयार करण्यासाठी महत्त्वाचे आहे. ते अशा जगाकडे जात आहेत जिथे मॉडेल हा केवळ एका मोठ्या “compound AI system” चा भाग असेल, ज्यामध्ये databases, search tools आणि बाह्य code executors समाविष्ट असतील.
- सिंगल-मॉडेल लॉजिककडून उत्तरे पडताळण्यासाठी मल्टिपल टूल्स वापरणाऱ्या compound systems कडे होणारा बदल.
- ‘inference-time compute’ चे वाढते महत्त्व जिथे मॉडेल एका क्वेरीवर प्रक्रिया करण्यासाठी अधिक वेळ घालवते.
थोडक्यात सांगायचे तर, AI जगातील सर्वात महत्त्वाची माहिती सर्वांच्या डोळ्यांसमोर असूनही लपलेली आहे. लांबलचक मुलाखतींकडे दुर्लक्ष करून केवळ हायलाइट्सवर लक्ष केंद्रित केल्यामुळे, बहुतेक लोक सध्या सुरू असलेले धोरणात्मक बदल मिस करत आहेत. ही इंडस्ट्री आता शोधाच्या टप्प्यातून मोठ्या प्रमाणावर औद्योगिकीकरणाच्या (industrialization) टप्प्याकडे जात आहे. यासाठी वेगळ्या कौशल्यांची आणि तंत्रज्ञानाचा वेगळ्या पद्धतीने विचार करण्याची गरज आहे. या क्षेत्रातील नेत्यांनी प्रश्नांना दिलेली बगल आणि विरोधाभास हे केवळ कॉर्पोरेट PR नाही, तर ते पुढील पाच वर्षे परिभाषित करणाऱ्या आव्हानांचा नकाशा आहेत. आपण अशा भविष्याकडे जात आहोत जिथे “इंटेलिजन्स” ही एक वस्तू (commodity) असेल, जी विजेसारखीच मिळवली, शुद्ध केली आणि विकली जाईल. यामुळे समाज अधिक उत्पादक होईल की अधिक केंद्रीकृत, हे आपण या सुरुवातीच्या संकेतांचा कसा अर्थ लावतो आणि आता कोणते प्रश्न विचारतो यावर अवलंबून आहे. जो कोणी हायपच्या पलीकडे जाऊन ऐकण्यास तयार आहे, त्याच्यासाठी हे संकेत तिथेच आहेत.
संपादकाची नोंद: आम्ही ही साइट बहुभाषिक AI बातम्या आणि मार्गदर्शिका केंद्र म्हणून अशा लोकांसाठी तयार केली आहे जे संगणक तज्ञ नाहीत, परंतु तरीही कृत्रिम बुद्धिमत्ता समजून घेऊ इच्छितात, अधिक आत्मविश्वासाने तिचा वापर करू इच्छितात आणि आधीच येत असलेल्या भविष्याचा मागोवा घेऊ इच्छितात.
काही चूक आढळली किंवा काही दुरुस्त करायचे आहे का? आम्हाला कळवा.