स्मार्ट AI तज्ज्ञ कशाबद्दल इशारा देत आहेत? 2026
आर्टिफिशियल इंटेलिजन्स (AI) बद्दलची चर्चा आता आश्चर्याकडून एका शांत, पण सततच्या चिंतेकडे वळली आहे. आघाडीचे संशोधक आणि इंडस्ट्रीतील दिग्गज आता केवळ हे सिस्टम काय करू शकतात, यावरच बोलत नाहीत. ते यावर लक्ष केंद्रित करत आहेत की, जेव्हा आपण त्यांच्या आउटपुटची पडताळणी करण्याची क्षमता गमावतो, तेव्हा काय होते. मुख्य मुद्दा साधा आहे: आपण अशा युगात प्रवेश करत आहोत जिथे AI जनरेशनचा वेग मानवी देखरेखीच्या क्षमतेपेक्षा जास्त होत आहे. यामुळे एक अशी पोकळी निर्माण होते जिथे चुका, पूर्वग्रह आणि हॅल्युसिनेशन्स (hallucinations) कोणाच्याही लक्षात न येता वाढू शकतात. हे केवळ तंत्रज्ञान अपयशी ठरण्याबद्दल नाही, तर ते नक्कल करण्यात इतके यशस्वी होत आहे की आपण त्यावर प्रश्न विचारणेच थांबवले आहे. तज्ज्ञांचा इशारा आहे की आपण अचूकतेपेक्षा सोयीला प्राधान्य देत आहोत. जर आपण AI ला अंतिम अधिकार मानले, तर आपण चुकीच्या माहितीच्या पायावर भविष्याची उभारणी करण्याचा धोका पत्करत आहोत. सध्याच्या हायप सायकलमध्ये हाच खरा इशारा आहे.
स्टॅटिस्टिकल मिमिक्रीची यंत्रणा
मुळात, आधुनिक AI हे सांख्यिकीय अंदाजांचा (statistical prediction) एक मोठा खेळ आहे. जेव्हा तुम्ही एखाद्या लार्ज लँग्वेज मॉडेलला प्रॉम्प्ट देता, तेव्हा ते मानवाप्रमाणे विचार करत नाही. ते प्रशिक्षणादरम्यान प्रक्रिया केलेल्या ट्रिलियन शब्दांच्या आधारे पुढच्या शब्दाची शक्यता मोजते. हा एक मूलभूत फरक आहे जो अनेक युजर्सना समजत नाही. आपण या सिस्टमला मानवी रूप देतो, असे गृहीत धरतो की त्यांच्या उत्तरांमागे काही जाणीवपूर्वक तर्क आहे. प्रत्यक्षात, मॉडेल फक्त पॅटर्न जुळवत असते. ते त्याला दिलेल्या डेटाचा एक अत्यंत प्रगत आरसा आहे. हा डेटा इंटरनेट, पुस्तके आणि कोड रिपॉझिटरीजमधून येतो. ट्रेनिंग डेटामध्ये मानवी चुका आणि विरोधाभास असल्याने, मॉडेलमध्येही तेच दिसून येते. धोका आउटपुटच्या ओघवतेपणात आहे. एक AI पूर्णपणे बनावट माहिती गणितीय तथ्यासारख्या आत्मविश्वासाने सांगू शकते. याचे कारण असे की मॉडेलकडे सत्याची कोणतीही अंतर्गत संकल्पना नाही. त्याच्याकडे फक्त ‘संभाव्यतेची’ संकल्पना आहे.
सत्याच्या या यंत्रणेच्या अभावामुळेच हॅल्युसिनेशन्स होतात. हे पारंपारिक अर्थाने तांत्रिक दोष नाहीत. सिस्टमने डिझाइन केल्याप्रमाणेच काम करून संदर्भात योग्य वाटणारे शब्द निवडले आहेत. उदाहरणार्थ, जर तुम्ही AI ला एखाद्या कमी प्रसिद्ध ऐतिहासिक व्यक्तीचे चरित्र विचारले, तर ते कदाचित एखादी प्रतिष्ठित युनिव्हर्सिटी डिग्री किंवा विशिष्ट पुरस्काराची भर घालेल. ते असे करते कारण सांख्यिकीयदृष्ट्या त्या श्रेणीतील लोकांकडे अनेकदा ती पात्रता असते. मॉडेल खोटे बोलत नाहीये. ते फक्त एक पॅटर्न पूर्ण करत आहे. यामुळे हे तंत्रज्ञान सर्जनशील कामांसाठी अविश्वसनीय शक्तिशाली आहे, पण तथ्यात्मक कामांसाठी धोकादायक आहे. आपण अनेकदा या मॉडेल्सच्या तर्कशक्तीचा अतिरेक करतो आणि त्यांच्या व्याप्तीचा अंदाज कमी करतो. ती विश्वकोश (encyclopedias) नाहीत. ती संभाव्यतेची इंजिने आहेत ज्यांना विषयाचे सखोल ज्ञान असलेल्या मानवी तज्ज्ञांकडून सतत आणि कठोर पडताळणीची आवश्यकता असते. हा फरक समजून घेणे म्हणजे प्रोफेशनल वातावरणात या टूल्सचा जबाबदारीने वापर करण्याची पहिली पायरी आहे.
या तंत्रज्ञानाचा जागतिक प्रभाव असमान आणि वेगवान आहे. माहिती कशी तयार केली जाते आणि वापरली जाते, यात आपण सीमापार मोठा बदल पाहत आहोत. अनेक विकसनशील देशांमध्ये, तांत्रिक कौशल्यातील दरी भरून काढण्यासाठी AI चा वापर केला जात आहे. नैरोबीमधील एक छोटा व्यवसाय आता सॅन फ्रान्सिस्कोमधील स्टार्टअपप्रमाणेच प्रगत कोडिंग असिस्टंट वापरू शकतो. वरवर पाहता हे सत्तेचे लोकशाहीकरण वाटते. तथापि, मूळ मॉडेल्स प्रामुख्याने पाश्चात्य डेटा आणि मूल्यांवर आधारित आहेत. यामुळे एक प्रकारची सांस्कृतिक एकसारखेपणा (cultural homogenization) निर्माण होते. जेव्हा आग्नेय आशियातील एखादा युजर AI ला व्यवसायाचा सल्ला विचारतो, तेव्हा त्याचे उत्तर अनेकदा उत्तर अमेरिकन किंवा युरोपियन कॉर्पोरेट दृष्टिकोनातून फिल्टर केलेले असते. यामुळे अशा धोरणांचा अवलंब होऊ शकतो जी स्थानिक बाजारपेठेतील वास्तव किंवा सांस्कृतिक बारकाव्यांशी जुळत नाहीत. काही मोजक्या मोठ्या, केंद्रीकृत मॉडेल्सच्या वर्चस्वाखाली असलेल्या जगात स्थानिक ओळख कशी टिकवायची, यावर जागतिक समुदाय मंथन करत आहे.
आर्थिक दरीचाही प्रश्न आहे. या मॉडेल्सना प्रशिक्षित करण्यासाठी प्रचंड प्रमाणात कॉम्प्युट पॉवर आणि विजेची आवश्यकता असते. यामुळे काही श्रीमंत कॉर्पोरेशन आणि राष्ट्रांच्या हातात सत्ता केंद्रित होते. आउटपुट जागतिक स्तरावर उपलब्ध असले तरी, नियंत्रण काही मोजक्या ठिकाणीच राहते. आपण एका नवीन प्रकारची संसाधनांची शर्यत पाहत आहोत. आता हे केवळ तेल किंवा खनिजांबद्दल नाही. हे हाय-एंड चिप्स आणि ते चालवण्यासाठी आवश्यक असलेल्या डेटा सेंटर्सबद्दल आहे. सरकारे आता AI क्षमतेला राष्ट्रीय सुरक्षेचा विषय मानत आहेत. यामुळे निर्यात बंदी आणि व्यापार तणाव निर्माण झाला आहे, ज्याचा परिणाम संपूर्ण टेक सप्लाय चेनवर होत आहे. जागतिक प्रभाव केवळ सॉफ्टवेअरपुरता मर्यादित नाही. तो आधुनिक जगाच्या भौतिक पायाभूत सुविधांबद्दल आहे. आपण स्वतःला विचारले पाहिजे की या टूल्सचा फायदा सर्वांना समान मिळत आहे की ते केवळ जुन्या सत्ता संरचनांना नवीन नावाने बळकट करत आहेत.
खऱ्या जगात, धोके खूप व्यावहारिक होत आहेत. मार्क नावाच्या ज्युनियर डेटा ॲनालिस्टच्या आयुष्यातील एक दिवस विचारात घ्या. मार्कवर त्रैमासिक अहवालासाठी मोठा डेटासेट साफ करण्याची जबाबदारी आहे. वेळ वाचवण्यासाठी, तो स्क्रिप्ट लिहिण्यासाठी आणि निष्कर्ष सारांशित करण्यासाठी AI टूल वापरतो. AI चार्ट्सचा एक सुंदर संच आणि संक्षिप्त कार्यकारी सारांश तयार करते. मार्क वेगाने प्रभावित होतो आणि काम सबमिट करतो. तथापि, AI ने सोर्स फाइल्समधील डेटा करप्शनची एक सूक्ष्म समस्या चुकवली. सारांश इतका पटण्याजोगा होता की, मार्कने निकालांची पडताळणी करण्यासाठी कच्च्या डेटाची तपासणी केली नाही. एका आठवड्यानंतर, कंपनीने त्या सदोष अहवालाच्या आधारे दहा लाख डॉलर्सचा निर्णय घेतला. हा सैद्धांतिक धोका नाही. हे दररोज ऑफिसमध्ये घडत आहे. AI ने त्याला जे सांगितले होते तेच केले, पण मार्कने आवश्यक ती देखरेख ठेवली नाही. त्याने स्त्रोतावर प्रश्न न विचारता माहिती स्वीकारली.
BotNews.today सामग्री संशोधन, लेखन, संपादन आणि भाषांतरित करण्यासाठी AI साधनांचा वापर करते. माहिती उपयुक्त, स्पष्ट आणि विश्वसनीय ठेवण्यासाठी आमची टीम प्रक्रियेचे पुनरावलोकन आणि पर्यवेक्षण करते.
ही परिस्थिती प्रोफेशनल वर्कफ्लोमधील वाढती समस्या अधोरेखित करते. आपण सारांशावर अति-अवलंबून होत आहोत. आरोग्य क्षेत्रात, डॉक्टर रुग्णांच्या नोट्स आणि निदानासाठी AI ची चाचणी करत आहेत. यामुळे कामाचा ताण कमी होऊ शकतो, पण त्यात जोखमीचा एक स्तर समाविष्ट होतो. जर AI ने एखादे दुर्मिळ लक्षण चुकवले कारण ते सामान्य पॅटर्नमध्ये बसत नाही, तर त्याचे परिणाम जीवघेणे ठरू शकतात. हेच कायदेशीर क्षेत्रालाही लागू होते. वकिलांनी AI-जनरेटेड ब्रीफ्स सबमिट केल्याचे पकडले गेले आहे, ज्यामध्ये अस्तित्वात नसलेल्या कोर्ट केसेसचा संदर्भ दिला होता. या केवळ लाजिरवाण्या चुका नाहीत. ही प्रोफेशनल कर्तव्याची अपयशे आहेत. आपण AI आउटपुट पडताळण्यासाठी लागणाऱ्या प्रयत्नांचा अंदाज कमी करतो. AI सारांश फॅक्ट-चेक करण्यासाठी मूळ मजकूर शून्यापासून लिहिण्यापेक्षा जास्त वेळ लागतो. नवीन टूल्स स्वीकारण्याच्या घाईत अनेक संस्था या विरोधाभासाकडे दुर्लक्ष करत आहेत.
व्यावहारिक धोके आपल्या वास्तवाच्या आकलनाशी संबंधित आहेत. जसे AI-जनरेटेड कंटेंट इंटरनेटवर पसरत आहे, तसे चुकीची माहिती (misinformation) तयार करण्याचा खर्च शून्याच्या जवळ येत आहे. आपण आधीच राजकीय मोहिमा आणि सोशल इंजिनिअरिंग हल्ल्यांमध्ये डीपफेक्सचा वापर पाहिला आहे. यामुळे डिजिटल कम्युनिकेशनमधील विश्वासाची पातळी कमी होते. जर काहीही बनावट असू शकते, तर पडताळणीच्या जटिल साखळीशिवाय कशावरही पूर्णपणे विश्वास ठेवता येणार नाही. यामुळे व्यक्तीवर मोठा भार पडतो. आपण सत्याचे फिल्टर करण्यासाठी प्रतिष्ठित स्त्रोतांवर अवलंबून होतो. आता, ते स्त्रोत देखील कंटेंट तयार करण्यासाठी AI चा वापर करत आहेत. यामुळे एक फीडबॅक लूप तयार होतो जिथे AI मॉडेल्स शेवटी इतर AI मॉडेल्सनी तयार केलेल्या डेटावर प्रशिक्षित केले जातात. संशोधक याला ‘मॉडेल कोलॅप्स’ म्हणतात. यामुळे गुणवत्तेचा ऱ्हास होतो आणि कालांतराने चुका वाढतात. आपल्याला हे ठरवावे लागेल की आपण अशा जगाचा स्वीकार करण्यास तयार आहोत का जिथे सत्य हे कार्यक्षमतेच्या तुलनेत दुय्यम आहे.
आपल्याला विकासाच्या सध्याच्या मार्गावर संशय बाळगणे आवश्यक आहे. या सिस्टम बनवणाऱ्या कंपन्यांकडे अनेक कठीण प्रश्नांची उत्तरे नाहीत. उदाहरणार्थ, एका AI क्वेरीची खरी पर्यावरणीय किंमत काय आहे? आपल्याला माहित आहे की मॉडेल्सना प्रशिक्षित करण्यासाठी प्रचंड ऊर्जा लागते, परंतु इन्फरन्सची (inference) चालू किंमत अनेकदा लोकांकडून लपवली जाते. दुसरा प्रश्न या मॉडेल्सना प्रशिक्षित करण्यासाठी वापरल्या जाणाऱ्या श्रमाबद्दल आहे. डेटा लेबलिंग आणि सेफ्टी फिल्टरिंगचे बहुतेक काम कमी पगारावर काम करणाऱ्या कामगारांकडून कठीण परिस्थितीत केले जाते. आपल्या AI असिस्टंटची सोय शोषलेल्या श्रमाच्या पायावर उभी आहे का? आपल्याला मानवी बुद्धिमत्तेवर होणाऱ्या दीर्घकालीन परिणामांबद्दलही विचारले पाहिजे. जर आपण आपले लेखन, कोडिंग आणि विचार मशीनकडे आउटसोर्स केले, तर कालांतराने आपल्या स्वतःच्या कौशल्यांचे काय होईल? आपण अधिक उत्पादक होत आहोत की फक्त अधिक परावलंबी?
प्रायव्हसी (privacy) हे आणखी एक क्षेत्र आहे जिथे खर्च अनेकदा लपलेले असतात. बहुतेक AI मॉडेल्सना काम करण्यासाठी मोठ्या प्रमाणात डेटाची आवश्यकता असते. हा डेटा अनेकदा निर्मात्यांच्या स्पष्ट संमतीशिवाय वेबवरून स्क्रॅप केला जातो. आपण मुळात आपली सामूहिक बौद्धिक संपदा अशा टूल्सना बनवण्यासाठी देत आहोत जी कदाचित भविष्यात आपली जागा घेतील. जेव्हा डेटा संपेल तेव्हा काय होईल? कंपन्या आधीच खाजगी संभाषणे आणि अंतर्गत कॉर्पोरेट डेटा मिळवण्याचे मार्ग शोधत आहेत जेणेकरून त्यांचे मॉडेल्स वाढत राहतील. हे वैयक्तिक आणि व्यावसायिक प्रायव्हसीच्या सीमांबद्दल गंभीर चिंता निर्माण करते. जर AI ला तुमच्या वर्कफ्लोबद्दल सर्व काही माहित असेल, तर त्याला तुमच्या कमकुवत दुव्यांचीही माहिती असते. आपण विचारले पाहिजे की या एकत्रीकरणाचा खरोखर फायदा कोणाला होतो? युजरला, की ज्या संस्थेकडे मॉडेल आणि तो गोळा करत असलेला डेटा आहे? हे प्रश्न केवळ तत्वज्ञांसाठी नाहीत. हे प्रत्येकासाठी आहेत जो स्मार्टफोन किंवा कॉम्प्युटर वापरतो.
तुम्ही आम्हाला कव्हर करावे असे तुम्हाला वाटणारी AI कथा, साधन, ट्रेंड किंवा प्रश्न आहे का? तुमची लेखाची कल्पना आम्हाला पाठवा — आम्हाला ती ऐकायला आवडेल.पॉवर युजर्स आणि डेव्हलपर्ससाठी, लक्ष आता स्थानिक नियंत्रण आणि विशिष्ट इंटिग्रेशन्सकडे वळत आहे. OpenAI सारख्या कंपन्यांचे क्लाउड-आधारित API सर्वात जास्त कच्ची शक्ती देतात, परंतु त्यांच्या काही महत्त्वाच्या मर्यादा आहेत. रेट लिमिट्स आणि लेटन्सी (latency) जटिल वर्कफ्लो खंडित करू शकतात. म्हणूनच आपण स्थानिक LLM होस्टिंगमध्ये रस वाढताना पाहत आहोत. Llama.cpp आणि Ollama सारखी टूल्स युजर्सना स्वतःच्या हार्डवेअरवर शक्तिशाली मॉडेल्स चालवण्याची परवानगी देतात. हे प्रायव्हसीची समस्या सोडवते आणि थर्ड-पार्टी प्रोव्हायडरवरील अवलंबित्व काढून टाकते. तथापि, ही मॉडेल्स स्थानिक पातळीवर चालवण्यासाठी लक्षणीय VRAM आवश्यक असते. हाय-एंड कन्झ्युमर GPU कदाचित मध्यम आकाराचे मॉडेल कार्यक्षमतेने हाताळू शकेल. डेव्हलपर्स ‘रिट्रिव्हल-ऑगमेंटेड जनरेशन’ (RAG) वर देखील लक्ष केंद्रित करत आहेत. हे तंत्र मॉडेलला प्रॉम्प्टला उत्तर देण्यापूर्वी विशिष्ट स्थानिक दस्तऐवजांचा संच पाहण्याची परवानगी देते. हे AI ला विशिष्ट, पडताळणी केलेल्या संदर्भात ठेवून हॅल्युसिनेशन्स लक्षणीयरीत्या कमी करते.
वर्कफ्लो इंटिग्रेशन हा पुढचा मोठा अडथळा आहे. ब्राउझरमध्ये बॉटशी चॅट करणे एक गोष्ट आहे आणि तो बॉट तुमच्या IDE किंवा प्रोजेक्ट मॅनेजमेंट सॉफ्टवेअरमध्ये समाकलित करणे पूर्णपणे वेगळी गोष्ट आहे. सध्याचा कल ‘एजंट वर्कफ्लो’कडे आहे. हे अशा सिस्टम आहेत जिथे AI केवळ मजकूर देण्याऐवजी कोड चालवणे किंवा वेब शोधणे यासारख्या कृती करू शकते. यासाठी मजबूत एरर हँडलिंग आणि कठोर सुरक्षा प्रोटोकॉल आवश्यक आहेत. जर AI एजंटकडे फाइल्स हटवण्याची किंवा ईमेल पाठवण्याची शक्ती असेल, तर आपत्तीची शक्यता जास्त असते. डेव्हलपर्स कॉन्टेक्स्ट विंडोच्या मर्यादेपर्यंतही पोहोचत आहेत. दहा लाख टोकन्सच्या विंडोसह देखील, मॉडेल्स लांब दस्तऐवजाच्या मध्यभागी माहितीचा मागोवा गमावू शकतात. याला ‘लॉस्ट इन द मिडल’ (lost in the middle) घटना म्हणतात. मॉडेलमध्ये माहिती कशी फीड केली जाते हे व्यवस्थापित करणे हे एक विशेष कौशल्य बनत आहे. AI जगाचा ‘गीक’ विभाग आता केवळ मॉडेलबद्दल नाही. हे त्या प्लंबिंगबद्दल आहे जे मॉडेलला खऱ्या जगाशी जोडते.
स्थानिक स्टोरेज आणि डेटा सार्वभौमत्व (data sovereignty) एंटरप्राइझ युजर्ससाठी सर्वोच्च प्राधान्य बनत आहे. अनेक कंपन्या आता संवेदनशील डेटासाठी सार्वजनिक AI टूल्स वापरण्यावर बंदी घालत आहेत. त्याऐवजी, त्या स्वतःच्या क्लाउड इन्फ्रास्ट्रक्चरमध्ये खाजगी इन्स्टन्स तैनात करत आहेत. हे सुनिश्चित करते की त्यांचा मालकीचा डेटा सार्वजनिक मॉडेलच्या भविष्यातील आवृत्त्या प्रशिक्षित करण्यासाठी वापरला जात नाही. ‘स्मॉल लँग्वेज मॉडेल्स’ (SLMs) कडेही कल वाढत आहे. हे कमी पॅरामीटर्स असलेले मॉडेल्स आहेत जे विशिष्ट कार्यासाठी फाइन-ट्यून केलेले असतात. ते वेगवान आहेत, चालवण्यासाठी स्वस्त आहेत आणि मोठ्या सामान्य-उद्देशीय मॉडेलपेक्षा त्यांच्या विशिष्ट उद्देशासाठी अधिक अचूक आहेत. पॉवर युजर्सचे भविष्य एका महाकाय AI बद्दल नाही जे सर्व काही करते. हे विशेष टूल्सच्या लायब्ररीबद्दल आहे जी स्थानिक पातळीवर नियंत्रित केली जातात आणि विद्यमान सिस्टममध्ये खोलवर समाकलित केली जातात. हा दृष्टिकोन सामान्य AI च्या चकचकीत पण अनपेक्षित स्वरूपापेक्षा विश्वासार्हता आणि सुरक्षिततेला प्राधान्य देतो.
संपादकाची नोंद: आम्ही ही साइट बहुभाषिक AI बातम्या आणि मार्गदर्शिका केंद्र म्हणून अशा लोकांसाठी तयार केली आहे जे संगणक तज्ञ नाहीत, परंतु तरीही कृत्रिम बुद्धिमत्ता समजून घेऊ इच्छितात, अधिक आत्मविश्वासाने तिचा वापर करू इच्छितात आणि आधीच येत असलेल्या भविष्याचा मागोवा घेऊ इच्छितात.
थोडक्यात सांगायचे तर, AI हे अफाट क्षमता आणि लक्षणीय जोखमीचे साधन आहे. हे काही जादूचे समाधान नाही जे प्रयत्नाशिवाय आपल्या सर्व समस्या सोडवेल. क्षेत्रातील सर्वात हुशार लोक ते नाहीत जे युटोपियाचे आश्वासन देत आहेत. ते ते आहेत जे आपल्याला सावध राहण्यास सांगत आहेत. आपण या सिस्टमच्या आउटपुटपासून एक गंभीर अंतर राखले पाहिजे. ध्येय हे असावे की AI चा वापर मानवी क्षमता वाढवण्यासाठी करावा, ती बदलण्यासाठी नाही. यासाठी आजीवन शिकण्याची वचनबद्धता आणि संशयाची निरोगी मात्रा आवश्यक आहे. आपण या तंत्रज्ञानाच्या सुरुवातीच्या टप्प्यात आहोत. आपण AI ला आपल्या आयुष्यात कसे समाकलित करतो याबद्दलचे आपले निर्णय दशकांसाठी परिणाम देतील. नवीनतम AI संशोधन ट्रेंड्स फॉलो करून माहिती मिळवा आणि तुम्हाला मिळणारे सिग्नल नेहमी पडताळून पहा. कोणत्याही AI सिस्टमचा सर्वात महत्त्वाचा भाग अजूनही कीबोर्डवर असलेला माणूसच आहे.
एक जिवंत प्रश्न शिल्लक आहे. जसे AI मॉडेल्स इंटरनेटवरील बहुतेक कंटेंट तयार करू लागतील, तसे आपण पुढच्या पिढीच्या मॉडेल्सना त्यांच्या स्वतःच्या प्रतिध्वनीने विचलित न होता कसे प्रशिक्षित करू? ही अशी समस्या आहे जी अजून कोणीही सोडवलेली नाही. आपण प्रभावीपणे डिजिटल इनब्रीडिंगच्या काळात प्रवेश करत आहोत जिथे आपल्या सामूहिक माहितीची गुणवत्ता कमी होऊ लागली आहे. यामुळे मानवनिर्मित डेटा आणि मानवी देखरेख पूर्वीपेक्षा अधिक मौल्यवान झाली आहे. जर तुम्हाला AI उत्क्रांतीचा विषय मनोरंजक वाटत असेल, तर तुम्ही MIT Technology Review द्वारे केले जाणारे काम पाहू शकता किंवा त्यांच्या सुरक्षा प्रोटोकॉलबाबत OpenAI कडून अपडेट्स फॉलो करू शकता. या क्षेत्राची उत्क्रांती अजून खूप लांब आहे.
काही चूक आढळली किंवा काही दुरुस्त करायचे आहे का? आम्हाला कळवा.