AI च्या युगात मानवी मूल्यांचा अर्थ काय?
न्यूट्रल कोडचे मिथक
आर्टिफिशियल इंटेलिजन्स (AI) बद्दलची चर्चा अनेकदा तांत्रिक बेंचमार्क आणि प्रोसेसिंग पॉवरभोवती फिरते. आपण पॅरामीटर्स आणि पेटाबाइट्सबद्दल अशा प्रकारे बोलतो जणू तेच महत्त्वाचे निकष आहेत. हे लक्ष एका अधिक महत्त्वाच्या वास्तवाकडे दुर्लक्ष करते. प्रत्येक लार्ज लँग्वेज मॉडेल हे त्याला आकार देणाऱ्या मानवी पसंतींचे प्रतिबिंब असते. ‘न्यूट्रल अल्गोरिदम’ नावाची कोणतीही गोष्ट नसते. जेव्हा एखादी सिस्टीम उत्तर देते, तेव्हा ती वस्तुनिष्ठ सत्याच्या पोकळीतून येत नसते. ती डेव्हलपर्स आणि डेटा लेबलर्सनी ठरवलेल्या विशिष्ट मूल्यांचे प्रतिबिंब असते. मुख्य मुद्दा सोपा आहे. आपण मशीनला विचार करायला शिकवत नाही आहोत. आपण त्यांना आपल्या विशिष्ट, अनेकदा विरोधाभासी सामाजिक नियमांचे अनुकरण करायला शिकवत आहोत. लॉजिककडून एथिक्सकडे होणारा हा बदल इंटरनेटच्या शोधानंतरचा संगणक क्षेत्रातील सर्वात मोठा बदल आहे. हे जबाबदारीचे ओझे हार्डवेअरकडून अशा मानवांकडे वळवते जे ‘योग्य’ उत्तर काय असावे हे ठरवतात.
इंडस्ट्रीने अलीकडेच कच्च्या क्षमतेकडून सुरक्षितता आणि अलाइनमेंटकडे मोर्चा वळवला आहे. हे तांत्रिक जुळवाजुळव वाटत असले, तरी ही प्रत्यक्षात एक खोलवर राजकीय प्रक्रिया आहे. जेव्हा आपण एखाद्या मॉडेलला मदतनीस, निरुपद्रवी आणि प्रामाणिक राहण्यास सांगतो, तेव्हा आपण अशा शब्दांचा वापर करत असतो ज्यांचे विविध संस्कृतींमध्ये वेगवेगळे अर्थ असतात. सॅन फ्रान्सिस्कोच्या बोर्डरूममध्ये जे मूल्य सार्वत्रिक वाटते, ते जकार्तामध्ये आक्षेपार्ह किंवा अप्रासंगिक मानले जाऊ शकते. जागतिक स्तर आणि स्थानिक मूल्ये यांच्यातील तणाव हा आधुनिक टेक क्षेत्रातील मुख्य संघर्ष आहे. आपण AI कडे एक स्वायत्त शक्ती म्हणून पाहणे थांबवून, मानवी हेतूचा एक क्युरेटेड विस्तार म्हणून पाहणे सुरू केले पाहिजे. यासाठी मार्केटिंगच्या गोंधळाच्या पलीकडे जाऊन पडद्यामागे घेतल्या जाणाऱ्या प्रत्यक्ष निवडी पाहणे आवश्यक आहे.
मानवी निवडीचा यांत्रिक आरसा
मशीनमध्ये मूल्ये कशी येतात हे समजून घेण्यासाठी, तुम्हाला Reinforcement Learning from Human Feedback (RLHF) कडे पहावे लागेल. ही ती प्रक्रिया आहे जिथे हजारो मानवी कंत्राटदार मॉडेलच्या विविध प्रतिसादांना रँक देतात. ते उत्तराच्या दोन आवृत्त्या पाहू शकतात आणि त्यांना जी अधिक नम्र किंवा अचूक वाटते त्यावर क्लिक करतात. कालांतराने, मॉडेल या मानवी पसंतींशी विशिष्ट पॅटर्न जोडायला शिकते. हा सत्याचा शोध नाही. हा मान्यतेचा शोध आहे. मॉडेलला मुळात त्याच्या मानवी मूल्यमापनकर्त्यांना खूश करण्यासाठी प्रशिक्षित केले जात आहे. हे नैतिकतेचा एक असा वरवरचा थर तयार करते जो प्रत्यक्षात विशिष्ट गटाला काय ऐकायला आवडते याचा सांख्यिकीय अंदाज असतो.
ही प्रक्रिया मोठ्या प्रमाणात व्यक्तिनिष्ठता निर्माण करते. जर बहुतेक लेबलर्स एका विशिष्ट लोकसंख्येतील असतील, तर मॉडेल नैसर्गिकरित्या त्या गटाची स्लँग, सामाजिक संकेत आणि राजकीय पूर्वग्रह स्वीकारेल. म्हणूनच अनेक लोकप्रिय मॉडेल्सच्या सुरुवातीच्या आवृत्त्यांना गैर-पाश्चात्य संदर्भांमध्ये संघर्ष करावा लागला. ते बिघडलेले नव्हते. ते फक्त त्यांना जसे प्रशिक्षित केले होते तसे काम करत होते. त्यांनी त्यांना ग्रेड देण्यासाठी पैसे घेतलेल्या लोकांची मूल्ये प्रतिबिंबित केली. हा तो स्तर आहे जिथे निष्पक्षता आणि पूर्वग्रह यांसारख्या अमूर्त संकल्पना कोडच्या ठोस ओळी बनतात. ही एक मॅन्युअल, श्रमसाध्य प्रक्रिया आहे जी सार्वजनिक चॅट इंटरफेस पाहण्यापूर्वी खूप आधी घडते. हे आधुनिक बुद्धिमत्तेचे अदृश्य इन्फ्रास्ट्रक्चर आहे.
या विषयावर बहुतेक लोक जो गोंधळ करतात तो म्हणजे AI ला एक अंतर्गत नैतिक होकायंत्र असते ही कल्पना. तसे नसते. त्याला एक रिवॉर्ड फंक्शन असते. जेव्हा एखादे मॉडेल प्रश्नाचे उत्तर देण्यास नकार देते, तेव्हा ते ‘विषय चुकीचा आहे’ असे वाटते म्हणून नसते. तर ते त्याचे ट्रेनिंग डेटा त्या विशिष्ट पॅटर्नला टाळण्यासाठी मोठ्या प्रमाणावर वेट केलेले असते म्हणून असते. हा फरक महत्त्वाचा आहे. जर आपल्याला वाटले की मशीन नैतिक आहे, तर आपण नियम ठरवणाऱ्या लोकांना प्रश्न विचारणे थांबवतो. आपण हे ओळखले पाहिजे की प्रत्येक नकार आणि प्रत्येक उपयुक्त टीप ही मानवी निर्णयावर आधारित प्रोग्राम केलेला प्रतिसाद आहे. हे ओळखून, आपण हे नियम कोण आणि का ठरवत आहे याबद्दल चांगले प्रश्न विचारण्यास सुरुवात करू शकतो.
लॅटेंट स्पेसमध्ये भू-राजकारण
या निवडींचा प्रभाव जागतिक आहे. बहुतेक आघाडीचे AI मॉडेल्स प्रामुख्याने ओपन वेबवरील इंग्रजी भाषेतील डेटावर प्रशिक्षित केले जातात. यामुळे एक डिजिटल मोनोकल्चर तयार होते जिथे पाश्चात्य मूल्ये डीफॉल्ट असतात. जेव्हा जगाच्या दुसऱ्या कोपऱ्यातील वापरकर्ता कौटुंबिक गतिशीलता किंवा कायदेशीर समस्यांवर सल्ला मागतो, तेव्हा त्याला विशिष्ट सांस्कृतिक लेन्सद्वारे फिल्टर केलेली उत्तरे मिळतात. ही केवळ भाषांतराची बाब नाही. ही सांस्कृतिक भाषांतराची बाब आहे. पदानुक्रम, गोपनीयता आणि समुदाय यांच्यातील बारकावे जगभरात मोठ्या प्रमाणात बदलतात, परंतु मॉडेल्स अनेकदा ‘वन-साईज-फिट्स-ऑल’ उपाय देतात. ‘योग्य’ विचारांचे हे केंद्रीकरण हे सॉफ्ट पॉवरचे एक नवीन स्वरूप आहे ज्याचे जागतिक चर्चेवर मोठे परिणाम होतात.
याला प्रतिसाद म्हणून सार्वभौम AI मॉडेल्स विकसित करण्याची घाई आपण पाहत आहोत. फ्रान्स, यूएई आणि भारत यांसारखे देश त्यांच्या स्वतःच्या इन्फ्रास्ट्रक्चरमध्ये गुंतवणूक करत आहेत जेणेकरून त्यांची विशिष्ट सांस्कृतिक मूल्ये प्रतिबिंबित होतील. त्यांना समजले आहे की परदेशी मॉडेलवर अवलंबून राहणे म्हणजे परदेशी जागतिक दृष्टिकोन आयात करणे होय. मध्ये, ही प्रवृत्ती वाढली आहे कारण सरकारांना समजले आहे की AI च्या लॅटेंट स्पेसवर नियंत्रण ठेवणे हे भौतिक सीमांवरील नियंत्रणाइतकेच महत्त्वाचे आहे. हे मॉडेल्स प्रशिक्षित करण्यासाठी वापरलेला डेटा डिजिटल इतिहासाच्या पुस्तकासारखा काम करतो. जर त्या पुस्तकात फक्त एकच दृष्टीकोन असेल, तर मिळणारी बुद्धिमत्ता स्वाभाविकपणे मर्यादित असेल. म्हणूनच वैविध्यपूर्ण डेटा सेटसाठीचा आग्रह हा केवळ एक विविधता उपक्रम नाही. ही जागतिक स्तरावर अचूकता आणि प्रासंगिकतेची गरज आहे.
आंतरराष्ट्रीय सहकार्यासाठी धोके मोठे आहेत. जर प्रत्येक राष्ट्राने स्वतःच्या कठोर मूल्यांसह स्वतःचे सायलो AI तयार केले, तर डिजिटल सीमा ओलांडून संवाद साधणे कठीण होऊ शकते. तथापि, पर्याय असा आहे की जिथे एका व्हॅलीतील काही कंपन्या अब्जावधी लोकांसाठी नैतिक सीमा ठरवतात. कोणताही मार्ग परिपूर्ण नाही. आव्हान हे आहे की स्थानिक बारकाव्यांना परवानगी देताना मूलभूत मानवी हक्कांची सामायिक समज कशी टिकवून ठेवायची. ही समस्या चांगल्या हार्डवेअरने सुटू शकत नाही. यासाठी आंतरराष्ट्रीय मुत्सद्देगिरी आणि आज टेक इंडस्ट्रीला चालना देणाऱ्या प्रोत्साहनांवर स्पष्ट नजरेने पाहणे आवश्यक आहे. तुम्ही आमच्या AI एथिक्स आणि गव्हर्नन्स वरील सर्वसमावेशक मार्गदर्शकामध्ये या आव्हानांबद्दल अधिक माहिती शोधू शकता.
निर्णय प्रक्रियेत मानवी हस्तक्षेप
सारा नावाच्या हायरिंग मॅनेजरच्या आयुष्यातील एक दिवस विचारात घ्या. ती नवीन इंजिनिअरिंग भूमिकेसाठी शेकडो रेझ्युमे स्क्रीन करण्यासाठी AI टूल वापरते. टूलला ‘हाय पोटेन्शियल’ उमेदवारांचा शोध घेण्यासाठी प्रशिक्षित केले गेले आहे. वरवर पाहता, हे कार्यक्षम वाटते. पण इंटरफेसच्या खाली, टूल मागील हायरिंग डेटावरून शिकलेली मूल्यांची संच लागू करत आहे. जर ऐतिहासिक डेटा दर्शवत असेल की कंपनीने प्रामुख्याने तीन विशिष्ट विद्यापीठांतील लोकांना कामावर घेतले आहे, तर AI त्या शाळांना प्राधान्य देईल. ते मानवी अर्थाने ‘वंशवादी’ किंवा ‘एलिटिस्ट’ नाही. ते फक्त त्या पॅटर्नसाठी ऑप्टिमाइझ करत आहे ज्याला मौल्यवान असल्याचे सांगितले गेले होते. साराला कदाचित हे समजणारही नाही की टूल गैर-पारंपारिक पार्श्वभूमीतील हुशार उमेदवारांना फिल्टर करत आहे कारण ते ट्रेनिंग डेटाच्या ‘व्हॅल्यू’ प्रोफाइलमध्ये बसत नाहीत.
हे दृश्य दररोज हजारो कार्यालयांमध्ये घडते. मूल्ये अमूर्त नाहीत. ती नोकरी मिळवणे आणि अल्गोरिदमद्वारे दुर्लक्षित केले जाणे यातील फरक आहेत. क्रेडिट स्कोअरिंग, मेडिकल ट्रायज आणि अगदी न्यायालयीन शिक्षेसाठीही हेच लॉजिक लागू होते. प्रत्येक बाबतीत, ‘धोका’ किंवा ‘गुणवत्ता’ यांसारखे मानवी मूल्य संख्येत रूपांतरित केले जाते. धोका असा आहे की आपण या संख्यांना वस्तुनिष्ठ सत्य मानतो, त्याऐवजी त्या व्यक्तिनिष्ठ निवडी आहेत. आपण अनेकदा नैतिक निर्णयाचे कठीण काम मशीनकडे सोपवतो कारण ते वेगवान आणि कमी अस्वस्थ करणारे असते. पण मशीन फक्त आपले अस्तित्वात असलेले पूर्वग्रह अशा स्केलवर स्वयंचलित करत आहे ज्याचे आपण सहज निरीक्षण करू शकत नाही.
आपण दररोज वापरत असलेली उत्पादने हे युक्तिवाद वास्तव बनवतात. जेव्हा फोटो एडिटिंग ॲप एखाद्या व्यक्तीची त्वचा अधिक ‘चांगली’ दिसण्यासाठी आपोआप उजळ करते, तेव्हा ते एक मूल्य व्यक्त करत असते. जेव्हा नेव्हिगेशन ॲप ‘हाय क्राईम’ क्षेत्रे टाळते, तेव्हा ते सुरक्षितता आणि सामाजिक वर्गाबद्दल मूल्य निर्णय घेत असते. या तांत्रिक त्रुटी नाहीत. त्या डेटा आणि मानवांनी प्रदान केलेल्या रिवॉर्ड फंक्शन्सचा तार्किक निष्कर्ष आहेत. आपण अशा जगात जगत आहोत जिथे आपले सॉफ्टवेअर सतत आपल्या वतीने नैतिक निवडी करत आहे. बहुतेक वेळा, काहीतरी चुकीचे होईपर्यंत आपल्याला हे घडत असल्याचे लक्षातही येत नाही. आपण त्या ‘उपयुक्त’ वैशिष्ट्यांबद्दल अधिक टीकात्मक असले पाहिजे जी प्रत्यक्षात फक्त गृहितके आहेत.
इंडस्ट्रीमधील अलीकडील बदल म्हणजे ‘स्टिअरेबिलिटी’ (steerability) कडे होणारा प्रवास. कंपन्या आता वापरकर्त्यांना त्यांच्या AI चे ‘व्यक्तिमत्व’ किंवा ‘मूल्ये’ नियंत्रित करण्याची अधिक संधी देत आहेत. तुम्ही मॉडेलला ‘अधिक सर्जनशील’ किंवा ‘अधिक व्यावसायिक’ होण्यास सांगू शकता. हे सक्षमीकरण वाटत असले तरी, ते प्रत्यक्षात जबाबदारी वापरकर्त्यावर परत ढकलते. जर AI ने पूर्वग्रहदूषित उत्तर दिले, तर कंपनी असा दावा करू शकते की वापरकर्त्याने पॅरामीटर्स योग्यरित्या सेट केले नाहीत. हे जबाबदारीचे एक जटिल जाळे तयार करते जिथे आउटपुटसाठी कोणीही खरोखर जबाबदार नसते. आपण स्थिर मूल्यांच्या जगाकडून द्रव, वापरकर्ता-परिभाषित मूल्यांच्या जगाकडे जात आहोत, जे स्वतःचे धोके आणि बक्षिसे घेऊन येते.
स्वयंचलित नैतिकतेची किंमत
आपण ‘सुरक्षित’ AI च्या कल्पनेवर सॉक्रेटिक संशयवाद लागू केला पाहिजे. जर एखादे मॉडेल पूर्णपणे अलाइन असेल, तर ते कोणाच्या मूल्यांशी अलाइन आहे? आज आपण पाहतो त्या सुरक्षा फिल्टरची एक लपलेली किंमत आहे. अनेकदा, हे फिल्टर विकसनशील देशांमधील कमी मजुरीवर काम करणाऱ्या कामगारांचा वापर करून तयार केले जातात. लोकांना इंटरनेटवरील सर्वात भयानक मजकूर वाचण्यासाठी तासाला काही डॉलर्स दिले जातात जेणेकरून मशीन ते टाळायला शिकू शकेल. आपण मुळात मूल्य निश्चितीचा मानसिक आघात ग्लोबल साऊथकडे आउटसोर्स करत आहोत. जर एखाद्या AI ची सुरक्षा शोषित कामगारांच्या पाठीवर बांधलेली असेल, तर ते खरोखर ‘नैतिक’ आहे का? हा असा प्रश्न आहे ज्याची उत्तरे टेक इंडस्ट्रीला थेट द्यायला आवडत नाही.
दुसरी मर्यादा म्हणजे ‘नैतिकतेचा भ्रम’ (hallucination of morality). कारण ही मॉडेल्स अनुकरण करण्यात खूप चांगली आहेत, त्यामुळे जेव्हा ते नैतिकतेबद्दल बोलतात तेव्हा ते खूप खात्रीशीर वाटू शकतात. ते दार्शनिक आणि कायदेशीर उदाहरणे सहजपणे देऊ शकतात. पण त्यांना त्यातील काहीही समजत नाही. ते फक्त अनुक्रमातील पुढच्या टोकनचा अंदाज लावत आहेत.
BotNews.today सामग्री संशोधन, लेखन, संपादन आणि भाषांतरित करण्यासाठी AI साधनांचा वापर करते. माहिती उपयुक्त, स्पष्ट आणि विश्वसनीय ठेवण्यासाठी आमची टीम प्रक्रियेचे पुनरावलोकन आणि पर्यवेक्षण करते.
- राजकारण किंवा धर्मासारख्या व्यक्तिनिष्ठ विषयांसाठी ‘ग्राउंड ट्रुथ’ कोण ठरवते?
- जेव्हा खाजगी कॉर्पोरेशनची मूल्ये लोकशाही समाजाच्या मूल्यांशी संघर्ष करतात तेव्हा काय होते?
- ट्रेनिंग दरम्यान खरोखर कशाला बक्षीस दिले गेले हे पाहण्यासाठी आपण RLHF च्या ‘ब्लॅक बॉक्स’चे ऑडिट कसे करू शकतो?
- ज्या जगावर मशीन प्रशिक्षित केले गेले आहे ते मुळातच अन्यायकारक असेल तर मशीन कधीही खरोखर ‘निष्पक्ष’ असू शकते का?
मर्यादेचे आर्किटेक्चर
पॉवर युजर्ससाठी, AI ची ‘मूल्ये’ अनेकदा सिस्टम प्रॉम्प्ट आणि API कॉन्फिगरेशनमध्ये आढळतात. हे त्या तंत्रज्ञानाचे २० टक्के भाग आहे जे उर्वरित ८० टक्के अनुभवावर नियंत्रण ठेवते. जेव्हा तुम्ही API द्वारे मॉडेलशी संवाद साधता, तेव्हा तुम्ही ‘टेम्परेचर’ आणि ‘टॉप-पी’ सेटिंग्ज पाहू शकता. हे केवळ तांत्रिक नॉब्स नाहीत. ते मॉडेलला सर्वात संभाव्य (आणि अनेकदा सर्वात पूर्वग्रहदूषित) प्रतिसादापासून किती विचलित होण्याची परवानगी आहे हे नियंत्रित करतात. कमी टेम्परेचर मॉडेलला अधिक अंदाज करण्यायोग्य आणि ‘सुरक्षित’ बनवते, तर उच्च टेम्परेचर अधिक ‘सर्जनशीलते’साठी परवानगी देते पण अधिक जोखीमही वाढवते. या सेटिंग्ज व्हॅल्यू अलाइनमेंटमधील बचावाची पहिली फळी आहेत.
वर्कफ्लो इंटिग्रेशन हे जिथे रबर रस्त्याला भेटते. डेव्हलपर्स आता ‘गार्डरेल’ लेयर्स तयार करत आहेत जे वापरकर्ता आणि मॉडेलच्या दरम्यान असतात. हे लेयर्स इनपुट आणि आउटपुटमधील मूल्यांच्या उल्लंघनाची तपासणी करण्यासाठी दुय्यम मॉडेल्स वापरतात. हे नियंत्रणाची बहुस्तरीय प्रणाली तयार करते. तथापि, या गार्डरेल्सच्या स्वतःच्या API मर्यादा आणि लॅटन्सी खर्च आहेत. एक जटिल सुरक्षा स्टॅक प्रतिसादाला अनेक सेकंदांनी धीमा करू शकतो, जे प्रोडक्शन वातावरणात एक महत्त्वपूर्ण तडजोड आहे. शिवाय, या मॉडेल्सचे स्थानिक स्टोरेज अधिक सामान्य होत आहे. मॉडेल स्थानिक पातळीवर चालवल्याने वापरकर्त्याला कॉर्पोरेट फिल्टर बायपास करण्याची परवानगी मिळते, परंतु त्यासाठी महत्त्वपूर्ण VRAM आणि GGUF किंवा EXL2 सारख्या ऑप्टिमाइझ्ड क्वांटायझेशन तंत्रांची आवश्यकता असते.
खऱ्या अर्थाने गीक लेव्हलचे आव्हान म्हणजे मूल्यांसाठी ‘फाईन ट्यूनिंग’. यामध्ये बेस मॉडेल घेणे आणि विशिष्ट उदाहरणांच्या लहान, उच्च-गुणवत्तेच्या डेटासेटवर त्याला प्रशिक्षित करणे समाविष्ट आहे. अशा प्रकारे कंपन्या असे AI तयार करतात जे त्यांच्या विशिष्ट ब्रँड व्हॉइस किंवा कायदेशीर गरजा प्रतिबिंबित करतात. हे मॉडेलच्या वजनामध्ये मूल्ये ‘हार्ड कोड’ करण्याचा एक मार्ग आहे. पण ही प्रक्रिया महागडी आहे आणि त्यासाठी ग्रेडियंट डिसेंट आणि लॉस फंक्शन्सची सखोल समज आवश्यक आहे. बहुतेक वापरकर्ते हे कधीही करणार नाहीत, परंतु जे करतात तेच मशीनच्या ‘नैतिकते’वर खरोखर नियंत्रण ठेवतात. तेच त्यांच्या विशिष्ट डिजिटल इकोसिस्टममध्ये काय शक्य आहे याची सीमा ठरवत आहेत. तांत्रिक मर्यादा या मशीनच्या नैतिकतेच्या खऱ्या मर्यादा आहेत.
तुम्ही आम्हाला कव्हर करावे असे तुम्हाला वाटणारी AI कथा, साधन, ट्रेंड किंवा प्रश्न आहे का? तुमची लेखाची कल्पना आम्हाला पाठवा — आम्हाला ती ऐकायला आवडेल.
अंतिम मानवी विशेषाधिकार
दिवसाच्या शेवटी, AI हे एक साधन आहे, देव नाही. त्याला मूल्ये नसतात; त्याला सूचना असतात. मानवासारख्या संवादाकडे झालेल्या अलीकडील बदलामुळे हे वास्तव अस्पष्ट झाले आहे, ज्यामुळे आपण मशीनच्या ‘निर्णयावर’ विश्वास ठेवण्याची शक्यता वाढली आहे. आपण या इच्छेचा प्रतिकार केला पाहिजे. नैतिक परिणामांची जबाबदारी ही सिस्टीम डिझाइन करणाऱ्या, तैनात करणाऱ्या आणि वापरणाऱ्या मानवांकडेच राहते. आपण ‘दुष्ट’ AI बद्दल कमी आणि ‘न्यूट्रल’ AI चा वापर करून स्वतःचे पूर्वग्रह न्याय्य ठरवणाऱ्या मानवांबद्दल जास्त काळजी केली पाहिजे. मशीन त्याच्या मालकाच्या हेतूंइतकेच चांगले असते.
आपल्याकडे सुरुवातीच्या प्रश्नांपेक्षा अधिक तीक्ष्ण प्रश्न उरले आहेत. जसे AI आपल्या आयुष्यात अधिक समाकलित होत आहे, तसे आपल्याला ठरवावे लागेल की आपल्या मानवतेचे कोणते भाग आपण स्वयंचलित करण्यास तयार आहोत आणि कोणते भाग आपण संरक्षित केले पाहिजेत. हे केवळ चांगल्या शोध परिणामांबद्दल किंवा वेगवान ईमेलबद्दल नाही. हे आपण प्रजाती म्हणून कोण आहोत आणि आपल्याला कोणत्या प्रकारचे जग निर्माण करायचे आहे याबद्दल आहे. आपण तंत्रज्ञानाच्या सोयीमुळे त्याच्या वापराच्या परिणामांकडे दुर्लक्ष करू शकत नाही. AI चे युग म्हणजे मानवी मूल्यांचा अंत नाही. हा आपल्या इतिहासातील एका नवीन, अधिक कठीण प्रकरणाची सुरुवात आहे. आपण ते हेतूने लिहिण्यासाठी तयार असले पाहिजे.
संपादकाची नोंद: आम्ही ही साइट बहुभाषिक AI बातम्या आणि मार्गदर्शिका केंद्र म्हणून अशा लोकांसाठी तयार केली आहे जे संगणक तज्ञ नाहीत, परंतु तरीही कृत्रिम बुद्धिमत्ता समजून घेऊ इच्छितात, अधिक आत्मविश्वासाने तिचा वापर करू इच्छितात आणि आधीच येत असलेल्या भविष्याचा मागोवा घेऊ इच्छितात.
काही चूक आढळली किंवा काही दुरुस्त करायचे आहे का? आम्हाला कळवा.