गणना से पता चलता है कि सुपर-बुद्धिमान AI को नियंत्रित करना असंभव होगा

मानव जाति की कृत्रिम बुद्धिमत्ता को टॉप करने के विचार के बारे में बात की गई है कई दशकवैज्ञानिकों ने अभी अपना निर्णय लिया है कि क्या हम एक उच्च अंत कंप्यूटर की बुद्धिमत्ता को नियंत्रित कर पाएंगे। उत्तर? बेशक नहीं।

मुद्दा यह है कि मानव की समझ से बहुत आगे जाने वाले एक सुपरिन्टिजेन्स को नियंत्रित करने के लिए उस सुपरिंटेडनेस का अनुकरण आवश्यक है जिसका हम विश्लेषण कर सकते हैं। लेकिन अगर हम इसे समझने में असमर्थ हैं, तो इस तरह का अनुकरण बनाना असंभव है।

नए पेपर के लेखकों के सुझाव के अनुसार, अगर हम परिदृश्यों के प्रकार को नहीं समझेंगे, तो एआई कैसे सामने आएगा, “मानव को कोई नुकसान न हो” जैसे नियमों को स्थापित करना संभव नहीं है। एक बार जब एक कंप्यूटर सिस्टम हमारे प्रोग्रामर की सीमा से अधिक के स्तर पर संचालित होता है, तो हम अब सीमा निर्धारित नहीं कर सकते हैं।

‘रोबोट एथिक्स’ स्लोगन के तहत आमतौर पर पढ़े जाने वाले व्यक्ति से सुपरिन्टिजेन्स मौलिक रूप से एक समस्या है। शोधार्थी लिखें

“ऐसा इसलिए है क्योंकि अधीक्षणीय बुद्धिमत्ता बहुआयामी है और इस प्रकार लक्ष्यों को प्राप्त करने के लिए संभावित रूप से विभिन्न प्रकार के संसाधन जुटाने में सक्षम है जो मानवों के लिए अजेय होने की संभावना है, अकेले उन्हें नियंत्रित करें।”

टीम के अनुमान का एक हिस्सा आता है समस्या बंद हो गई इसे 1936 में एलन ट्यूरिंग द्वारा लाया गया था। समस्या यह जानने के इर्द-गिर्द घूमती है कि कंप्यूटर प्रोग्राम किसी नतीजे पर पहुंचेगा या नहीं और इसका जवाब (इसलिए यह बंद हो जाता है), या सिर्फ एक को खोजने की कोशिश को दोहराता है।

READ  अंतरिक्ष यात्री इस तरह से अंतरिक्ष में थैंक्सगिविंग मनाते हैं

कुछ के माध्यम से ट्यूरिंग भी साबित हुआ है स्मार्ट गणित, जबकि हम यह जान सकते हैं कि कुछ विशिष्ट कार्यक्रमों के लिए, एक ऐसी विधि खोजना तार्किक रूप से असंभव है जो हमें हर संभावित कार्यक्रम के लिए यह जानने की अनुमति दे, जो किसी भी समय लिखा जा सकता है। यह हमें कृत्रिम बुद्धि में वापस लाता है, जो एक सुपर-बुद्धिमान राज्य में हर संभव कंप्यूटर प्रोग्राम को एक साथ अपनी मेमोरी में रख सकता है।

एआई को मनुष्यों को नुकसान पहुंचाने और दुनिया को नष्ट करने से रोकने के लिए लिखा गया कोई भी कार्यक्रम, उदाहरण के लिए, किसी निष्कर्ष पर पहुंच सकता है (या रुक सकता है) या नहीं – यह गणितीय रूप से असंभव है कि वह पूरी तरह से सुनिश्चित हो, जिसका अर्थ है कि इसमें निहित नहीं है।

“वास्तव में, यह रोकथाम एल्गोरिथम को अनुपयोगी बनाता है” कंप्यूटर वैज्ञानिक इयाद रहवान कहते हैंजर्मनी में मैक्स प्लैंक इंस्टीट्यूट फॉर ह्यूमन डेवलपमेंट से।

शोधकर्ताओं ने एआई को कुछ नैतिकता सिखाने और इसे दुनिया को नष्ट न करने के विकल्प के रूप में कहा है – ऐसा कुछ जिसे कोई भी एल्गोरिथ्म पूरी तरह से सुनिश्चित नहीं कर सकता है – वह है अधीक्षण की क्षमताओं को सीमित करना। उदाहरण के लिए, इसे इंटरनेट या कुछ नेटवर्क के कुछ हिस्सों से काट दिया जा सकता है।

नया अध्ययन इस विचार को भी खारिज करता है, यह दर्शाता है कि यह पहुंच को सीमित करेगा कृत्रिम होशियारी तर्क यह जाता है कि अगर हम इसका उपयोग मानवता के बाहर की समस्याओं को हल करने के लिए नहीं करने जा रहे हैं, तो हम इसे क्यों बनाते हैं?

READ  मार्स रोवर ने की चौंकाने वाली खोज! यह हमारे लाल ग्रह पर रहने के तरीके को प्रभावित कर सकता है

अगर हम एआई के साथ आगे बढ़ते, तो हमें यह भी पता नहीं चलता कि हमारे नियंत्रण से परे एक अधीक्षण, जैसे कि इसे समझ में नहीं आता, आता है। इसका मतलब है कि हम उन दिशाओं के बारे में कुछ गंभीर सवाल पूछना शुरू कर सकते हैं, जिनमें हम आगे बढ़ रहे हैं।

“दुनिया को नियंत्रित करने वाली सुपर इंटेलिजेंट मशीन विज्ञान कथा की तरह लगती है,” कंप्यूटर वैज्ञानिक मैनुअल सीब्रियन कहते हैंमैक्स प्लैंक इंस्टीट्यूट फॉर ह्यूमन डेवलपमेंट से। “लेकिन वास्तव में ऐसी मशीनें हैं जो प्रोग्रामर के बिना स्वतंत्र रूप से कुछ महत्वपूर्ण कार्यों को पूरी तरह से समझती हैं कि उन्होंने उन्हें कैसे सीखा।”

इसलिए सवाल उठता है कि क्या यह किसी बिंदु पर नियंत्रण से बाहर हो सकता है और मानवता के लिए खतरनाक है।

शोध में प्रकाशित किया गया है आर्टिफिशियल इंटेलिजेंस रिसर्च जर्नल

प्रातिक्रिया दे

आपका ईमेल पता प्रकाशित नहीं किया जाएगा.