"मशीनों के विद्रोह" के खतरे का अध्ययन किया जाएगा



अंग्रेजी भाषा के इंटरनेट पर सबसे चर्चित खबरों में से एक दर्शनशास्त्र के प्रोफेसर ह्यूग प्राइस के साथ एक साक्षात्कार था, जिसमें कैम्ब्रिज विश्वविद्यालय (सीएसईआर) में ग्लोबल रिस्क के अध्ययन के लिए केंद्र के आसन्न शुभारंभ की घोषणा के साथ, और सीएसईआर के संदर्भ में "मशीन विद्रोह" का विषय प्रचलित हो गया।

यहां तक ​​कि बहुत रूढ़िवादी दर्शकों के साथ समाचार साइटों पर, जैसे कि BBCnews, प्रासंगिक समाचार के तहत टिप्पणियों की संख्या कई सौ तक पहुंच जाती है।

मुझे आपको सार की याद दिलाएं: सेंटर फॉर द स्टडी ऑफ एक्जिस्टेंशियल रिस्क (CSER) वैश्विक जोखिमों की जांच करने जा रहा है कि जैव प्रौद्योगिकी, नैनोटेक्नोलोजी, परमाणु अनुसंधान, मानवजनित जलवायु परिवर्तन और कृत्रिम बुद्धिमत्ता संभावित संभावित धोखाधड़ी हैं। सेंटर के संस्थापक दर्शन ह्यूग प्राइस के प्रोफेसर और कैम्ब्रिज विश्वविद्यालय के खगोल भौतिकी के प्रोफेसर मार्टिन रीज़ के साथ-साथ स्काइप के संस्थापकों में से एक, जान तेलिन हैं , जिनके पास टार्टू विश्वविद्यालय में सैद्धांतिक भौतिकी में डिग्री है।

आज मानव जाति की प्रगति विकासवादी प्रक्रियाओं द्वारा इतनी अधिक नहीं है जितनी कि तकनीकी विकास। इससे लोग अधिक समय तक जीवित रह सकते हैं, कार्यों को तेजी से पूरा कर सकते हैं और अपनी इच्छा से कम या ज्यादा विनाश की व्यवस्था कर सकते हैं।

हालांकि, कंप्यूटिंग प्रक्रियाओं की बढ़ती जटिलता अंततः एक कृत्रिम बुद्धिमत्ता (एआई) के निर्माण की ओर ले जाएगी, मूल्य और तेलिन सुनिश्चित हैं। और महत्वपूर्ण क्षण तब आएगा जब यह "सार्वभौमिक दिमाग" स्वतंत्र रूप से कंप्यूटर प्रोग्राम बनाने और अपनी खुद की तरह बनाने के लिए तकनीक विकसित कर सकेगा।

"गोरिल्ला लो, उदाहरण के लिए," प्रोफेसर मूल्य का सुझाव देते हैं। "वे गायब होने का कारण बिल्कुल भी नहीं है कि लोग उन्हें सक्रिय रूप से मार रहे हैं, लेकिन यह कि हम पर्यावरण को उन तरीकों से प्रबंधित करते हैं जो हमें सूट करते हैं लेकिन उनके अस्तित्व के लिए विनाशकारी हैं।"

उपमा पारदर्शी से अधिक है। "किसी भी बिंदु पर, इस सदी या अगले, हमें मानव जाति के इतिहास में सबसे महान ट्विस्ट और मोड़ में से एक का सामना करना होगा - शायद अंतरिक्ष का इतिहास भी - जब बुद्धि जीव विज्ञान से आगे निकल जाती है," प्रोफेसर मूल्य का वादा करता है। "प्रकृति ने हमें पूर्वाभास नहीं कराया और हम, बदले में एआई को नहीं लेना चाहिए।"

अधिकांश भाग के लिए रोबोटिक्स और उच्च तकनीक से जुड़े विशेषज्ञ, प्रोफेसर के बयानों के बारे में काफी उलझन में थे। एल्गोरिदम में सॉफ़्टवेयर क्रैश और त्रुटियां - कुछ समझने योग्य, अनुमानित और सशर्त रूप से मूर्त - एक तथ्य के अमूर्त खतरों की तुलना में मानव मन के लिए बहुत आसान है जो अभी तक मौजूद नहीं है।

हालांकि, एआई से जुड़ी समस्याएं न केवल कैंब्रिज के प्रोफेसरों को परेशान करती हैं। 2001 से, संयुक्त राज्य अमेरिका में एक गैर-लाभकारी संगठन है, जिसे SIAI , एकवचन संस्थान के रूप में जाना जाता है। उनके हितों में "बौद्धिक विस्फोट" और "अमित्र" एआई के उद्भव से जुड़े संभावित खतरों का अध्ययन करना शामिल है। संस्थान के सह-संस्थापकों में से एक, एलिएजर श्लोमो युडकोव्स्की , व्यापक रूप से तकनीकी विलक्षणता के मुद्दों (इसके बाद की तकनीकी प्रगति मानव समझ के लिए दुर्गम होगी) के अपने अध्ययन के लिए जाना जाता है।

अपने काम में, "आर्टिफिशियल इंटेलिजेंस एक सकारात्मक और नकारात्मक कारक के रूप में वैश्विक जोखिम" (रूसी में यहां उपलब्ध है ), युडकोव्स्की लिखते हैं: "वैश्विक तबाही के तरीकों में से एक यह है कि जब कोई बटन दबाता है, तो इस बटन का गलत आइडिया होने पर - जब एआई काम करने वाले एल्गोरिदम के एक समान संलयन के माध्यम से उठता है, तो एक शोधकर्ता के पास जिसकी गहरी समझ नहीं होती है कि पूरी प्रणाली कैसे काम करती है ... एक अनुकूल एआई बनाने का अज्ञान अपने आप में घातक नहीं है, यदि आप जानते हैं कि आप नहीं जानते हैं। यह गलत धारणा है कि AI अनुकूल होगा, वैश्विक तबाही का स्पष्ट रास्ता होगा। ”

और इस साल के अगस्त में एक शानदार वास्तविकता का एक सा है - बिजनेस इनसाइडर ने हार्वर्ड यूनिवर्सिटी बायोइन्जीनियर्स द्वारा "साइबर मांस" बनाने की घोषणा की। अध्ययन के परिणाम प्रकृति सामग्री में प्रकाशित किए गए थे।

डिजाइन नैनोवायर और ट्रांजिस्टर की एक जटिल संरचना है, जिस पर मानव ऊतक निर्मित होते हैं। साइबरफेल मानव शरीर के दिल की धड़कन की तरह डेटा को ट्रैक और संचारित कर सकता है। "यह हमें वास्तव में इलेक्ट्रॉनिक, अकार्बनिक प्रणालियों और जैविक, जैविक के बीच की सीमाओं को धुंधला करने की अनुमति देता है," अनुसंधान दल के प्रमुख चार्ल्स लिबर ने कहा।

अतिरिक्त रूप से: तेलिन और मूल्य का लेख " एआई - क्या हम इसे एक बॉक्स में रख सकते हैं?" "।

Source: https://habr.com/ru/post/In161397/


All Articles