
अंग्रेजी भाषा के इंटरनेट पर सबसे चर्चित खबरों में से एक दर्शनशास्त्र के प्रोफेसर ह्यूग प्राइस के साथ एक साक्षात्कार था, जिसमें कैम्ब्रिज विश्वविद्यालय (सीएसईआर) में ग्लोबल रिस्क के अध्ययन के लिए केंद्र के आसन्न शुभारंभ की घोषणा के साथ, और सीएसईआर के संदर्भ में "मशीन विद्रोह" का विषय प्रचलित हो गया।
यहां तक कि बहुत रूढ़िवादी दर्शकों के साथ समाचार साइटों पर, जैसे कि BBCnews, प्रासंगिक
समाचार के तहत टिप्पणियों की संख्या कई सौ तक पहुंच जाती है।
मुझे आपको सार की याद दिलाएं: सेंटर फॉर द स्टडी ऑफ एक्जिस्टेंशियल रिस्क (CSER) वैश्विक जोखिमों की जांच करने जा रहा है कि जैव प्रौद्योगिकी, नैनोटेक्नोलोजी, परमाणु अनुसंधान, मानवजनित जलवायु परिवर्तन और कृत्रिम बुद्धिमत्ता संभावित संभावित धोखाधड़ी हैं। सेंटर के संस्थापक दर्शन
ह्यूग प्राइस के प्रोफेसर और कैम्ब्रिज विश्वविद्यालय के खगोल भौतिकी के प्रोफेसर
मार्टिन रीज़ के साथ-साथ स्काइप के संस्थापकों में से एक,
जान तेलिन हैं , जिनके पास टार्टू विश्वविद्यालय में सैद्धांतिक भौतिकी में डिग्री है।
आज मानव जाति की प्रगति विकासवादी प्रक्रियाओं द्वारा इतनी अधिक नहीं है जितनी कि तकनीकी विकास। इससे लोग अधिक समय तक जीवित रह सकते हैं, कार्यों को तेजी से पूरा कर सकते हैं और अपनी इच्छा से कम या ज्यादा विनाश की व्यवस्था कर सकते हैं।
हालांकि, कंप्यूटिंग प्रक्रियाओं की बढ़ती जटिलता अंततः एक कृत्रिम बुद्धिमत्ता (एआई) के निर्माण की ओर ले जाएगी, मूल्य और तेलिन सुनिश्चित हैं। और महत्वपूर्ण क्षण तब आएगा जब यह "सार्वभौमिक दिमाग" स्वतंत्र रूप से कंप्यूटर प्रोग्राम बनाने और अपनी खुद की तरह बनाने के लिए तकनीक विकसित कर सकेगा।
"गोरिल्ला लो, उदाहरण के लिए," प्रोफेसर मूल्य का सुझाव देते हैं। "वे गायब होने का कारण बिल्कुल भी नहीं है कि लोग उन्हें सक्रिय रूप से मार रहे हैं, लेकिन यह कि हम पर्यावरण को उन तरीकों से प्रबंधित करते हैं जो हमें सूट करते हैं लेकिन उनके अस्तित्व के लिए विनाशकारी हैं।"
उपमा पारदर्शी से अधिक है। "किसी भी बिंदु पर, इस सदी या अगले, हमें मानव जाति के इतिहास में सबसे महान ट्विस्ट और मोड़ में से एक का सामना करना होगा - शायद अंतरिक्ष का इतिहास भी - जब बुद्धि जीव विज्ञान से आगे निकल जाती है," प्रोफेसर मूल्य का वादा करता है। "प्रकृति ने हमें पूर्वाभास नहीं कराया और हम, बदले में एआई को नहीं लेना चाहिए।"
अधिकांश भाग के लिए रोबोटिक्स और उच्च तकनीक से जुड़े विशेषज्ञ, प्रोफेसर के बयानों के बारे में काफी उलझन में थे। एल्गोरिदम में सॉफ़्टवेयर क्रैश और त्रुटियां - कुछ समझने योग्य, अनुमानित और सशर्त रूप से मूर्त - एक तथ्य के अमूर्त खतरों की तुलना में मानव मन के लिए बहुत आसान है जो अभी तक मौजूद नहीं है।
हालांकि, एआई से जुड़ी समस्याएं न केवल कैंब्रिज के प्रोफेसरों को परेशान करती हैं। 2001 से, संयुक्त राज्य अमेरिका में एक गैर-लाभकारी संगठन है, जिसे
SIAI , एकवचन संस्थान के रूप में जाना जाता है। उनके हितों में "बौद्धिक विस्फोट" और "अमित्र" एआई के उद्भव से जुड़े संभावित खतरों का अध्ययन करना शामिल है। संस्थान के सह-संस्थापकों में से एक,
एलिएजर श्लोमो युडकोव्स्की , व्यापक रूप से
तकनीकी विलक्षणता के मुद्दों (इसके बाद की तकनीकी प्रगति मानव समझ के लिए दुर्गम होगी) के अपने अध्ययन के लिए जाना जाता है।
अपने काम में, "आर्टिफिशियल इंटेलिजेंस एक सकारात्मक और नकारात्मक कारक के रूप में वैश्विक जोखिम" (रूसी में
यहां उपलब्ध
है ), युडकोव्स्की लिखते हैं: "वैश्विक तबाही के तरीकों में से एक यह है कि जब कोई बटन दबाता है, तो इस बटन का गलत आइडिया होने पर - जब एआई काम करने वाले एल्गोरिदम के एक समान संलयन के माध्यम से उठता है, तो एक शोधकर्ता के पास जिसकी गहरी समझ नहीं होती है कि पूरी प्रणाली कैसे काम करती है ... एक अनुकूल एआई बनाने का अज्ञान अपने आप में घातक नहीं है, यदि आप जानते हैं कि आप नहीं जानते हैं। यह गलत धारणा है कि AI अनुकूल होगा, वैश्विक तबाही का स्पष्ट रास्ता होगा। ”
और इस साल के अगस्त में एक शानदार वास्तविकता का एक सा है - बिजनेस इनसाइडर ने हार्वर्ड यूनिवर्सिटी बायोइन्जीनियर्स द्वारा "साइबर मांस" बनाने की घोषणा की। अध्ययन के परिणाम प्रकृति सामग्री में
प्रकाशित किए गए थे।
डिजाइन नैनोवायर और ट्रांजिस्टर की एक जटिल संरचना है, जिस पर मानव ऊतक निर्मित होते हैं। साइबरफेल मानव शरीर के दिल की धड़कन की तरह डेटा को ट्रैक और संचारित कर सकता है। "यह हमें वास्तव में इलेक्ट्रॉनिक, अकार्बनिक प्रणालियों और जैविक, जैविक के बीच की सीमाओं को धुंधला करने की अनुमति देता है," अनुसंधान दल के प्रमुख चार्ल्स लिबर ने कहा।
अतिरिक्त रूप से: तेलिन और मूल्य का लेख "
एआई - क्या हम इसे एक बॉक्स में रख सकते हैं?" "।