LessWrong.com AI जोखिम, भाग 1: डीपमाइंड से शेन लेग का साक्षात्कार

छवि हब्बर के नमस्कार पाठकों! मुझे हाल ही में पता चला कि आर्टिफिशियल इंटेलिजेंस (एआई) कंपनी दीपइंड को गूगल ने $ 500 मिलियन में अधिग्रहण किया था। मैंने दीपमाइंड के शोधकर्ताओं के बारे में कुछ जानने के लिए इंटरनेट पर खोज शुरू की, उनका साक्षात्कार लिया और पाश्चात्य विशेषज्ञों के साथ डीएफ़एम डॉट कॉम पर एकत्र किए गए डीपमाइंड के शेन लेग को पाया नीचे मैं शेन लेग के साथ एक साक्षात्कार का अनुवाद दूंगा, जो मुझे दिलचस्प लगा। लेख के दूसरे भाग में दस अन्य AI शोधकर्ताओं के साथ साक्षात्कार होंगे।

शेन लेग एक कंप्यूटर साइंस वैज्ञानिक और एआई शोधकर्ता हैं जो सुपर इंटेलिजेंट मशीनों (AIXI) के सैद्धांतिक मॉडल पर काम करते हैं। उनकी पीएचडी थीसिस, "सुपर-इंटेलिजेंस ऑफ द मशीन" 2008 में पूरी हुई थी। उन्हें आर्टिफिशियल इंटेलिजेंस पुरस्कार और कनाडाई इंस्टीट्यूट ऑफ सिंगुलैरिटी से $ 10,000 से सम्मानित किया गया था। शेन की कृतियों की एक सूची यहां पाई जा सकती है

शेन लेग के साथ साक्षात्कार, 17 जुलाई, 2011


मूल लेख

उपयोग की गई संक्षिप्तियाँ:

CHII : मानव स्तर का AI (इसके बाद - मानव AI, CHII, कृत्रिम जेनरिक इंटेलिजेंस, मानव-स्तर AI)
एससीआई : सुपरहुमन एआई

Q1 : यह मानते हुए कि FDI अनुसंधान को वैश्विक तबाही से निलंबित नहीं किया जाएगा, आपकी राय में, FDI को किस वर्ष में 10% / 50% / 90% की संभावना के साथ विकसित किया जाएगा?

स्पष्टीकरण:

  P (FDI (वर्ष) | कोई युद्ध नहीं ∧ कोई आपदा नहीं economic राजनीतिक और आर्थिक समर्थन) = 10% / 50% / 90% 


शेन लेग : 2018, 2028, 2050।



Q2 : एआई विकास के परिणाम की विफलता और पूर्ण विफलता होने की कितनी संभावना है?

स्पष्टीकरण:
 पी (भयानक परिणाम | असफल एआई) =?  # मानव जाति का लोप
 P (बिल्कुल भयानक परिणाम | असफल AI) =?  # मानव जाति की पीड़ा 

शेन लेग : यह वास्तव में इस बात पर निर्भर करता है कि आप शर्तों को कैसे परिभाषित करते हैं। सच है, यह मुझे लगता है कि मानवता का गायब होना अभी भी आएगा, और प्रौद्योगिकी इसमें एक भूमिका निभाएगी। ( संभवतः, यह प्रजाति होमो सेपियंस के विलुप्त होने को संदर्भित करता है, और सामान्य रूप से बुद्धिमान जीवन का नहीं - लगभग अनुवादक ।)। लेकिन ऐसा होने पर एक बड़ा अंतर है - एफडीआई के आविष्कार के एक साल बाद या इसके दस लाख साल बाद। मुझे इसकी संभावना के बारे में पता नहीं है। शायद 5%, शायद 50%। मुझे नहीं लगता कि कोई भी अच्छा निशान दे सकता है।

यदि यातना से आप लंबे समय तक पीड़ा का मतलब है, मुझे लगता है कि यह संभावना नहीं है। अगर कोई सुपर-इंटेलिजेंट मशीन हमसे छुटकारा पाना चाहती है, तो वह इसे काफी कुशलता से करेगी। मुझे नहीं लगता कि हम मानव जाति के दुख को अधिकतम करने के लिए स्वेच्छा से एक मशीन बनाना शुरू करेंगे।



क्यू 3 : एफएचआई किस संभावना के साथ घंटे / दिनों / 5 वर्षों के भीतर एक बड़े पैमाने पर अलौकिक बौद्धिक मशीन (एचएफबीआई) में पुनर्निर्माण करेगा?

स्पष्टीकरण:

 पी (एचएफआईडी घंटों के लिए | एफडीआई, मानव गति से संचालन, 100 जीबी नेटवर्क कनेक्शन) =?
 P (एचएफआईडी दिनों के लिए | एफडीआई, मानव गति से संचालन, 100 जीबी नेटवर्क कनेक्शन) =?
 P (SRI <5 साल के लिए। SRI, मानव गति से काम कर रहा है, 100 Gb नेटवर्क कनेक्शन) =?


शेन लेग : "मानव-स्तरीय एफडीआई गति" एक अस्पष्ट शब्द है। बिना किसी संदेह के, कार किसी चीज़ में एक व्यक्ति से बेहतर होगी, लेकिन किसी चीज़ में बदतर होगी। इसमें क्या बेहतर हो सकता है - यह परिणामों में एक बड़ा अंतर पैदा कर सकता है।

किसी भी मामले में, मुझे संदेह है कि, FDI बनाने के बाद, डेवलपर्स स्वतंत्र रूप से इसे FDI तक बढ़ा देंगे, मशीन स्वयं ऐसा नहीं करेगी। उसके बाद, कार आत्म-सुधार में लगेगी, सबसे अधिक संभावना है।

मैं इसे कितनी तेजी से कर सकता हूं? शायद बहुत तेजी से, लेकिन यह भी संभव है कि कभी नहीं - नॉनलाइनियर जटिलता की सीमाएं हो सकती हैं, जिसका अर्थ है कि सैद्धांतिक रूप से इष्टतम एल्गोरिदम भी कंप्यूटिंग शक्ति को जोड़ने पर खुफिया में कम वृद्धि देते हैं।



Q4: क्या एआई समस्या को हल करने से पहले हमारे और हमारे मूल्यों (सुरक्षित) के लिए एआई को अनुकूल बनाना और साबित करना महत्वपूर्ण है?

शेन लेग : यह मुझे चिकन और अंडे के बारे में एक सवाल की तरह लगता है। फिलहाल, हम इस बारे में आम राय नहीं बना सकते हैं कि खुफिया क्या है और इसे कैसे मापना है, और एफडीआई कैसे काम करना चाहिए, इस पर सभी एक आम राय में नहीं आ सकते हैं। अगर हम वास्तव में यह नहीं जानते हैं कि हम कैसे कुछ सुरक्षित बना सकते हैं? कुछ सैद्धांतिक प्रश्नों पर विचार करना उपयोगी हो सकता है। लेकिन एआई की एक विशिष्ट और बुनियादी समझ के बिना, मुझे लगता है कि इन मुद्दों का एक सार विश्लेषण बहुत विविध हो जाएगा।



Q5 : एआई के संभावित जोखिमों को खत्म करने के लिए अब कितने पैसे की आवश्यकता है (उदाहरण के लिए, इस सदी से बचने के लिए, अपने व्यक्तिगत दूर के लक्ष्यों की उपलब्धि में योगदान), कम / पर्याप्त / थोड़ा अधिक / बहुत अधिक / incommensurably अधिक।

शेन लेग : एक बहुत अधिक। हालांकि, जैसा कि चैरिटी के मामले में होता है, यह संभावना नहीं है कि समस्या को पैसे के साथ पंप करने से सुविधा मिलती है, और वास्तव में यह स्थिति खराब हो सकती है। मुझे वास्तव में लगता है कि मुख्य मुद्दा वित्तीय नहीं है, यह एक सांस्कृतिक मुद्दा है (जोर। ट्रांस।)। मुझे लगता है कि एआई के साथ प्रगति होने पर यहां समाज में बदलाव होने शुरू हो जाएंगे और लोग अपने जीवन के दौरान एफडीआई की घटना को अधिक गंभीरता से लेना शुरू कर देंगे। मुझे लगता है कि इस बिंदु तक, एआई के जोखिमों का एक गंभीर अध्ययन वैकल्पिक रहेगा।



Q6 : AI जोखिम अन्य अस्तित्वगत जोखिमों से अधिक है, जैसे कि उन्नत नैनो क्षमताओं से जुड़े लोग? स्पष्टीकरण: क्या अस्तित्वगत जोखिम (जैसे मानवता के विलुप्त होने) आपके व्यक्तिगत दीर्घकालिक लक्ष्यों पर सबसे बड़ा नकारात्मक प्रभाव पड़ने की संभावना है अगर जोखिम को कम करने के लिए कुछ भी नहीं किया जाता है।

शेन लेग : मेरे लिए, यह इस सदी में नंबर 1 है, इसके बगल में है, लेकिन दूसरे स्थान पर एक जैविक रोगज़नक़ का निर्माण है।


Q7 : एआई जोखिमों के बारे में जागरूकता का मौजूदा स्तर, अपेक्षाकृत आदर्श क्या है?

शेन लेग : बहुत कम ... लेकिन यह एक दोधारी तलवार है: जब तक मुख्यधारा के अनुसंधान समुदाय समस्या के बारे में चिंता करना शुरू कर देते हैं, हम बड़ी कंपनियों और / या सरकारों को गुप्त रूप से आतंकित करना शुरू कर सकते हैं। इस मामले में, सबसे अधिक संभावना है, हर कोई बुरा होगा।


प्रश्न 8 : क्या आप मंच, मील के पत्थर के बारे में बात कर सकते हैं, जिसके बाद हमें पांच साल के भीतर एफडीआई हासिल करने की संभावना है?

शेन लेग : यह एक कठिन सवाल है! जब मशीन गेम का काफी व्यापक सेट खेल सकती है, तो इनपुट और आउटपुट पर धारणा की एक धारा होती है, और विभिन्न खेलों के बीच अनुभव का पुन: उपयोग करने में भी सक्षम होती है। मुझे लगता है कि इस मामले में, हम दृष्टिकोण करना शुरू कर देंगे।

17 जुलाई, 2011




अनुवादक का नोट: मैंने खुद को संस्कृति के बारे में शेन लेग की राय जानने की अनुमति दी - वह एआई के आविष्कार के लिए संसाधन समस्या को सांस्कृतिक आदान-प्रदान के मुद्दे से कम महत्वपूर्ण मानता है। जब मैं इस राय को रूसी वास्तविकता में स्थानांतरित करने की कोशिश करता हूं, तो मेरे पास अलग-अलग विचार हैं - नकारात्मक, इस तथ्य से संबंधित है कि पूरे बड़े रूस के भीतर लगभग कोई सांस्कृतिक आदान-प्रदान नहीं है, और सकारात्मक है, इस तथ्य के कारण कि डेवलपर्स जो एआई बनाने की संभावना का गंभीरता से आकलन करते हैं। उनके जीवन या तो देश छोड़ देंगे या सामाजिक क्षेत्र के विकास में योगदान देंगे।

Source: https://habr.com/ru/post/In213069/


All Articles