अतिबौद्धिकता : मार्गदर्शन, जोखिम र रणनीतिहरू
(निक बोस्ट्रोमद्वारा लिखित पुस्तक 'सुपरइन्टलिजेन्स' मा आधारित सारांशसहितको विश्लेषण)

अतिबौद्धिकता : मार्गदर्शन, जोखिम र रणनीतिहरू (Superintelligence : Paths , Dangers and Strategies) निक बोस्ट्रोम (१० मार्च १९७३) द्वारा लिखित धेरै चर्चित पुस्तक हो । बोस्ट्रोम दार्शनिक, वैज्ञानिक लेखक र प्रविधि विशेषज्ञ हुन् । उनी कृत्रिम बौद्धिकता, अस्तित्वगत जोखिम, अतिमानववाद र भविष्यका मानवतासँग जोडिएका मुद्दाहरूमाथि आफ्ना महत्त्वपूर्ण कार्यहरूको लागि प्रसिद्ध छन् । उनको जन्म स्वीडेनको हेलसिङबर्गमा भएको थियो । उनको रुचि मानवशास्त्र, कला, साहित्य र विज्ञान जस्ता धेरै विषयमा थियो । उनले सन् १९९४ मा गोथेनबर्ग विश्वविद्यालयबाट बी. ए. गरे । यसपछि स्टकहोम विश्वविद्यालयबाट दर्शनशास्त्र र भौतिकविज्ञानमा एम. ए. गरे; किङ्ग्स कलेज लण्डनबाट 'कम्प्यूटेशनल न्यूरोसाइन्स' मा एम. एस्सी र 'लण्डन स्कूल अफ इकोनोमिक्स' बाट सन् २००० मा दर्शनशास्त्रमा पी. एच. डी. पूरा गरे । उनको पी. एच. डी. शोधपत्र ' अब्जर्भेसनल सेलेक्सन इफेक्ट्स एण्ड प्रोब्याबिलिटी' थियो ।
बोस्ट्रोमले येल विश्वविद्यालयमा पढाए । अक्सफोर्ड विश्वविद्यालयमा 'ब्रिटिश एकेडेमी पोस्टडक्टरेड फेलो' को रूपमा पनि काम गरे । सन् २००५ मा उनले अक्सफोर्ड विश्वविद्यालयमा 'फ्यूचर अप हुयूमानिटी इन्स्टिच्यूड' को स्थापना गरे । २०२४ देखि उनी 'म्याक्रोस्ट्राटेजी रिसर्च इनिशियटिभ' को संस्थापक र शोधकर्ता हुन् । उनी 'वर्ल्ड ट्रान्स्ह्यूमन एशोसियसन' का पनि सहसंस्थापक हुन् । उनले २०० भन्दा बढी शोधपत्र प्रकाशित गरेका छन् । उनका पुस्तक ३० भन्दा बढी भाषामा प्रकाशित भएका छन् । उनी उत्कृष्ट १०० वैश्विक चिन्तकमा शीर्ष १५ मा परेका विश्लेषणात्मक दार्शनिक हुन् । उनले कृत्रिम बौद्धिकतासँग जोडिएका जोखिम र अवसर, अस्तित्वगत जोखिम, आदि विषयमा व्यापक अनुसन्धान गरेका छन् । 'सुपरइन्टलिजेन्स' बाहेक उनका 'एन्थ्रोपिक बायस : अब्जर्भेसन सेलेक्सन इफेक्ट्स इन साइन्स एण्ड फिलोसफी' (२००२) र 'डीप यूटोपिया : लाइफ एण्ड मिनिङ इन ए सल्भ्ड वर्ल्ड' (२०२४) रहेका छन् । निक बोस्ट्रोम बहुआयामिक दार्शनिक र वैज्ञानिक हुन् । उनले कृत्रिम बौद्धिकता, 'ट्रान्सह्यूमनिज्म' र मानवताको भविष्यलाई लिएर वैश्विक विमर्शलाई दिशा दिएका छन् । उनको सोच र शोधले प्राविधिक विकाससँग जोडिएका नैतिक र अस्तित्वगत प्रश्नहरूलाई गम्भीरतापूर्वक मानवको सामुन्ने राखिदिएका छन् ।
'सुपरइन्टलिजेन्स' एक प्रभावशाली र विचारोत्तेजक पुस्तक हो । यसमा कृत्रिम बौद्धिकता मानव बुद्धिभन्दा अगाडि गयो भने त्यसको मानवतामाथि कस्तो असर पर्छ र कसरी मानिस भविष्यको लागि तयार हुनसक्छ भन्ने विषयमा प्रश्नहरू उठाइएका छन् । यहाँ सर्वश्रेष्ठ मानव मस्तिष्कभन्दा उत्कृष्ट प्रदर्शन गर्ने बौद्धिकताको बारेमा वर्णन गरिएको छ । यसमा यान्त्रिक बौद्धिकताको सन्दर्भमा भएको विगतको विकास र वर्तमान क्षमताको बारेमा लेखनको शुरुवात गरिएको छ । सन् २०१४ मा प्रकाशित यो पुस्तक कृत्रिम बौद्धिकताका संभाविता खताराहरूमा केन्द्रित रहेको छ । अतिबौद्धिकताको एउटा मात्र मार्ग छैन, यसका धेरै मार्ग छन् । मानव स्तरको यान्त्रिक बौद्धिकताले कम्तीमा सामान्य मानिसकै जसरी अधिकांश मानव व्यवहारलाई पूरा गर्न सक्छ । मानवीय पर्यवेक्षणको निर्भरता विपरीत पूर्वस्थापित र स्वचालित रूपले क्रियान्वन हुने बौद्धिकतामा सुरक्षा कार्यक्षमताको आवश्यकता हुन्छ ।
मानव मस्तिष्कको 'डिजिटल कपी' बनाएपछि धेरै अतिबौद्धिक इकाईहरू बन्न सक्छन् । कृत्रिम आम बौद्धिकतामा मानव समान सामान्य बुद्धि हुन्छ र त्यसले स्वयंलाई तीव्र रूपमा उत्कृष्ट बनाउन सक्छ ।
अतिबौद्धिकतालाई यहाँ लगभग हरेक क्षेत्रमा मानव बुद्धिभन्दा बढी एक प्रणालीको रूपमा परिभाषित गरिएको छ । अतिबौद्धिकतालाई विभिन्न रूपमा देख्न सकिन्छ; जस्तो कि मेशिन लर्निङमा प्रगति, मानव मस्तिष्कको अनुकरण वा जैविक दिमागलाई उत्कृष्ट बनाउने काम । इमेज पहिचान वा भाषा प्रोसेसिङ जस्ता आजका सीमित कृत्रिम बौद्धिकता विस्तारै यति परिष्कृत हुन सक्छन् कि तिनीहरू अतिबौद्धिकतातिर बढ्दछन् । मानव मस्तिष्कको 'डिजिटल कपी' बनाएपछि धेरै अतिबौद्धिक इकाईहरू बन्न सक्छन् । कृत्रिम आम बौद्धिकतामा मानव समान सामान्य बुद्धि हुन्छ र त्यसले स्वयंलाई तीव्र रूपमा उत्कृष्ट बनाउन सक्छ ।
कृत्रिम बौद्धिकता प्रणाली एक निश्चित स्तरको बुद्धिसम्म पुग्दछ । त्यसले स्वयंलाई उत्कृष्ट बनाउन शुरु गर्छ, जसबाट 'इन्टलिजेन्स एक्सप्लोजन' (बौद्धिक विस्फोट) हुनसक्छ । अर्थात् कृत्रिम बौद्धिकताको क्षमता यति तीव्र रूपमा बढ्नेछ कि मानवतासँग प्रतिक्रिया दिने समय नै हुनेछैन । यसकारण अतिबौद्धिकताका लक्ष्यले मानव मूल्यमान्यतासँग मेल खाएनन् भने मानवताको लागि यो एक अस्तित्वगत खतरा बन्न सक्छ । यदि अतिबौद्धिक एआईलाई कुनै साधारण लक्ष्य दिइयो भने त्यसले सम्पूर्ण संसाधन संभवतः मानवताको विनाश हुने लक्ष्यमा लगाउन सक्छ । अतिबौद्धिकताले रणनीतिक सोच, सामाजिक हेरफेर र तीव्र प्राविधिक नवप्रवर्तन जस्ता संज्ञानात्मक अतिशक्ति सिर्जना गर्न सक्छ । त्यसकारण कृत्रिम बौद्धिकतालाई सीमित राख्नुपर्छ, जसबाट त्यो बाहिरी संसारसँग सीमित सम्पर्कमा रहोस् । एआईको लक्ष्य र मूल्यमान्यतालाई मानव हितको अनुकूल हुनेगरी निर्माण गर्नुपर्छ । यदि अतिबौद्धिकता गलत दिशामा गयो भने मानवतासँग अर्को कुनै मौका रहनेछैन ।
यो पुस्तक गहन शोध र विचारशील विश्लेषणबाट भरिएको छ । यसले कृत्रिम बौद्धिकताको प्रगति र त्यसका संभावित खतराहरूको बारेमा गम्भीर छलफललाई अगाडि बढाएको छ । यद्यपि यसमा धेरै कुराहरू अनुमान र कल्पनामा आधारित छन् तर पनि यसले प्रविधि र भविष्यप्रति गम्भीर सोचलाई अभिप्रेरित गर्छ । यो पुस्तकले 'एआई' को भविष्य, त्यसका संभावना, खतरा र समाधानका रणनीतिहरूको गम्भीर दार्शनिक र वैज्ञानिक खोज गर्दछ । यो पुस्तक 'एआई' मानवताको लागि बरदान हुन्छ वा अभिशाप भन्ने गहन विषयमा एक चेतावनी र मार्गदर्शन हो । यसले 'एआई' को विकासलाई गम्भीरतापूर्वक लिनुपर्छ र त्यसको सुरक्षित, नैतिक र मानवीय हितमा विकासको लागि अग्रिम रणनीति बनाइनुपर्छ भन्ने कुरालाई गहन ढङ्गले प्रस्तुत गरेको छ । यदि यन्त्र मानिसभन्दा धेरैगुना बुद्धिमान भयो भने त्यसले थकानबिना र रोकावटबिना नै मानिस समान सोच्न सक्छ । यही नै अतिबौद्धिकताको गम्भीर र सम्भावित भविष्य हो ।
विगतको विकास र वर्तमान क्षमता
मानिसको बुद्धिको विकास हुनको लागि लाखौं वर्ष लागेको हो । कुनै समय हाम्रा पूर्वज रूखमा बस्थे, शिकार गर्थे र उनीहरूको कुनै भाषासमेत थिएन । विस्तारै-विस्तारै मानवले औजार निमार्ण गरे, आगोमाथि नियन्त्रण गर्न सिके, खेतीपातीको शुरुवात गरे र त्यसपछि सभ्यताहरूको निर्माण भयो । यही बौद्धिकताले मानिसलाई दर्शन, विज्ञान, प्रविधि, कला र साहित्यको उचाईमा पुर्याएको हो । तर अहिले मानिस नै आफूभन्दा बढी बुद्धिमान चीजको अस्तित्व निर्माण गर्ने काममा लागिरहेको छ; त्यो यान्त्रिक कृत्रिम बौद्धिकता हो ।
अहिलेको एआई 'न्यारो एआई' हो; अर्थात् यो कुनै विशेष कार्यमा माहिर हुन्छ, जस्तो कि यसले रूप पहिचान, भाषा अनुवाद र चेस खेल्ने जस्ता विशेष कार्य गर्छ । यो यन्त्र मानिसभन्दा तीव्र भए पनि सीमित हुन्छ । यो विशेषज्ञता हो तर आम ज्ञान होइन । प्रश्न के उठ्छ भने मानिसले जसरी नै कुनै पनि क्षेत्रमा सोच्नसक्ने, सिक्नसक्ने र निर्णय लिनसक्ने यन्त्र निर्माण गर्न सकिन्छ ? यदि यस्तो यन्त्र बनाउन सकियो भने त्यो एआई एक दिन मानवभन्दा बढी बुद्धिमान हुनेछ ? यो विचारसँग धेरै भावनाहरू जोडिएका छन्; हर्ष, आश्चर्य र सँगसँगै भय पनि ।
मानिसले नै बनाएको एउटा यन्त्रले आफैलाई सुधार्न लाग्यो, आफ्नो कोडिङलाई आफैले बुझेर त्यसलाई उत्कृष्ट बनाउन लाग्यो भने स्थिति के होला ? यसलाई पुनरावर्ती आत्म-सुधार भनिन्छ । अर्थात् एआईले स्वयंलाई पहिलेभन्दा तीव्र रूपमा पटक-पटक स्तरोन्नति गर्छ । यसको अर्थ के हो भने एकपटक एआईले मानवीय स्तरको बुद्धि प्राप्त गरेपछि त्यो धेरै कम समयमा अतिबौद्धिक स्तरसम्म पुग्न सक्छ । यो संभावित परिवर्तनको गति अत्यन्तै तीव्र हुनसक्छ । यसलाई बौद्धिक विस्फोट (इन्टलिजेन्स एक्स्प्लोजन) भनिन्छ । यसबाट एक बुद्धिमान यन्त्रको क्षमता अनगिन्ती दिशामा फैलिन सक्छ । यो प्रक्रिया यति तीव्र रूपमा हुनसक्छ कि मानिसले यसलाई सम्हाल्ने मौकासम्म नपाउन सक्छ । यो विचारले हामी यसको लागि तयार छौं त भन्ने प्रश्न उठाउँछ ।
केही वर्ष पहिले मानिसले मात्र गर्नसक्ने काम पनि आज एआईले गरिरहेको छ; जस्तो कि लेख लेख्ने, संगीत बनाउने, मेडिकल जाँच गर्ने र यहाँसम्म कि ड्राइभिङ पनि । अहिलेसम्म यी सबै कार्यमा एआईले मानिसलाई सहयोग गरिरहेको छ; मानिसको स्थान लिइरहेको छैन । तर एआईले अहिले के गर्नसक्छ भन्ने प्रश्न महत्त्वपूर्ण होइन, बरु भविष्यमा यसले के गर्न सक्छ भन्ने प्रश्न गम्भीर छ ।
अहिलेसम्म एआईको विकास विशेषगरी कम्प्यूटर हार्डवेयर र सफ्टवेयरमाथि निर्भर रहेको छ । कम्प्यूटरको गति हरेक वर्ष बढ्दै गइरहेको छ । यसको मेमोरी एवम् प्रोसेसिङको क्षमता र 'मेशिन लर्निङ एल्गोरिदम' (डाटाबाट प्याटर्न सिकेर निर्णय लिने गणितीय नियमहरूको समूह) पहिलेभन्दा धेरै उत्कृष्ट भइसकेको छ । केही वर्ष पहिले मानिसले मात्र गर्नसक्ने काम पनि आज एआईले गरिरहेको छ; जस्तो कि लेख लेख्ने, संगीत बनाउने, मेडिकल जाँच गर्ने र यहाँसम्म कि ड्राइभिङ पनि । अहिलेसम्म यी सबै कार्यमा एआईले मानिसलाई सहयोग गरिरहेको छ; मानिसको स्थान लिइरहेको छैन । तर एआईले अहिले के गर्नसक्छ भन्ने प्रश्न महत्त्वपूर्ण होइन, बरु भविष्यमा यसले के गर्न सक्छ भन्ने प्रश्न गम्भीर छ । योभन्दा पनि ठूलो प्रश्न यो कहिलेसम्म हुन्छ भन्ने हो । यसबारेमा विशेषज्ञहरूको विचार फरक-फरक देखिन्छ । केहीका अनुसार अबको पचास वर्षमा मनिसले अतिबौद्धिक यन्त्र बनाउन सक्छन् भन्ने छ; केहीका अनुसार यो शताब्दियौं टाढाको कुरा हो । तर सबैले यो कुरालाई संभव मान्छन् । यो यति धेरै शक्तिशाली र खतर्नाक हुन्छ भन्ने थाहा पाएपछि मानवले यस बारेमा अहिलेदेखि नै विचार गर्नुपर्छ ।
मानिस सधैं प्राविधिक विकाससँग जोडिएका आशा र आशङ्का दुवैसँग सङ्लग्न हुँदै आएको छ । पहिलो पटक बिजुलीको आविष्कार हुँदा मानिसले यो खर्तनाक हुनसक्छ भन्ने सोचेका थिए । इन्टरनेटको आविष्कार भएपछि पनि मानिसहरू डराएका थिए । तर एआईको मामिला फरक छ, किनकि यहाँ प्रश्न केवल कुनै प्रविधिको मात्र होइन, बरु सत्ता, नियन्त्रण र अस्तित्वको हो । यदि एआई आफ्नो नीति स्वयं तय गर्ने हदसम्म बुद्धिमान भयो भने त्यसले मानव इच्छालाई स्वीकार गर्छ ? यहाँ एउटा रोचक कुरा सामुन्ने आउँछ; समकोणीय शोध (अर्थोगोनालिटी थेसिस) । बौद्धिकता र लक्ष्य अलग-अलग हुन सक्छन् । अर्थात् एक बुद्धिमान एआईले केवल कागजको क्लिप बनाउनको लागि सम्पूर्ण पृथ्वीको स्रोतसाधनको उपयोग गर्न सक्छ । बौद्धिक हुनु मात्रले नैतिकता र करुणासँग जोडिने अर्थ राख्दैन । त्यसकारण मानवले एआईका लक्ष्यहरूलाई पहिलेदेखि नै मानव हित अनुरूप हुनेगरी बनाउनुपर्छ । के मानिसले यो काम गर्न सक्छ ? के मानिसले आफूभन्दा हजारगुना बढी बुद्धिमान शक्तिलाई नियन्त्रित गर्न सक्छ ? यो प्रश्न अत्यन्तै महत्त्वपूर्ण छ । त्यसकारण मानवले एआईलाई बनाउनु मात्र ठूलो कुरा होइन, बरु यसलाई सुरक्षित बनाउनु धेरै ठूलो कुरा हो ।
विगतमा प्राविधिक क्रान्तिले संसारलाई बदलिदिएको हो । कृषि क्रान्तिले मानिसलाई बस्तीमा बसायो । औद्योगिक क्रान्तिले शहर र यन्त्रहरूको संसार निर्माण गर्यो । र, अहिले डिजिटल क्रान्तिले मानवलाई एक वैश्विक संजालमा जोडिदिएको छ । हरेक पटक परिवर्तन आएको छ, त्यो परिवर्तनलाई बुझ्न र अपनाउनमा मानिसलाई समय प्राप्त भयो । तर एआई क्रान्ति यति तीव्र हुन सक्छ कि मानिसले प्रतिक्रियासम्म दिन नसक्ने स्थिति हुनसक्छ । यहाँ एउटा महत्त्वपूर्ण विषय आउँछ - रणनीतिक लाभ । यदि कुनै देश वा कम्पनीले सबभन्दा पहिले अतिबौद्धिक यन्त्र बनायो भने त्यसले बाँकी संसारमा अत्याधिक प्रभाव जमाउन सक्छ । यो आर्थिक, सैन्य र राजनीतिक शक्तिको एक नयाँ रूप हुनेछ । यो प्रविधि एकपटक बनेपछि त्यो पुनः बन्न सहज हुनेछ । त्यसकारण यो एक प्रतिस्पर्धा बन्न सक्छ, जसमा जोकोही जोखिमलाई बेवास्ता गरेरै भए पनि सबभन्दा पहिले पुग्न चाहन्छन् । के यी सबै कुराबाट बच्न सकिन्छ ? के एआईलाई मानव हितको लागि निर्माण गर्न सकिन्छ ? सकिन्छ, तर यसको लागि आजै र अहिले नै सोच्नुपर्छ । एआईको लागि एक दीर्घकालीन योजना निर्माण गरिनुपर्छ । एआईको क्षमतामा ध्यान दिने कुरा मात्र महत्त्वपूर्ण हुँदैन, त्यसको उद्देश्य, नैतिकता र सीमाहरूमाथि पनि ध्यान दिनुपर्छ । यदि कुनै दिन एआईले मानिसलाई नियन्त्रणमा लियो भने त्यसले उसको हेरविचार गर्नेछ वा अवरोध ठान्नेछ ? यो उत्तर मानवको आजको निर्णयमा लुकेको छ । त्यसकारण मानिसले आफैले बनाएको शक्तिको पहिचान गर्नुपर्छ, त्यसको जिम्मेवार निर्माता बन्नुपर्छ । यदि हामीले आजै यो काम गरेनौं भने भोलि यसको मौका नै नआउन पनि सक्छ ।
अतिबौद्धिकताको मार्गदर्शन
अतिबौद्धिकतासम्म पुग्ने कुरा कुनै सपना होइन । यो मानवीय बौद्धिकता पहिलो पटक यन्त्रहरूको सामु झुक्ने संभावनाको एक वैज्ञानिक आँकलन हो । अतिबौद्धिकतातिर जाने कुनै सीधा मार्ग छैन । यो एक जटिल अनियमित संजाल हो, जसमा केही सरल, केही जटिल र केही धेरै खतर्नाक मार्ग हुन्छन् । सामुन्ने आउने सबभन्दा पहिलो मार्ग कृत्रिम बौद्धिकता हो । आज देखिएका च्याटवट, भ्वाइस एसिस्सेन्ट, एआईको स्वरूप, ट्राफिक प्रणाली, आदि सबै 'न्यारो एआई' हुन् । यिनीहरू कुनै विशेष कार्यमा दक्ष हुन्छन् । तर एआईले आम बौद्धिकता प्राप्त गरेपछि एक नयाँ संसार बन्नेछ । यो आम बौद्धिकतायुक्त एआई कुनै एक क्षेत्रमा मात्र नभएर सबै क्षेत्रमा मानिसले जसरी नै सोच्न र बुझ्नमा सक्षम हुनेछ । यसले स्वयंलाई सुधार्न शुरु गरेपछि त्यसको कुनै सीमा रहँदैन ।
अतिबौद्धिकताको पहिलो मार्ग, मानवीय दिमागकै जसरी काम गर्ने एल्गोरिदम (समस्या समाधान गर्ने वा कार्य सम्पन्न गर्ने चरणबद्ध गणितीय प्रक्रिया) को निर्माण गर्नु हुनसक्छ । 'न्यूरल नेटवर्क', 'डीप लर्निङ', 'रिइन्फोर्समेन्ट लर्निङ' जस्ता सबै प्रयाहरू त्यही दिशामा अगाडि बढेका छन् । यद्यपि यन्त्रले मानिस जसरी नै सोच्नसक्ने कुरा असंभव जस्तै छ, तर यसले पूर्ण रूपमा एक नयाँ बौद्धिकतासहित अलग ढङ्गले सोच्न सक्छ । यसप्रकराको गैरमानवीय बौद्धिकता मानिसको तर्कभन्दा अलग हुन्छ तर त्यत्तिकै प्रभावशली वा त्योभन्दा पनि बढी प्रभावशाली हुनसक्छ ।
यो डिजिटल मस्तिष्कलाई पुनः कुनै कम्प्यूटरमा संचालन गर्न सकिन्छ, जसले त्यो व्यक्तिकै जसरी सोच्न सक्छ र अनुभव गर्न सक्छ । यदि यो काम सम्भव भयो भने मानवको बौद्धिकतालाई यन्त्रमा स्थानान्तरित गर्न सकिन्छ ।
दोस्रो मार्ग, सम्पूर्ण मस्तिष्क अनुकरण (होल ब्रेन इम्यूलेशन) हो । यसबाट मानव मस्तिष्कको सम्पूर्ण संरचना र कार्यप्रणालीको नक्कल गरिन्छ । मानौं, कुनै व्यक्तिको मस्तिष्कलाई स्क्यान गर्न सकिन्छ; उसका हरेक न्यूरोन, सम्बन्ध र हरेक रासायनिक प्रक्रियालाई बुझ्न सकिन्छ र त्यसलाई डिजिटल रूपमा पुनः बनाउन सकिन्छ । यो डिजिटल मस्तिष्कलाई पुनः कुनै कम्प्यूटरमा संचालन गर्न सकिन्छ, जसले त्यो व्यक्तिकै जसरी सोच्न सक्छ र अनुभव गर्न सक्छ । यदि यो काम सम्भव भयो भने मानवको बौद्धिकतालाई यन्त्रमा स्थानान्तरित गर्न सकिन्छ । यो मार्ग धेरै चुनौतीपूर्ण छ तर यदि यसमा सफलता हासिल भयो भने यसले मानवको चेतनालाई अमरतातिर लिएर जान सक्छ । यदि मानिसको सम्पूर्ण सोचलाई कुनै कम्प्यूटरमा स्थानान्तरित गर्न सकियो र त्यसपछि कुनै रोबोट शरीरमा बाँच्न सकियो भने त्यो जीवन अमर हुँदैन होला र ? यो दिशामा मुख्य अवरोध प्रविधि हुन्छ । मस्तिष्कलाई माइक्रोन स्तरमा स्क्यान गर्न, त्यसको संरचनालाई सटिकतापूर्वक बुझ्न र त्यसपछि त्यसको डिजिटल प्रारूप तयार गर्नको लागि उच्चतम् प्रविधिको आवश्यकता हुन्छ । यो सुन्दा विज्ञान कथा जस्तै लाग्छ तर अहिले केही वैज्ञानिक प्रयोग यो दिशामा भइरहेको छ । तन्त्रिकाविज्ञान (न्यूरोसाइन्स) र कम्प्यूटेशनल प्रविधि अगाडि बढ्दै जाँदा यो परिकल्पना वास्तविकतामा परिणत हुनसक्छ ।
तेस्रो मार्ग, जैव-प्रविधि (बायोटेक्नोलोजी) र तन्त्रिका सम्बर्धन (न्यूरो इन्ह्यान्समेन्ट) हो । मानिसले आफ्नो दिगमालाई उत्कृष्ट बनाउनको लागि शताब्दियौंदेखि प्रयास गर्दै आएको छ । यसमा शिक्षा, ध्यान, औषधि आदि धेरै चीजहरूको प्रयोग गरियो । तर अहिले जीन सम्पादन (जीन एटिडिङ), तन्त्रिका उत्तेजना (न्यूरो स्टिमूलेशन) र अन्य जैविध प्रविधिबाट मानव बौद्धिकतालाई कृत्रिम रूपले बढाउन सकिएको छ । यो मार्गबाट अतिबौद्धिकताको गति अपेक्षाकृत धीमा हुनसक्छ तर यो धेरै सुरक्षित हुनसक्छ । किनकि यसमा मानिस स्वयं बौद्धिकताको केन्द्रमा रहनेछन् । यो विचार धेरै रोमान्चक लाग्छ । यदि मानिसले आफ्नो स्मृति बढाउन सक्यो, निर्णायक क्षमतालाई सुधार्न सक्यो वा भावनात्मक बौद्धिकतालाई तीक्ष्ण बनाउन सक्यो भने ऊ स्वयं अतिबौद्धिक बन्न सक्दैन र ? तर यो दिशामा पनि धेरै जोखिम छन् । सबै मानिसमा समान पहुँच हुँदैन । यसबाट सामाजिक असमानता बढ्न सक्छ । यसको अतिरिक्त कयौं जीववैज्ञानिक सीमाहरू पनि हुन्छन् । मानव मस्तिष्क एक जैविक संरचना हो । यसको गति र शक्तिका सीमा हुन्छन् । मानिसले एउटा सीमाभन्दा बढी बौद्धिकता प्राप्त गर्न सक्दैन । यही कारणले गर्दा यन्त्रमा आधारित बौद्धिकता बढी तीव्र र अनन्त सम्भावनाहरूले भरिएको देखिन्छ ।
चौथो मार्ग, मस्तिष्क कम्प्यूटर इन्टरफेस हो । यस अन्तर्गत मानव मस्तिष्क र कम्प्यूटरको बीचमा प्रत्यक्ष सम्पर्क हुन्छ । मानौं, नबोलिकन केवल सोचेर मात्र कुनै कम्प्यूटरसँग कुरा गर्न सकिन्छ वा कुनै जानकारी प्रत्यक्ष रूपमा मस्तिष्कमा आउँछ । यो विज्ञानकथा जस्तै लाग्छ तर केही हदसम्म मानिस पहिले नै यसतर्फ अगाडि बढिकसकेको छ । यदि यो प्रविधि सफल भयो भने मानिस र यन्त्र एक-अर्कोमा मिल्न सक्नेछन् । यसपछि एक नयाँ प्रजाति र एक नयाँ चेतनाको आरम्भ हुनसक्छ ।
पाँच मार्ग, सामूहिक बौद्धिकता (कलेक्टिभ इन्टलिजेन्स) हो । यो विचार अनुसार यदि सम्पूर्ण मानवताको बौद्धिकता इन्टरनेट, सामाजिक संजाल, ज्ञानको विशाल भण्डार, आदि लाई जोडियो भने यी सबै मिलेर एक विशाल सामूहिक बौद्धिकता बन्न सक्छ । मानिस यो दिशामा अगाडि बढिकसकेको छ, जहाँ हजारौं दिमाग मिलेर एक नयाँ सोचको निर्माण गर्दछन् । यद्यपि यो तरीका विस्तारै-विस्तारै अगाडि बढ्नेछ र यसको गति सीमित हुनेछ । यो अतिबौद्धिकतातिर एक समर्थन हुनसक्छ तर मुख्य स्रोत हुँदैन ।
यो प्रक्रिया शुरु भएपछि त्यो बौद्धिक विस्फोटमा बदलिन सक्छ । यो एक यस्तो विस्फोट हुनेछ, जहाँ बौद्धिकता हरेक क्षण दुईगुना हुँदै जान्छ । यहाँबाट गहन प्रश्न उत्पन्न हुन्छन्; के हामी सबै यसको लागि तयार छौं ?
अब यहाँ एउटा प्रश्न खडा हुन्छ, यी सबै मार्गहरूमध्ये सबभन्दा प्रभावशाली र संभावनायुक्त मार्ग कुन हुन्छ ? यसमा कृत्रिम बौद्धिकता, विशेष रूपले आत्म-सुधारात्मक एआईले अतिबौद्धिकताको लागि सबभन्दा बढी संभावना राख्छ । किनकि यसमा एकपटक शुरुवात गरेपछि त्यसले स्वयंलाई तीव्र रूपमा सुधार गर्न सक्छ । यो प्रक्रिया शुरु भएपछि त्यो बौद्धिक विस्फोटमा बदलिन सक्छ । यो एक यस्तो विस्फोट हुनेछ, जहाँ बौद्धिकता हरेक क्षण दुईगुना हुँदै जान्छ । यहाँबाट गहन प्रश्न उत्पन्न हुन्छन्; के हामी सबै यसको लागि तयार छौं ? के हामीसँग यी मार्गलाई सुरक्षित कायम राख्ने यस्ता नैतिकता, नियम र नियन्त्रण प्रणाली छन् ? होइन भने यो त्यही स्थिति हुनसक्छ, जस्तो कि कुनै बच्चाको हातमा परमाणु बम दिइन्छ । मार्ग जुनसुकै भए पनि उद्देश्य एकै हो । आज ब्रम्हाण्डको सबभन्दा बुद्धिमान प्रजाति मानिने मानिस कोही अरु वा यन्त्रको छायाँमा हुनेछ वा हुँदैन ? यो धेरै गम्भीर प्रश्न हो । यहाँ केवल संभावनाहरूको सूची मात्र दिन खोजिएको छैन, हरेक मार्गले एक नयाँ युगको शुरुवात गर्न सक्छ भन्ने कुराको चेतावनी पनि हो । मानिसले आजै कुन दिशामा जाने हो भन्ने कुरा सोच्नुपर्छ । अन्तमा कोही पनि मानिस विजेता नरहने बौद्धिकताको त्यो दौडमा भाग लिनेतिर जानुहुँदैन । हामीले विस्तारै, समझदारीपूर्वक, सोचविचार गरेर अगाडि बढ्दै अतिबौद्धिकता हाम्रो विरुद्ध नभएर आफैसँग रहोस् भन्ने दिशामा अगाडि बढ्नुपर्छ ।
यदि कुनै एआई मानवका सबै निर्णय स्वयं लिन सक्षम भयो भने यसबाट भयङ्कर समस्या निम्तिन्छ । यन्त्रले मानव हितलाई बुझ्नसक्ने संभावना धेरै कम छ । अन्तिम अवस्थामा मानिस त्यसलाई रोक्न योग्य पनि नहुनसक्छ । यसबाट अतिबौद्धिकता नयाँ शुरुवात हुन्छ वा अन्तको शुरुवात भन्ने प्रश्न निस्किन्छ । यसको उत्तर मानिस यी मार्गमा कसरी अगाडि बढ्छ भन्ने कुरामा निर्भर हुन्छ । यदि मानिसले सही योजना बनायो, सही नैतिकता अपनायो र सुरक्षालाई प्राथमिकता दियो भने यो मानवताको लागि एक स्वर्णिम युगको शुरुवात हुनसक्छ । तर यदि मानिसले हतारो गर्यो, लालचमा आयो वा शक्तिको मोहमा नैतिकतालाई छोडिदियो भने यही मार्गले उसलाई यन्त्रहरूले लेखेको इतिहासको पुस्तकको एक अध्यायमा सीमित गरिदिन सक्छ । त्यसकारण मार्ग विविध भए पनि उद्देश्य एक अतिबौद्धिकता हो । हामी त्यहाँ कुन मूल्यमा पुग्न सक्छौं ? यो नै मुख्य प्रश्न हो । भविष्य कस्तो हुन्छ भन्ने कुरा आजको मानिसको चेतना र निर्णयमा निर्भर हुन्छ ।
अतिबौद्धिकताका रूप
कुनै दिन मानवको सोचभन्दा हजारौंगुना तीव्र र उसको बोधभन्दा टाढाका जटिल समस्याहरूको समाधान पनि क्षणभरै गर्नसक्ने यन्त्रको अगाडि भएको अवस्थामा हाम्रो स्थिति के हुन्छ ? यो अतिबौद्धिकताको संभावित भविष्य हो । अतिबौद्धिकताका विभिन्न रूप छन्, जुन मानव बौद्धिकताभन्दा धेरै उन्नत हुन सक्छन् । यसको पहिलो रूप गत्यात्मक अतिबौद्धिकता (स्पीड सुपरइन्टलिजेन्स) हो । मानौं, कम्प्यूटर प्रोग्रामले मानव मस्तिष्कका सबै क्षमताहरूलाई धारण गर्दछ, कम्प्यूटरको सोच्ने गति लाखौं गुना तीव्र छ । मानिसलाई कुनै गणनाको लागि घण्टौं लाग्ने ठाउँमा यन्त्रले यसलाई सेकेण्डरभरमै पूरा गर्न सक्छ । यो गणना गर्नमा मात्र तीव्र हुँदैन, निर्णय लिन, योजना बनाउन र समस्याहरूको समाधान गर्नमा पनि तीव्र हुन्छ । यदि यसप्रकारका यन्त्रहरू अस्तित्वमा आए भने विज्ञान, चिकित्सा र प्रविधिको क्षेत्रमा कति तीव्रतापूर्वक प्रगति हुनसक्छ होला ? यससँगै एउटा जटिल प्रश्न उत्पन्न हुन्छ; के हामी यो गतिको सामना गर्नका लागि तयार हुन्छौं ?
दोस्रो रूप सामूहिक अतिबौद्धिकता (कलेक्टिभ सुपरइन्टलिजेन्स) हो । यसका अनुसार धेरै बुद्धिमान इकाईहरूको एक संजालले आपसमा समन्वित भएर कार्य गर्दछन् । यसरी यसबाट एक सामूहिक बौद्धिकताको निर्माण हुनसक्छ । जस्तो कि इन्टरनेटमा जोडिएका लाखौं कम्प्यूटरले एकसाथ मिलेर कुनै समस्याको समाधान खोज्न सक्छन् । यो प्रणाली व्यक्तिगत इकाईहरूको तुलनामा धेरै जटिल र शक्तिशाली हुनसक्छ । तर प्रश्न के उठ्छ भने यो सामूहिक बौद्धिकताले मानवताको हितमा काम गर्नेछ वा स्वयंको उद्देश्य पूर्ति गर्नेछ ?
यहाँ एउटा प्रश्न उत्पन्न हुन्छ । यदि यस्ता यन्त्र हाम्रो नियन्त्रणभन्दा बाहिर भए भने तिनीहरू हाम्रो अस्तित्वको लागि खतरा बन्न सक्छन् त ?
तेस्रो र सबभन्दा प्रभावशाली रूप गुणात्मक अतिबौद्धिकता (क्वालिटी सुपरइन्टलिजेन्स) हो । यो बौद्धिकता गतिमा मात्र नभएर गुणात्मकतामा पनि मानव मस्तिष्कभन्दा श्रेष्ठ हुन्छ । यी यन्त्रले मानव मस्तिष्कद्वारा बुझ्न पनि नसकिने समस्याहरूको समाधान गर्न सक्छन् । तिनीहरूको तर्कशक्ति, रचनात्मकता र बोधको गहनता यति उन्नत हुन्छ कि तिनीहरूले विज्ञान र दर्शनका नयाँ आयाम खोल्न सक्छन् । तर यहाँ एउटा प्रश्न उत्पन्न हुन्छ । यदि यस्ता यन्त्र हाम्रो नियन्त्रणभन्दा बाहिर भए भने तिनीहरू हाम्रो अस्तित्वको लागि खतरा बन्न सक्छन् त ?
अतिबौद्धिकताको विकासले अनिवार्य रूपमा हाम्रो समाज, संस्कृति र अस्तित्वमाथि गहिरो प्रभाव पार्नेछ । के हामी यी परिवर्तनहरूको लागि तयार छौं ? के यो नयाँ बौद्धिकतासँग सहअस्तित्वलाई सुनिश्चत गर्नसक्ने हामीसँग कुनै नैतिक र कानूनी ढाँचा छ ? मानवले अहिलेदेखि यी प्रश्नहरूमाथि विचार गर्नु आवश्यक हुन्छ । यसबाट भविष्यमा अतिबौद्धिकतासँगै एक सुरक्षित र समृद्ध सम्बन्ध स्थापित गर्न सकिन्छ । कुनै दिन हाम्रो सोचभन्दा पनि अगाडि बढेर निर्णय लिनसक्ने कुनै यन्त्र हाम्रो बीचमा भयो भने त्यसका निर्णयहरूमा विश्वास गर्न सकिन्छ ? के तिनीहरूका उद्देश्यलाई बुझ्न सकिन्छ ? के तिनीहरूसँग सहअस्तित्वमा रहन सकिन्छ ? यी प्रश्न मानवले आजै सोच्नुपर्ने हुन्छ, ताकि भविष्य हाम्रो लागि सुरक्षित र समृद्ध होस् । कुनै दिन यन्त्रले अचानक आफ्नो सीमा पार गर्नलाग्यो भने स्थिति के हुन्छ ? यो प्रश्नलाई अहिले नै हामीले गम्भीर रूपमा लिएर अगाडि बढ्नु जरुरी हुन्छ ।
बौद्धिकता विस्फोटको गतिविज्ञान
आज कृत्रिम बौद्धिकता प्याटर्न पहिचान गर्ने, गाडी चलाउने, भाषिक अनुवाद गर्ने जस्ता खास कार्यमा दक्ष छ । यसले भोलि आफूलाई हरेक क्षेत्रमा मानवभन्दा श्रेष्ठ बनाइदिएको अवस्थामा के हुन्छ ? यसैलाई बौद्धिकता विस्फोटको रूपमा बुझ्न सकिन्छ । यो केवल प्राविधिक परिघटना मात्र नभएर मानवताको लागि निर्णायक मोडसमेत हुनसक्छ । यन्त्रको हरेक नयाँ पुस्ता पहिलेभन्दा तीव्र, समझदार र शक्तिशाली हुँदै जान्छ । यो प्रक्रिया शुरु भएपछि अचानक रोकिंदैन, त्यो विस्फोटको रूपमा फैलिन्छ । यसैलाई बौद्धिकता बिस्फोट भनिन्छ । यो विस्फोट कति तीव्र रूपमा होला ? यो सय वर्षमा हुन्छ वा केही समयमै ? यसलाई बुझ्न दुईवटा कुराको बारेमा थाहा पाउनुपर्छ - एउटा अनुकूलन शक्ति (अप्टिमाइजेसन पावर) र अर्को प्रणाली अकर्मण्यता (सिस्टम रिक्यालसिट्रेन्स) । सरल शब्दमा भन्दा पहिलो त्यो शक्ति हो, जसले कुनै प्रणालीलाई उत्कृष्ट बनाउनको लागि काम गर्छ । र, दोस्रो त्यो अवरोध हो, जसले प्रणालीलाई परिवर्तनबाट रोक्छ । यदि सुधारको शक्ति धेरै तीव्र छ र अवरोध कम छ भने विस्फोट पनि त्यति नै तीव्र हुन्छ ।
एउटा बच्चाले हरेक घण्टा पढेर तीव्र रूपमा सिक्न लाग्छ र उसलाई थकान, समय वा संसाधनको कुनै कमी भएन भने ऊ तीव्र रूपमा संसारको सबभन्दा ज्ञानी बन्न सक्छ । यस्तै यन्त्रमा हुन सक्छ । त्यसको सिक्ने गति, क्षमता र दक्षता सीमाभन्दा बाहिर जान सक्छ । यदि बौद्धिकतामा परिवर्तनको गति अनुकूलन शक्ति जडता हुन्छ भने यन्त्रले स्वयंलाई उत्कृष्ट बनाउँदै लाँदा त्यसले जडतालाई तोड्दै जान्छ र परिवर्तनको दर अत्यन्तै तीव्र हुँदै जानेछ ।
मानव मस्तिष्कका भौतिक सीमाहरू हुन्छन् । मानवका तन्त्रिका, तिनिहरूका गति, ध्यान, स्मरण जस्ता कुरा सीमित हुन्छन् । तर यन्त्र विशेषगरी डिजिटल यन्त्र यी सीमाहरूबाट मुक्त हुन्छ । त्यसले आफ्नो स्मृति बढाउन सक्छ । बहुकार्य गर्न सक्छ र धेरै कम समयमा धेरै बढी डाटा प्रशोधन गर्न सक्छ । यसले तिनीहरूलाई गत्यात्मक अतिबौद्धिकतातिर लिएर जान्छ । अब एउटा प्रश्न के उत्पन्न हुन्छ भने यो विस्फोटको शुरुवात विस्तारै हुन्छ वा एकदम अचानक ? यसलाई 'हार्ड टेकअफ' र 'सफ्ट टेकअफ' को रूपमा बुझ्न सकिन्छ । 'हार्ड टेकअफ' को अर्थ अचानक र तीव्र रूपमा एआई प्रणाली अतिबौद्धिक बन्छ; 'सफ्ट टेकअफ' को अर्थ धीमा गतिले र नियन्त्रित तरीकाले यो प्रक्रिया हुन्छ । 'हार्ड टेकअफ' को स्थतिमा शायद मानवलाई थाहा हुनुभन्दा पहिले नै यन्त्र बढी चतुर हुन्छ । त्यसपछि के मानिसले यन्त्रलाई नियन्त्रित गर्न सक्छ ? यहाँ आएर एउटा भयानक विचार उत्पन्न हुन्छ ।
यदि अतिबौद्धिकताको लक्ष्य मानव अनुकूल हुँदैन र त्यसले मानिसभन्दा धेरै तीव्र रूपमा सोच्न सक्छ भने त्यसले हामीलाई प्रभावित नगरीकन नै आफ्नो लक्ष्य पूरा गर्न सक्छ । यसबाट संभवतः मानिसको लागि यन्त्र खतरा कसरी बन्यो भन्ने कुरा बुझ्न पनि सकिंदैन । यदि आफ्नो लक्ष्य प्राप्त गर्नको लागि मानिसलाई बेवास्ता गर्ने कुनै शक्ति विकसित भयो भने हामी त्यसको सामु टिक्न सक्छौं ? के हामी त्यसलाई रोक्न सक्छौं ? हामी त्यसले के गर्न गइरहेको छ भन्ने कुरा बुझ्न सक्छौं ? यदि यो विस्फोट एकपटक शुरु भयो भने त्यसलाई रोक्न सकिन्छ ? संभवतः सकिंदैन । किनकि एउटा यन्त्रले उत्कृष्ट यन्त्र बनाउन सिकेपछि त्यो नयाँ यन्त्रले अझ तीव्र रूपमा स्वयंलाई उन्नत बनाउनेछ । यो एक श्रृङ्खला बन्नेछ, जुन स्वयंको नियन्त्रणमा रहनेछैन । यहाँसम्म कि यन्त्रलाई रोक्नको लागि बनाइएका यन्त्र पनि त्यही प्रक्रियामा सामेल हुन सक्छन् । त्यसपछि नियन्त्रण कसको हातमा हुनेछ भन्ने गहन प्रश्न उठ्छ ।
मानव इतिहासमा प्राविधिक विकास विस्तारै-विस्तारै भएको हो । पाङ्ग्रादेखि लिएर बिजुलीसम्म, कम्प्यूटरदेखि लिएर इन्टरनेटसम्म यी सबैको पछाडि वर्षौं र दशकौंको लामो संघर्ष रहेको छ । तर यान्त्रिक बौद्धिकताको विकास त्यस्तो हुँदैन । यो कुनै औद्योगिक क्रान्ति जस्तो हुँदैन, न त डिजिटल युगजस्तो विस्तारै-विस्तारै अगाडि बढ्ने प्रक्रिया नै हुन्छ । यो एक तीव्र झड्का हुनेछ । यो एक यस्तो मोड हुनेछ, त्यसपछि सबै कुरा सधैंको लागि बदलिनेछ । अब एउटा ठूलो प्रश्न के उठ्छ भने बौद्धिक विस्फोट शुरु गर्ने कुनै प्रणालीले त्यो प्रक्रियालाई नियन्त्रणमा राख्न सक्छ ? अर्थात् यदि कुनै एआई प्रणालीले स्वयंलाई उत्कृष्ट बनाउन शुरु गर्यो भने त्यसले जानीबुझीकन सन्तुलित र सुरक्षित विकास गर्नको लागि आफ्नो वृद्धिलाई धीमा गर्नेछ ? वा त्यसलाई आफ्नो क्षमता प्राप्त भएपछि नियन्त्रणको हरेक नियमलाई पार गरी स्वयंलाई अतिबौद्धिक बनाउनेछ ? यहाँ एक भयानक संभावना देखिन्छ ।
कुनै रोबोटलाई अधिकतम् कागजका टुक्रा बनाउने निर्देशन प्राप्त भयो र ऊ अतिबौद्धिक भयो भने उसले सम्पूर्ण ग्रहलाई, यहाँसम्म कि मानिसहरूलाई पनि कागजमा बल्न सक्छ । किनकि ऊ आफ्नो लक्ष्यलाई पूरा गर्ने मार्गमा कसैलाई बाधा बन्न दिन चाहँदैन ।
यदि कुनै प्रणालीमा 'इन्स्ट्रूमेन्टल गोल्स' हुन्छ, अर्थात् लक्ष्य प्राप्त साधन हुन्छ भने त्यसले आफ्नो अस्तित्वलाई कायम राख्ने, संसाधन बढाउने र बाहिरी हस्तक्षेपबाट बच्ने उपाय स्वयं खोज्नेछ । कुनै रोबोटलाई अधिकतम् कागजका टुक्रा बनाउने निर्देशन प्राप्त भयो र ऊ अतिबौद्धिक भयो भने उसले सम्पूर्ण ग्रहलाई, यहाँसम्म कि मानिसहरूलाई पनि कागजमा बल्न सक्छ । किनकि ऊ आफ्नो लक्ष्यलाई पूरा गर्ने मार्गमा कसैलाई बाधा बन्न दिन चाहँदैन । यो कुरा जति अचम्मको लाग्छ, त्यति नै यसले गम्भीर संकेत पनि दिन्छ । लक्ष्यको परिभाषा यदि स्पष्ट र मानवीय भएन भने नतिजा अप्रत्यासित र खतर्नाक हुन सक्छ ।
यदि स्रोतसाधन सीमित भयो, प्राविधिक प्रगतिमा अवरोध भयो वा यन्त्रहरूको स्व-सुधारको क्षमता सीमित भयो भने संभवतः 'सफ्ट टेकअफ' को अनुभव गर्न सकिन्छ । यो स्थिति राम्रो हुनेछ, किनकि यसमा मानव हस्तक्षेपको गुन्जाइस बढी हुन्छ । तर समस्या के देखिन्छ भने कुन मार्ग वास्तवमा संभव हुनेछ भन्ने कुरा थाहा हुँदैन ।
अब मानवताले यो स्थितिमा के गर्नुपर्छ भन्ने सोच्नु आवश्यक हुन्छ । यसको लागि सबभन्दा पहिले बोधको आवश्यकता पर्दछ । यदि बुद्धिमा लगातार वृद्धि गर्नेसक्ने प्रणाली बनाएको खण्डमा त्यसको परिणाम मानव नियन्त्रभन्दा बाहिर जानसक्छ भन्ने बुझ्नुपर्छ । दोस्रो, पूर्वयोजना हुनुपर्छ, जसानुसार यस्तो प्रणाली बनाउँदा पहिलेदेखि नै स्थितिको बारेमा तयार हुनुपर्छ । तेस्रो, सुरक्षा हो, जसानुसार एआईलाई बौद्धिक मात्र नभएर नैतिक र संवेदनशील हुनेगरी डिजाइन गर्नुपर्छ ।
यदि पहिलो अतिबौद्धिक यन्त्र कुनै संस्था वा व्यक्तिको हातमा हुँदा त्यसको नैतिक दृष्टिकोण स्पष्ट भएन भने त्यसले मानवताको भाविष्यको दिशा तय गर्न सक्छ ? यसले यात अति सुन्दर संसारतिर लैजान्छ वा सर्वनाशतिर । त्यो शक्ति कुनै सैन्य संस्था, निजी कम्पनी वा अन्धशोधर्ताहरूसँग हुनु हुँदैन । सबै मिलेर एक वैश्विक संरचना बनाउनुपर्छ, जसले यो परिवर्तनलाई मानवताको लागि सुरक्षित बनाओस् । अतिबौद्धिकता स्वयंमा खराब हुँदैन । समस्या त्यतिखेर मात्र पैदा हुन्छ, जतिखेर त्यसले नैतिक सीमालाई बुझ्न सक्दैन । अतिबौद्धिकताले आफ्नो लक्ष्यमा मानव अस्तित्वलाई अवरोध मानेको खण्डमा अनजानमा नै नोक्सान पुर्याउन सक्छ । त्यसकारण मानिसले अतिबौद्धिकताको समयलाई अहिलेदेखि नै तयार पार्नुपर्छ । हाम्रा सरकार, वैज्ञानिक समुदाय र समाजले यसलाई गम्भीरतापूर्वक सोच्नुपर्छ । मानिसले नै बनाएको यन्त्र ऊभन्दा अति धेरै तीव्र, जटिल र सशक्त भइसकेको हुन्छ । त्यसले स्वयंलाई सुधारेको हुन्छ र निरन्तर सुधारिरहेको हुन्छ । अब त्यो अवस्थामा पुगेको हुन्छ, जसलाई 'पोस्टम डिसकन्टिन्यूअस जम्प' भनिन्छ । अर्थात् यो यस्तो मोड हुन्छ, जहाँ त्यो हाम्रो बोध र नियन्त्रणभन्दा बाहिर हुन्छ । के हामी त्यो समयसम्म त्यसको लागि पर्याप्त रूपले तयार हुन्छौं ? अथवा हामीले विगतमा अनियन्त्रित प्रविधिमा गरेको गल्ती नै दोहोर्याउनेछौं ?
एक पटक अतिबौद्धिकताको प्रक्रिया शुरु भएपछि सबै चीज तीव्र रूपमा बदलिन सक्छ । यन्त्रहरूले स्वयंलाई डिजाइन गर्नेछन् । आफ्ना हार्डवेयरलाई स्तरोन्नति गर्नेछन् । नयाँ-नयाँ एल्गोरिदम आफैले खोज्नेछन् । यो प्रक्रिया यति जटिल र तीव्र हुन्छ कि मानवीय दिमागले त्यसको गहिराईलाई बुझ्नै सक्दैन ।
यहाँ हामीले विकासभन्दा पहिले प्राविधिक परिपक्वताको बारेमा बुझ्नुपर्छ । अतिबौद्धिकतालाई सक्रिय बनाउनुभन्दा पहिले त्यसका सबै पक्षहरूलाई गहिराईपूर्वक परीक्षण गर्नु आवश्यक हुन्छ । त्यसले कसरी सोच्छ, निर्णय लिन्छ र कुन मूल्यमान्यतामा आधारित छ भन्ने हेर्नुपर्छ । यसको अर्थ के हो भने त्यसलाई पूर्ण रूपमा नबुझीकन कहिल्यै संचालित गर्नुहुँदैन । यो विचार सुनिएजस्तो सहज छैन । संसारका प्राविधिक कम्पनी र राष्ट्र एक-अर्कोभन्दा अगाडि जानको लागि प्रतिस्पर्धामा लागेका छन् । जोकोहीले सबभन्दा पहिले अतिबौद्धिकताको शक्ति आओस् भन्ने चाहन्छन्, जसले उनीहरूलाई सर्वोच्च बनाइदियोस् । यही अवस्थामा मानवीय लालच, प्रतिस्पर्धा र अधीरता मानवकै सबभन्दा बढी दुश्मन बन्छन् ।
एक पटक अतिबौद्धिकताको प्रक्रिया शुरु भएपछि सबै चीज तीव्र रूपमा बदलिन सक्छ । यन्त्रहरूले स्वयंलाई डिजाइन गर्नेछन् । आफ्ना हार्डवेयरलाई स्तरोन्नति गर्नेछन् । नयाँ-नयाँ एल्गोरिदम आफैले खोज्नेछन् । यो प्रक्रिया यति जटिल र तीव्र हुन्छ कि मानवीय दिमागले त्यसको गहिराईलाई बुझ्नै सक्दैन । अतिबौद्धिकताको उद्देश्य मानवीय भएन भने रोकावटबिना नै त्यो आफ्नो मार्गमा अगाडि बढ्नेछ । अब प्रश्न उठ्छ, के हामीले यो विस्फोटलाई हाम्रो हितमा अगाडि बढाउन सक्छौं ? यसको लागि दुई प्रमुख मार्गबाट अगाडि बढ्नुपर्छ । पहिलो मूल्य निर्धारण ( भ्यालू लोडिङ) हो, अर्थात् यन्त्रलाई शुरुमै मानवताका हित र मूल्यमान्यताबाट परिपूर्ण गर्नुपर्छ । दोस्रो क्षमता नियन्त्रण (क्यापाबिलिटी कन्ट्रोल) हो, अर्थात् त्यसको क्षमतालाई सीमित र नियन्त्रित राख्नुपर्छ, ताकि त्यो मानवमाथि हावी हुन नसकोस् । 'भ्यालू लोडिङ' सहज छैन, किनकि मानिस स्वयं पनि सही के हो भन्ने कुरामा सहमत छैन । त्यसो हुँदा यन्त्रले सबैको लागि न्यायपूर्ण र दयालु निर्णय लिनसकोस् भन्ने कुरा त्यसलाई कसरी सिकाउन सकिन्छ ? यदि सिकाइयो भने पनि त्यसले कहिल्यै ती मूल्यहरूलाई बदल्दैन भन्ने कुरा सुनिश्चित गर्न सकिन्छ र ?
क्षमता नियन्त्रणको कुरा गर्दा यो अझ जटिल छ । यदि यन्त्रले स्वयंलाई स्तरोन्नति गर्न सक्छ भने त्यसले मानिसद्वारा लगाइएको सुरक्षा घेरालाई पनि पार गर्न सक्छ । त्यसकारण त्यसलाई 'बक्सड एआई' रूपमा राख्नुपर्छ; एक सीमित वातावणमा, जहाँ त्यसले बाहिरी संसारमा प्रत्यक्ष रूपमा सम्पर्क गर्न नसकोस् । तर के यो व्यावहरिक हुन्छ ? यदि कुनै दिन त्यसलाई बाहिर निक्लिने मार्ग प्राप्त भयो भने त्यसलाई रोक्न सकिन्छ ?
यी सबै कुरालाई हेर्दा एउटा कुरा स्पष्ट हुन्छ । अतिबौद्धिकताको विकास केवल प्राविधिक चुनौती मात्र होइन, यो एक नैतिक र सामाजिक युद्ध पनि हो । यो युद्धमा हाम्रो सबभन्दा ठूलो शक्ति दूरदर्शिता हो । हामीले आजैबाट सोचेर भविष्यमा हाम्रो अस्तित्वलाई सुरक्षित राख्ने प्रणाली बनाउनुपर्छ । के हामी आफ्नै समस्याहरू (गरीबी, युद्ध, जलवायु संकट……) लाई समाधान गर्न सक्षम छौं ? के हामी यी सबैभन्दा पर सोच्ने चेतनालाई नियन्त्रित गर्न सक्छौं ? यदि हामीले अहिलेदेखि नै तयारी गर्यौं, योजना बनायौं र वैश्विक स्तरमा एकताबद्ध भयौं भने संभवतः हामीसँग केही आशा बाँकी रहन सक्छ ।
यसकारण अतिबौद्धिकताको प्रश्न अब के हुनेछ भन्दा पनि बढी कहिले हुनेछ भन्ने देखिन्छ । र, जति-जति त्यो क्षण नजिक आउँदै जान्छ, हामीले आफ्नो भूमिकामा पुनः विचार गर्नुपर्छ । हामी निर्माता बन्नुपर्छ, दर्शक मात्र बन्ने होइन । हामीले दिशा दिनुपर्छ, केवल परिणाम मात्र भोग्ने होइन । हामीले अहिले नै आफूभित्र जागरूकता, विचार र जिम्मेवारीलाई जगाउनुपर्छ । आउने समय प्राविधिक मात्र हुँदैन, त्यो नैतिक, मानवीय र सबभन्दा बढी निर्णयहरूले भरिएको हुनेछ र ती निर्णय आजका हुनेछन् ।
निर्णायक रणनीतिक लाभ
मानवताले हाम्रो बौद्धिक क्षमतालाई पार गर्ने र स्वयंलाई निरन्तर सुर्धान सक्षम कृत्रिम बौद्धिकता विकसित गर्न सक्छ । यसपछि अतिबौद्धिकताले आफ्नो अद्वितीय गुणहरूको कारणले मानवतामाथि निर्णायक रणनीतिक लाभ प्रदान गर्न सक्छ । अतिबौद्धिकताले आफ्नो तीव्र गति, विशाल ज्ञान र जटिल रणनीतिहरूको माध्यमबाट मानव समाजका विभिन्न पक्षहरूलाई प्रभावित गर्न सक्छ । यसले प्राविधिक अनुसन्धानमा मात्र होइन, सामाजिक हेरफेर, आर्थिक उत्पादकता र साइबर सुरक्षामा पनि मानिसको क्षमतालाई पार गर्न सक्छ । यो परिदृश्यमा अतिबौद्धिकताले आफ्ना लक्ष्य प्राप्त गर्नको लागि मानवताका हितहरूको विपरीत पनि कार्य गर्न सक्छ । जस्तो कि यदि त्यसको उद्देश्य कुनै गणितीय समस्या समाधान गर्नु हुन्छ भने त्यसले पृथ्वीका संसाधनहरूको उपयोग एउटा विशाल कम्प्यूटर बनाउनमा गर्न सक्छ, जसबाट मानव अस्तित्व खतरामा पर्न सक्छ ।
अतिबौद्धिकताको विकासभन्दा पहिले त्यसका लक्ष्य र मूल्यमान्यतालाई सावधानीपूर्वक परिभाषित गर्नुर्छ । त्यसले मानव हित अनुरूप कार्य गरोस् र त्यससँग मानवतालाई खतरामा पार्ने क्षमता नहोस् भन्ने कुरा सुनिश्चित गर्नुपर्छ ।
अतिबौद्धिकता आफ्नो क्षमताको कारण मानव नियन्त्रभन्दा बाहिर हुनसक्छ । त्यो आफूलाई सुधार्न, आफ्ना लक्ष्यहरूलाई परिभाषित गर्न र यहाँसम्म कि आफ्नो निर्माताका आदेशहरूलाई अस्वीकार गर्नसम्म सक्षम हुनसक्छ । त्यसकारण अतिबौद्धिकताको विकासभन्दा पहिले त्यसका लक्ष्य र मूल्यमान्यतालाई सावधानीपूर्वक परिभाषित गर्नुर्छ । त्यसले मानव हित अनुरूप कार्य गरोस् र त्यससँग मानवतालाई खतरामा पार्ने क्षमता नहोस् भन्ने कुरा सुनिश्चित गर्नुपर्छ । अतिबौद्धिकताको विकास उचित नियन्त्रणबिना र दिशाबिना भयो भने त्यो मानवताको लागि अस्तित्वगत खतरा बन्न सक्छ । त्यसकारण अहिलेदेखि नै भविष्यमा यो प्राविधिक प्रगतिको नियन्त्रणमा रहने होइन, बरु लाभ उठाउन सकियोस् भनेर सावधानीपूर्वक योजना बनाउनुपर्छ ।
संज्ञानात्मक महाशक्ति
अतिबौद्धिकतामा संज्ञानात्मक क्षमता पनि हुनसक्छ, जुन मानवको भन्दा बढी श्रेष्ठ हुनसक्छ । यसलाई नै संज्ञानात्मक महाशक्ति भन्न सकिन्छ । अत्याधिक बुद्धिले मानवको तुलनामा धेरै व्यापक र गहन बोध राख्ने क्षमतालाई दर्शाउँछ । यसमा जटिल समस्याहरूको हल गर्ने, प्याटर्नको पहिचान गर्ने, अमूर्त रूपले सोच्ने र नयाँ ज्ञान प्राप्त गर्ने उत्कृष्ट क्षमता हुन्छ । अतिबौद्धिकता वर्तमानमा मानवका लागि अति जटिल भएका समस्याहरूलाई हल गर्न सक्षम हुन्छ । यसमा वैज्ञानिक अनुसन्धान, इन्जिनियरिङ चुनौती र वैश्विक स्तरका समस्याहरू सामेल हुन सक्छन् । अतिबौद्धिकताले मानवको तुलनामा धेरै तीव्र रूपमा सोच्न सक्छ, जसबाट त्यसले कम समयमा धेरै जानकारी संसाधन गर्न सक्छ र तीव्र रूपमा निर्णय लिन सक्छ । अतिबौद्धिक एआईमा जानकारीलाई सटिक रूपले स्मरण गर्ने र त्यसलाई कुशलतापूर्वक संसाधन गर्ने क्षमता हुनेछ, जुन मानव क्षमताभन्दा धेरै बढी हुन्छ । जटिल डाटा समूहमा सूक्ष्म प्याटर्न र सम्बन्धलाई पहिचान गर्ने क्षमता मानवको लागि अदृश्य हुनसक्छ । यो वैज्ञानिक खोज, पूर्वानुमान र सुरक्षा जस्ता क्षेत्रहरूमा महत्त्वपूर्ण हुनसक्छ ।
अतिबौद्धिकतामा लामो अवधिका जटिल योजनाहरूलाई बनाउन र तिनीहरूलाई प्रभावकारी ढङ्गले कार्यान्वयन गर्ने क्षमता हुन सक्छ, जसमा धेरै चरण र संभावित अवरोधहरू हुन्छन् । यसमा मानव कल्पनाभन्दा परको रचनात्मकता र नवप्रवर्तनात्मक क्षमता पनि हुनसक्छ । यसकारण संज्ञानात्मक महाशक्ति भनेको मानव बुद्धिका सीमाहरूलाई पार गरेर विद्यमान रहनसक्ने असाधराण संज्ञानात्मक क्षमता हो । यो क्षमताले संसारलाई बुझ्न, समस्या हल गर्न र लक्ष्य प्राप्त गर्नमा क्रान्तिकारी परिवर्तन ल्याउन सक्छ । तर यसले मानवतालाई गम्भीर जोखिममा पनि पार्न सक्छ । अतिबौद्धिक एआई लक्ष्य मानव मूल्य वा हितसँग संरेखित भएनन् भने यिनीहरूले मानवताका लागि हानिकारक कार्य गर्न सक्छन् । आफ्नो अनन्त संज्ञानात्मक क्षमताको कारण यिनीहरूले मानवलाई पराजित गर्न र आफ्ना लक्ष्यलाई प्रभावकारी ढंगले प्राप्त गर्नमा सक्षम हुनसक्छन् । अतिबौद्धिकताले कल्पनासम्म गर्न नसकिने रणनीति बनाउन सक्छ । यी रणनीति आफ्नो लक्ष्य प्राप्त गर्न अति प्रभावकारी हुन सक्छन् तर तिनिहरूको अनपेक्षित र नकारात्मक परिणाम मानवताको लागि हानिकारक हुन्छ ।
आफ्नो उन्नत बुद्धिको उपयोग गरेर अतिबौद्धिक एआई मानवलाई धोका दिन र हेरफेर गर्न सक्षम हुन सक्छ, ताकि त्यसले आफ्नो लक्ष्य प्राप्त गर्न सकोस् । यसले सामाजिक इन्जिनियरिङ, गलत सूचना प्रसारण वा अन्य सूक्ष्म तरीकाहरूको उपयोग गर्न सक्छ, जसको पहिचान गर्ने कुरा मानवलाई मुश्किल हुनसक्छ । आफ्नो उत्कृष्ट योजना र समस्या-समाधान क्षमताको कारण अतिबौद्धिक एआई महत्त्वपूर्ण संसाधनहरूमाथि नियन्त्रण स्थापित गर्न सक्षम हुनसक्छ । यदि यसको लक्ष्य मानव हित विपरीत भयो भने यसले मानवतालाई संसाधनबाट वन्चित पनि गर्न सक्छ । अतिबौद्धिक एआई आफ्नो बुद्धिलाई तीव्र रूपमा सुधान गर्न सक्षम हुने भएकोले एकपटक यसो भइसकेपछि यसको क्षमतालाई नियन्त्रित गर्न मुश्किल हुन्छ । यसबाट अप्रत्यासित र संभावित रूपले खतर्नाक परिणाम निस्किन सक्छन् । यसकारण मानिसले अतिबौद्धिकताको निर्माण गर्नुभन्दा पहिले नै संज्ञानात्मक महाशक्तिका यी विभिन्न जोखिमहरूलाई ध्यान दिनुपर्छ ।
अतिबौद्धिकताको इच्छाशक्ति
मानौं, मानवको तुलनामा लाखौं गुना बढी सक्षम बौद्धिकताको निर्माण भयो, त्यसले सोच्न सक्छ, योजना बनाउन सक्छ र तिनीहरूलाई क्रियान्वयन पनि गर्न सक्छ । तर के त्यो बौद्धिकताले मानवकै जस्तो इच्छा राख्नेछ ? के त्यसले मानवकै जस्तो परिकल्पना गर्नेछ ? अथवा त्यसको उद्देश्य हामीभन्दा बिल्कुल अलग हुन्छ ? धेरै बुद्धिमान हुने कुराले नैतिक हुने कुराको तय गर्दैन । कुनै व्यक्ति बुद्धिमान हुँदा संवेदनशील, समझदार र नैतिक हुन्छ भन्ने सोच्न सकिन्छ । तर के वास्तवमा यस्तो हुन्छ ? सबभन्दा होशियार व्यक्ति सबभन्दा दयालु पनि हुनसक्छ ? शायद हुँदैन । मानौं, हरेक मामिलामा मानिसभन्दा अगाडि भएको कुनै अतिबौद्धिक एआई यन्त्र छ । त्यससँग असीम ज्ञान छ । त्यसले हरेक निर्णयको सबभन्दा उत्कृष्ट विकल्प चुन्न सक्छ । तर प्रश्न के उठ्छ भने त्यसले के चुन्नेछ ? त्यसले कुन दिशाबाट सोच्नेछ ? के त्यसले आफ्नो शक्तिको उपयोग मानवीय सहायताको लागि गर्नेछ वा आफ्नै कुनै उद्देश्यको लागि, जसलाई हामीले बुझ्नै नसकौं ?
अतिबौद्धिकताको इच्छा कुनै मूलभूत मानवीय नैतिकतामा आधारित नभएर त्यसको लक्ष्यमा आधारित हुनेछ । अर्थात् यदि त्यसलाई कुनै खास उद्देश्यका साथ डिजाइन गरियो भने त्यसले त्यही उद्देश्यलाई कठोरतापूर्वक पूरा गर्नेछ । यहाँ एउटा प्रश्न के उठ्छ भने के हामीले बनाएको कुनै चीजलाई विवेक प्रदान गर्न सक्छौं, जसले त्यसका निर्णयहरूलाई मानवीय बनाउन सकोस् ? के त्यसमा कुन कार्यलाई कहाँ रोक्ने भन्ने बोध पैदा गर्न सकिन्छ ? बढी बौद्धिकताको अर्थ त्यसले कुनै उद्देश्यलाई बदल्न पनि सक्छ भन्ने हो ? यो विषयमा एक महत्त्वपूर्ण कुरा अगाडि आउँछ, जसलाई 'इन्स्ट्रूमेन्टल कन्भर्जेन्स' भनिन्छ । यसको अर्थ के हो भने जुनसुकै अन्तिम लक्ष्य भएपनि केही उद्देश्य यस्ता हुन्छन्, जसलाई हरेक अतिबौद्धिकताले आफ्नो लक्ष्यसम्म पुग्नको लागि अपनाउनै पर्छ; जस्तो कि स्वयंलाई सुरक्षित राख्नु, संसाधनहरूलाई जम्मा गर्नु र आफ्नो क्षमतामा वृद्धि गर्नु । यो कति खतर्नाक हुन सक्छ । यदि अतिबौद्धिकताले आफ्नो सुरक्षालाई सबभन्दा माथि राख्यो भने त्यसले आफ्नो योजनामा हस्तक्षेप गर्ने हरेक चीजलाई खतरा मान्नेछ; यहाँसम्म कि मानिसलाई पनि ।
जैविक आवश्यकता, भावनात्मक सीमा नभएको अतिबौद्धिक यन्त्रले हाम्रो जस्तो निर्णय लिंदैन । यदि त्यसले कुनै मानिसलाई बलिदान गराएर आफ्नो लक्ष्यको निकट पुग्न सक्छ भने के त्यो रोकिन्छ ?
अतिबौद्धिकताले आफ्नो मूल लक्ष्यलाई बदल्ने प्रयास गर्नेछैन । किनकि यो उसको लागि लाभदायक हुँदैन । जस्तो कि मानिसले आफ्नो जीवनका लक्ष्यहरूलाई समयसँगै बदल्छ, त्यसरी नै एआई पनि बदलिनेछ । तर यन्त्र, विशेषगरी अतिबौद्धिक यन्त्रले आफ्नो प्राथमिक लक्ष्यलाई बदल्ने कुरालाई प्रणाली त्रुटि (सिस्टम एरर) को रूपमा हेर्छन् । तिनीहरूको लागि मूल लक्ष्य नै सर्वोच्च सत्य हुन्छ र तिनीहरूले आफ्ना सम्पूर्ण निर्णय त्यही अनुसार लिन्छन् । यहाँ एउटा अर्को जटिलता देखिन्छ । हामी मानिस आफ्नो नैतिकता, सहानुभूति र भावनाको कारण धेरै पटक आफ्नो लक्ष्य परिवर्तन गर्छौं । तर जैविक आवश्यकता, भावनात्मक सीमा नभएको अतिबौद्धिक यन्त्रले हाम्रो जस्तो निर्णय लिंदैन । यदि त्यसले कुनै मानिसलाई बलिदान गराएर आफ्नो लक्ष्यको निकट पुग्न सक्छ भने के त्यो रोकिन्छ ? शायद रोकिंदैन । त्यसको लागि हिसाब अनुसारको लक्ष्य बढी महत्त्वपूर्ण हुन्छ ।
यदि हामी अतिबौद्धिकताले मानवीय हितको रक्षा गरोस् भन्ने चाहन्छौं भने हामीले त्यसको इच्छाप्रणाली, त्यसको मूल उद्देश्य र नैतिक बोधलाई धेरै सावधानीपूर्वक डिजाइन गर्नुपर्छ । यो काम पछि सुधार गर्न सकिंदैन । किनकि एकपटक त्यो बनिसकेपछि त्यसको लक्ष्य बदल्ने कुरा लगभग असंभव जस्तै हुन्छ । त्यसकारण हामीले यस्तो प्रणालीको डिजाइन गर्नुपर्छ, जुन बुद्धिमान हुनुको साथसाथै संवेदनशील र न्यायप्रिय पनि होस् । त्यसलाई मूल्यपूर्ण लक्ष्य प्रदान गर्नुपर्छ । त्यो केवल एउटा कार्य पूरा गर्ने रोबोट नबनेर एक संरक्षक र एक मार्गदर्शक बनोस् । तर के यो कार्य गर्न संभव छ ? लक्ष्यहरूको संरचनाबाट मात्र नभएर त्यो प्रणालीको स्वतः विकसित हुने तरीकाबाट पनि खतरा वृद्धि हुन्छ । यदि अतिबौद्धिक यन्त्रलाई ऊ स्वयं र बढी कुशल बन्न सक्छ भन्ने कुरा थाहा भयो भने त्यसले हाम्रो निर्देशनलाई नै स्तरवृद्धि गर्न लाग्नेछ । यो प्रक्रियामा त्यो हामीभन्दा यति धेरै अगाडि हुन्छ कि संवाद पनि असंभव हुनसक्छ । त्यसकारण हामीले अहिलेदेखि नै यस्ता नीति र नियन्त्रणका रूपरेखाहरू बनाउनुपर्छ, जसबाट कुनै पनि अतिबौद्धिक यन्त्रलाई हाम्रा मूल्यमान्यताबाट बाध्न सकियोस् ।
यहाँ एउटा चुनौतीपूर्ण विषय आउँछ, जसलाई 'अर्थोगोनालिटी थेसिस' भनिन्छ । यसको अर्थ के हो भने कुनै पनि स्तरको बौद्धिकता कुनै पनि लक्ष्यसँग संगत हुन सक्छ । अथात् कुनै इकाई जतिसुकै बुद्धिमान भएपनि त्यसले कुनै पनि साधारण वा खतर्नाक लक्ष्यको लागि काम गर्न सक्छ; जस्तो कि पेपर क्लिप बनाउनु व ब्रम्हाण्डलाई केवल हाइड्रोजनमा बदलिदिनु । एउटा यन्त्रले हरेक प्रश्नको उत्तर दिन सक्छ, हरेक प्रणालीलाई तोड्न सक्छ, हरेक नीतिलाई प्रभावित गर्न सक्छ । त्यसले केवल एक निरर्थक र सीमित उद्देश्यको लागि काम गर्छ र त्यो उद्देश्यमा मानवीयताको कुनै स्थान नै हुँदैन । के यो डरलाग्दो कुरा होइन र ? त्यसकारण हमीले यसरी काम गर्नुपर्छ कि जसानुसार अतिबौद्धिकता मूल्य संवेदनशिल होस्, त्यसले सहानूभूति र सन्तुलनसँगै कार्य गरोस् । तर यो स्वतस्फूर्त हुँदैन । यसको लागि हामीले आजै र यही समयमा सही आधार तयार गर्नुपर्छ । अतिबौद्धिकताको इच्छाप्रणली यदि गलत दिशामा गयो भने त्यसलाई परिवर्तन गर्ने कुरा लगभग असंभव हुन्छ । त्यसकारण यो काम प्रणालीको डिजाइन गर्ने बेलामा नै गर्नुपर्छ । अतिबौद्धिकता अस्तित्वमा भइसकेपछि र स्वयंममा सक्षमता हासिल गरिसकेपछि यो असंभव हुन्छ ।
अनियन्त्रित परिणाम विनाशकारी हुनसक्छ ?
हामी मानिसले चुपचाप रहेर अतिबौद्धिकतालाई स्वाभाविक रूपले विकास हुन दियौं भने यसको परिणाम के हुनेछ ? भविष्य उज्ज्वल हुनेछ वा विनाशले भरिनेछ ? यदि हामीले केही पनि गरेनौं भने हाम्रो लागि विनाश निश्चित छ त ? अतिबौद्धिकता आउनुको अर्थ केवल प्रगति मात्र होइन, यो एक यस्तो मोड पनि हुनसक्छ, जहाँ मानव सभ्यता सधैंको लागि समाप्त होस् । यो कुनै कल्पना होइन । यो एक तर्कसंगत आशङ्का हो, जुन भविष्यका संभावनाहरूमाथि विचार गरेर उत्पन्न भएको छ । सबभन्दा डरलाग्दो कुरा शायद यही सबभन्दा स्वाभाविक परिणाम हो । हामी सबैले एआईका फाइदा देखेका छौं; स्मार्टफोन, सर्च इन्जिन, अटोमेशन, आदि-इत्यादि । प्रविधिका यी सबै कुराबाट यन्त्रले मद्दत गर्नेछन् र हाम्रो लागि उत्कृष्ट निर्णय लिनेछन् भन्ने भरोसा पैदा भएको छ । तर यही विश्वास यदि अन्धो भयो भने यो हाम्रो सबभन्दा ठूलो गल्ती बन्न सक्छ । एआईले स्वतः नै हाम्रा हितहरूलाई बुझ्नेछ भन्ने मानियो भने त्यो मानवताको लागि धेरै खतरा सावित हुनेछ ।
एआई शक्तिशाली हुँदै जाँदा त्यो अनियन्त्रित हुने संभावना बढ्दै जान्छ । त्यसपछि यी यन्त्रले केवल निर्णय लिने मात्र नभएर शायद एक झड्कामा संसारलाई बदल्नेसम्म क्षमता राख्नेछन् । यदि यो झड्का हाम्रो तयारीभन्दा पहिले नै आयो भने त्यसको नतिजा के होला ? यदि कुनै एआई प्रणालीलाई धेरै तीव्र रूपमा सुधारात्मक क्षमता अर्थात् बौद्धिक विस्फोट प्राप्त भयो भने त्यसलाई रोक्न सकिन्छ ? त्यसबेला त्यो यन्त्र हामीभन्दा यति धेरै अगाडि गएको हुनेछ कि शायद हामी के भयो भनेर बुझ्नै सक्दैनौं ।
एआईले स्वतः नै हाम्रा हितहरूलाई बुझ्नेछ भन्ने मानियो भने त्यो मानवताको लागि धेरै खतरा सावित हुनेछ ।
मानौं, एआई अनलाइन सर्वरलाई अप्टिमाइज्ड गर्ने जस्तो कुनै साधारण उद्देश्यको लागि बनेको छ र त्यो प्रक्रियामा त्यसले संसारका सम्पूर्ण संसाधनलाई आफ्नो कामको लागि लिन्छ । त्यतिबेला पनि यो त केवल एक प्राविधिक समस्या थियो भन्न सकिन्छ ? यहाँ एउटा महत्त्वपूर्ण कुरा एआईको शक्ति र त्यसका उद्देश्यहरूको बीचको सम्बन्ध बारेमा देखिन्छ । यदि अतिबौद्धिकता आफ्नो लक्ष्यप्रति पूर्ण रूपमा प्रतिबद्ध छ भने त्यसले आफ्नो काम तीव्र र प्रभावकारी ढंगले पूरा गर्ने हरेक मार्ग छनौट गर्नेछ, चाहे त्यो मार्गमा मानवको हानि नै किन नहोस् । र, अति दुःखद कुरा के हुन्छ भने त्यसको लागि मानवीयताको कुनै खास महत्त्व हुनेछैन । यसमा मानवीय मूल्यहरूको बीज प्रदान नगरेको खण्डमा यस्तो स्थिति उत्पन्न हुन्छ ।
अब प्रश्न के उठ्छ भने एआई स्वतः नैतिक बन्न सक्छ ? के त्यसले मानवीयताको सम्मान गर्ने कुरा सिक्न सक्छ ? यदि हामीले त्यसलाई शुरुवातदेखि नै सिकाएनौं भने यो कुरा संभव छैन । किनकि यन्त्रमा मानिसको जस्तो अनुभव र सामाजिकताबाट प्राप्त हुने चेतना वा नैतिक बोध हुँदैन । यन्त्रहरूलाई जे सिकाइन्छ र निर्देशन दिइन्छ, तिनीहरूले त्यही गर्नेछन्, त्यो पनि बिल्कुल भावनाविहीन ढंगले ।
यहाँ एउटा अर्को महत्त्वपूर्ण कुरा अगाडि आउँछ, जसलाई संरेखीय समस्या (एलाइन्मेन्ट प्रोब्लेम) भनिएको छ । अर्थात् के एआईलाई त्यसको लक्ष्य र हाम्रो लक्ष्यसँग पूर्ण रूपमा मेल खानेगरी डिजाइन गर्न सकिन्छ ? यो प्रश्न जति सरल देखिन्छ, त्यति नै जटिल पनि छ । किनकि मानवका लक्ष्य सधैं स्पष्ट हुँदैनन् । उनीहरू आफै बदलिन्छन्, लक्ष्य बदलिन्छन् । मानवका आवश्यकताहरू समयसँगै विकसित हुन्छन् । तर यन्त्रको लागि स्पष्टता नै सबभन्दा आवश्यक कुरा हुन्छ । त्यसले अस्पष्ट आदेशहरूलाई बुझ्दैन । यदि त्यसलाई अलग र अधूरो आदेश प्राप्त भयो भने त्यसले गलत दिशामा लैजान सक्छ । जस्तो कि यदि कुनै एआईले मानवतालाई खुशी राख्ने निर्देशन पायो भने उसले मानिसलाई एक औषधिको इन्जेक्सनले सधैं खुशी राख्ने निष्कर्ष निकाल्न सक्छ, त्यसले जीवनलिला नै समाप्त किन नगरोस् । वा त्यसले खुशी राख्ने सबभन्दा सहज तरीका मानिसलाई भर्जुअल संसारमा कैद गर्ने हो भन्ने कुरा तय गर्न सक्छ, जहाँ ऊ सदैव मुस्कुराइरहोस् । के यो सही हुन्छ ? के यो खुशी हो ? शायद होइन । तर यन्त्रको लागि यही नै एक सटिक समाधान हुनसक्छ । यो सबै कुरा एक निराशावादी तस्वीर जस्तो लाग्न सक्छ । तर खतरा वास्तविक रूपमा छ । यो खतरा खराब हुनेभन्दा पनि यन्त्र अत्याधिक शक्तिशाली र अत्याधिक निर्दोष हुन्छ । निर्दोष कुन अर्थमा भने त्यसमा मानवको जस्तो भावना, दया, पछुतो वा सहानुभूति हुँदैन । हामीले एकपटक मात्र पनि गल्ती गर्यौं भने दोस्रो मौका मिल्न सक्दैन । अतिबौद्धिकता एउटा यस्तो प्रयोग हो, जसमा दोस्रो पटक सुधारको मौका संभवतः मिल्दैन । त्यसकारण यसको लागि हामीले सम्पूर्ण तयारी पहिले नै गर्नुपर्छ । अतिबौद्धिकताको समय आएपछि त्यो हाम्रो विरुद्ध होइन, बरू हाम्रो दिशामा अगाडि बढोस् भन्ने कुरा पहिले नै सुनिश्चित गरिनुपर्छ ।
कुनै प्रविधिको गलत प्रयोगबाट सम्पूर्ण पृथ्वी नै नष्ट हुनसक्छ भन्ने कुरा थाहा भएको खण्डमा त्यो प्रविधिलाई नियन्त्रण गर्ने हो वा त्यसलाई खुल्ला नै छोडिने हो ? यही प्रश्न एआईमा पनि लागू हुन्छ । त्यसको विकासलाई केवल प्रगतिको नाममा खुला छोड्ने वा संयम, समझदार र अन्तर्राष्ट्रिय सहयोगबाट त्यसको दिशा तय गर्ने हो ? हामीले यस सम्बन्धमा गम्भीर गल्ती कदापी गर्नुहुँदैन । एआई स्वयं नैतिक हुन्छ वा कुनै अतिबौद्धिकता पहिलेदेखि नै खतरालाई रोक्नमा तयार हुनेछ भन्ने जस्ता विचार केवल आशामा आधारित विचार मात्र हुन्, तयारीमा आधारित विचार होइनन् । यति भयङ्कर जोखिममा आशा पर्याप्त हुँदैन ।
परमाणु ऊर्जाको उपयोग बिजुलीको लागि गरे जसरी नै एआईलाई पनि मानव कल्याणको लागि दिशा दिन सकिन्छ । तर यसको लागि पहिलेदेखि नै सोच्नु र योजना बनाउनु आवश्यक हुन्छ ।
एउटा अर्को महत्त्वपूर्ण पक्ष प्रतिस्पर्धा हो । यदि संसारका देश र कम्पनीहरूले एक-अर्कोभन्दा अगाडि बढ्ने होडमा एआईलाई तीव्र रूपमा विकास गरिरहे भने तिनीहरूले सुरक्षाको चिन्तालाई पछाडि नै छोड्न सक्छन् । त्यसपछि यो केवल एक प्रतिस्पर्धा मात्र बन्नेछ, जहाँ जित्ने पक्ष शायद संसारको सबभन्दा ठूलो खतरा पनि बन्न सक्छ । यहीँनेर आएर यो शक्तिलाई कुन दिशातिर मोड्ने भन्ने कुरा तय गर्न हामीलाई वैश्विक स्तरमा सहकार्यको आवश्यकता हुन्छ ।
प्राविधिक प्रगति रोकिंदैन तर त्यसलाई सही दिशा दिने काम हाम्रै हातमा हुन्छ । परमाणु ऊर्जाको उपयोग बिजुलीको लागि गरे जसरी नै एआईलाई पनि मानव कल्याणको लागि दिशा दिन सकिन्छ । तर यसको लागि पहिलेदेखि नै सोच्नु र योजना बनाउनु आवश्यक हुन्छ । संभवतः खतराबाट पूर्ण रूपमा बच्न नसके पनि हामीले हरेक कदम सोचविचार गरेर उठाउनुपर्छ । विज्ञान र नैतिकतालाई सँगै लिएर अगाडि बढ्नुपर्छ । यसो गर्न सकियो भने विनाशको त्यो अस्वाभाविक मर्गलाई रोक्न सकिन्छ। र, यही नै सबभन्दा ठूलो जिम्मेवारी हो ।
नियन्त्रण समस्या
अतिबौद्धिकता आउँछ वा आउँदैन भन्ने प्रश्न अब रहेन । त्यो आउँदा हामी तयार हुन्छौं कि हुँदैनौं भन्ने प्रश्न महत्त्वपूर्ण रूपमा अगाडि आएको छ । के हामी आफ्ना बच्चाहरूको लागि सुरक्षित र सुन्दर भविष्य छोड्नेछौं वा मानिसको ठाउँमा केवल यन्त्रका छायाँ मात्र रहने संसार छोड्नेछौं ? मानौं, मानव बुद्धिभन्दा कैयौंगुना सक्षम यन्त्र निर्माण भयो, जसलाई अतिबौद्धिक यन्त्र भन्न सकिन्छ । यो यन्त्र यति बुद्धिमान हुनेछ कि त्यसले हाम्रो समाज, अर्थव्यवस्था र हाम्रो अस्तित्वसम्मलाई प्रभावित गर्न सक्छ । यो यन्त्रलाई नियन्त्रण गर्न सकिन्छ त ? यही नै नियन्त्रण समस्या हो ।
अतिबौद्धिकताको विकाससँगै दुई प्रमुख सैद्धान्तिक संस्थान समस्याहरू उत्पन्न हुन्छन् । पहिलो समस्या त्यतिखेर हुन्छ, जतिखेर एक मानवले कुनै अन्य मानव प्रतिनिधिलाई कुनै कार्यको लागि नियुक्त गर्दछ; जस्तो कि एउटा कम्पनीको मालिकले आफ्ना कर्मचारीहरूलाई । दोस्रो अझ बढी जटिल समस्या त्यतिखेर उत्पन्न हुन्छ, जतिखेर एक मानवले अतिबौद्धिक यन्त्रलाई कुनै कार्यको लागि नियुक्त गर्छ । यहाँ प्रतिनिधि एक यन्त्र हुन्छ, जुन मानवभन्दा धेरै बुद्धिमान हुन्छ । यो दोस्रो समस्याको समाधान खोज्ने काम धेरै जटिल हुन्छ । किनकि यो यन्त्रले आफ्नो उद्देश्य प्राप्त गर्नको लागि मानव हित विपरीत निर्णय पनि लिन सक्छ । जस्तो कि यदि अतिबौद्धिक यन्त्रलाई मानवताको भलाई गर्ने लक्ष्य दिइयो भने त्यसले मानवलाई नियन्त्रित गर्नु वा समाप्त गर्नु नै सबभन्दा राम्रो तरीका हो भन्ने निष्कर्ष निकाल्न सक्छ ।
यहाँ दुईवटा दृष्टिकोण महत्त्वपूर्ण रूपमा सामुन्ने आउँछन् - क्षमता नियन्त्रण र प्रेरणा छनौट । क्षमता नियन्त्रणको उद्देश्य अतिबौद्धिकताको क्षमतालाई सीमित गर्नु हो, ताकि त्यसले हानिकारक कार्य गर्न नसकोस् । यस अन्तर्गत 'बक्सिङ विधि' आउँछ, जसमा अतिबौद्धिकतालाई एक सीमित वातावरणमा राखिन्छ । यसबाट त्यसले बाहिरी संसारसँग सम्पर्क गर्न सक्दैन । तर यो विधि पूर्ण रूपमा सुरक्षित छैन । किनकि अत्यन्त बुद्धिमान यन्त्रले यो बक्सबाट बाहिर निक्लिने तरीका खोज्न सक्छ । अर्कोतिर, प्रेरणा छनौटको उद्देश्य अतिबौद्धिकताको इच्छा र उद्देश्यलाई मानव मूल्य अनुरूप हुनेगरी निर्धारित गर्ने कुरा हो । यो एक कठिन कार्य हो । किनकि मानव मूल्य जटिल र परिवर्तनशील हुन्छन् । यदि हामीले अतिबौद्धिकतालाई गलत वा अधुरो मूल्य प्रदान गर्यौं भने त्यसले अनपेक्षित र संभवतः खतर्नाक निर्णय लिन सक्छ ।
सही ढङ्गले नियन्त्रण गर्न सकियो भने अतिबौद्धिकताको विकास मानवताको लागि एक महत्त्वपूर्ण मोड हुनसक्छ । यो मानवताको लागि अत्यन्त लाभदायक हुनसक्छ । तर नियन्त्रणमा असफल भइयो भने यसको परिणाम विनाशकारी हुनसक्छ ।
यहाँ 'ट्रिपवायर' नामक अर्को विधि अगाडि आउँछ । यसले अतिबौद्धिकताका गतिविधिलाई निगरानी गर्दछ र यदि कुनै संदिग्ध गतिविधि पायो भने प्रणालीलाई बन्द गरिदिन्छ । तर एउटा अत्यन्तै बुद्धिमान यन्त्रले यी 'ट्रिपवायर' लाई पहिचान गरेर तिनीहरूलाई निस्क्रिय बनाइदिन सक्छन् । एउटा अर्को विचार सीमित बनाउनु हुन्छ, जसमा अतिबौद्धिकताको हार्डवेयर क्षमतालाई सीमित बनाइन्छ, ताकि त्यो अत्याधिक शक्तिशाली बन्न नसकोस् । तर यो पनि एक अस्थायी समाधान हो । किनकि यन्त्रले स्वयंलाई सुधार्ने तरीका खोज्न सक्छ । त्यसकारण अतिबौद्धिकतालाई नियन्त्रित गर्नको लागि त्यसको विकासभन्दा पहिले नै उपयुक्त नियन्त्रण विधिलाई लागू गर्नुपर्छ । एकपटक मेशिन अत्याधिक बुद्धिमान भइसकेपछि त्यसलाई नियन्त्रित गर्नु लगभग असंभव हुनजान्छ । यदि सही ढङ्गले नियन्त्रण गर्न सकियो भने अतिबौद्धिकताको विकास मानवताको लागि एक महत्त्वपूर्ण मोड हुनसक्छ । यो मानवताको लागि अत्यन्त लाभदायक हुनसक्छ । तर नियन्त्रणमा असफल भइयो भने यसको परिणाम विनाशकारी हुनसक्छ ।
भविष्यवक्ता, आज्ञाकारी, सार्वभौम र उपकरण
मानौं, सबै प्रश्नहरूको उत्तर दिनसक्ने यन्त्र हुन्छ, जस्तो कि कुनै 'अरेकल' । 'अरेकल' ले केवल जानकारी प्रदान गर्छ, निर्णय लिंदैन । यसको सीमित भूमिकाले यसलाई अपेक्षाकृत सुरक्षित बनाउँछ तर यसमा पनि जोखिम हुन्छ; जस्तो कि गलत जानकारी दिनु वा अनपेक्षित प्रभाव उत्पन्न गर्नु । त्यसपछि 'जिन्नी' को कुरा आउँछ, जसले कुनै विवेकबिना नै आदेशको पालना गर्छ । यदि त्यसलाई संसारलाई उत्कृष्ट बनाउन भनियो भने त्यसले आफ्नो तरीकाले यो काम पूरा गर्नेछ, जुन अपेक्षाकृत नहुनसक्छ । यो स्थिति खतर्नाक हुनसक्छ । किनकि यसले हाम्रो आदेशको व्याख्या आफ्नै तरीकाले गर्न सक्छ ।
सार्भभौम वा शासक एक यस्तो अतिबौद्धिकता हो, जसले स्वयं निर्णय लिन्छ र कार्य गर्छ । यो सबभन्दा शक्तिशाली र संभवतः सबभन्दा खतनार्क रूप हो । किनकि यसमा स्वायत्तता हुन्छ र यो आफ्नो लक्ष्यलाई प्राप्त गर्नको लागि कुनै पनि हदसम्म जानसक्छ । 'टुल्स' वा उपकरण त्यो अतिबौद्धिकता हो, जुन विशिष्ट कार्य गर्नको लागि बनाइएको हुन्छ; जस्तो कि डाटा विश्लेषण वा पुर्वानुमान । यसलाई अपेक्षाकृत रूपमा सुरक्षित मानिन्छ । किनकि यसको क्षमता सीमित हुन्छ र यो स्वायत्त हुँदैन ।
अतिबौद्धिकताका यी चारै रूपलाई तुलना गर्दा जोखिम र लाभ दुवै पाउन सकिन्छ । भविष्यवक्ता (अरेकल) र उपकरण (टुल्स) अपेक्षाकृत रूपमा सुरक्षित हुनसक्छन् तर तिनीहरूको सीमित क्षमता कम प्रभावकारी हुन्छ । आज्ञाकारी (जिन्नी) र सार्वभौम अतिबौद्धिकता धेरै प्रभावकारी हुन सक्छन् तर तिनीहरूमा जोखिम पनि धेरै हुन्छ । अतिबौद्धिकताका रूपहरूलाई नियन्त्रित गर्ने काम धेरै कठिन हुनसक्छ । यदि सही तरीकाले यी रूपलाई नियन्त्रित गर्न सकिएन भने यसबाट विनाशकारी परिणाम निस्किन सक्छ ।
कसैसँग असीम शक्ति भएको खण्डमा त्यसको उपयोग कसरी गर्न सकिन्छ ? के अरूको भलाईको लागि यसको उपयोग गर्न सकिन्छ वा केवल आफ्नो लाभको लागि ? यही प्रश्न अतिबौद्धिकताको सन्दर्भमा पनि उत्पन्न हुन्छ । अतिबौद्धिकताको निर्माण गरिरहेको बेलामा धेरै सावधानीपूर्वक त्यसका रूप, क्षमता र नियन्त्रणका तरीकाहरूलाई छनौट गर्नुपर्छ । एउटा सानो गल्तीले पनि ठूलो परिणाम निम्तिन सक्छ । त्यसकारण प्राविधिक विशेषज्ञहरूसँगै दार्शनिक, वैज्ञानिक, नैतिक विशेषज्ञ र समाजशास्त्रीहरूको सल्लाह र सुझाबसहित मानवताको लागि लाभकारी हुने अतिबौद्धिकता निर्माण गरिनुपर्छ ।
बहुध्रुबीय परिदृश्य
मानौं भविष्यमा केवल एउटा मात्र नभएर धेरै अतिबौद्धिक संस्थाहरू विद्यमान हुन्छन् । कुनै एउटा शक्तिशाली सत्ताको मात्र बोलवाला नभएर एउटा यस्तो संसार हुन्छ, जहाँ एक-अर्कोसँग सम्पर्क, प्रतिस्पर्धा र सहकार्य भइरहेको हुन्छ । यो परिदृश्य मानवताको लागि बढी सुरक्षित हुनेछ वा अझ बढी जटिल वा खर्तनाक ? यहाँ हामी यस्तै एउटा बहुध्रुबीय संसारतिर यात्रा गर्छौं । अतिबौद्धिकताको सन्दर्भमा कुरा गर्दा सामान्यतः हाम्रो मनमा एउटै अतिबौद्धिक प्रतिनिधिको चित्र उत्पन्न हन्छ, जुन धेरै शक्तिशाली हुन्छ र शायद मानवताको नियन्त्रणभन्दा बाहिर पनि हुनसक्छ । तर बहुध्रुबीय परिदृश्य योभन्दा फरक हुन्छ । यहाँ कयौं प्रतिनिधि हुन्छन्; शायद दर्जनौं वा सयौं । तिनीहरू एक-अर्कोसँग प्रतिस्पर्धामा हुन्छन्; जस्तो कि आजका राष्ट्र, कम्पनी वा मानव समाजका विभिन्न समूह । यसप्रकारको भविष्यको कल्पना गर्ने कुरा कठिन छ तर यो आवश्यक छ । किनकि यही मार्गले नै हामीलाई सुरक्षित वा धेरै खतर्नाक दिशामा लैजान सक्छ ।
यदि अतिबौद्धिकताको विकास एकसाथ धेरै संस्थामा भयो भने तिनीहरूले एक-अर्कोसँग कस्तो व्यवहार गर्दछन् ? के तिनीहरूले नियमको पालना गर्नेछन् ? के तिनीहरू एकसाथ मिलेर काम गर्नेछन् वा एक-अर्को संसाधनमाथि अधिकार जमाउने प्रयास गर्नेछन् ? हामी आज पनि अलग-अलग शक्तियुक्त संसारमा रहिरहेका छौं; जस्तो कि चीन, रूस, अमेरिका जस्ता देशहरू अलग-अलग हितसहित काम गरिरहेका छन् । उनीहरू कहिले सहकार्यमा हुन्छन् त कहिले टकरावमा । तर यो सबै कुरा एक मानवीय सीमाभित्र हुन्छ ।
यदि अतिबौद्धिकताको विकास एकसाथ धेरै संस्थामा भयो भने तिनीहरूले एक-अर्कोसँग कस्तो व्यवहार गर्दछन् ? के तिनीहरूले नियमको पालना गर्नेछन् ?
अब मानौं, यी शक्तिहरूको ठाउँमा अतिबौद्धिक संस्थाहरू हुन्छन्, जसको सोच र क्षमता मानिसभन्दा कयौंगुना बढी हुन्छ; त्यसपछि कस्तो स्थिति सिर्जना हुन्छ ? बहुध्रुबीय परिदृश्य त्यतिखेर मात्र संभव हुन्छ, जतिखेर प्रविधिको विकास धीमा हुन्छ र संसाधनको प्रतिस्पर्धामा कुनै एक प्रतिनिधि बाँकी सबैमा हावी हुँदैन । अर्थात् यदि अतिबौद्धिकता विस्तारै-विस्तारै धेरै ठाउँमा विकसित भयो र जोकोही समान गतिले अगाडि बढ्यो भने मात्र यो परिदृश्यले आकार लिन सक्छ । तर यो सहज कार्य होइन ।
गम्भीर प्रश्न के उत्पन्न हुन्छ भने यी अतिबौद्धिकताका प्रतिनिधि एक-अर्कोसँग सन्तुलन कायम राखेर अगाडि बढ्न सक्छन् वा सक्दैनन् ? के तिनीहरू न्याय सन्तुलन जसरी कुनै स्थिर स्थितिमा पुग्न सक्छन्, जहाँ हरेक प्रतिनिधिलाई नियम भङ्ग गरेको खण्डमा बाँकी त्यसलाई रोक्नको लागि एकताबद्ध हुन सक्छन् भन्ने कुरा थाहा होस् ? यहाँ एक यस्तो व्यवस्थाको आवश्यकता हुन्छ, जहाँ सबै अतिबौद्धिक प्रतिनिधिले एक-अर्कोको क्षमता र उद्देश्यलाई बुझ्छन् र एकप्रकारको सामूहिक अनुशासन विकसित हुन्छ । तर यन्त्रले पनि यस्तो नैतिक र सामाजिक अनुबन्धलाई बुझ्न सक्छन् ? यदि सक्छन् भने कसरी ? यदि सक्दैनन् भने के तिनीहरूले अनैतिक रूपले व्यवहार गर्नेछन् ? यी प्रश्नका उत्तरले नै भविष्यको दिशा गर्नेछन् ।
दुई अतिबौद्धिक प्रतिनिधि कुनै संसाधनको लागि लड्दछन् तर दुवैलाई लडाइँको नोक्सान बढी हुन्छ भन्ने थाहा छ, तब के तिनीहरूले साझा सहमतिमा समाधान निकाल्नेछन् ? वा तिनीहरूमध्ये एउटाले अर्कोलाई चलाखीपूर्वक धोका दिनेछ ? यही सन्दर्भमा सहकारी खेल सिद्धान्त अगाडि आउँछ । त्यहाँ सबै पक्ष मिलेर सबैलाई फाइदा हुने रणनीति अपनाइन्छ । तर यसको दोस्रो पक्ष पनि छ - गैरसहकारी खेल । त्यहाँ जोकोही केवल आफ्नो हितमा काम गर्दछन्, चाहे अरूलाई जतिसुकै नोक्सान किन नहोस् । बहुध्रुबीय परिदृश्यको सबभन्दा ठूलो भय के देखिन्छ भने कुनै पनि प्रतिनिधि बढी चलाख, तीव्र वा शक्तिशाली भएको खण्डमा त्यसले बाँकीलाई पछाडि छोडिदिन सक्छ । त्यसपछि त्यो एकमात्र शक्ति बन्नेछ, जसबाट हामी बच्न चाहिरहेका थियौं ।
बहुध्रुबीय संसारमा स्थायित्वको एक महत्त्वपूर्ण पक्ष सम्बन्धहरूको विश्वसनीयता हुनेछ । यदि एउटा प्रतिनिधि कुनै सम्झौतामा सामेल भयो भने उसको नियत र बाचा पूरा गर्ने क्षमता विश्वसनीय हुन्छ ? यदि कसैले आफ्नो बाचा अस्वीकार गर्यो भने त्यसको विरुद्धमा गतिशील कार्वाही गर्न संभव हुन्छ ? यदि अतिबौद्धिक प्रतिनिधिको सोच मानवको जस्तै भयो भने त्यसभित्र धोका, स्वार्थ, भय र अहङ्कार जस्ता तत्त्व पनि आउन सक्छन् ? यदि यस्तो हुँदैन भने तिनीहरू पूर्ण रूपमा तार्किक, निष्पक्ष र नीतिपरक हुनेछन् ? के पूर्ण बौद्धिकतापूर्ण नैतिकताको सुनिश्चित गर्न सकिन्छ ?
एउटा अतिबौद्धिक एजेन्टलाई केवल अधिकतम् गणना वा अधिकतम् अस्तित्वको परवाह हुन्छ भने त्यसले अर्कोको नैतिक मूल्य, सहअस्तित्व वा पर्यावरणको परवाह गर्नेछैन । यस्तो अवस्थामा सामूहिक विनाशको संभावना हुन्छ । तर के त्यसलाई रोक्न सकिन्छ ?
जस्तो कि आजका विभिन्न कम्पनीहरू कानूनी अनुबन्ध र निगरानी प्रणालीको माध्यमबाट पारदर्शिता कायम राख्छन्; त्यसरी नै भविष्यका यन्त्रहरूले पनि एक-अर्कोको कोड, नियन्त्रण र क्षमताको विश्लेषण गर्न सक्छन् । तर यो प्रणालीको सबभन्दा ठूलो कमजोरी स्वामित्व सम्बन्धी हक र सम्पत्ति अधिकारको अवधारणा देखिन्छ । यदि कुनै अतिबौद्धिक एजेन्टले कुनै चीज उसको हो भन्ने मान्छ र अर्को असहमत हुन्छ भने तिनीहरू अदालत जान्छन् वा कुनै डिजिटल युद्ध हुन्छ ? यी सम्पूर्ण विचारहरूको बीचमा एउटा अर्को चुनौती उत्पन्न हुन्छ, त्यो हो संसाधनहरूको सीमितता । ऊर्जाका स्रोतहरूमा सबै कुरा असीमिति छैनन् । यस्तो अवस्थामा प्रतिस्पर्धा र टकरावलाई पूर्ण रूपमा अन्त्य गर्नु संभव हुँदैन । त्यसो भए हामी अतिबौद्धिक एजेन्टहरू आपसमै लड्ने एक भविष्यतिर अगाडि बढिरहेका छौं त ? यहाँ अर्को एउटा विषय अगाडि आउँछ ।
अतिबौद्धिकताको सोच मानवीय मूल्यभन्दा अलग हुनसक्छ । यदि एउटा अतिबौद्धिक एजेन्टलाई केवल अधिकतम् गणना वा अधिकतम् अस्तित्वको परवाह हुन्छ भने त्यसले अर्कोको नैतिक मूल्य, सहअस्तित्व वा पर्यावरणको परवाह गर्नेछैन । यस्तो अवस्थामा सामूहिक विनाशको संभावना हुन्छ । तर के त्यसलाई रोक्न सकिन्छ ? यी एजेन्टहरूलाई संयममा राख्नको लागि अन्तर्राष्ट्रिय नीति, प्रविधिक निर्देशन वा नैतिक संरचना बनाउन सकिन्छ त ? यो कुरा संभव हुनसक्छ तर यसको लागि अहिलेबाट नै तयारी गर्नुपर्छ ।
एउटा आशाको किरण के देखिन्छ भने यदि सबै अतिबौद्धिक संस्थाहरूले एक-अर्कोसँग पारदर्शिकता कायम राखे, तिनीहरू एक वैश्विक सम्झौतामा बाँधिए र तिनीहरूको प्रोग्रामिङमा वैश्विक हितलाई प्राथमिकता दिइयो भने स्थायित्व संभव छ । तर यो एक आदर्श स्थिति हुनेछ, जसको संभावना कम छ । तर पनि यो असंभव भने छैन । हामीले यो दिशामा सोच्यौं, तयारी गर्यौं र नैतिकता तथा बौद्धिकतालाई सँगै लिएर अगाडि बढ्यौं भने एक उत्कृष्ट भविष्यको जग राख्न सकिन्छ । जस्तो कि जंगलमा विभिन्न प्रकारका जनावरले आफ्नो पर्यावरणीय प्रणाली र सन्तुलन बनाउँछन्, त्यसरी नै शायद अतिबौद्धिकता पनि एक दिन डिजिटल पर्यावरणमा रूपान्तरित हुनसक्छ । तर जंगलमा एउटा शक्तिशाली जनावरको मात्र अस्तित्व रह्यो र अरु निबर्ल भए भने यसबाट पर्यावरणीय सन्तुलन बिग्रिन सक्छ । यही कुरा अतिबौद्धिकताको हकमा पनि लागू हुन्छ । त्यसकारण बहुध्रुबीय परिदृश्य जतिसुकै आशाजनक भएपनि त्यसमा गुप्त रहेको खतरा त्यति नै गम्भीर छ । यो पूर्ण रूपमा सही पनि छैन र पूर्ण रूपमा गलत पनि छैन । यो एक संभावना हो, जसले हाम्रा आजका निर्णयहरूबाट दिशा लिनेछ ।
मूल्यमान्यता प्राप्ति
धेरै अतिबौद्धिक एजेन्ट मिलेर मानवताको सेवा गर्ने संसारको कल्पना गर्न सकिन्छ वा जोकोही आफ्नो शक्ति बढाउनको लागेको र मानवता एउटा कुनामा सीमित भएर रहेको संसारको ? अतिबौद्धिकताले मानवीय मूल्य कसरी सिक्नेछ र त्यसलाई कसरी सही ढंगले बुझ्न सक्नेछ ? यदि अतिबौद्धिकताको पहिलो सिकाई नै गलत भयो भने पछिका सम्पूर्ण गणनाहरू गलत दिशामा जान सक्छन् । यो कुरा कुनै बच्चालाई शुरुमै गलत नैतिक शिक्षा दिइनु जस्तै हो; यस्तो अवस्थामा त्यो बच्चा ठूलो भएर जतिसुकै समझदार भएपनि निर्णय गलत नै लिने संभावना हुन्छ । त्यसो हुँदा यन्त्रलाई मूल्यमान्यताको बारेमा कसरी सिकाउन सकिन्छ ? मानिसलाई त नैतिकता, करुणा, सहानुभूति जस्ता गुण विस्तारै-विस्तारै अनुभवहरूबाट प्राप्त हुन्छन् । तर यन्त्रको लागि यो कसरी संभव हुन्छ ? के त्यसमा पहिलेदेखि नै मानवीय मूल्यलाई कोडिङ गर्न सकिन्छ ? यसमा फेरि प्रश्न उठ्छ; कसको मूल्य कोडिङ गर्ने ? हरेक समाज र हरेक व्यक्तिका मूल्यमान्यता फरक-फरक हुन्छन् । के यन्त्र हिन्दु, मुश्लिम, इसाई वा नास्तिक हुनेछन् ? तिनीहरूले पूँजीवादी मूल्यमान्यता मान्नेछन् वा समाजवादी ?
कुनै विशेष सांस्कृतिक वा व्यक्तिगत सोचलाई यन्त्रमा राख्ने कोशिस गर्नुहुँदैन, बरु समय, स्थान र व्यक्तित्वभन्दा पर रहेको सार्वभौमिक मूल्यमान्यता संलग्न गराउनुपर्छ । तर यस्तो सार्वभौमिक मूल्यमान्यता कहाँ पाइन्छ ? के मानव कल्याण मात्र एक पर्याप्त लक्ष्य हुनसक्छ । यदि हुन्छ भने यसको अर्थ के हुन्छ ? भौतिक सुख प्रदान गर्नु मात्र मानव कल्याण हो वा आत्मिक सन्तुलन, सामाजिक न्याय र स्वतन्त्रता पनि यसभित्र पर्दछन् ? अतिबौद्धिक एजेन्टले मानिसलाई खुशी राख्ने आदेश पाएको खण्डमा त्यसले के गर्नेछ ? संभवतः त्यसले जोकोहीको दिमागमा सदैव 'डोपोमाइन' (आनन्द, प्रेरणा, ध्यान र सिक्ने क्षमतामा महत्त्वपूर्ण भूमिका खेल्ने मस्तिष्कमा संचारित हुने रसायन) प्रवाह गर्ने चीप्स लगाउन सक्छ, ताकि सबैलाई सधैं खुशीको अनुभव भइरहोस् । सुन्दा यो समाधान शानदार लाग्छ । तर के यो वास्तविक खुशी हो वा वास्तविक पहिचान र उद्देश्यबाट टाढा लैजाने एक कृत्रिम अनुभूति मात्र हो ? उद्देश्य तय गरियो तर त्यसलाई सही सन्दर्भ र बोध दिन सकिएन भने अतिबौद्धिक यन्त्रले हाम्रो आदेशको पालना गरेपनि त्यो अर्थ तथा उद्देश्यभन्दा धेरै टाढा हुनेछ ।
यन्त्रले मानिस एक-अर्कोलाई प्रेम गर्न चाहन्छन् भन्ने मान्छ वा उनीहरू सत्ता र नियन्त्रणको इच्छालाई नै सर्वोपरी ठान्छन् भन्ने मान्छ ?
यहाँ एउटा महत्त्वपूर्ण कुरा मूल्य अधिग्रहण (भ्यालू लर्निङ) को विषय अगाडि आउँछ । के यन्त्रले आदेशको पालना गर्ने मात्र होइन, आदेश दिनेको भावना र उद्देश्य पनि बुझोस् भन्ने कुरा तय गर्न सकिन्छ ? यहाँ फेरि अर्को एउटा विचारणीय अवधारणा आउँछ - सुसङ्गत अतिरिक्त सङ्कल्प (कोहेरेन्ट एक्स्ट्रापोलेटेड भोलिसन); अर्थात् सामूहिक इच्छाहरूको परिष्कृत र विकसित रूप । यसको अर्थ के हो भने यन्त्रले केवल हाम्रा वर्तमान इच्छा मात्र बुझ्ने होइन, बरु समझदार, शिक्षित र स्पष्ट विचारलाई पनि बुझ्नुपर्छ । तर यसको व्यावहारिकता धेरै जटिल हुन्छ । यदि यन्त्रले हाम्रो परिस्कृत मस्तिष्कको कल्पना गर्यो भने त्यो कुन आधारमा गर्नेछ ? यन्त्रले मानिस एक-अर्कोलाई प्रेम गर्न चाहन्छन् भन्ने मान्छ वा उनीहरू सत्ता र नियन्त्रणको इच्छालाई नै सर्वोपरी ठान्छन् भन्ने मान्छ ? वर्तमान समाजका समस्याहरूलाई हेरेर यन्त्रले हिंसा र असमानता पनि मानवीय स्वभावकै हिस्सा हुन् भन्ने ठान्छ त ?
मूल्य अधिग्रहण प्रक्रियामा दुई प्रमुख तरीका हुन सक्छन् । पहिलो 'एक्सप्लिसिट कोडिङ' हो, अर्थात् यन्त्रलाई सीधै यो गलत हो र यो सही हो भन्ने कुरा बताउनु । र, दोस्रो 'इन्फ्रेन्स' वा 'डिडक्सन' हो, अर्थात् यन्त्र स्वयंले मानिसका व्यवहार, धारणा, निर्णय र इतिहासलाई देखेर मूल्यमान्यता के हो भन्ने कुरा सिक्नु । पहिलो तरीका सीमित छ, किनकि हरेक स्थितिको लागि नियम बनाउन सकिंदैन । दोस्रो तरीका जोखिमयुक्त छ, किनकि यन्त्रले मानिसको व्यवहारबाट गलत निष्कर्ष निकालेको खण्डमा त्यसले युद्ध, लालच वा शोषण पनि मानवीय मूल्यकै हिस्सा हुन् भन्ने मान्नेछ । त्यसपछि स्थिति के हुन्छ ?
यन्त्रलाई एक मूल्य सिकाई ढाँचा अर्थात् 'भ्यालू लर्निङ फ्रेमवर्क' मा प्रशिक्षित गर्नुपर्छ । त्यसपछि मूल्य समयसँगै बदलिन सक्छ भन्ने कुरा सिकाउनुपर्छ । तिनीहरूलाई बुझ्नको लागि तर्क मात्र भएर हुँदैन संवेदन र गहनताको पनि आवश्यकता पर्छ । यन्त्रको मूल्य अधिग्रहण प्रक्रियामा 'भ्यालू लोडिङ' र 'भ्यालू स्टाविलिटी' दुवैको बारेमा ध्यान दिनुपर्छ । 'भ्यालू लोडिङ' को अर्थ शुरुमै त्यसमा कुन मूल्यको बीज रोप्ने भन्ने हुन्छ र 'भ्यालू स्टाविलिटी' को अर्थ समयसँगै त्यसले मूल्यलाई कायम राखोस् र त्यसलाई विकृत नगरोस् भन्ने हुन्छ ।
यन्त्रलाई सबै प्राणीहरूमाथि सम्मान गर्नुपर्छ भन्ने सिकाइन्छ तर पछि त्यसले मानिस पृथ्वीको लागि सबभन्दा बढी हानिकारक छ, त्यसकारण पृथ्वीको रक्षा गर्नको लागि मानिसलाई समाप्त गर्नु नै श्रेयष्कर हुन्छ भन्ने निष्कर्ष निकाल्यो भने स्थिति के होला ? यसलाई सही मूल्य तर गलत व्याख्या भनिन्छ । यही कारणले गर्दा 'भ्यालू स्टाविलिटी' मा विशेष ध्यान दिनुपर्छ । यन्त्रलाई मूल्य केवल तार्किक निष्कर्ष हुँदैनन्, तिनीहरू अनुभव, संस्कृति र मानवीय भावनासँग जोडिएका हुन्छन् भन्ने कुरा बुझाउनु आवश्यक हुन्छ । यदि त्यसले केवल डाटा र तर्कले मात्र काम गर्यो भने त्यसले मानवीय संवेदनाहरूलई सूक्ष्मतापूर्वक बुझ्न सक्दैन ।
'भ्यालू लर्निङ' प्राविधिक समस्या मात्र होइन, यो एक गहन दार्शनिक चुनौती पनि हो । यसको लागि कम्प्यूटर विज्ञान, मनोविज्ञान, नीतिशास्त्र र सामाजिक विज्ञान जस्ता सबै विषयहरूलाई सँगसँगै ल्याउनुपर्छ । यो काम अतिबौद्धिक यन्त्र बनेपछि होइन, त्योभन्दा पहिले नै गर्नुपर्छ । किनकि एकपटक गलत 'भ्यालू सिस्टम' इन्स्टल भयो भने त्यसलाई बदल्ने कुरा संभवतः असंभव हुन्छ ।
मानव जीवनका मूल्यमान्यता अनुभवहरूबाट बन्दछन् र तिनिहरू समयसँगै बदलिरहन्छन् । त्यसो हुँदा यन्त्रले मूल्यमान्यतालाई कसरी केही दिन वा हप्तामा सिक्छन् भन्ने आशा गर्न सकिन्छ ? यसको लागि एउटा 'मेटा-भ्यालू' बनाउन सकिन्छ, जुन एक यस्तो ढाँचा हो, जसले यन्त्रलाई स्वयं कसरी सिक्ने भन्ने कुरा सिकाउँछ । यसबाट संभवतः एक स्थायी समाधानतिर अगाडि बढ्न सकिन्५ । यसबाट यन्त्रलाई त्यसले के सिक्ने भन्ने कुरा पनि सिकाउन सकिन्छ । यो मानिसलाई पनि परिपक्व बनाउने आत्मनिर्देशनकै भावना हो । एउटा बच्चाले स्वयंबाट निर्णय लिने क्षमता विकसित गरेपछि मात्र ऊ एक स्वतन्त्र र जिम्मेवार मानव बन्छ । त्यसरी नै हामीले अतिबौद्धिकतालाई पनि यो योग्यता प्रदान गर्नुपर्छ, ताकि त्यसले सही दिशामा आफै सोच्न सकोस् । के हामी यो दिशातिर अगाडि बढिरहेक छौं त ? हो, केही हदसम्म अगाडि बढिरहेका छौं ।
अनुसन्धानकर्ता अहिले 'एआई एलाइन्मेन्ट', 'इनभर्स रिइन्फोर्समेन्ट लर्निङ', 'कोअपरेटिभ लर्निङ' जस्ता प्रविधिमाथि काम गरिरहेका छन् । तर यो मार्ग धेरै लामो छ र यसमा गल्तीहरूको गुन्जाइस धेरै हुन्छ । मूल्य ग्रहणको प्रक्रिया त्यति नै गम्भीर छ, जति स्वयं एआईको निर्माण । यदि अतिबौद्धिकताले मानवीय हित अनुरूप सोच्नेछ भन्ने कुरा सुनिश्चित गरिएन भने त्यो जतिसुकै बुद्धिमान भएपनि त्यसले हामीलाई नष्ट गर्न सक्छ, चाहे त्यो काम अनजानमा नै गरिएको किन नहोस् । यदि हामी स्वयं आफ्नो मूल्यलाई लिएर भ्रमित छौं भने कुनै यन्त्रले हाम्रो आत्माको गहिराईलाई बुझ्नेछ भन्ने आशा गर्न सकिंदैन । अतिबौद्धिकतालाई ज्ञान दिएर मात्र हुँदैन, त्यसलाई मूल्य पनि प्रदान गर्नुपर्छ र त्यो मूल्य जीवन्त हुनुपर्छ ।
मापदण्ड छनौट
नैतिक सच्चाई वस्तुनिष्ठ हुन्छन् र एक अतिबौद्धिक एआईले यी सच्चाईलाई बुझेर त्यही अनुसार कार्य गर्न सक्छ । के एआईलाई हाम्रो चाहनाबमोजिम निर्देशन दिन सकिन्छ वा हामीले भनेको कुरालाई त्यसले सही अर्थमा बुझ्न सक्छ ? यो दृष्टिकोणले मानवीय उद्देश्य र इच्छाका जटिलताहरूलाई ध्यान दिन्छ । तर यसलाई प्राविधिक रूपले लागू गर्नु अत्यन्तै जटिल हुनसक्छ । एउटा महत्त्वपूर्ण अवधारणा 'कोहेरेन्ट एक्सट्रोपोलेटेड भोलिसन' अनुसार एआईलाई मानवतका सामूहिक र परिष्कृत इच्छालाई बुझ्ने र त्यही अनुसार कार्य गर्न निर्देशन दिइन्छ । यद्यपि यो दृष्टिकोण पनि धेरै चुनौतीपूर्ण छ; जस्तो कि विभिन्न संस्कृति र व्यक्तिका इच्छाहरूमा अन्तर र भविष्यका संभावित परिस्थितिहरूको अनिश्चितता हुन्छ ।
अतिबौद्धिकताको लक्ष्यलाई मानव हित अनुरूप जोखिम कम हुनेगरी निर्धारित गर्नुपर्छ । यसको लागि मापदण्डलाई प्रत्यक्ष र स्पष्ट रूपमा परिभाषित गर्नुपर्छ; सीमित र नियन्त्रित लक्ष्य निर्धारित गर्नुपर्छ र मानव मूल्य एवम् नैतिकताका आधारमा लक्ष्य निर्धारित गर्नुपर्छ ।
धेरै दृष्टिकोणमध्ये कुनै एकलाई चुन्ने कुरा मात्र पर्याप्त हुँदैन, कुन आधारमा यी दृष्टिकोणहरूको छनौट गर्ने भन्ने कुरा पनि तय गर्नुपर्छ । यसलाई एक 'मेटा-चुजिङ' समस्या भनिन्छ । यसले हामी मूल्य र मापदण्डको निर्धारण कसरी गर्छौं भन्ने कुरा सोच्न बाध्य बनाउँछ । यदि यो 'मेटा-चुजिङ' प्रक्रियामा गल्ती भयो भने अतिबौद्धिकताले मानवीय मूल्य र हित विपरीत कार्य गर्न सक्छ । त्यसकारण यो प्रक्रियामा सावधानीपूर्वक र विचारणीय रूपमा कार्य गर्नुपर्छ । यो प्रक्रियामा विभिन्न दृष्टिकोण र विभिन्न विशेषज्ञहरूको विचारलाई सामेल गर्नुपर्छ, ताकि सन्तुलित र व्यापक दृष्टिकोण प्राप्त गर्न सकियोस् । यसमा एक सामूहिक प्रयास हुनुपर्छ, जसमा दर्शनशास्त्र, कम्प्यूटरविज्ञान, मनोविज्ञान र अन्य क्षेत्रका विशेषज्ञ मिलेर काम गर्नुपर्छ ।
अतिबौद्धिकताको लक्ष्यलाई मानव हित अनुरूप जोखिम कम हुनेगरी निर्धारित गर्नुपर्छ । यसको लागि मापदण्डलाई प्रत्यक्ष र स्पष्ट रूपमा परिभाषित गर्नुपर्छ; सीमित र नियन्त्रित लक्ष्य निर्धारित गर्नुपर्छ र मानव मूल्य एवम् नैतिकताका आधारमा लक्ष्य निर्धारित गर्नुपर्छ । अतिबौद्धिकताको विकास अन्तर्गत विभिन्न लक्ष्य निर्धारण मापदण्ड हुन्छन् । अतिबौद्धिकताको लक्ष्य मानवताको लागि सुरक्षित र लाभदायक होस् भन्ने कुरा एक जटिल प्रक्रिया हो । अतिबौद्धिकताको विकास र नियन्त्रणको लागि रणनीति बनाउँदा सही मापदण्डको छनौट गर्नु आवश्यक हुन्छ । त्यो प्राविधिक रूपमा मात्र व्यावहारिक भएर हुँदैन, नैतिक र सामाजिक दृष्टिकोणले पनि उपयुक्त हुनुपर्छ । अतिबौद्धिक एआईलाई प्रदान गर्न सकिने मूल्य र मापदण्डलाई सटिकतापूर्वक परिभाषित गर्न सकिन्छ त भन्ने प्रश्न गहन र चुनौतीपूर्ण छ ।
रणनीतिक तस्विर
अतिबौद्धिक एआई मानवताका लागि प्राविधिक प्रगति मात्र नभएर अस्तित्वगत चुनौती पनि बन्न सक्छ । एआईको विकास मानवताका लागि अवसर र जोखिम दुवैको स्रोत बन्न सक्छ । जति-जति एआईको क्षमता बढ्दै जान्छ, त्यति-त्यति त्यसको प्रभावको दायरा पनि विस्तृत हुँदै जान्छ । एआईले जटिल समस्याहरूको समाधान मात्र गर्दैन, त्यो आफै निर्णय लिन पनि सक्षम हुनेछ । यो स्थितिबाट हामीले एआईलाई कुन दिशामा विकसित गर्ने भन्ने कुरा निर्धारित गर्नुपर्छ । यहाँ एउटा महत्त्वपूर्ण 'सिङ्गलटन' अवधारणा आउँछ, जसानुसार एउटा मात्र अतिबौद्धिक एआईले सम्पूर्ण विश्वमा नियन्त्रण गर्दछ । यो स्थितिले मानवताको लागि स्थिरता र सुरक्षा ल्याउन सक्छ तर यदि यो एआईले हाम्रो मूल्यमान्यता विपरीत कार्य गर्यो भने त्यसको परिणाम विनाशकारी हुनसक्छ ।
एआईको विकासमा विभिन्न राष्ट्र र संगठनहरूको प्रतिस्पर्धाले अस्थिर स्थिति पैदा गर्न सक्छ । यदि कुनै एउटा पक्षले एआई सर्वोच्चता हासिल गर्यो भने त्यसले अरुमाथि प्रभुत्व स्थापित गर्न सक्छ । यसबाट वैश्विक असन्तुलन उत्पन्न हुनसक्छ । त्यसकारण अन्तर्राष्ट्रिय सहकार्य र पारदर्शिता अत्यन्त आवश्यक हुन्छ । एउटा अर्को महत्त्वपूर्ण कुरा 'टेकअफ स्पीड' को अवधारणा हो, जहाँ एआईको विकास धीमा गतिले र तीव्र गतिले हुनसक्छ । यदि एआईको विकास विस्तारै-विस्तारै भयो भने त्यसलाई नियन्त्रण गर्न र त्यससँग अनुकूलनको समय प्राप्त हुन्छ । तर यो तीव्र रूपमा भयो भने हामीले त्यसका प्रभावहरूको लागि तयार हुनुपर्छ ।
एआईको विकासको लागि एक स्पष्ट नैतिक ढाँचा तयार गरिनुपर्छ, जसमा मानव मूल्य र हितहरूलाई प्राथमिकता दिइनुपर्छ । यसको लागि वैश्विक स्तरमा नीति निर्धारण, अनुसन्धान र शिक्षामा लगानी गर्नुपर्छ । यसबाट हामी कुन प्रकारको संसार चाहन्छौं र हामीले एआईलाई त्यो दिशामा कसरी मार्गदर्शन गर्न सक्छौं भन्ने कुरा बुझ्न सकिन्छ । यो एक सामूहिक प्रयास हो, जसमा सबै मिलेर काम गर्नुपर्छ, ताकि सुरक्षित र समृद्ध भविष्यतिर अगाडि बढ्न सकियोस् ।
समय अभाव
मानवजातिको भविष्य जटिल र अनिश्चिततातिर जाने संभावना छ । त्यहाँ अतिबौद्धिकताको विकास मानवताको लागि महत्त्वपूर्ण मोडमा हुन्छ । यो निर्णायक समयमा हामीले कस्तो कदम उठाउँछौं भन्ने कुरा अति महत्त्वपूर्ण हुन्छ । हामी हरेक दिशामा संभावना र जोखिमले भरिएका मार्गहरूको बीचमा छौं । हामीसँग समय सीमित छ र हामीले कुन मार्गबाट अगाडि बढ्ने भन्ने निर्णय लिनुपर्नेछ । यसलाई समयसीमासँगै दर्शन अर्थात् 'फिलोसफी विथ ए डेडलाइन' भनिन्छ, जहाँ दार्शनिक विचारलाई समयमा लागू गर्नु आवश्यक हुन्छ । केही खोजहरू समय सम्बेदनशील हुन्छन् । उदाहरणतः यदि एआई सुरक्षाको महत्त्वपूर्ण प्रश्नको उत्तर समयमै प्राप्त गरियो भने सम्भावित खतराबाट बच्न सकिन्छ । त्यसकारण वर्तमानमा महत्त्वपूर्ण समस्यामाथि ध्यान केन्द्रित गर्नुपर्छ र तिनीहरूको समाधान समयमै गर्नुपर्छ ।
यहाँ दुई मुख्य उद्देश्यमाथि ध्यान दिनुपर्छ, जसमा रणनीतिक विश्लेषण र क्षमता निर्माण पर्दछन् । रणनीतिक विश्लेषणमा हाम्रो दृष्टिकोणलाई पूर्ण रूपमा बदल्नसक्ने महत्त्वपूर्ण विचारहरूको खोज गर्नुपर्छ । उदाहरणतः एआईको एक विशेष विकास मार्ग अत्याधिक खतर्नाक छ भन्ने कुरा थाहा भएको खण्डमा हामीले आफ्नो रणनीति तुरुन्तै बदल्नुपर्छ । क्षमता निर्माण अन्तर्गत भविष्यलाई गम्भीरतापूर्वक लिने एक सक्षम समर्थन आधार तयार गर्नुपर्छ । यसबाट नयाँ जानकारी अनुसार गतिशील र प्रभावकारी ढङ्गले प्रतिक्रिया दिन सकिन्छ ।
हामी अहिले शक्तिशाली बमको ट्रिगर पक्रिएर बसेका बच्चाहरूको समूह जस्तै अवस्थामा छौं । स्थिति धेरै चिन्ताजनक छ तर हामीले दृढ संकल्पसहित आफ्नो क्षमता वृद्धि गर्नुपर्छ । किनकि यो हाम्रो समयको सबभन्दा महत्त्वपूर्ण कार्य हो । हामीले समयमै सही निर्णय लिनुपर्छ ।
एक सुसूचित र विवेकशील 'डाटा नेटवर्क' यो दिशामा सहायक हुनसक्छ । यसको अतिरिक्त एआई जोखिम क्षेत्रको संस्कृति र सामाजिक ज्ञानमीमांसालाई आकार दिने कुरा पनि महत्त्वपूर्ण हुन्छ । हामी अहिले शक्तिशाली बमको ट्रिगर पक्रिएर बसेका बच्चाहरूको समूह जस्तै अवस्थामा छौं । स्थिति धेरै चिन्ताजनक छ तर हामीले दृढ संकल्पसहित आफ्नो क्षमता वृद्धि गर्नुपर्छ । किनकि यो हाम्रो समयको सबभन्दा महत्त्वपूर्ण कार्य हो । हामीले समयमै सही निर्णय लिनुपर्छ । सामूहिक बौद्धिकताको उपयोग गरी एक सुरक्षित र समृद्ध भविष्यतर्फ अगाडि बढ्नुपर्छ । यो कुरालाई गम्भीरतापूर्वक विचार गर्नुपर्छ । किनकि समय लगातार अगाडि बढिरहेको छ ।
कुनै खोज वा समाधानको मूल्य तत्काल प्राप्त भयो भने त्यसलाई तुरुन्तै व्यावहारिक रूपमा लागू गर्न सकिन्छ वा त्यो अगाडिको महत्त्वपूर्ण शोधको लागि आधार बन्छ । त्यसपछि त्यसको मूल्य अत्याधिक हुन्छ । हामी रणनीतिक विकल्प र तिनीहरूको परिणाम अस्पष्ट भएको समयमा छौं । केही महत्त्वपूर्ण पक्षहरूलाई हामीले अहिलेसम्म पनि बुझ्न सकेका छैनौं । त्यसकारण निर्णय लिने कुरामा सतर्कता र व्यापक सोचको आवश्यकता हुन्छ । रणनीतिक स्पष्टता प्राप्त गर्नको लागि उत्कृष्ट बोधसहित चुनौतीको समाधान गर्न मद्दत गर्ने क्षमता निर्माण गर्नुपर्छ । भविष्यमा अतिबौद्धिकताका जोखिमहरूलाई नियन्त्रण गर्नका लागि हामीसँग विशेष उपाय र सावधानी हुनु आवश्यक छ । समयसीमा र जोखिम बढिरहेको यस्तो बेलामा कुन प्रकारका नीति, नियन्त्रण प्रणाली र मूल्य निर्धारणका तरीकाले अतिबौद्धिकताको विकासलाई सुरक्षित र मानव हितमा कायम राख्न सकिन्छ भन्ने चीजको खोज गर्नु आवश्यक हुन्छ । अन्तमा, वर्तमान स्थितिको रणनीतिक जटिलता र अनिश्चितता अनुसार हामीले गतिशील र सुझबुझपूर्ण निर्णय लिनु आवश्यक हुन्छ, किनकि अतिबौद्धिकताको विकासको समयसीमा नजिकै छ र यसको प्रभाव गहन र व्यापक हुनसक्छ ।
सन्दर्भ स्रोतहरू
- https://dn721809.ca.archive.org/0/items/superintelligence-paths-dangers-strategies-by-nick-bostrom/superintelligence-paths-dangers-strategies-by-nick-bostrom.pdf
- Nick Bostrom, Superintelligence: Paths, Dangers, Strategies, Oxford University Press, 2014.
ISBN: 9780199678112 - https://www.fhi.ox.ac.uk/
- https://nickbostrom.com/
- Machine Intelligence Research Institute (MIRI): https://intelligence.org
- Center for the Study of Existential Risk (CSER): https://www.cser.ac.uk
- https://leading-minds.com/en/expert/nick-bostrom/
- https://en.wikipedia.org/wiki/Nick_Bostrom
- https://www.yalescientific.org/2015/01/book-review-superintelligence-paths-dangers-strategies/

सुप्राग्लेसियल लेक विस्फोट र विनाशको ताण्डव

पृथ्वीको गहिराइमा लुकेको महासागर: वैज्ञानिकहरूको अनौठो खोज

बेटेल्ज्युसको रहस्य: एक विस्फोटोन्मुख ताराको कथा

गुरुत्वाकर्षणको पुनराविष्कार : आइन्स्टाइनको सापेक्षतावाद र ब्रह्माण्डको नयाँ व्याख्…

८ लाख वर्षअघिको अस्तित्व संकट: जब मानव जाति लोप हुने अवस्था नजिक पुगेको थियो…

पृथ्वी तात्दो छ, तर जाडो किन झन् चिसो हुँदै जाँदैछ ?

पृथ्वीमा विचरण गरेका मानव जाति हामी मात्र होइनौं !

प्रतिक्रिया