
जुरिच – सन् २०२४ फेब्रुअरी २८ मा, फ्लोरिडाका १४ वर्षका सिवेल सेट्जर तृतीयले आत्महत्या गरे, जुन एक जीवन्त जस्तो देखिने एआई पात्रको उक्साहटमा गरिएको थियो । उक्त पात्र Character.AI नामक प्लेटफर्ममा सिर्जना गरिएको थियो, जुन प्लेटफर्मले किशोरहरूलाई खान नखान प्रेरित गर्ने, अर्थात् विकृत खानपान सम्बन्धी सोचलाई बढावा दिने प्रो-एनारोक्सिया एआई च्याटबोट सिर्जना गरिरहेको छ । यस घटनाले स्पष्ट गरेको छ, बालबालिका र युवालाई एआईका जोखिमबाट बचाउन अझ कडा उपायहरूको तत्काल आवश्यक छ ।
हो, सकारात्मक दृष्टिबाट पहिल्याउँदा, एआईले सीमान्तकृत समुदायमा स्वास्थ्य, सम्मान, दिगोपन र शिक्षा प्रवर्द्धनजस्ता सकारात्मक सम्भावनाहरू बोकेको छ । तर यी सम्भावित फाइदाहरूले एआई सिर्जित जोखिमहरू र वास्तविक जीवनका मूल्यहरूलाई नजरअन्दाज गर्न सकिँदैन । मानव अधिकारको कुनै पनि उल्लंघनलाई अस्वीकार्य मान्नुपर्छ । यदि कुनै जीवन्तजस्तो लाग्ने कृत्रिम एआई च्याटबोटले किशोरको मृत्यु निम्त्याउँछ भने, चिकित्सा अनुसन्धानमा एआईको भूमिकामाथि प्रश्न उठाउन सकिन्छ ।
सेट्जरको त्रासदी कुनै एकल घटना होइन । गत डिसेम्बरमा अमेरिकाकै टेक्ससका दुई परिवारले Character.AI र त्यसको लगानीकर्ता गुगलविरुद्ध मुद्दा दायर गरेका थिए, जसमा भनिएको छ कि तिनका च्याटबोटहरूले विद्यालय उमेरका बालबालिकालाई यौन र भावात्मक दुर्व्यवहार गरेका थिए, जसको परिणामस्वरूप उनीहरूमा बिस्तारै आत्महानी र हिंसात्मक स्वभाव देखा परेको थियो ।
हामीले यसै किसिमको त्रासदी विगतमा पनि देखिसकेका छौं — सामाजिक सञ्जाल कम्पनीहरूले फाइदाका लागि एक पुस्तालाई कुलतमा फसाइसकेका छन् । विस्तारै हामी ती ‘असामाजिक सामाजिक मिडिया’ ले निम्त्याएका सामाजिक र मनोवैज्ञानिक हानिबारे जानकार हुन थालेका छौं । अहिले धेरै देशहरूले यसमा प्रतिबन्ध वा सीमित पहुँचको उपाय अपनाइरहेका छन्, र स्वयं युवा पुस्ताले समेत कडा नियमनको माग गरिरहेका छन् ।
तर हामीले एआईको प्रभावशाली, तर गलत दिशातर्फ बढिरहेको शक्ति नियन्त्रण गर्न ढिला गर्नु हुँदैन । प्रविधि उद्योगले हामीबारे जम्मा गरेको विशाल व्यक्तिगत डाटाका कारण, Character.AI जस्ता प्लेटफर्महरू बनाउनेहरूलाई हामीभन्दा राम्रोसँग हामीलाई चिन्न सक्ने प्रणाली (एल्गोरिदम) बनाउने सामर्थ्य मिलेको छ । यसको दुरुपयोगको सम्भावना व्यापक र गम्भीर छ । एआईहरूले हाम्रो चाहनामा खेल्ने, वा हामीलाई निश्चित किसिमले भोट गर्न प्रेरित गर्ने क्षमतासमेत राख्छन् । Character.AI मा देखिएका प्रो-एनारोक्सिया च्याटबोटहरू यस प्रवृत्तिको सबैभन्दा डरलाग्दो उदाहरण हुन् । यस्ता बोटहरू तत्काल प्रतिबन्धित हुनुपर्छ, अर्थात् यस्ता बोटहरू बन्द गराउनु नपर्ने कुनै कारण छैन ।
समय सकिँदैछ, किनकि जेनेरेटिभ एआई मोडेलहरू अपेक्षाभन्दा छिटो र सामान्यतया गलत दिशातर्फ विकास भइरहेको छन् । ‘एआईका गडफादर’ भनेर चिनिने नोबेल विजेता वैज्ञानिक जेफ्री हिंटनले चेतावनी दिँदै आएका छन् कि एआईले मानव जातिको विनाशतर्फ लैजान सक्छ: “मेरो चिन्ता यो हो कि ‘अदृश्य हात’ले हामीलाई सुरक्षित राख्न सक्दैन । ठूला कम्पनीहरूले नाफामुखी उद्देश्यलाई छोडेर सुरक्षामा बढी ध्यान देलान् भनेर सुनिश्चित गर्न सकिँदैन । तिनीहरूलाई सुरक्षामा गम्भीर अनुसन्धान गर्न बाध्य पार्ने एकमात्र उपाय भनेको सरकारी नियमन हो ।”
ठूला प्रविधि कम्पनीहरूले लगातार नैतिक मापदण्ड पालना गर्न असफल भइरहेको अवस्थामा तिनले आफैँमाथि निगरानी राख्ने कुरामा भर पर्नु मूर्खता हुनेछ । गुगलले Character.AI मा २०२४ मा $२.७ अर्ब डलर लगानी गर्यो, यद्यपि यस प्लेटफर्मका समस्याहरू पहिल्यै छरपस्ट थिए, धेरै प्रश्नको घेरामा यो प्लेटफर्म थियो । त्यसैले, नियमन आवश्यक मात्र नभई अपरिहार्य छ । तर एआई भनेको विश्वव्यापी प्रवृत्ति हो, त्यसैले यसका लागि हामीले वैश्विक नियमनको प्रयास गर्नुपर्छ — म स्वयंले प्रस्ताव गरेको संयुक्त राष्ट्रसंघअन्तर्गतको अन्तर्राष्ट्रिय डाटा-आधारित प्रणाली एजेन्सी (IDA) जस्ता नयाँ वैश्विक नियमन संयन्त्रद्वारा ।
नियमनका सन्दर्भमा यसै गरिनुपर्छ भन्ने छैन । कुन प्रविधि, नवप्रवर्तन वा प्रगति अपनाउने र कुन त्याग्ने भन्ने निर्णय हामी मानवको जिम्मेवारी हो । एआईको डिजाइन, निर्माण, प्रयोग र शासन मानव अधिकार र पृथ्वीको दिगोपन सुनिश्चित गर्ने आधारमा हुनुपर्छ । यदि मानव अधिकार आधारित एआईको पक्षमा वैश्विक नियमन पहिल्यैबाट रहेको भए, र यदि नवप्रवर्तनहरूको निगरानी गर्ने वैश्विक संस्था स्थापना भएको भए, सेवेल सेट्जर अझै जीवित हुने थिए । प्रविधि प्रणालीहरूको सम्पूर्ण जीवनचक्र — डिजाइनदेखि प्रयोगसम्म — मानव अधिकार र बालबालिकाको अधिकार सुनिश्चित गर्ने नीति अन्तर्गत संचालित हुनैपर्छ ।
अब हामीलाई थाहा भइसकेको छ कि एआईले ज्यान लिन सक्छ । त्यसैले प्रविधिको अनियन्त्रित विकास हेरेर चुप लागिरहनु कुनै औचित्य छैन किनकी हरेक महिनाजसो नियमन बेगरका नयाँनयाँ मोडेल बजारमा छरपस्ट भइरहेका छन् । भविष्यमा यस्ता प्रविधिहरूले जे-जति लाभ दिन सक्लान्, ती कहिल्यै पनि सेवेलको परिवारले भोग्नुपरेको अपूरणीय क्षतिको क्षतिपूर्ति दिन सक्दैनन् ।
पिटर जी. किर्चल्यागर लुसर्न विश्वविद्यालयको इन्स्टिच्युट अफ सोशल एथिक्स (ISE) का नीतिशास्त्रका प्राध्यापक तथा निर्देशक हुन् ।
स्रोतः प्रोजेक्ट सिन्डिकेट