काठमाडौं । तपाईंले कहिले प्रधानमन्त्री पुष्पकमल दाहाल ‘प्रचण्ड’ले विपक्षी दलका कुनै नेतालाई खुलेआम गालीगलौज गरेको भिडिओ देख्नु भएको छ ? वा नेपाली नायिकाको कुनै पोर्न भिडिओ हेर्नु भएको छ ? या त कुनै महत्वपूर्ण ओहोदामा बसेको व्यक्तिबाट कुनै आपत्तिजनक अभिव्यक्ति ?
यस्ता सामग्रीहरू फेसबुक तथा अन्य कुनै किसिमका सामाजिक सञ्जालमा देख्नु भएको खण्डमा तपाईं के गर्नुहुन्छ ? त्यसलाई तत्काल शेयर गरेर सनसनी बनाउनमा योगदान दिनु हुन्छ ? वा त्यसको वास्तविकता पत्ता लगाउने प्रयास गर्नुहुन्छ ।
भिडिओ वा तस्वीरमा देखेको त्यस्तो दृश्यलाई तपाईं कुन आधारमा सही हो वा विकृत भनेर पहिचान गर्नुहुन्छ ? जब कदकाँठी, आवाज, अनुहार सबैको भाव अभिव्यक्ति एउटै छ भने तपाईं कसरी यी कुरामा विश्वास नगरी रहनसक्नुहुन्छ ।
तर एआई प्रविधिसँगै विकास भएका अल्गोरिदम तथा मेसिन लर्निङ यति धेरै अत्याधुनिक बनिसकेका छन् । यसकारण तपाईंले देख्ने र सुन्ने हरेक अस्वाभाविक सामग्रीहरूमाथि तपाईंले एकैपटकमा विश्वास गर्नसक्ने वातावरण छैन ।
यही मेसिन लर्निङ तथा एआईको संयोजनले विकास गरेको डिपफेक प्रविधिले तपाईंलाई वास्तविक र फेक कन्टेन्टबीचको फरकपनामा अलमल्याई दिनसक्छ । यो प्रविधिले तपाईंको अनुहारमा जुनसुकै सेलिब्रेटी वा व्यक्तिको अनुहारलाई मिलाइ दिन्छ ।
एउटा अनुहारको भावलाई पनि प्रविधिले अर्को अनुहारमा यसरी समाहित गरिदिन्छ कि ती कुन सही हुन् र कुन गलत हुने भन्ने कुरामा व्यक्ति आफै अलमलमा पर्छन् । डिपफेक प्रविधिको माध्यमबाट प्रयोगकर्ताले आफूले चाहेको जुनसुकै व्यक्तिको मुखबाट जुनसुकै कुरा निकाल्न सक्छ ।
आफूलाई मन परेको जुनसुकै फिल्मी दृश्यमा आफूलाई उतार्न सक्नुहुन्छ । यस्ता सामग्रीमा कसैले पनि वास्तविक के हो र बनाइएको सामग्री कुन हो भनेर छुट्याउन सक्दैनन् । यसको सबैभन्दा घातक रूप त तब देखिन थाल्यो, जब डिपफेक प्रविधि प्रयोग गर्दै सेलिब्रेटीहरुको अनुहार अश्लीलजन्य भिडिओ सामग्रीमा प्रयोग हुन थाल्यो ।
साथै विभिन्न उच्च पदस्थ तथा निर्णायक व्यक्तिहरूको आवाज प्रयोग गरेर विभिन्न अभिव्यक्तिहरू फेक समाचारको रुपमा प्रयोग गर्न थालियो । आर्टीफिसियल न्युरल नेटवर्क तथा मेसिन लर्निङको प्रयोग गरेर व्यक्तिको आवाज समेत कपी गरी ठूला बैंकिङ फ्रडका काण्डसम्म घटिसकेका घटनाहरू दर्ता भईसकेका छन् ।
डिपफेक प्रविधिमा कुनै सार्वजनिक व्यक्तिको आवाजको ‘क्लोनिङ’ तथा कपि पनि गर्न सकिन्छ ।
फेक समाचार तथा साइबर ह्याकिङले ठूला ठूला मुलुकहरुको चुनावी अभियानलाई प्रभावित पारिरहेको समयमा डिप फेक प्रविधिको दुरुपयोग भएको खण्डमा यसले प्रजातन्त्रलाई नै खतरामा पुर्याउने विश्लेषकहरूले चेतावनी दिदैँ आएका छन् ।
मनोरञ्जनको प्रयोजनका लागि बनाइएका यस्ता प्राविधिहरूले कालान्तरमा दुरुपयोग भएर जोखिमपूर्ण स्थिति सृजना गर्ने अवस्था नआउला भन्न सकिदैँन । केही समयअघि मात्र चर्चित युट्युबर मिस्टर बिस्टको भिडिओ डिफफेक प्रविधिबाट तयार पारी ठगी गर्ने काम भइरहेको थियो ।
युट्युब भिडिओमा कहिले गाडी, कहिले पैसा र कहिले अन्य किसिमका सामाजिक कार्य गरिरहेका देखिने मिस्टर बिस्टको उक्त भिडिओ उनले दुई डलरमै आईफोन १५ उपलब्ध गराउने उल्लेख थियो । त्यसैमा लिङ्क राखिएको थियो ।
केही प्रयोगकर्ताले वास्तविक जस्तै सोचेर रकम बुझाएको पनि दाबी गरेका थिए । पछि मिस्टर बिस्ट आफैले उक्त भिडिओ डिपफेक प्रविधिबाट तयार पारिएको उल्लेख गरेका थिए ।
डिपफेक प्रविधिको इतिहास
वास्तवमा डिपफेकको सुरुवात ‘फोटो म्यानुपुलेसनबाट सुरु भएको मानिन्छ । सन् १८६० मा अमेरिकी गृह युद्ध चलिरहेको समयमा राजनीतिज्ञ जोन कलहवनको शरीरमा अब्राहम लिङ्कनको टाउको जोडेको तस्वीर बनाइएको थियो । राजनीतिक स्वार्थका लागि बनाइएको यो फोटोलाई नै पहिलो फोटो म्यानुपुलेट दाबी गरिएको छ ।
२० औं शताब्दीमा सोभियत युनियनका नेता जोशेप स्टेलिनले आफ्नो प्रोपोगान्डा फैलाउनका लागि फोटो म्युपुलेसनको सहयोग लिएको थिए । ५ मे १९२० का दिन उनका पूर्ववर्ती भ्लादिमिर लेनिनले सोभियत सेनाका लागि एउटा भाषण राखेका थिए जसमा कम्युनिस्ट नेता लियोन ट्रस्की उपस्थित थिए ।
त्यस सम्मेलनमा खिचिएको सो फोटोमा ट्रस्की पनि देखिएका थिए । पछि प्रोपोग्रान्डा फैलाउनका लागि उक्त फोटोबाट ट्रस्कीलाई हटाइएको थियो । सन् १९४२ तिर इटालियन जासुस बेनिटो मुस्सोलिनीको तस्वीरबाट घोडा सम्हान्ने व्यक्तिको फोटो मेटाइएको थियो । ताकि बाहिर सर्वसाधारणलाई मुस्सोलिनी घोडा पनि सम्हाल्न नसक्ने रहेछन् भन्ने नपरोस् ।
यति मात्र होइन इतिहासमा फोटो म्यानुपुलेसनका कारण कैयौं ठूला विवाद पनि निम्तिएका थिए । सन् १९८२ तिर नेसनल जिओग्राफिक्स म्यागजिनको कभरमा फिट गर्नका लागि दुई पिरामिडलाई धेरै नजिक देखाइएकको थियो । त्यसरी फोटो म्यानुपुलेट गर्दा नेसनल जिओग्राफिक्सको चौतर्फी आलोचना भयो । जसले गर्दा उक्त म्यागजिनले पछि माफी माग्नु परेको थियो ।
फोटो तोडमोड गरेकै कारण यस्ता घटना कैयौं सतहमा आएका थिए । त्यसरी एउटाको फोटोमा अर्काको फोटो जोड्ने, फोटोलाई वास्तविकभन्दा भिन्न बनाउने कार्यलाई फोटो म्यानुपुलेसन भन्न थालिएको थियो । त्यतिबेला फोटोलाई तोडमोड गर्न वा एउटाको शरीरको फोटोमा अर्काकै अनुहार जोड्नका लागि विज्ञ व्यक्ति चाहिन्थ्यो । यो पक्रिया बढी खर्चिलो पनि हुन्थ्यो । त्यसैले ठूला ठूला राजनीतिक स्वार्थका लागि यसको बढी प्रयोग हुन्थ्यो ।
सन् २०१७ मा डिपफेक पोर्न भिडिओ रेड्डिट नामक सामाजिक सञ्जालमा भाइरल भयो । त्यस लगतै सामाजिक सञ्जालमा विभिन्न सेलिब्रेटी तथा चर्चित व्यक्तिहरूको अनुहार पोर्न भिडिओमा जोडेर बदनाम गर्ने गतिविधि बढ्न थाले ।
सन् २०१९ मा एआई फर्म डिप ट्रेसले इन्टरनेटमा १५ हजार बढी डिपफेक प्रविधिबाट तयार पारेको भिडिओ रहेको पत्ता लगायो । जसमा ९६ प्रतिशत पोर्न भिडिओ रहेको पत्ता लाग्यो । त्यसमा पनि ९९ प्रतिशत भिडिओमा महिला सेलिब्रेटीलाई जोडिएको थियो ।
डिपफेक प्रविधिले कसरी काम गर्छ ?
डिपफेक एआईले आर्टिफिसियल इन्टेलिजेन्सको प्रयोग गरी कुनै दोस्रो व्यक्तिको फोटो, अडियो वा भिडिओ बनाउने काम गर्छ । डिपफेक दुई ओटा एल्गोरिदमको सहायताले काम गर्छ । पहिलो जेनेरेटर र अर्को हो डिस्क्रिमिनेटर । जेनेरेटरले नक्कली कन्टेन्ट बनाउने । र, डिस्क्रिमिनेटरले उक्त नक्कली कन्टेन्ट कत्तिको सक्कली जस्तो देखिन्छ भन्ने पहिचान गर्छ ।
अर्थात् जबसम्म फेक फोटो वा भिडिओ सक्कली जस्तो लाग्दैन तबसम्म डिस्क्रिमिनेटरले त्यसलाई ठिक बनाउँछ । यही जेनेरेटर र डिस्क्रिमिनेटर एल्गोरिदमको संयोजनलाई जेनेरेटिभ एड्भर्सेरियल नेटवर्क (जीएएन) भनिन्छ । जीएएनले डिप लर्निङको प्रयोग गरी नक्कली कन्टेन्ट तयार पार्छ । डिफफेक भिडिओ सामान्यः दुई तरिकाले बनाइन्छ ।
जसको फेक भिडिओ बनाउनुछ, उसको सक्कली भिडिओ लिएर त्यसको अनुहार र शरीरको हाउभाउ रेकर्ड गरिन्छ । त्यसपछि त्यो व्यक्तिको यस्तो भिडिओ भिडिओ बनाइन्छ जहाँ व्यक्तिलाई जे बोल्न लगाउन खोजियो त्यस्तो देखाइन्छ । त्यस्तै अर्को तरिका हुन्छ ‘फेस स्वाइप’ । यो त्यस्तो तरिका हो जसमा एउटाको भिडिओमा अर्कै व्यक्तिको अनुहार राखेर तयार पारिन्छ । रश्मिका मन्धनाको प्रकरणमा अनुहार परिवर्तन गरेको हो ।
फोटो मात्र नभइ भ्वाइस पनि डिप फेक प्रविधिद्वारा तयार पारिन्छ । पछिल्लो समय टिकटकमा विभिन्न राजनीतिज्ञ, कलाकार तथा अन्य व्यक्तिहरूको आवाज पनि भाइरल हुन थालेको छ । त्यही आवाजलाई लिप सिङ्क गरेर वास्तविक जस्तै देखाउने होड नै चलेको छ । डिपफेकको सहायताले जे पनि गर्न थालिएको छ ।
डिपफेक एआई कति खतरनाक छ ?
विकसित राष्ट्रमा डिपफेक प्रविधिको दुरुपयोग बढी हुने घटना दिनानुदिन बढ्दै गइरहेका छन् । रुस र युक्रेनको युद्ध भइरहेको समयमा युक्रेनका राष्ट्रपति भ्लादिमिर जेलेनेस्कीको एउटा डिफफेक भिडिओ टेलिग्राममा सर्कुलेट भएको थियो । जसमा उनले आफ्ना सेनालाई आत्मसमर्पण गर्न भनेको देख्न सकिन्थ्यो । सोच्नुहोस् कही युद्ध भइरहेको छ, अनि कुनै एक देशको प्रमुख व्यक्तिले आफ्ना सेनालाई आत्मसमर्पण गर्न भनेको छ भने त्यहाँको अवस्था के होला ?
डिपफेकबाट बनाएको भिडिओ सेनाले साँच्चै मानेर विश्वास गरे भने कुनै देशको रक्षाका लागि त्यो कति खतरनाक होला ? फेसबुकका मालिक मार्क जुकरबर्गले एक डिपफेक भिडिओमा अर्बौं मानिसहरूबाट चोरी गरेको डेटालाई नियन्त्रण गरिरहेको छु भनेको भाइरल भएको थियो । यस्तो हुँदा ठूला व्यवसाय रातारात अर्बौं डलर गुमाउन पुग्छन् । उनीहरू अनावश्यक रूपमा कानुनी फन्दामा पर्छन् ।
कम्पनीको स्टक मूल्य समेत प्रभावित हुन्छ । चुनावका क्रममा विरोधी दलले नेताको नक्कली भिडिओ बनाएर अफवाह फैलाइरहेका हुन्छन् । यस्तो हुँदा मतदातालाई उनीहरूको प्रतिनिधिमाथि विश्वास घट्छ र उनीहरू भोट दिनबाट पछि हट्छन् । यसले मत सङ्ख्यालाई ठूलो प्रभाव पार्छ ।
अमेरिकी राष्ट्रपति जोय बाइडेनले एक कार्यक्रममा भनेका थिए, “मैले एआईबाट तयार पारिएको मेरै एक भिडिओ हेरेको थिएँ । त्यहीबेला मैले भने, मैले कहिले यस्तो बोलेको थिएँ ? एउटा तीन सेकेन्डको तपाईंको भ्वाइस रेकर्डिङ तपाईंको परिवारलाई मूर्ख बनाउन पर्याप्त हुन्छ । यसलाई कतिपय मानिहरूले कुनै व्यक्तिको आफन्तबाट रकम माग गर्नका लागि पनि प्रयोग गरिरहेका छन् ।”
यही प्रविधिको प्रयोग गरेर मानिसको संवेदनशील जानकारी चोर्ने काम भइरहेको विभिन्न सञ्चार माध्यमले उल्लेख गरेका छन् । डिपफेककै दुरुपयोग गरेर कुनै देशको विदेश नीतिलाई पनि प्रभावित पार्न सकिन्छ । उदाहरणका लागि हालै भ्लादिमिर पुटिनको डिपफेक भिडिओ इन्टरनेटमा सर्कुलेट भएको थियो । जहाँ उनले अमेरिकी प्रजातन्त्रमाथि हमला गरिरहेका थिए । यसरी डिफफेक प्रविधिको दुरुपयोग हुँदा दुई देशबीचको सम्बन्ध पनि बिग्रिने जोखिम हुन्छ । डिफफेक भिडिओकै दुरुपयोग गरी आतङ्ककारी समूहले जनतालाई भड्काउन सक्छन् ।
यसरी अधिकांश प्रकरणमा डिफफेक भिडिओ सतहमा आइरहँदा पछि कसैले साँच्चिकै गलत गरे पनि डिपफेक प्रविधिलाई नै दोष दिने जोखिम बढेको छ । दिनानुदिन प्रविधि यति अत्याधुनिक हुँदै छ कि कुनै दिन जतिसुकै तरिका अपनाए पनि भिडिओ सक्कली हो वा नक्कली हो पत्ता लगाउनै सकस पर्न सक्छ ।
त्यस्तै केही वर्षअघि डिपफेक भिडिओका लागि विज्ञता हासिल गरेका व्यक्तिले मात्र भिडिओ बनाउन सक्थे भने अहिले सामान्य वेबसाइट प्रयोग गर्न जानेको अवस्थामा डिफफेक भिडिओ तयार पार्न सकिन्छ ।
डिजिटल साक्षरताका हिसाबले पछाडि परेको नेपाल जस्तो मुलुकमा डिफफेक प्रविधिको जोखिम उच्च हुने जोखिम देखिन्छ । त्यसैले कुनै पनि भिडिओ वा फोटोमा जे देख्यो त्यो नै साँचो हुन्छ भन्ने कुरा पहिलो नजरमै विश्वास गर्न नसकिने अवस्था आएको छ ।