close

मेयर बालेन शाहले उपमेयर सुनिता डङ्गोललाई चुम्बन गरेको भाइरल भिडिओ फेक, कसरी बन्यो यस्तो ?

हिक्मत आचार्य हिक्मत आचार्य

साउन २८, २०८१ १९:११

मेयर बालेन शाहले उपमेयर सुनिता डङ्गोललाई चुम्बन गरेको भाइरल भिडिओ फेक, कसरी बन्यो यस्तो ?

काठमाडौं । पछिल्ला केही दिन यता सामाजिक सञ्जाल फेसबुकमा काठमाडौं महानगरका मेयर बालेन्द्र शाह र उपमेयर सुनिता डङ्गोलको एक भिडिओ भाइरल छ । फेसबुक पेजमा आएको उक्त भिडिओमा मेयर शाहले उपमेयर डङ्गोललाई चुम्बन गरेको दृश्य समावेश छ । 

झट्ट हेर्दा भिडिओ वास्तविक जस्तै देखिए पनि त्यसलाई नियालेर हेर्ने हो भने भिडिओ ‘डिफफेक प्रविधि’को सहयोगमा तयार पारिएको सजिलै अनुमान लगाउन सकिन्छ । डिपफेक प्रविधिका बारेमा हामीले तल विस्तृतमा चर्चा गरेका छौं । 

भाइरल भएको सो भिडिओ डिपफेक प्रविधिले नै तयार पारेको हो भन्ने तमाम आधार छन् । सबैभन्दा पहिलो पक्ष भनेको भिडिओमा ‘लुमा’को वाटरमार्क छ । अर्थात् यो भिडिओ लुमा एआईको प्रयोग गरी तयार पारिएको छ । 

केही सेकेन्डको उक्त भिडिओमा चुम्बन गरेको दृश्यमा दुबै पात्रको अनुहार परिवर्तन भएको देख्न सकिन्छ । त्यस बाहेक हात र टाउकोको चाल पनि अस्वाभाविक देखिन्छ । यी विभिन्न पक्षलाई केलाएर हेर्दा यो भिडिओ डिफफेक प्रविधिबाट तयार पारेको पुष्टि हुन्छ । 

डिपफेक भिडिओमा देखिएको दृश्य

हालै सम्पन्न काभा महिला भलिबल नेस्नल लिगको फाइनल खेलमा मेयर शाह र उपमेयर डङ्गोल एकसाथ उपस्थित थिए । नेपाल र भारतबिच भएको फाइनल खेलकै क्रममा भिडिओमा मेयर शाह र उपमेयर डङ्गोल देखिएका थिए । उक्त क्लिपलाई लिएर डिफफेक भिडिओ बनाइएको हो ।  

सो भिडिओ अधिकांश फेसबुक पेजले यसको वास्तविकता जान्ने हिसाबले राखेको देखिन्छ । त्यस भिडिओको कमेन्टमा हेर्ने हो भने केहीले डिपफेक प्रयोग भएको बताएका छन् । 

तर, अधिकांशले भने यो भिडिओ वास्तविक नै भएको अड्कल काटेका छन् । केहीले भने उक्त भिडिओ बनाउनेलाई कडाभन्दा कडा कारबाही गर्न समेत माग गरेका छन् । 

नेपालमा डिफपेक भिडिओले गत वर्ष सम्पन्न उपनिर्वाचनकै बेलादेखि बढी चर्चा पाइरहेका छन् ।  खासगरी चुनावी प्रतिस्पर्धामा आएका राजनीतिक दलका शीर्ष नेताहरूका त्यस्ता भिडिओले चुनावमा बढी चर्चा पाएका थिए । 

त्यसबाहेक राजनीतिक दलका नेता र राजनीतिज्ञहरूले गीत गाएको, नाचेको भिडिओ पनि चर्चामा आइरहेका हुन्छन् । त्यसमा प्रायः डिपफेक र भ्वाइस क्लोनिङ प्रविधिको प्रयोग भएको हुन्छ । 

जसरी भारतीय नायिका रश्मीका मन्दनाको डिफफेक भिडिओ बाहिरिंदा भारतमा उक्त प्रविधिले चर्चा पायो, त्यस्तो चर्चा नेपालमा खासै भएको छैन । रश्मीका मन्दना, भारतीय उद्यमी रतन टाटा, क्रिकेटर सचिन तेन्दुलकर लगायत अन्य चर्चित व्यक्तिहरूको डिफफेक भिडिओ बन्ने क्रम बढेपछि भारतले त्यस सम्बन्धी ऐन नै जारी गर्‍यो ।

समय समयमा डिफफेक भिडिओमार्फत लाखौंको ठगी भएका घटना पनि बाहिर आइरहेका हुन्छन् । खासगरी लुटपाट, अपहरण आदिका लागि डिफफेक भिडिओ बन्ने गरेका देखिन्छन् । 

नेपालको सन्दर्भमा भने डिफफेक नै प्रयोग गरी आपराधिक घटना भएको औपचारिक जानकारी नभएको साइबर ब्युरोका प्रवक्ता एवम् प्रहरी उपरीक्षक दीपकराज अवस्थी बताउँछन् । “हाम्रोमा (साइबर ब्युरोमा) औपचारिक रूपमा डिफफेक प्रविधि प्रयोग गरी अपराध गरेको भन्ने खाले घटना आइसकेका छैनन्,” टेकपानासँगको कुराकानीमा उनी भन्छन्, “तर, फोटोशप लगायत अन्य विभिन्न सफ्टवेयर प्रयोग गरी कसैको प्रतिष्ठामा आँच पुर्‍याउने किसिमका अपराध भने भइरहेका हुन्छन् ।”

उजुरीका क्रममा मर्फिङ भएको भन्ने उल्लेख हुने हुँदा ठ्याक्कै डिफफेक प्रविधिबारे घटना दर्ता नभएको उनले सुनाए । यद्यपि विश्वबजारमा डिफफेक प्रविधिका नकारात्मक एवम् सकारात्मक प्रभाव देखिरहँदा त्यसको प्रयोग नेपालमा पनि विस्तारै हुँदै गइरहेको उनले सुनाए । 

“कसैले पनि कुनै पनि प्रविधिको दुरुपयोग गरी अर्काको मान प्रतिष्ठामा आँच पुर्‍याउने काम गर्नु हुँदैन,” उनले भने, “एकैछिनको रमाइलोले कसैको जीवनमा गम्भीर असर पार्न सक्छ भने बनाउने व्यक्ति कानून बमोजिम कारबाहीको भोगिदार बन्नुपर्ने अवस्था आउन सक्छ ।”

प्रहरी उपरीक्षक अवस्थीका अनुसार पछिल्लो समय नेपालमा भ्रामक र गलत सूचना प्रवाह गर्ने गतिविधि पनि बढ्दो छ । सामाजिक सञ्जाल वा इन्टरनेटका कुनै पनि माध्यममा देखिएको सामग्री झट्ट विश्वास गरी धारणा राख्ने हतारो नगर्न समेत अवस्थीले सुझाए । आफूलाई आशङ्का लागेको वा भनौं यस्तो कसरी हुन सक्छ भन्ने जस्ता सामाग्री देखेमा त्यसको तथ्य जाँच गरेर मात्र धारणा राख्नुपर्ने उनको भनाई छ । त्यस्तै कसैले डिपफेक भिडिओ बनाए तुरुन्तै साइबर ब्युरो वा नजिकको प्रहरी कार्यालयमा निवेदन दिन अवस्थीले सुझाव दिए । 

डिपफेक प्रविधिः यसरी बनाउँछ सक्कली र नक्कली भिडिओ-फोटो छुट्याउनै मुस्किल

तपाईंले कहिल्यै प्रधानमन्त्री केपी शर्मा ओलीले विपक्षी दलका कुनै नेतालाई खुलेआम गालीगलौज गरेको भिडिओ देख्नु भएको छ ? वा नेपाली नायिकाको कुनै पोर्न भिडिओ हेर्नु भएको छ ? अथवा कुनै महत्त्वपूर्ण ओहोदामा बसेको व्यक्तिबाट कुनै आपत्तिजनक अभिव्यक्ति दिएको सुन्नु भएको छ ?

यस्ता सामग्रीहरू फेसबुक तथा अन्य कुनै सामाजिक सञ्जालमा देखेको खण्डमा तपाईं के गर्नुहुन्छ ? त्यसलाई तत्काल शेयर गरेर सनसनी बनाउनमा योगदान दिनु हुन्छ ? वा त्यसको वास्तविकता पत्ता लगाउने प्रयास गर्नुहुन्छ ।

भिडिओ वा तस्विरमा देखेको त्यस्तो दृश्यलाई तपाईं कुन आधारमा सही वा विकृत भनेर पहिचान गर्नुहुन्छ ? जब कदकाँठी, आवाज, अनुहार सबैको भाव अभिव्यक्ति एउटै छ भने तपाईं कसरी यी कुरामा विश्वास नगरी रहन सक्नुहुन्छ ?

एआई प्रविधिसँगै विकास भएका एल्गोरिदम तथा मसिन लर्निङ धेरै अत्याधुनिक बनिसकेका छन् । यसकारण तपाईंले देख्ने र सुन्ने हरेक स्वभाविक वा अस्वाभाविक सामग्रीहरूमाथि तपाईंले एकैपटकमा विश्वास गर्नसक्ने वातावरण छैन ।

यही मसिन लर्निङ तथा एआईको संयोजनले विकास गरेको डिपफेक प्रविधिले तपाईंलाई वास्तविक र फेक कन्टेन्टबीचको फरकपनामा अलमल्याई दिनसक्छ । यो प्रविधिले तपाईंको अनुहारमा जुनसुकै सेलिब्रेटी वा व्यक्तिको अनुहारलाई मिलाइ दिन सक्छ । 

एउटा अनुहारको भावलाई पनि प्रविधिले अर्को अनुहारमा यसरी समाहित गरिदिन्छ कि ती कुन सही हुन् र कुन गलत भन्ने कुरामा व्यक्ति आफै अलमलमा पर्छन् । डिपफेक प्रविधिको माध्यमबाट प्रयोगकर्ताले आफूले चाहेको जुनसुकै व्यक्तिको मुखबाट जुनसुकै कुरा निकाल्न सक्छ ।

यसको सहयोगमा तपाईं आफूलाई मन परेको जुनसुकै फिल्मी दृश्यमा आफूलाई उतार्न सक्नुहुन्छ । यस्ता सामग्रीमा कसैले पनि वास्तविक के हो र बनाइएको सामग्री कुन हो भनेर छुट्याउन सक्दैनन् । यसको सबैभन्दा घातक रूप त तब देखिन थाल्यो, जब डिपफेक प्रविधि प्रयोग गर्दै सेलिब्रेटीहरूको अनुहार अश्लीलजन्य भिडिओ सामग्रीमा प्रयोग हुन थाल्यो ।

साथै विभिन्न उच्च पदस्थ तथा निर्णायक व्यक्तिहरूको आवाज प्रयोग गरेर विभिन्न अभिव्यक्तिहरू फेक समाचारको रूपमा प्रयोग गर्न थालियो । आर्टिफिसियल न्युरल नेटवर्क तथा मसिन लर्निङको प्रयोग गरेर व्यक्तिको आवाज समेत कपी गरी ठूला बैंकिङ ठगीका काण्डसम्म घटिसकेका घटनाहरू दर्ता भइसकेका छन् ।

डिपफेक प्रविधिमा कुनै सार्वजनिक व्यक्तिको आवाजको ‘क्लोनिङ’ तथा कपी पनि गर्न सकिन्छ । फेक समाचार तथा साइबर ह्याकिङले ठुला ठुला मुलुकहरूको चुनावी अभियानलाई प्रभावित पारिरहेको समयमा डिप फेक प्रविधिको दुरुपयोग भएको खण्डमा यसले प्रजातन्त्रलाई नै खतरामा पुर्‍याउने विश्लेषकहरूले चेतावनी दिँदै आएका छन् ।

मनोरञ्जनको प्रयोजनका लागि बनाइएका यस्ता प्रविधिहरूले कालान्तरमा दुरुपयोग भएर जोखिमपूर्ण स्थिति सिर्जना गर्ने अवस्था नआउला भन्न सकिन्न । केही समयअघि मात्र चर्चित युट्युबर मिस्टर बिस्टको भिडिओ डिफफेक प्रविधिबाट तयार पारी ठगी गर्ने काम भइरहेको थियो ।

युट्युब भिडिओमा कहिले गाडी, कहिले पैसा र कहिले अन्य किसिमका सामाजिक कार्य गरिरहेका देखिने मिस्टर बिस्टको उक्त भिडिओमा उनले दुई डलरमै आईफोन १५ उपलब्ध गराउने उल्लेख थियो । त्यसैमा लिङ्क राखिएको थियो ।

केही प्रयोगकर्ताले वास्तविक जस्तै सोचेर रकम बुझाएको पनि बताइएको थियो ।  पछि मिस्टर बिस्ट आफैँले उक्त भिडिओ डिपफेक प्रविधिबाट तयार पारिएको उल्लेख गरेका थिए ।

डिपफेक प्रविधिको इतिहास

वास्तवमा डिपफेकको सुरुवात ‘फोटो म्यानुपुलेसनबाट सुरु भएको मानिन्छ । सन् १८६० मा अमेरिकी गृह युद्ध चलिरहेको समयमा राजनीतिज्ञ जोन कलहवनको शरीरमा अब्राहम लिङ्कनको टाउको जोडेको तस्व‍िर बनाइएको थियो । राजनीतिक स्वार्थका लागि बनाइएको यो फोटोलाई नै पहिलो फोटो म्यानुपुलेट दाबी गरिएको छ ।

२० औं शताब्दीमा सोभियत युनियनका नेता जोशेफ स्टेलिनले आफ्नो प्रोपगान्डा फैलाउनका लागि फोटो म्यानुपुलेसनको सहयोग लिएका थिए । ५ मे १९२० का दिन उनका पूर्ववर्ती भ्लादिमिर लेनिनले सोभियत सेनाका लागि एउटा भाषण राखेका थिए, जसमा कम्युनिस्ट नेता लियोन ट्र्रटस्की उपस्थित थिए ।

त्यस सम्मेलनमा खिचिएको सो फोटोमा ट्रटस्की पनि देखिएका थिए । पछि प्रोपग्रान्डा फैलाउनका लागि उक्त फोटोबाट ट्रटस्कीलाई हटाइएको थियो । सन् १९४२ तिर इटालियन जासुस बेनिटो मुस्सोलिनीको तस्विरबाट घोडा सम्हाल्ने व्यक्तिको फोटो मेटाइएको थियो । ताकि बाहिर सर्वसाधारणलाई मुस्सोलिनी घोडा पनि सम्हाल्न नसक्ने रहेछन् भन्ने नपरोस् । 

यति मात्र होइन इतिहासमा फोटो म्यानुपुलेसनका कारण कैयौं ठुला विवाद पनि निम्तिएका छन् । सन् १९८२ तिर नेसनल जिओग्राफिक्स म्यागेजिनको कभरमा फिट गर्नका लागि दुई पिरामिडलाई धेरै नजिक देखाइएको थियो । त्यसरी फोटो म्यानुपुलेट गर्दा नेसनल जिओग्राफिक्सको चौतर्फी आलोचना समेत भयो । जसले गर्दा उक्त म्यागेजिनले पछि माफी नै माग्नु परेको थियो ।

फोटो तोडमोड गरेकै कारण यस्ता कयौं घटना सतहमा आएका थिए । त्यसरी एउटाको फोटोमा अर्काको फोटो जोड्ने, फोटोलाई वास्तविकभन्दा भिन्न बनाउने कार्यलाई फोटो म्यानुपुलेसन भन्न थालिएको हो । त्यतिबेला फोटोलाई तोडमोड गर्न वा एउटाको शरीरको फोटोमा अर्काकै अनुहार जोड्नका लागि विज्ञ व्यक्ति चाहिन्थ्यो । यो प्रक्रिया बढी खर्चिलो पनि हुन्थ्यो । त्यसैले ठुला ठुला राजनीतिक स्वार्थका लागि यसको प्रयोग बढी हुन्थ्यो । 

सन् २०१७ मा डिपफेक पोर्न भिडिओ रेड्डिट नामक सामाजिक सञ्जालमा भाइरल भयो । त्यस लगत्तै सामाजिक सञ्जालमा विभिन्न सेलिब्रेटी तथा चर्चित व्यक्तिहरूका अनुहार पोर्न भिडिओमा जोडेर बदनाम गर्ने गतिविधि बढ्न थाले ।

सन् २०१९ मा एआई फर्म डिप ट्रेसले इन्टरनेटमा १५ हजार बढी डिपफेक प्रविधिबाट तयार पारेका भिडिओ रहेको पत्ता लगायो । जसमा ९६ प्रतिशत पोर्न भिडिओ रहेको पत्ता लाग्यो । त्यसमा पनि ९९ प्रतिशत भिडिओमा महिला सेलिब्रेटीलाई जोडिएको थियो ।

डिपफेक प्रविधिले कसरी काम गर्छ ?

डिपफेक एआईले आर्टिफिसियल इन्टेलिजेन्सको प्रयोग गरी कुनै दोस्रो व्यक्तिको फोटो, अडियो वा भिडिओ बनाउने काम गर्छ ।  डिपफेक दुई ओटा एल्गोरिदमको सहायताले काम गर्छ । पहिलो जेनेरेटर र अर्को हो डिस्क्रिमिनेटर । जेनेरेटरले नक्कली कन्टेन्ट बनाउने र, डिस्क्रिमिनेटरले उक्त नक्कली कन्टेन्ट कत्तिको सक्कली जस्तो देखिन्छ भन्ने पहिचान गर्छ ।

अर्थात् जबसम्म फेक फोटो वा भिडिओ सक्कली जस्तो लाग्दैन, तबसम्म डिस्क्रिमिनेटरले त्यसलाई ठिक बनाउँछ । यही जेनेरेटर र डिस्क्रिमिनेटर एल्गोरिदमको संयोजनलाई जेनेरेटिभ एड्भर्सेरियल नेटवर्क (जीएएन) भनिन्छ । जीएएनले डिप लर्निङको प्रयोग गरी नक्कली कन्टेन्ट तयार पार्छ । डिफफेक भिडिओ सामान्यतः दुई तरिकाले बनाइन्छ ।

जसको फेक भिडिओ बनाउनु छ, उसको सक्कली भिडिओ लिएर त्यसको अनुहार र शरीरको हाउभाउ रेकर्ड गरिन्छ । त्यसपछि त्यो व्यक्तिको यस्तो भिडिओ भिडिओ बनाइन्छ, जहाँ व्यक्तिलाई जे बोल्न लगाउन खोजिएको हो, त्यस्तै देखाइन्छ । त्यस्तै अर्को तरिका हुन्छ ‘फेस स्वाइप’ ।  यो त्यस्तो तरिका हो, जसमा एउटाको भिडिओमा अर्कै व्यक्तिको अनुहार राखेर तयार पारिन्छ । रश्मीका मन्दनाको प्रकरणमा यसैगरी अनुहार परिवर्तन गरिएको थियो । 

फोटो मात्र नभइ भ्वाइस पनि डिप फेक प्रविधिद्वारा तयार पारिन्छ । पछिल्लो समय टिकटकमा विभिन्न राजनीतिज्ञ, कलाकार तथा अन्य व्यक्तिहरूको आवाज पनि भाइरल हुन थालेको छ । त्यही आवाजलाई लिप सिङ्क गरेर वास्तविक जस्तै देखाउने होड नै चलेको छ । डिपफेकको सहायताले जे पनि गर्न थालिएको छ । 

डिपफेक एआई कति खतरनाक ?

विकसित राष्ट्रमा डिपफेक प्रविधिको दुरुपयोग हुने घटना दिनानुदिन बढ्दै गइरहेका छन् । रुस र युक्रेनको युद्ध भइरहेको समयमा युक्रेनका राष्ट्रपति भ्लादिमिर जेलनेस्कीको एउटा डिफफेक भिडिओ टेलिग्राममा सर्कुलेट भएको थियो । 

जसमा उनले आफ्ना सेनालाई आत्मसमर्पण गर्न भनेको देख्न सकिन्थ्यो । सोच्नुहोस् कहीँ युद्ध भइरहेको छ, अनि कुनै एक देशको प्रमुख व्यक्तिले आफ्ना सेनालाई आत्मसमर्पण गर्न भनेको छ भने त्यहाँको अवस्था के होला ?

डिपफेकबाट बनाएको भिडिओ सेनाले साँच्चै मानेर विश्वास गरे भने कुनै देशको रक्षाका लागि त्यो कति खतरनाक होला ? फेसबुकका मालिक मार्क जुकरबर्गले अर्बौं मानिसहरूबाट चोरी गरेको डेटालाई नियन्त्रण गरिरहेको छु भनेको एक डिपफेक भिडिओ भाइरल भएको थियो । यस्तो हुँदा ठुला व्यवसाय रातारात अर्बौं डलर गुमाउन पुग्छन् । उनीहरू अनावश्यक रूपमा कानुनी फन्दामा पर्छन् ।

कम्पनीको स्टक मूल्य समेत प्रभावित हुन्छ । चुनावका क्रममा विरोधी दलले नेताको नक्कली भिडिओ बनाएर अफवाह फैलाइरहेका हुन्छन् । यस्तो हुँदा मतदातालाई उनीहरूको प्रतिनिधिमाथि विश्वास घट्छ र भोट दिनबाट पछि हट्छन् । यसले मत सङ्ख्यामा ठुलो प्रभाव पार्छ ।

अमेरिकी राष्ट्रपति जो बाइडेनले एक कार्यक्रममा भनेका थिए, “मैले एआईबाट तयार पारिएको मेरै एक भिडिओ हेरेको थिएँ । मैले मैले कहिल्यै यस्तो बोलेको थिएँ र ? एउटा तीन सेकेन्डको तपाईंको भ्वाइस रेकर्डिङ तपाईंको परिवारलाई मूर्ख बनाउन पर्याप्त हुन्छ । यसलाई कतिपय मानिहरूले कुनै व्यक्तिको आफन्तबाट रकम माग गर्नका लागि पनि प्रयोग गरिरहेका छन् ।”

यही प्रविधिको प्रयोग गरेर मानिसको संवेदनशील जानकारी चोर्ने काम भइरहेको विभिन्न सञ्चार माध्यमले उल्लेख गरेका छन् । डिपफेककै दुरुपयोग गरेर कुनै देशको विदेश नीतिलाई पनि प्रभावित पार्न सकिन्छ । उदाहरणका लागि हालै भ्लादिमिर पुटिनको डिपफेक भिडिओ इन्टरनेटमा सर्कुलेट भएको थियो । 

जहाँ उनले अमेरिकी प्रजातन्त्रमाथि हमला गरिरहेका थिए । यसरी डिफफेक प्रविधिको दुरुपयोग हुँदा दुई देशबिचको सम्बन्ध पनि बिग्रिने खतरा हुन्छ । डिफफेक भिडिओकै दुरुपयोग गरी आतङ्ककारी समूहले जनतालाई भड्काउन सक्छन् ।

यसरी अधिकांश प्रकरणमा डिफफेक भिडिओ सतहमा आइरहँदा पछि कसैले साँच्चिकै गलत गरे पनि डिपफेक प्रविधिलाई नै दोष दिने जोखिम पनि बढेको छ । दिनानुदिन प्रविधि यति अत्याधुनिक हुँदै छ कि कुनै दिन जतिसुकै तरिका अपनाए पनि भिडिओ सक्कली वा नक्कली के हो पत्ता लगाउनै सकस पर्न सक्छ ।

त्यस्तै केही वर्षअघि डिपफेक भिडिओका लागि विज्ञता हासिल गरेका व्यक्तिले मात्र भिडिओ बनाउन सक्थे भने अहिले सामान्य वेबसाइट प्रयोग गर्न जानेको अवस्थामा जो कसैले डिफफेक भिडिओ तयार पार्न सक्छन् । 

डिजिटल साक्षरताका हिसाबले पछाडि परेको नेपाल जस्तो मुलुकमा डिफफेक प्रविधिको उच्च हुने जोखिम देखिन्छ । त्यसैले कुनै पनि भिडिओ वा फोटोमा जे देख्यो, त्यो नै साँचो हुन्छ भन्ने कुरा पहिलो नजरमै विश्वास गर्न नसकिने अवस्था निम्तिएको छ ।

पछिल्लो अध्यावधिक: साउन २८, २०८१ २०:२२