close

कतै तपाईं डिपफेक भिडिओको शिकार त बन्नुभएन ?

टेकपाना टेकपाना

बैशाख ३१, २०७८ १८:५५

कतै तपाईं डिपफेक भिडिओको शिकार त बन्नुभएन ?

काठमाडौं । पछिल्लो समय डिपफेक भिडिओको चर्चा निकै हुने गरेको छ । मानिसहरुलाई बहकाउनका लागि विश्वभर डिपफेक प्रविधिबाट तयार पारिएका भिडिओको प्रयोग धेरै हुन थालेको छ ।

आज हामी तपाईंलाई फेक अर्थात झुटा जानकारी फैलाउने भिडिओ फर्म्याटको बारेमा बताउँदै छौं । अहिलेको समयमा इन्टरनेटमा फेक कन्टेन्टको बिगबिगी छ ।

यो पत्ता लगाउन निकै मुस्किल हुन्छ । कुन सन्देश वा भिडिओ सही हो वा कुन झुट भन्नै सकिन्न । यही शिलशिलाको पछिल्लो भर्सन हो डिपफेक भिडिओ ।

यो नयाँ फर्म्याटमा नेता तथा सेलिब्रिटीको नक्कली अनुहार तयार पारेर गलत तथा झुटा जानकारीहरु फैलाउने गरिन्छ । वास्तवमा यस्तो डिपफेक भिडिओ नयाँ प्रविधिको सहयोगमा तयार हुने गर्दछ ।

जसलाई हेरेकै भरमा सक्कली हो कि नक्कली हो भन्न मुस्किल हुन्छ । भिडिओसँगै अडियो समेत सक्कली व्यक्तिसँग मिल्नेगरी तयार पारिएको हुन्छ ।

भिडिओ वा तस्वीरमा देखेको त्यस्तो दृश्यलाई तपाईं कुन आधारमा सही हो वा विकृत भनेर पहिचान गर्नुहुन्छ ? जब कदकाँठी, आवाज, अनुहार सबैको भाव अभिव्यक्ति एउटै हुन्छ भने तपाईं कसरी यी कुरामा विश्वास नगरी रहन सक्नुहुन्छ ?

एआई प्रविधिसँगै विकास भएका अल्गोरिदम तथा मसिन लर्निङ यति धेरै अत्याधुनिक बनिसकेका छन् । यसकारण तपाईंले देख्ने र सुन्ने हरेक अस्वभाविक सामग्रीहरुमाथि तपाईंले एकैपटकमा विश्वास गर्नसक्ने वातावरण छैन ।

त्यसैले डिपफेक भिडिओका कारण कयौं अप्रिय घटना हुनसक्ने जोखिम बढेर गएको छ । डिपफेक भिडियोको एउटा खतरनाक पाटो के छ भने यसमा अत्याधुनिक आर्टिफिसियल इन्टेलिजेन्स प्रविधिको प्रयोग गरिएको हुन्छ ।

यही मसिन लर्निङ तथा एआईको संयोजनले विकास गरेको डिपफेक प्रविधिले तपाईंलाई वास्तविक र फेक कन्टेन्टबीचको फरकपनामा अलमल्याउन सक्छ । यो प्रविधिले तपाईंको अनुहारमा जुनसुकै सेलिब्रेटी वा व्याक्तिको अनुहारलाई मिलाइदिन्छ ।

एउटा अनुहारको भावलाई पनि प्रविधिले अर्को अनुहारमा यसरी समाहित गरिदिन्छ कि ती कुन सही हुन् र कुन गलत हुने भन्ने कुरामा व्यक्ति आफैं अलमलमा पर्छन् । डिपफेक प्रविधिको माध्यमबाट प्रयोगकर्ताले आफूले चाहेको जुनसुकै व्याक्तिको मुखबाट जुनसुकै कुरा निकाल्न सक्छ ।

आफूलाई मन परेको जुनसुनै फिल्मी दृश्यमा आफूलाई उतार्न सक्नुहुन्छ । यस्ता सामग्रीमा कसैले पनि वास्तविक के हो र बनाइएको सामग्री कुन हो भनेर छुट्याउन सक्दैनन् । यसको सबैभन्दा घातक रुप त तब देखिन थाल्यो, जब डिपफेक प्रविधि प्रयोग गर्दै सेलिब्रेटीहरुको अनुहार अश्लीलजन्य भिडियो सामाग्रीमा प्रयोग हुन थाल्यो ।

केही समयअघि फेसबुक लगायतका सामाजिक सञ्जाल र अन्य अनलाइन प्लेटफर्ममा राखिएका एक लाखभन्दा बढी महिलाको तस्वीर डिपफेक प्रविधिको प्रयोग गरी नग्न रुपमा सार्वजनिक गरिएको थियाे ।

विभिन्न च्यालेन्जका रुपमा प्रयोग भएका र अनलाइनमा सार्वजनिक रुपमा उपलब्ध फोटोलाई डिपफेक प्रविधि प्रयाेग गरी नग्न बनाउने काम ती भूमिगत समूहहरूले गरिरहेका थिए । साथै केही नाबालिगहरूकाे तस्वीर समेत सार्वजनिक भएकाे थियाे ।

साथै विभिन्न उच्च पदस्थ तथा निर्णायक व्यक्तिहरुको आवाज प्रयोग गरेर विभिन्न अभिव्यक्तिहरु फेक समाचारको रुपमा प्रयोग गर्ने अभ्यास बढेकाे छ । आर्टीफिशियल न्युरल नेटवर्क तथा मसिन लर्निङको प्रयोग गरेर व्याक्तिको आवाज समेत कपी गरी ठूला बैंकिङ फ्रडका काण्डसम्म घटिसकेका घटनाहरु दर्ता भईसकेका छन् ।

त्यस्तै पछिल्लाे क्रिसमस डेको अवसरमा महारानी एलिजावेथको डिपफेक प्रयोग गरी बनाइएको फेक भिडियो प्रसारण गरेपछि बेलायती टेलिभिजन च्यानल च्यानल फोर विवादको घेरामा तानिएको थियाे ।

पाँच मिनेटको उक्त भिडियोमा महारानी एलिजावेथको अल्टर भर्सन देखाइएको छ, जसमा उनले २०२० को वर्षको समिक्षा गरेकी छन् । जसमा राजकुमार ह्यारी र राजकुमारी मेघन मर्कल दरबारबाट बाहिरिएको देखि महामारी असन्तुष्ट रहेकी वित्तीय अधिकारी जेफ्रे इपिस्टेनसँग ड्युक अफ योर्कको संलग्नता जस्ता गम्भीर पारिवारिक विषयको जिकिर गरिएको थियो ।

वास्तवमा डिपफेक प्रविधिमा कुनै सार्वजनिक व्याक्तिकोे आवाजको ‘क्लोनिङ’ तथा कपि पनि गर्न सकिन्छ । केही समयअघि जर्मन एनर्जी फर्मको वेलायत सब्सीडेरीका प्रमुखले हंगेरी बैंकलाई २ लाख युरो भुक्तानी गरेका थिए । उक्त घटनामा कसैले जर्मन सीईओको आवाज डिपफेक प्रविधिबाट क्लोन गरी कम्पनीमा फोन गरी पैसा मगाएका थिए ।

पछि कम्पनीले उक्त घटना डिपफेकका कारणले हुन गएको वयान त दियो तर त्यसलाई प्रमाणित गर्न भने सकेन । फेक समाचार तथा साइबर ह्याकिङहरुले ठूला ठूला मुलुकहरुको चुनावी अभियानहरुलाई प्रभावित पारिरहेको समयमा डिप फेक प्रविधिको दुरुपयोग भएको खण्डमा यसले प्रजातन्त्रलाई नै खतरामा पुर्‍याउने विश्लेषकहरुले चेतावनी दिदैँ आएका छन् ।

मनोरञ्जनको प्रयोजनका लागि बनाइएका यस्ता प्रविधिहरुले कालान्तरमा दुरुपयोग भएर जोखिमपूर्ण स्थिति सृजना गर्ने अवस्था नआउला भन्न सकिँदैन । अझ डिजिटल साक्षरताको कमी भएको नेपाल जस्तो मुलुकमा यस्ता प्रविधिले विकराल समस्या ल्याउने देखिन्छ ।

यस्ता प्रविधि दुरुपयोग भएको खण्डमा यसले प्रजातन्त्रदेखि मानिसहरुको सामान्य सामाजिक जीवनमा पनि क्षति पुर्‍याउने देखिन्छ । यदि हामीले नयाँ अन्वेषण तथा खोजलाई हौसला दिने हो भने, यसबाट हुने क्षतिलाई रोक्नुपर्छ ।

यसका लागि यस्ता प्रविधिका अनुसन्धानकर्ताले डिपफेक प्रविधिसँगै वास्तविक र फेक कन्टेन्टलाई छुट्याउने प्रविधि पनि विकास गर्नुपर्ने डच साइबर सेक्युरिटी कम्पनी डिपट्रेसका निर्देशक जर्जियो प्याट्रीनी बताउँछन् ।

कम्प्युटरको सहयोगमा फेक भिडिओलाई एकदमै सक्कली जस्तो देखाउन सकिन्छ । यसका लागि कम्प्युटरमा आधारित मसिनलाई एक व्यक्तिका कयौं फोटो उपलब्ध गराइन्छ ।

ती सबै फोटो मिलाएर मसिनले एउटा छुट्टै भर्चुअल अनुहार तयार पार्दछ । जसलाई कुनै पनि भिडिओ वा फोटोमा प्रयोग गर्न सकिन्छ ।

यसमा अनुहारको भावभंगी, आँखाको चाल आदि समेत दुरुस्तै मेल खानेगरी विचार गरिएको हुन्छ । त्यसकारण यसरी तयार पारिएको भिडिओ तथा फोटो एकदमै दुरुस्त देखिन्छ ।

सामाजिक सञ्जालमा अहिलेसम्म थुप्रै डिपफेक भिडिओहरु भाइरल भइसकेका छन् । मानिसहरु यस्ता भिडिओलाई वास्तविक सम्झेर शेयर गरिरहेका हुन्छन् ।

त्यस्ता भिडिओमा यतिसम्म विवादित बयान दिइएको हुन्छ कि मानिसहरुले त्यसलाई देख्ने वित्तिकै आफ्नो प्रतिक्रिया सहित शेयर गर्न तयार हुन्छन् ।  त्यसैले सामाजिक सञ्जालमा देखेको जानकारी शेयर गर्नुअघि यस्ता कुराहरुलाई अवश्य विचार गर्नुहोस्, ता कि तपाईंबाट त्यस्ता सामग्री भाइरल गराउने गल्ती नहोस् ।

पछिल्लो अध्यावधिक: असोज २, २०७९ २२:३४