Home   »   Press Freedom Index   »   Deepfake Technology

डीपफेक टेक्नोलॉजी, डीपफेक किस प्रकार कार्य करता है, खतरे तथा समाधान

डीपफेक टेक्नोलॉजी: डीपफेक ऑडियो, वीडियो या छवियों का कंप्यूटर जनित हेरफेर है जो अत्यधिक यथार्थवादी, लेकिन नकली सामग्री बनाता है। वे मीडिया निर्मित करने के लिए कृत्रिम बुद्धिमत्ता (आर्टिफिशियल इंटेलिजेंस) टेक्नोलॉजी, विशेष रूप से गहन शिक्षण कलन विधि (एल्गोरिदम) का उपयोग करते हैं, जो वास्तविक प्रतीत होता है किंतु वास्तव में गढ़ा हुआ है। डीपफेक टेक्नोलॉजी यूपीएससी प्रारंभिक परीक्षा एवं यूपीएससी मुख्य परीक्षा (जीएस पेपर 3- विज्ञान तथा प्रौद्योगिकी) के लिए महत्वपूर्ण है।

डीपफेक टेक्नोलॉजी चर्चा में क्यों है?

हाल ही में, विभिन्न रेडियो स्टेशनों एवं यहां तक ​​कि स्थानीय टीवी नेटवर्कों को कथित तौर पर राष्ट्रपति पुतिन द्वारा एक डीपफेक एड्रेस को प्रसारित करने के लिए हैक किया गया प्रतीत होता है। इस फर्जी एड्रेस ने जन लामबंदी की घोषणा की एवं सीमावर्ती क्षेत्रों में मार्शल लॉ लागू किया।

  • “राष्ट्रपति की आपातकालीन अपील” संदेश के साथ एक प्रसारण में, एक डिजिटल रूप से परिवर्तित रूसी नेता का दावा है कि यूक्रेन की सेना तीन सीमा क्षेत्रों में पार कर गई है।
  • वह नेता उन क्षेत्रों में मार्शल लॉ घोषित करता है तथा निवासियों को रूस के भीतर शरण लेने की सलाह देता है।
  • प्रभावित क्षेत्रों में अनेक टेलीविजन एवं रेडियो स्टेशनों ने संदेश प्रसारित किया, जिसे रूसी अधिकारियों ने हैकिंग की घटना बताया, हालांकि किसी जिम्मेदार पक्ष की पहचान नहीं की गई है।

डीपफेक टेक्नोलॉजी की व्याख्या

डीपफेक डिजिटल मीडिया – वीडियो, ऑडियो एवं कृत्रिम प्रज्ञान (आर्टिफिशियल इंटेलिजेंस) का उपयोग करके संपादित एवं हेरफेर की गई छवियां हैं। यह मूल रूप से अति-यथार्थवादी डिजिटल मिथ्याकरण है।

  • कृत्रिम प्रज्ञान-जनित कृत्रिम मीडिया या डीपफेक के कुछ क्षेत्रों में स्पष्ट लाभ हैं, जैसे पहुंच, शिक्षा, फिल्म निर्माण, आपराधिक फोरेंसिक एवं कलात्मक अभिव्यक्ति।
  • “डीपफेक” शब्द “डीप लर्निंग” अथवा गहन अधिगम, यांत्रिक अधिगम (मशीन लर्निंग) के एक उपवर्ग को “फेक” के साथ जोड़ता है। डीपफेक व्यक्तियों एवं संस्थानों को हानि पहुंचाने के लिए बनाए जाते हैं।
  • कमोडिटी क्लाउड कंप्यूटिंग तक पहुंच, सार्वजनिक अनुसंधान कृत्रिम प्रज्ञान कलन विधि (एल्गोरिदम) एवं प्रचुर मात्रा में डेटा तथा विशाल मीडिया की उपलब्धता ने मीडिया के निर्माण एवं हेरफेर का लोकतंत्रीकरण करने के लिए एक आदर्श तूफान खड़ा कर दिया है। इस कृत्रिम मीडिया सामग्री को डीपफेक कहा जाता है।

डीपफेक किस प्रकार कार्य करता है?

डीपफेक टेक्नोलॉजी यथार्थवादी सिंथेटिक मीडिया उत्पन्न करने के लिए तंत्रिकीय नेटवर्क, विशेष रूप से जनरेटिव एडवर्सरियल नेटवर्क (GANs) का उपयोग करती है।

  • GAN में दो घटक होते हैं: एक जनरेटर एवं एक डिस्क्रिमिनेटर।
  • जनरेटर नकली सामग्री बनाता है, जबकि डिस्क्रिमिनेटर उत्पन्न सामग्री की प्रामाणिकता का मूल्यांकन करता है।
  • पुनरावृत्त प्रक्रिया के माध्यम से, जनरेटर उत्तरोत्तर यथार्थवादी आउटपुट का उत्पादन करना सीखता है, जबकि डिस्क्रिमिनेटर वास्तविक एवं नकली सामग्री के मध्य अंतर करने की अपनी क्षमता में सुधार करता है।

डीपफेक, एक नया दुष्प्रचार उपकरण

दुष्प्रचार एवं झांसा केवल झुंझलाहट से लेकर युद्ध तक विकसित हुए हैं जो सामाजिक उत्पन्न पैदा कर सकते हैं, ध्रुवीकरण बढ़ा सकते हैं तथा कुछ मामलों में चुनाव परिणाम को भी प्रभावित कर सकते हैं।

  • भू-राजनीतिक आकांक्षाओं, वैचारिक समर्थकों, हिंसक चरमपंथियों एवं आर्थिक रूप से प्रेरित उद्यमों वाले राष्ट्र-राज्य कारक सरल तथा अभूतपूर्व पहुंच एवं स्तर के साथ सोशल मीडिया के आख्यानों में हेरफेर कर सकते हैं।
  • डीपफेक के रूप में दुष्प्रचार के खतरे के पास एक नया उपकरण है।

डीपफेक के सकारात्मक एवं नकारात्मक उपयोग?

कृत्रिम प्रज्ञान (आर्टिफिशियल इंटेलिजेंस/AI)-जनित कृत्रिम मीडिया या डीपफेक  के कुछ क्षेत्रों में स्पष्ट लाभ हैं, जैसे पहुंच, शिक्षा, फिल्म निर्माण, आपराधिक न्याय सम्बन्धी (फॉरेंसिक) एवं कलात्मक अभिव्यक्ति।

  • यद्यपि, जैसे-जैसे कृत्रिम मीडिया प्रौद्योगिकी की पहुँच में वृद्धि होती है, वैसे-वैसे शोषण का जोखिम भी बढ़ता है। डीपफेक का इस्तेमाल प्रतिष्ठा को हानि पहुंचाने, सबूत गढ़ने, जनता को धोखा देने तथा लोकतांत्रिक संस्थानों में विश्वास कम करने के लिए किया जा सकता है।
  • यह सब कुछ अल्प संसाधनों के साथ, स्तर एवं गति के साथ प्राप्त किया जा सकता है एवं यहां तक ​​कि समर्थन को प्रेरित करने के लिए सूक्ष्म-लक्षित भी किया जा सकता है।

डीपफेक का प्रभाव- शिकार कौन हैं?

डीपफेक का मानव समाज पर अत्यधिक चिंतित करने वाला प्रभाव पड़ता है, विशेष रूप से जब उनका उपयोग छवि को खराब करने तथा अन्य लोगों से बदला लेने के लिए किया जाता है। डीपफेक टेक्नोलॉजी के कुछ महत्वपूर्ण प्रभावों पर नीचे चर्चा की गई है-

  • अश्लील साहित्य (पोर्नोग्राफी): डीपफेक के दुर्भावनापूर्ण उपयोग का पहला मामला अश्लील साहित्य अथवा पोर्नोग्राफी में सामने आया था। एक Sensity.ai के अनुसार, 96% डीपफेक अश्लील वीडियो हैं, अकेले अश्लील वेबसाइटों पर 135 मिलियन से अधिक बार देखा गया है।
    • डीपफेक अश्लील साहित्य विशेष रूप से महिलाओं को लक्षित करती है।
    • अश्लील डीपफेक धमकी दे सकते हैं, भयभीत कर सकते हैं एवं मनोवैज्ञानिक क्षति पहुंचा सकते हैं।
    • यह महिलाओं को यौन वस्तुओं के रूप में संकुचित कर भावनात्मक संकट उत्पन्न करता है तथा कुछ मामलों में, वित्तीय हानि तथा नौकरी छूटने जैसे संपार्श्विक परिणामों का कारण बनता है।
  • व्यक्तिगत छवि को धूमिल करना: डीपफेक एक व्यक्ति को असामाजिक व्यवहारों में लिप्त होने एवं ऐसी घटिया बातें कहने वाले व्यक्ति के रूप में चित्रित कर सकता है जो उसने कभी नहीं की।
    • यहां तक ​​कि यदि पीड़ित बहाने के माध्यम से या अन्यथा फेक को खारिज कर सकता है, तो आरंभिक क्षति को ठीक करने में अत्यधिक विलंब हो सकता है।
  • सामाजिक क्षति: डीपफेक अल्पकालिक एवं दीर्घकालिक सामाजिक क्षति भी पहुंचा सकते हैं एवं पारंपरिक मीडिया में पूर्व से ही कम हो रहे विश्वास की गति को और तीव्र कर सकते हैं।
    • इस तरह का क्षरण तथ्यात्मक सापेक्षवाद की संस्कृति में योगदान कर सकता है, तनावपूर्ण नागरिक समाज के ताने-बाने को  तेजी से तोड़ सकता है।
  • सार्वजनिक सुरक्षा के लिए खतरा: डीपफेक एक दुर्भावनापूर्ण राष्ट्र-राज्य द्वारा सार्वजनिक सुरक्षा को कमजोर करने एवं लक्षित देश में अनिश्चितता तथा अराजकता उत्पन्न करने हेतु एक शक्तिशाली उपकरण के रूप में कार्य कर सकता है।
    • डीपफेक संस्थानों एवं कूटनीति में विश्वास को कम कर सकते हैं।
  • आतंकवादी संगठनों द्वारा उपयोग: डीपफेक का उपयोग गैर-राज्य कारकों द्वारा, जैसे कि विद्रोही समूह एवं आतंकवादी संगठन, अपने विरोधियों को भड़काऊ भाषण देने अथवा लोगों के बीच राज्य विरोधी भावनाओं को भड़काने के लिए उत्तेजक कार्यों में शामिल होने के रूप में दिखाने के लिए किया जा सकता है।
  • फेक न्यूज को प्रोत्साहित करता है: डीपफेक से एक अन्य चिंता मिथ्याभाषी का लाभांश है; एक अवांछनीय सत्य को डीपफेक या नकली समाचार के रूप में खारिज कर दिया जाता है।
    • डीपफेक का मात्र अस्तित्व इनकार को अधिक विश्वसनीयता देता है।
    • नेता डीपफेक को हथियार बना सकते हैं एवं मीडिया तथा सच्चाई के एक वास्तविक अंश को खारिज करने हेतु  छद्म समाचार एवं वैकल्पिक-तथ्यों का उपयोग कर सकते हैं।

डीपफेक के विरुद्ध आगे की राह

विश्व में डीपफेक टेक्नोलॉजी के हानिकारक प्रभाव/दुरुपयोग को कम करने के लिए समाज के विभिन्न हितधारक निम्नलिखित कदम उठा सकते हैं-

  • मीडिया साक्षरता सुनिश्चित करना: कुशाग्र बुद्धि जनता को तैयार करने के लिए मीडिया साक्षरता के प्रयासों में वृद्धि की जानी चाहिए।
    • भ्रामक सूचनाओं एवं डीपफेक से निपटने के लिए उपभोक्ताओं के लिए मीडिया साक्षरता सर्वाधिक प्रभावी उपकरण है।
  • सहयोगात्मक विनियामक तंत्र: हमें दुर्भावनापूर्ण डीपफेक के निर्माण एवं वितरण को हतोत्साहित करने के लिए विधायी समाधान विकसित करने हेतु प्रौद्योगिकी उद्योग, नागरिक समाज एवं नीति निर्माताओं के साथ सहयोगात्मक चर्चा के साथ सार्थक नियमों की भी आवश्यकता है।
  • डिटेक्शन टेक्नोलॉजी विकसित करना: सोशल मीडिया प्लेटफॉर्म डीपफेक मुद्दे का संज्ञान ले रहे हैं, तथा उनमें से लगभग सभी के पास डीपफेक के उपयोग की कुछ नीति अथवा स्वीकार्य शर्तें हैं।
    • हमें डीपफेक का पता लगाने, मीडिया को प्रमाणित करने एवं आधिकारिक स्रोतों में वृद्धि करने के लिए उपयोग में सरल तथा सुलभ प्रौद्योगिकी समाधानों की भी आवश्यकता है।
  • डीपफेक के विरुद्ध सामूहिक अभियान: डीपफेक के खतरे का मुकाबला करने के लिए, हम सभी को इंटरनेट पर मीडिया के महत्वपूर्ण उपभोक्ता होने की जिम्मेदारी लेनी चाहिए, सोशल मीडिया पर साझा करने से पहले सोचना एवं रुकना चाहिए तथा इस ‘इन्फोडेमिक’ के समाधान का हिस्सा बनना चाहिए।

निष्कर्ष

विधायी विनियमों, प्लेटफ़ॉर्म नीतियों, प्रौद्योगिकी प्रतिउपायों एवं मीडिया साक्षरता दृष्टिकोणों में सहयोगात्मक कार्रवाइयाँ तथा सामूहिक टेक्नोलॉजी कुछ ऐसी विधियां हैं जिनसे डीपफेक खतरे को कम किया जा सकता है। ऑनलाइन मीडिया का उपयोग करते समय सावधानी एवं आलोचनात्मक सोच रखना महत्वपूर्ण है, विशेष रूप से यदि हेरफेर की संभावना हो। डीपफेक टेक्नोलॉजी के अस्तित्व के बारे में जागरूक होने से लोगों को सतर्क रहने तथा उनके सामने आने वाली सामग्री की प्रामाणिकता के बारे में संसूचित निर्णय लेने में सहायता मिल सकती है।

 

डीपफेक के संदर्भ में प्रायः पूछे जाने वाले प्रश्न

 

प्र. डीपफेक क्या होते हैं?

उत्तर. डीपफेक डिजिटल मीडिया – वीडियो, ऑडियो एवं आर्टिफिशियल इंटेलिजेंस का उपयोग करके संपादित तथा हेरफेर की गई छवियां हैं। यह मूल रूप से अति-यथार्थवादी डिजिटल मिथ्याकरण है।

प्र. डीपफेक कैसे बनाए जाते हैं?

उत्तर. डीपफेक उन्नत मशीन लर्निंग एल्गोरिदम, विशेष रूप से डीप न्यूरल नेटवर्क का उपयोग करके उत्पन्न किए जाते हैं। इन एल्गोरिदम को लक्षित व्यक्ति के चेहरे की विशेषताओं एवं अभिव्यक्तियों को सीखने के लिए छवियों या वीडियो के बड़े डेटासेट पर प्रशिक्षित किया जाता है। एक बार प्रशिक्षित होने के बाद, एल्गोरिदम नए वीडियो में लक्ष्य की उपस्थिति में हेरफेर एवं रूप परिवर्तित कर सकता है।

प्र. डीपफेक से जुड़ी मुख्य चिंताएं क्या हैं?

उत्तर. डीपफेक अनेक चिंताएँ उत्पन्न करता है, जो मुख्य रूप से गलत सूचना, गोपनीयता एवं संभावित दुरुपयोग से संबंधित हैं। उनका उपयोग नकली समाचार बनाने, व्यक्तियों को बदनाम करने, जनता की राय में हेरफेर करने कथा धोखाधड़ी या सोशल इंजीनियरिंग के हमलों को सुविधाजनक बनाने के लिए किया जा सकता है।

 

Sharing is caring!

FAQs

डीपफेक क्या होते हैं?

डीपफेक डिजिटल मीडिया - वीडियो, ऑडियो एवं आर्टिफिशियल इंटेलिजेंस का उपयोग करके संपादित तथा हेरफेर की गई छवियां हैं। यह मूल रूप से अति-यथार्थवादी डिजिटल मिथ्याकरण है।

डीपफेक कैसे बनाए जाते हैं?

डीपफेक उन्नत मशीन लर्निंग एल्गोरिदम, विशेष रूप से डीप न्यूरल नेटवर्क का उपयोग करके उत्पन्न किए जाते हैं। इन एल्गोरिदम को लक्षित व्यक्ति के चेहरे की विशेषताओं एवं अभिव्यक्तियों को सीखने के लिए छवियों या वीडियो के बड़े डेटासेट पर प्रशिक्षित किया जाता है। एक बार प्रशिक्षित होने के बाद, एल्गोरिदम नए वीडियो में लक्ष्य की उपस्थिति में हेरफेर एवं रूप परिवर्तित कर सकता है।

डीपफेक से जुड़ी मुख्य चिंताएं क्या हैं?

डीपफेक अनेक चिंताएँ उत्पन्न करता है, जो मुख्य रूप से गलत सूचना, गोपनीयता एवं संभावित दुरुपयोग से संबंधित हैं। उनका उपयोग नकली समाचार बनाने, व्यक्तियों को बदनाम करने, जनता की राय में हेरफेर करने कथा धोखाधड़ी या सोशल इंजीनियरिंग के हमलों को सुविधाजनक बनाने के लिए किया जा सकता है।

Leave a comment

Your email address will not be published. Required fields are marked *