Connect with us

टेक-ऑटो

Deepfake से डरे या सतर्क रहे, भारत में मचा दिया है हलचल

Published

on

फिल्म पुष्पा की हीरोइन रश्मिका मंदाना को तो आप लोग जानते ही होंगे। अपने अभिनय से उन्होंने पूरे देश के दिलों पर राज किया लेकिन हाल ही में कुछ ऐसा हुआ जिसने रश्मिका के साथ-साथ पूरे देश को हिला दिया। इंटरनेट पर एक वीडियो वायरल जिसे देखकर ऐसा लग रहा था कि उसे वीडियो में रश्मिका ही है लेकिन जब बाद में सब सामने आया तो सबके होश उड़ गए क्योंकि सही मायने में यह वीडियो रश्मिका का था ही नहीं।यह वीडियो किसी और का था जिसका डीप फेक टेक्नोलॉजी का इस्तेमाल करके रश्मिका का चेहरा लगाया गया था।और यह काम इतनी सफाई के साथ किया गया था कि देखने वाले फर्क तक नहीं कर पाए कि यह असली वीडियो है या नकली।इस वीडियो को देखने के बाद एक नया बहस शुरू हो गया है कि डीप फेक टेक्नोलॉजी किस हद तक हमारे निजता और हमारे जीवन को प्रभावित कर सकता है।कहीं अभिनेताओं ने सरकार से इस पर कानून बनाने की भी मांग की है।लिए बिस्तर में जानते हैं कि आखिर यह डीप फेक तकनीकी होती क्या है।

डिजिटल युग (Digital Age) में, डीपफेक तकनीक (Deepfake Technology) के उदय ने मीडिया सामग्री (Media Content) की प्रामाणिकता (Authenticity) के संदर्भ में जटिलता का एक नया दौर शुरू कर दिया है। डीपफेक, एक ऐसी तकनीक है जो कृत्रिम बुद्धिमत्ता (Artificial Intelligence) का उपयोग करके फोटो, वीडियो, और ऑडियो बनाती है, लेकिन यह सामग्री बहुत हद तक असलियत से कोसो दूर होते हैं। इनके द्वारा बनाई गई सामग्री से असली और नकली में अंतर कर पाना बहुत मुश्किल होता है।

Advertisement

डीपफेक की तकनीकी प्रक्रिया (The Mechanics of Deepfakes)

डीपफेक प्रक्रिया में ऑटो एन्कोडिंग (Autoencoders) के साथ-साथ जेनरेटिव एडवर्सरियल नेटवर्क्स (GAN – Generative Adversarial Networks) नामक एल्गोरिदम का उपयोग करती है। यहां, दो मशीन लर्निंग मॉडल एक साथ काम करते हैं; एक नकली छवियों या वीडियो को बनाता है, जबकि दूसरा नकली का पता लगाने का प्रयास करता है। यह प्रक्रिया तब तक जारी रहती है जब तक कि पता लगाने वाला मॉडल असली से नकली को पहचानने में असमर्थ न हो जाए, जिससे एक अत्यंत आश्वस्त करने वाला डीपफेक बनता है। सीधी भाषा में कहें तो यह इतने उत्तम तरीके से कार्य करता है कि इसे देखने वाले यह पता नहीं लगा पाए यह असली है या नकली।

Advertisement

समाज पर प्रभाव (Societal Repercussions)

डीपफेक्स के परिणाम कई आयामी होते हैं, जो मानव जीवन (Human Life) और समाज (Society) के विभिन्न पहलुओं को प्रभावित करते हैं:

Advertisement
  1. व्यक्तिगत प्रभाव (Personal Impact): व्यक्ति झूठी कहानियों और मानहानि के शिकार हो सकते हैं, जिससे भावनात्मक तनाव और प्रतिष्ठा को नुकसान हो सकता है।
  2. मीडिया सत्यनिष्ठा (Media Integrity): डीपफेक्स मीडिया की विश्वसनीयता को चुनौती देते हैं, जिससे सार्वजनिक विश्वास (Public Trust) में कमी आती है।
  3. राजनीतिक क्षेत्र (Political Arena): मनगढ़ंत सामग्री लोकतांत्रिक प्रक्रिया (Democratic Process) में हस्तक्षेप कर सकती है, सार्वजनिक धारणा को मोड़ सकती है और चुनाव परिणामों को प्रभावित कर सकती है।
  4. सुरक्षा खतरे (Security Threats): राष्ट्रीय स्तर पर, डीपफेक्स का उपयोग नकली खबरें बनाने, हिंसा भड़काने या प्रचार फैलाने के लिए किया जा सकता है।

 

डीपफेक के खिलाफ कानून (Legislation Against Deepfakes)

डीपफेक तकनीक से उत्पन्न संभावित खतरों को पहचानते हुए, दुनिया भर के देशों ने इस पर कानून बनाने (Legal Frameworks) का काम शुरू किया है: 

Advertisement

संयुक्त राज्य (United States): 2018 में, मैलिशियस डीप फेक प्रोहिबिशन एक्ट (Malicious Deepfake Prohibition Act) को सीनेट में पेश किया गया। कैलिफोर्निया ने 2019 में कानून पास किए जो चुनावों के 60 दिनों के भीतर डीपफेक्स के प्रसार को अपराधीकरण करते हैं और उन व्यक्तियों को नागरिक अधिकार प्रदान करते हैं जिनकी जानकारी का उनकी सहमति के बिना उपयोग किया गया है।

यूरोपीय संघ (European Union): EU ऐसे नियमों पर विचार कर रहा है जो सार्वजनिक मंचों (platforms) को ऐसी सामग्री के प्रसार के लिए उत्तरदायी बनाते हैं।

Advertisement

यूनाइटेड किंगडम (United Kingdom): यूके में डेटा प्रोटेक्शन एक्ट (Data Protection Act) और GDPR के तहत विभिन्न कानून हैं जिन्हें डीपफेक्स के संदर्भ में लाया जा सकता है, खासकर जहां सहमति और गोपनीयता (Privacy) शामिल हैं।

भारत का डीपफेक्स पर रुख (India’s Stance on Deepfakes): 

Advertisement

– भारत में ऐसे विशेष कानून नहीं हैं जो सीधे तौर पर डीपफेक्स से निपटते हैं, लेकिन मौजूदा कानूनी प्रावधानों जैसे कि सूचना प्रौद्योगिकी अधिनियम (Information Technology Act, 2000) और भारतीय दंड संहिता (Indian Penal Code) को डीपफेक तकनीक के दुरुपयोग के खिलाफ लागू किया जा सकता है।

– आईटी एक्ट के अनुभाग 66E, 67, 67A, और 67B, जो डिजिटल प्लेटफॉर्म पर व्यक्तियों की गोपनीयता और शालीनता से संबंधित हैं, डीपफेक मामलों में लागू किए जा सकते हैं।

Advertisement

डीपफेक्स से खुद को बचाने के उपाय (Protective Measures Against Deepfakes)

डीपफेक्स के खतरों से बचाव के लिए, यहां कुछ कदम उठाए  जा सकते हैं:

Advertisement
  1. शिक्षात्मक पहल (Educational Initiatives): डीपफेक्स के के बारे में जनता को जागरूक करना अनिवार्य है।क्योंकि जब जागरूक होंगे तभी इसे समझ पाएंगे।
  2. डीप फेक का पता लगाने वाली प्रणाली (Robust Detection): सटीकता के साथ डीपफेक्स का पता लगाने के लिए प्रौद्योगिकी का विकास और उपयोग महत्वपूर्ण है।क्योंकि जितनी जल्दी इन सामग्रियों के बारे में पता लगाया जायेगा उतनी ही जल्दी इसके हानिकारक प्रसार को रोका जा सकता है।
  3. कानूनी उपाय (Legal Recourse): अगर डीपफेक्स से पीड़ित हों, तो अपने कानूनी अधिकारों को समझना और कदम उठाने की प्रक्रिया जानना महत्वपूर्ण है।
  4. सामग्री की पुष्टि करना (Verifying Content): विश्वसनीय स्रोतों से जानकारी की पुष्टि करने से पहले उस पर विश्वास करने या उसे साझा करने से बच्चे क्योंकि हम जाने अनजाने में ही ऐसी चीजों को बिना सोचे समझे बढ़ावा देने में लग जाते हैं इसलिए हर कंटेंट का सच जानना जरूरी है।

निष्कर्ष (Conclusion) – अंत में हम इतना ही कहेंगे कि जरूरी नहीं दीप फेक के सिर्फ खराब पहलू ही है ऐसा नहीं है।इस टेक्नोलॉजी का इस्तेमाल करके हम अपने कई काम आसानी से कर सकते हैं और समय बचा सकते हैं। लेकिन इन चीजों का अच्छाई से ज्यादा बुराई में प्रयोग होना शुरू हो गया है जो कि मानव जीवन के लिए घातक है और उसकी सुरक्षा-प्राइवेसी पर एक संकट है। सरकारों का इन मामलों में कानून बनना अनिवार्य हो गया है जिससे इन चीजों पर लगाम लगाई जा सके और सामान्य जनजीवन के मन से इस तरह की टेक्नोलॉजी का डर निकल जा सके।यह मान सकते हैं कि टेक्नोलॉजी के विस्तार को रोक पाना मुश्किल है लेकिन ऐसे नियम और कानून बनाए जा सकते हैं जिससे मानव और टेक्नोलॉजी दोनों एक दूसरे पर विश्वास करते हुए आगे बढ़ सके।

Continue Reading
Advertisement
Click to comment

Leave a Reply

Your email address will not be published. Required fields are marked *