Deepfake पर सख्त मोदी सरकार, आईटी मंत्री अश्विनी वैष्णव ने दी कड़ी चेतावनी
वैष्णव ने कहा कि सरकार ने हाल ही में डीपफेक मुद्दे पर कंपनियों को नोटिस जारी किया था और प्लेटफार्मों ने जवाब भी दिया। उन्होंने कहा कि लेकिन कंपनियों को ऐसी सामग्री पर कार्रवाई करने में अधिक आक्रामक होना होगा।

केंद्रीय आईटी मंत्री अश्विनी वैष्णव ने शनिवार को सोशल मीडिया प्लेटफार्मों को चेतावनी दी कि सूचना और प्रौद्योगिकी अधिनियम में उन्हें छूट को खत्म मान लिया जाएगा अगर वो डीपफेक को हटाने के लिए कदम नहीं उठाते हैं। आईटी एक्ट की एक धारा के अनुसार, किसी ऑनलाइन प्लेटफॉर्म ( यानि कंपनी ) को उपयोगकर्ताओं द्वारा उस पर पोस्ट की गई सामग्री के लिए जिम्मेदार नहीं ठहराया जा सकता है। केंद्रीय मंत्री ने कहा कि केंद्र सरकार ने हाल ही में सभी बड़े सोशल मीडिया प्लेटफॉर्म को नोटिस जारी किया है और उनसे डीपफेक की पहचान करने और सामग्री को हटाने के लिए कदम उठाने को कहा है। उन्होंने कहा कि प्लेटफार्मों ने प्रतिक्रिया दी और वे कार्रवाई कर रहे हैं। उन्होंने कहा, "हमने सभी प्लेटफाॉर्मों से इस दिशा में और अधिक आक्रामक होने के लिए कहा है." शुक्रवार को, प्रधान मंत्री नरेंद्र मोदी ने कहा कि डीपफेक सबसे बड़ा खतरा है, इसका भारतीय सिस्टम इस समय सामना कर रहा है और इसमें समाज में अराजकता पैदा करने की क्षमता है।
Also Read: India vs Australia: क्रिकेट फैंस के लिए वरदान साबित हुई स्पेशल ट्रेन
वैष्णव ने कहा कि सरकार ने हाल ही में डीपफेक मुद्दे पर कंपनियों को नोटिस जारी किया था और प्लेटफार्मों ने जवाब भी दिया। उन्होंने कहा कि लेकिन कंपनियों को ऐसी सामग्री पर कार्रवाई करने में अधिक आक्रामक होना होगा। वैष्णव ने संवाददाताओं से कहा, वे कदम उठा रहे हैं, लेकिन हमें लगता है कि कई और कदम उठाने होंगे और हम बहुत जल्द शायद अगले 3-4 दिनों में सभी मंचों की एक बैठक करने जा रहे हैं। हम उन्हें इस पर विचार-मंथन के लिए बुलाएंगे और सुनिश्चित करेंगे कि मंच इसे (डीपफेक) रोकने के लिए पर्याप्त प्रयास करें और अपने तंत्र को साफ़ करें।
हाल ही में काजोल, कैटरीना कैफ और रश्मिका मंदाना समेत कई बॉलीवुड कलाकार डीपफेक वीडियो का शिकार बने हैं। डीपफेक तकनीक उपयोगकर्ताओं को मशीन लर्निंग और कृत्रिम बुद्धिमत्ता का उपयोग करके किसी छवि या वीडियो को संशोधित करने की अनुमति देती है। यह तकनीक वीडियो या ऑडियो रिकॉर्डिंग में किसी व्यक्ति की उपस्थिति और आवाज़ में हेरफेर कर सकती है, जिससे प्रामाणिक और हेरफेर की गई सामग्री के बीच अंतर करना चुनौतीपूर्ण हो जाता है।