Breaking News

आईटी मंत्री अश्विनी वैष्णव ने डीपफेक को लेकर सोशल मीडिया कंपनियों को दी चेतावनी

केंद्रीय आईटी मंत्री अश्विनी वैष्णव (Union IT Minister Ashwini Vaishnav) ने शनिवार को सोशल मीडिया प्लेटफार्मों (Social media platforms) को चेतावनी दी कि सूचना और प्रौद्योगिकी अधिनियम (Information and Technology Act.) में ‘सुरक्षित बंदरगाह’ खंड (‘Safe Harbor’ section) के तहत उन्हें जो छूट प्राप्त है, वह लागू नहीं होगी यदि वे डीपफेक (Deepfake) को हटाने के लिए कदम नहीं उठाते हैं. धारा के अनुसार, किसी ऑनलाइन प्लेटफॉर्म को उपयोगकर्ताओं द्वारा उस पर पोस्ट की गई सामग्री के लिए जिम्मेदार नहीं ठहराया जा सकता है।

केंद्रीय मंत्री ने कहा कि केंद्र सरकार ने हाल ही में सभी बड़े सोशल मीडिया प्लेटफॉर्म को नोटिस जारी किया है और उनसे डीपफेक की पहचान करने और सामग्री को हटाने के लिए कदम उठाने को कहा है. उन्होंने कहा कि प्लेटफार्मों ने प्रतिक्रिया दी और वे कार्रवाई कर रहे हैं। उन्होंने कहा, “हमने सभी प्लेटफाॉर्मों से इस दिशा में और अधिक आक्रामक होने के लिए कहा है.” शुक्रवार को, प्रधान मंत्री नरेंद्र मोदी ने कहा कि डीपफेक सबसे बड़ा खतरा है, इसका भारतीय सिस्टम इस समय सामना कर रहा है और इसमें समाज में अराजकता पैदा करने की क्षमता है।

वैष्णव ने कहा कि सरकार ने हाल ही में डीपफेक मुद्दे पर कंपनियों को नोटिस जारी किया था और प्लेटफार्मों ने जवाब भी दिया. उन्होंने कहा कि लेकिन कंपनियों को ऐसी सामग्री पर कार्रवाई करने में अधिक आक्रामक होना होगा. वैष्णव ने संवाददाताओं से कहा, “वे कदम उठा रहे हैं, लेकिन हमें लगता है कि कई और कदम उठाने होंगे और हम बहुत जल्द शायद अगले 3-4 दिनों में सभी मंचों की एक बैठक करने जा रहे हैं. हम उन्हें इस पर विचार-मंथन के लिए बुलाएंगे और सुनिश्चित करेंगे कि मंच इसे (डीपफेक) रोकने के लिए पर्याप्त प्रयास करें और अपने तंत्र को साफ़ करें.” यह पूछे जाने पर कि क्या बैठक के लिए मेटा और गूगल जैसे बड़े मंचों को बुलाया जाएगा, मंत्री ने सकारात्मक जवाब दिया।

हाल ही में काजोल, कैटरीना कैफ और रश्मिका मंदाना समेत कई बॉलीवुड कलाकार डीपफेक वीडियो का शिकार बने हैं. डीपफेक तकनीक उपयोगकर्ताओं को मशीन लर्निंग और कृत्रिम बुद्धिमत्ता का उपयोग करके किसी छवि या वीडियो को संशोधित करने की अनुमति देती है. यह तकनीक वीडियो या ऑडियो रिकॉर्डिंग में किसी व्यक्ति की उपस्थिति और आवाज़ में हेरफेर कर सकती है, जिससे प्रामाणिक और हेरफेर की गई सामग्री के बीच अंतर करना चुनौतीपूर्ण हो जाता है.