आज सोशल मीडिया प्लेटफार्म ‘X’ पर फेमस एक्ट्रेस Rashmika Mandanna की फेक AI वीडियो जबर्दस्त वायरल हो गयी है और इस वीडियो को देखकर सभी लोग बुरी तरह डर गए हैं।
इस वीडियो को AI की मदद से बनाया गया है जिसमे एक युवती के वीडियो में उसका चेहरा AI की मदद से बदलकर रश्मि का चेहरा इस तरह फिट किया गया है की कोई भी इस वीडियो को देखकर नहीं पहचान सकता की ये Fake Video है या Original Video है

इलेक्ट्रॉनिक्स और सूचना प्रौद्योगिकी राज्य मंत्री राजीव चंद्रशेखर ने सोशल मीडिया पर प्रसारित अभिनेत्री रश्मिका मंदाना के एक डीपफेक वीडियो पर प्रतिक्रिया व्यक्त की। उन्होंने एक्स पर एक पोस्ट में कहा कि “प्लेटफॉर्म द्वारा हानिकारक गलत सूचना से निपटा जाना चाहिए”। उन्होंने कहा कि प्रधान मंत्री नरेंद्र मोदी के नेतृत्व वाली सरकार “इंटरनेट का उपयोग करने वाले सभी डिजिटल नागरिकों की सुरक्षा और विश्वास सुनिश्चित करने के लिए प्रतिबद्ध” है।
Also Read | भारत ला रहा है इजराइल से घातक आयरन डोम | जानिये कब और कैसे
रश्मिका मंदाना का वायरल वीडियो एक लिफ्ट में प्रवेश करते हुए दिखाता है। हालांकि, वीडियो वास्तव में एक डीपफेक है। यह वास्तव में ज़ारा पटेल का वीडियो है, जो एक ब्रिटिश-भारतीय महिला हैं।
डीपफेक एक ऐसी तकनीक है जिसका उपयोग लोगों के चेहरे, आवाज और यहां तक कि बॉडी लैंग्वेज को बदलने के लिए किया जाता है ताकि ऐसा लगे कि वे कुछ ऐसा कह रहे हैं या कर रहे हैं जो उन्होंने वास्तव में नहीं कहा या किया है। डीपफेक का उपयोग अक्सर गलत सूचना फैलाने और लोगों की छवि खराब करने के लिए किया जाता है।
अभिषेक कुमार, एक पत्रकार और शोधकर्ता, ने वीडियो को सोशल मीडिया पर साझा किया और लिखा कि भारत में डीपफेक बनाने से रोकने के लिए कानून की तत्काल आवश्यकता है। उन्होंने यह भी कहा कि डीपफेक ज्यादातर लोगों को बेवकूफ बनाने के लिए काफी अच्छा है, लेकिन अगर आप इसे ध्यान से देखें, तो आप देख सकते हैं कि वीडियो की शुरुआत में मंदाना का चेहरा पटेल के चेहरे में बदल जाता है।
अमिताभ बच्चन ने भी कहा कि हमें डीपफेक के खिलाफ कानून की जरूरत है। उन्होंने कहा कि डीपफेक एक गंभीर समस्या बन रही है और इससे निपटने के लिए कदम उठाए जाने चाहिए।
चंद्रशेखर ने सोशल मीडिया प्लेटफॉर्म को अप्रैल 2023 में अधिसूचित आईटी नियमों के तहत अपने कानूनी दायित्वों की याद दिलाई। उन्होंने कहा कि प्लेटफॉर्म की यह कानूनी जिम्मेदारी है कि वे यह सुनिश्चित करें कि कोई भी उपयोगकर्ता गलत सूचना न पोस्ट करे और किसी भी उपयोगकर्ता या सरकार द्वारा रिपोर्ट किए जाने पर 36 घंटों के भीतर उसे हटा दें। यदि प्लेटफॉर्म इस कानून का पालन नहीं करते हैं, तो आईटी नियमों का नियम 7 लागू होगा और प्लेटफॉर्म को भारतीय दंड संहिता (आईपीसी) के प्रावधानों के तहत पीड़ित व्यक्ति द्वारा अदालत में ले जाया जा सकता है।
डीपफेक वीडियो एक नए और उभरते प्रकार की गलत सूचना है जो कृत्रिम बुद्धिमत्ता का उपयोग करके लोगों के यथार्थवादी वीडियो बनाने के लिए करता है जो उन्होंने वास्तव में कभी नहीं कहा या नहीं किया। डीपफेक वीडियो का उपयोग विभिन्न दुर्भावनापूर्ण उद्देश्यों के लिए किया जा सकता है, जैसे कि गलत सूचना फैलाना, किसी की प्रतिष्ठा को नुकसान पहुंचाना या किसी को ब्लैकमेल करना।
चंद्रशेखर का बयान एक अनुस्मारक है कि सरकार डीपफेक को गंभीरता से ले रही है और इस प्रकार की गलत सूचना से उपयोगकर्ताओं को बचाने के लिए प्रतिबद्ध है। नए आईटी नियम सरकार को सोशल मीडिया प्लेटफॉर्म के खिलाफ कार्रवाई करने की शक्ति देते हैं जो डीपफेक और अन्य प्रकार की गलत सूचना को हटाने में विफल होते हैं।
यहाँ नए आईटी नियमों का अधिक विस्तृत विवरण दिया गया है:
- नए नियमों के तहत सोशल मीडिया प्लेटफॉर्म को एक शिकायत अधिकारी नियुक्त करना होगा जो उपयोगकर्ताओं की शिकायतों का समाधान करने के लिए जिम्मेदार होगा।
- नए नियम सोशल मीडिया प्लेटफॉर्म को किसी भी ऐसी सामग्री को हटाने की भी आवश्यकता है जो हानिकारक, गैरकानूनी हो या भारत के संविधान का उल्लंघन करती हो।
- नए नियम सरकार को उन सोशल मीडिया प्लेटफॉर्मों तक पहुंच को अवरुद्ध करने की शक्ति देते हैं जो नियमों का पालन करने में विफल रहते हैं।
नए आईटी नियमों का कुछ लोगों ने स्वागत किया है, जो तर्क देते हैं कि वे उपयोगकर्ताओं को गलत सूचना और हानिकारक सामग्री से बचाने के लिए आवश्यक हैं। हालांकि, अन्य लोगों ने नियमों की आलोचना करते हुए कहा है कि वे सरकार को इंटरनेट को सेंसर करने के लिए बहुत अधिक शक्ति देते हैं।
यह देखा जाना बाकी है कि नए आईटी नियमों को कैसे लागू किया जाएगा और लागू किया जाएगा। हालांकि, चंद्रशेखर का बयान एक स्पष्ट संकेत है कि सरकार डीपफेक को गंभीरता से ले रही है और इस प्रकार की गलत सूचना से उपयोगकर्ताओं को बचाने के लिए प्रतिबद्ध है।
डीपफेक क्या हैं?
डीपफेक वे वीडियो या ऑडियो रिकॉर्डिंग हैं जिन्हें हेरफेर किया गया है ताकि यह लगे या सुनाई दे कि कोई ऐसा कह रहा है या कर रहा है जो उसने वास्तव में कभी नहीं कहा या नहीं किया। डीपफेक कृत्रिम बुद्धिमत्ता (एआई) और मशीन लर्निंग तकनीकों का उपयोग करके बनाए जाते हैं।
डीपफेक किस लिए इस्तेमाल किए जा सकते हैं?
डीपफेक का उपयोग विभिन्न उद्देश्यों के लिए किया जा सकता है, जिनमें शामिल हैं:
- गलत सूचना और दुष्प्रचार फैलाना।
- किसी की प्रतिष्ठा को नुकसान पहुँचाना।
- धोखाधड़ी या पहचान की चोरी करना।
- गैर-सहमति वाली अश्लील सामग्री बनाना।
डीपफेक खतरनाक क्यों हैं?
डीपफेक खतरनाक हैं क्योंकि उनका उपयोग लोगों को कुछ ऐसा मानने में धोखा देने के लिए किया जा सकता है जो सच नहीं है। उनका उपयोग किसी की प्रतिष्ठा को नुकसान पहुंचाने या धोखाधड़ी करने के लिए भी किया जा सकता है।
डीपफेक एक विशेष चिंता का विषय है क्योंकि वे तेजी से परिष्कृत और पहचानने में मुश्किल होते जा रहे हैं। जैसे-जैसे एआई और मशीन लर्निंग तकनीक विकसित होती जाएगी, यह संभावना है कि डीपफेक और भी आम और आश्वस्त हो जाएंगे।
डीपफेक के खतरे से निपटने के लिए क्या किया जा सकता है?
डीपफेक के खतरे से निपटने के लिए कई चीजें की जा सकती हैं, जिनमें शामिल हैं:
- सोशल मीडिया प्लेटफॉर्मों को अपने प्लेटफॉर्म से डीपफेक का पता लगाने और हटाने के लिए बेहतर टूल और तकनीक विकसित करने की आवश्यकता है।
- सरकारों को दुर्भावनापूर्ण उद्देश्यों के लिए डीपफेक के उपयोग को संबोधित करने के लिए कानून और विनियम विकसित करने की आवश्यकता है।
- जनता को डीपफेक के बारे में शिक्षित करने और उन्हें पहचानने का तरीका बताने की आवश्यकता है।
यह ध्यान रखना महत्वपूर्ण है कि डीपफेक की समस्या का कोई आसान समाधान नहीं है। हालांकि, ऊपर बताए गए कदम उठाकर, हम डीपफेक के दुर्भावनापूर्ण उद्देश्यों के लिए उपयोग को अधिक कठिन बना सकते हैं।
Also Read | भारत ला रहा है इजराइल से घातक आयरन डोम | जानिये कब और कैसे