Deepfake क्या होता है?
आसान भाषा में समझें, तो डीपफेक एक प्रकार का सिंथेटिक मीडिया है. इसमें एआई का इस्तेमाल करके किसी फोटो या वीडियो में एक व्यक्ति को किसी और की फोटो से बदल दिया जाता है. आर्टिफिशियल इंटेलीजेंस की क्षमता की वजह से फेक वीडियो को पहचान पाना आम लोगों के लिए मुश्किल हो जाता है और वह आसानी से किसी किसी के जाल में फंस सकता है.
अमिताभ बच्चन ने किया अलर्ट
सोशल मीडिया में वायरल हो रहे इस वीडियो में एक्ट्रेस रश्मिका मंदाना लिफ्ट के अंदर आती हुई दिखाई दे रही हैं. इसमें उन्हें बोल्ड अंदाज में दिखाया गया है. ‘पुष्पा’ और ‘एनिमल’ फिल्म फेम एक्ट्रेस का यह वीडियो तेजी से वायरल हो रहा है. इस वीडियो की सच्चाई यह है कि इस वीडियो को इंस्टाग्राम पर 8 अक्टूबर को जारा पटेल नाम की एक महिला ने अपलोड किया था. जारा पटेल की बॉडी का इस्तेमाल कर डीपफेक की मदद से रश्मिका मंदाना का चेहरा इस वीडियो में लगा दिया गया है.
ध्यान से देखें वीडियो, पता चलेगी हकीकत
वायरल वीडियो को जब आप ध्यान से देखेंगे, तो जैसे ही जारा पटेल वीडियो में लिफ्ट के अंदर घुस रही हैं, तभी उनका चेहरा एक्ट्रेस रश्मिका मंदाना के रूप में बदल जा रहा है. यह बताता है कि वीडियो फेक है और इसे AI टूल की मदद से बनाया गया है. इस वीडियो पर बॉलीवुड अभिनेता अमिताभ बच्चन ने रिएक्ट किया है और कहा कि यह एक स्ट्रॉन्ग लीगल केस है और ऐसी गलत हरकत लोगों के खिलाफ कार्रवाई होनी चाहिए.
क्या है इससे बचने का तरीका ?
आर्टिफिशियल इंटेलीजेंस के आने के बाद से लोग इसका गलत इस्तेमाल बढ़ गया है. आपके साथ ऐसा कुछ न हो, इसके लिए अपनी निजी तस्वीरें और वीडियो सोशल मीडिया पर अपलोड करने से बचना सही रहेगा, क्योंकि इन्हें गलत तरीके से एडिट कर रखा जा रहा है. यदि संभव हो तो अपनी प्रोफाइल प्राइवेट रखें और अपनी कम से कम जानकारी ही सोशल मीडिया पर पोस्ट करने की बात गांठ बांध लें.