भारत और दुनिया में डीपफेक तकनीक का दुरुपयोग तेजी से बढ़ रहा है, और खासकर महिलाओं को इसका सबसे ज़्यादा शिकार होना चिंता की बात बन गया है। एक नई रिपोर्ट में खुलासा हुआ है कि इन नकली फोटो और वीडियो में लगभग 93% लक्षित पीड़ित महिलाएँ हैं, और यह संख्या पिछले कुछ वर्षों में लगभग 900% तक बढ़ चुकी है। यह alarming स्थिति साइबर सुरक्षा, व्यक्तिगत सम्मान और डिजिटल अधिकारों के लिहाज़ से एक बड़ा संकट बन चुकी है।
रिपोर्ट के मुताबिक, यह सब सिर्फ तकनीक की ताकत नहीं है, बल्कि उस ताकत का गलत इस्तेमाल भी है। डीपफेक तकनीक की मदद से चेहरे की पहचान बदलकर नकली पोर्नोग्राफ़िक कंटेंट, पहचान छेड़छाड़ और डिजिटल धमकियाँ बनाई जा रहीं हैं। इनका उद्देश्य सिर्फ मनोरंजन नहीं, बल्कि लोगों के जीवन, पहचान और प्रतिष्ठा को ठेस पहुँचना भी बन चुका है।
महिलाएँ सबसे ज़्यादा निशाना
रिपोर्ट में बताया गया है कि 98% डीपफेक पोर्नोग्राफ़ी कंटेंट महिलाओं को केंद्र में रखकर बनाया जाता है। इसका मतलब यह है कि टेक्नोलॉजी का दुरुपयोग सबसे ज़्यादा महिलाओं के खिलाफ किया जा रहा है। यह तस्वीरें और वीडियो कई बार बिना अनुमति साझा किए जाते हैं, जिससे पीड़ितों को मानसिक, सामाजिक और पेशेवर स्तिथि में भारी नुकसान हो सकता है।
युवा महिलाएँ, छात्राएँ और प्रोफेशनल्स इस समस्या का सबसे ज़्यादा सामना कर रही हैं। खासकर 18 से 30 साल की उम्र की महिलाएँ इस डिजिटल उत्पीड़न का मुख्य लक्ष्य बन रही हैं, जो उनकी ज़िंदगी पर गहरा असर डाल रहा है।
भारत में भी बढ़ रहे मामलों की रिपोर्ट
रिपोर्ट यह भी बताती है कि भारत के कई प्रमुख शहरों में डीपफेक और साइबर उत्पीड़न के केस बढ़ रहे हैं।
- बेंगलुरु में सबसे ज़्यादा शिकायतें दर्ज हुई हैं, लगभग कुल मामलों का 30% हिस्सा।
- इसके बाद हैदराबाद (14%) और मुंबई (13%) हैं।
- चेन्नई और कोलकाता में भी कुछ मामले सामने आए हैं, और दिल्ली में भी दर्ज हैं।
यह आंकड़े दिखाते हैं कि डिजिटल रूप से अधिक जुड़े शहरों में यह खतरा ज़्यादा महसूस किया जा रहा है।
लेकिन यह भी एक बड़ा सच है कि सबसे ज़्यादातर मामलों की शिकायत ही नहीं की जाती। रिपोर्ट के अनुसार वैश्विक स्तर पर 62% ऐसे मामले हैं जिनकी पुलिस या प्लेटफॉर्म को जानकारी ही नहीं दी जाती। भारत में भी एक-तिहाई से ज़्यादा महिलाएँ इस तरह की घटनाओं के बाद किसी प्रकार का कानूनी कदम नहीं उठातीं, क्योंकि उन्हें शर्मिंदगी, सामाजिक दबाव और बेइज़्ज़ती का डर होता है।
कानून और जागरूकता में कमी
रिपोर्ट में यह भी सामने आया है कि बहुत सी महिलाएँ ऑनलाइन उत्पीड़न से बचने वाले कानूनों के बारे में ही नहीं जानतीं। लगभग एक तिहाई महिलाएँ इंटरनेट पर उत्पीड़न से बचाव के कानूनों से अनजान हैं, जिससे वे डर के कारण शिकायत दर्ज कराने से कतराती हैं।
नई तरह की डीपफेक चुनौती
इसके अलावा रिपोर्ट में यह भी बताया गया है कि अब सिर्फ़ असली लोगों की फोटो-वीडियो नहीं, बल्कि पूरी तरह से AI द्वारा बनाई गई नकली महिला पहचान (AI Generated Personas) भी लोकप्रिय हो रही हैं। ऐसे डिजिटल अवतारों को सोशल मीडिया पर खूब देखा और इंटरैक्ट किया जा रहा है, जिससे यह समझ पाना मुश्किल हो रहा है कि असली कौन और नकली कौन है।
तकनीक से लड़ने के उपाय
रिपोर्ट के अनुसार कुछ तकनीकें और उपकरण ऐसे विकसित किए जा रहे हैं जो डीपफेक सामग्री को पहचान सकते हैं। उदाहरण के लिए pi-authentify जैसे टूल्स डिजिटल कंटेंट को स्कैन करके पता लगाते हैं कि वह सच है या जालसाज़ी है। इसके अलावा कुछ प्लेटफॉर्म ऐसे भी हैं जहाँ उपयोगकर्ता संदिग्ध वीडियो भेजकर उनकी पहचान करवा सकते हैं।
इसके अलावा विशेषज्ञों का सुझाव है कि लोग अपनी डिजिटल प्राइसेंस कम रखें – मतलब, अपने खुले तौर पर उपलब्ध तस्वीरों और जानकारी को सीमित रखें, जिससे AI सिस्टम को पहचान बनाने के लिए कम डेटा मिले।






