डीपफेक पर नियंत्रण के लिये सरकार की सख्ती ज़रूरी

डीपफेक व्यक्तिगत जीवन से आगे बढ़ कर अब राजनीतिक एवं वैश्विक सन्दर्भों के लिये एक गंभीर खतरा बनता जा रहा है। इक्कीसवीं सदी में कृत्रिम बौद्धिकता (आर्टिफिशियल इंटेलिजेंस या एआई) तकनीक के आगमन ने अगर सुविधाओं के नए रास्ते खोले हैं तो दुनिया भर में चिंताएं भी बढ़ा दी हैं। इस तकनीक का दुरुपयोग बड़े पैमाने पर शुरू हो चुका है, एआई के जरिए डीपफेक वीडियो बनाकर सोशल मीडिया पर वायरल किए जा रहे हैं। गलत सूचनाएं, ऑडियो-वीडियो और तस्वीरें फैलाने वालों के हाथों में एआई ने खतरनाक हथियार थमा दिया है। राष्ट्रीय सुरक्षा एवं राजनीतिक मुद्दों के साथ व्यक्तिगत छवि को घूमिल करने का यह हथियार अनेक चिन्ताओं को बढ़ा रहा है और बड़े संकट का सबब बनता जा रहा है। डीपफेक ने प्रधानमंत्री नरेंद्र मोदी को भी नहीं बख्शा, उन्हें भी परेशान कर दिया। उनका एक वीडियो यू-ट्यूब सहित सभी सोशल मीडिया प्लेटफॉर्म्स पर खूब चर्चित रहा, जिसमें उनको गरबा करते दिखाया गया। यह पूरा वीडियो डीपफेक के ज़रिये तैयार किया गया है। इसी तरह देश एवं विदेश की अनेक हस्तियों के अनेक अश्लील एवं राजनीतिक डीपफेक व्यापक स्तर पर प्रसारित हो रहे हैं। 
डीपफेक एक ऐसी तकनीक है जिससे कृत्रिम बौद्धिकता की मदद एवं तकनीक से वीडियो, तस्वीरों और ऑडियो में हेरफेर किया जा सकता है। इस तकनीक की मदद से किसी व्यक्ति की फोटो या वीडियो पर किसी और का चेहरा लगाकर उसे पूरी तरह से बदला जा सकता है। एक रिपोर्ट के अनुसार इसका सबसे ज्यादा इस्तेमाल अश्लील सामग्री बनाने में होता है। कुछ लोग इसका इस्तेमाल अपने मर चुके रिश्तेदारों की तस्वीरों को ऐनिमेट करने में भी करते हैं लेकिन अब डीपफेक कंटेंट का इस्तेमाल देश एवं विदेश की राजनीति में भी होने लगा है। राजनीतिक पार्टियां अपने चुनावी प्रचार में इस तकनीक का जमकर इस्तेमाल करने लगी हैं। आम जनता को गुमराह करने एवं बड़ी हस्तियों की छवि एवं प्रतिष्ठा को धूमिल करने में अब इस तकनीक का व्यापक स्तर इस्तेमाल होने लगा है। अनेक फिल्मी हस्तियों विशेषत: अभिनेत्रियों की अविश्वसनीय व अश्लील वीडियो, तस्वीरें बड़ी संख्या में आनलाइन आसानी से देखी जा सकती हैं। पब्लिक प्लेटफॉर्म्स पर मौजूद फोटोज की मदद से आसानी से डीपफेक वीडियो बनाया जा सकता है। 
देश-विदेश में कई प्रतिष्ठित हस्तियां डीपफेक वीडियो का शिकार हो चुकी हैं। कई विदेशी हस्तियों के भी डीपफेक वीडियो सामने आ चुके हैं। यूक्रेन के राष्ट्रपति वोलोदिमीर ज़ेलेंस्की के डीपफेक वीडियो में तो वह रूस से लड़ रही अपनी सेना को सरेंडर करने के लिए कह रहे हैं। इज़रायल-हमास युद्ध के भी कई डीपफेक वीडियो सोशल मीडिया पर वायरल हो चुके हैं। तभी प्रधानमंत्री नरेंद्र मोदी ने भी डीपफेक को देश के लिए सबसे बड़े खतरों में से एक बता इसके खिलाफ  जनता को शिक्षित एवं सावधान करने पर ज़ोर दिया है। भारत के लिये यह बड़ा खतरा इसलिये भी है कि भारत विविधता वाला देश है, यहां की जनता छोटी-छोटी बातों पर भावुक हो जाती है। असली एवं नकली यानी डीपफेक का पता लगाने के लिये सतर्कता एवं सावधानी बरतने की ज़रूरत है। अगर वीडियो में आंख और नाक कहीं और जा रहे हैं या वीडियो में पलक नहीं झपकाई गई है तो समझ जाइए यह डीपफेक कंटेंट है। कंटेंट की कलरिंग को भी देखकर पता लग सकता है कि तस्वीर या वीडियो से छेड़छाड़ हुई है। कृत्रिम बुद्धि कंप्यूटर विज्ञान की एक शाखा है जो मशीनों और सॉफ्टवेयर को बुद्धि के साथ विकसित करती है। 1955 में जॉन मैकार्थी ने इसको कृत्रिम बुद्धि का नाम दिया था। 
सामान्य इंटरनेट यूजर शायद ही समझ पाए कि वीडियो डीपफेक है और उसमें दिखने वाला शख्स कोई और है। यह टेक्नॉलोजी वीडियोज के साथ बिल्कुल वैसे ही काम करती है, जैसा फोटो के लिए फोटोशॉप करता है।
भारत में डीपफेक तकनीक का दुरुपयोग रोकने और फर्जी वीडियो की पहचान के लिए बेहतर प्रौद्योगिकी विकसित करने की ज़रूरत है। चिंता की बात है कि सोशल मीडिया मंचों और टैक कम्पनियों ने डीपफेक वीडियो पर अंकुश के लिए कोई बड़ी पहल नहीं की है, लेकिन भारत सरकार इस मुद्दे पर इसकी घातकता को देखते हुए गंभीर है। सरकार इंटरनेट इस्तेमाल करने वाले सभी नागरिकों की सुरक्षा और भरोसे को सुनिश्चित करने को लेकर प्रतिबद्ध है। 
सरकार ने सोशल मीडिया कम्पनियों को गलत सूचनाओं, डीपफेक, अन्य अवांछित सामग्री की पहचान कर 36 घंटे के अंदर उन्हें हटाने के निर्देश दिए हैं। सूचना प्रौद्योगिकी मंत्री अश्विनी वैष्णव ने साफ  कहा कि सोशल मीडिया प्लेटफॉर्म अगर डीपफेक कंटेंट को हटाने के लिए पर्याप्त कदम नहीं उठाते हैं तो उन्हें मिलने वाले संरक्षण को वापस ले लिया जाएगा। कई देशों की सरकारें डीपफेक के नियमन की तैयारी में हैं। कुछ अमरीकी राज्यों में बगैर सहमति डीपफेक बनाने को अपराध घोषित किया जा चुका है। यूरोपीय देशों में भी कानून बनाने की तैयारी चल रही है। सिर्फ  कानून बनाने से समस्या का समाधान नहीं होगा। ज़रूरत ऐसे तंत्र की है, जो डीपफेक की सतत निगरानी रख अवांछित सामग्री फैलाने के सभी रास्ते बंद रखे। 
-मो. 98110-51133