Monday 15 January 2024 03:43 PM IST : By Indira Rathore

डीपफेक वीडियो के वायरल होने से क्या कानून में बदलाव आएगा

2028945926

पुराने जमाने में घर के बाहर गपबाजी के लिए चबूतरे और चौपाल हुआ करते थे, जहां दुनिया-जहान की बातों, गली-मुहल्लों की खबरों के अलावा निंदा रस भी लिया जाता था। फिर आए चौपालों के डिजिटल अवतार यानी सोशल मीडिया प्लेटफॉर्म। यहां अच्छा-बुरा सब कुछ है। कुंठित-कुत्सित, हिंसक, कम्युनल, रेपिस्ट किस्म के लोग भी कई बार शराफत के चोगे धारण किए नजर आते हैं और मौका मिलते ही सांप की तरह डस लेते हैं। ज्यादातर ये लोग फेक आइडेंटिटी के साथ अकाउंट बनाते हैं, तो इनकी पहचान मुश्किल हो जाती है।

गले पड़ी आफत

सोचिए, अगर आपको किसी जगह अपनी ही तसवीर या वीडियो दिखे और आप सोच में पड़ जाएं कि अरे, ये दिखते तो हम ही हैं, लेकिन वास्तव में हैं नहीं तो दिमाग की स्थिति क्या होगी! बात सिर्फ अभिनेत्रियों की नहीं, नेता, पत्रकार, आम महिलाएं सब निशाने पर हैं। प्रधानमंत्री मोदी भी गरबा करते वायरल हुए अपने वीडियो को देख सोच में पड़ गए कि ये गरबा उन्होंने कब किया !

deepfake-1

हम पहले ही सूचनाओं के ढेर में बैठे हैं, जहां दिमाग सही-गलत सूचनाओं को फिल्टर नहीं कर पाता। ऐसे में डीपफेक ना सिर्फ भ्रमित कर रहे हैं, बल्कि लोगों के मान-सम्मान को भी चोट पहुंचा रहे हैं। तमाम शोध और अध्ययन बताते हैं कि इंटरनेट का सर्वाधिक उपयोग पोर्नोग्राफी के लिए होता है। ऐसे में मोबाइल एप्लिकेशंस के जरिये आसानी से बनने वाले ये डीपफेक वीडियोज स्त्रियों के लिए तो बेहद खतरनाक हैं। गूगल सर्च इंजन में टाइप करने पर ऐसे सारे तरीके मिल जाते हैं, जिनसे टेक्नोलॉजी की बुनियादी समझ रखने वाला कोई जानकार महज 10 सेकेंड्स में डीपफेक तैयार कर सकता है। एक्सपर्ट्स आगाह कर रहे हैं कि सर्वसुलभ टेक्नोलॉजी और एआई का बढ़ता इस्तेमाल भविष्य में मुश्किलें खड़ी कर सकता है। यह भी एक कड़वा सच है कि इसका दुरुपयोग सबसे ज्यादा जुवेनाइल ही करेंगे।

कौन असली-कौन नकली

डीपफेक में नकली ऑडियो या वीडियो बनाने के लिए एआई का उपयोग किया जाता है। अलग-अलग तरीकों से इसे बनाया जा सकता है, लेकिन सबसे आम है डीप न्यूरल नेटवर्क का उपयोग, जिसमें फेस स्वैपिंग तकनीक का इस्तेमाल होता है। यानी ऐसा वीडियो बनाने के लिए पहले संबंधित ऑब्जेक्ट के किसी वीडियो की जरूरत होती है। फिर प्रोग्राम के जरिये पता लगाया जाता है कि व्यक्ति अलग-अलग कोणों से कैसे दिखता है। फिर उस व्यक्ति को संभावित वीडियो में मौजूद दूसरे व्यक्ति पर मैप किया जाता है। यह काम मशीन लर्निंग के जरिये होता है। पहले भी ऐसे डीपफेक बनाए जाते रहे हैं, लेकिन तब यह झूठ अधिकतर पकड़ लिया जाता था, मगर आज इसके लिए सॉफ्टवेयर सर्वसुलभ है। कई एप्लिकेशंस हैं, जो डीपफेक बनाना आसान कर देते हैं। ये काफी हद तक
रियल ऑडियो-वीडियो जैसे दिखते हैं। तो फिर पता कैसे चले कि जो हम देख रहे हैं, डीपफेक हो सकता है। कुछ तरीकों से असली-नकली की पहचान संभव है-

- अगर स्किन, बालों या चेहरे का रंग अस्वाभाविक लगे। खासतौर पर व्यक्ति जहां मौजूद है, वहां के माहौल के हिसाब से। ऐसा लगे कि फोकस हिला हुआ है, हालांकि सामान्य नजर से इसका पता लगाना काफी हद तक मुश्किल है।

- अखबारों-टीवी न्यूज चैनलों के दफ्तर में लोग एक टर्म का इस्तेमाल करते हैंÑरिवर्स इमेज सर्चिंग। यह वह टेकनीक है, जो इमेज के वास्तविक सोर्स की पहचान करती है। पता लगाया जाता है कि इमेज का मूल स्रोत क्या है, इसे सबसे पहले किसने और कहां पोस्ट किया।

- कई बार नकली वीडियो में आवाज, शब्द या साउंड्स मेल खाते हुए नहीं प्रतीत होते।

- वीडियो में लाइटिंग नेचुरल नहीं लगती। हालांकि इनका पता लगाना भी बहुत आसान नहीं है।

मनोरंजन से मानहानि तक

किसी भी तकनीक का प्रयोग सकारात्मक-नकारात्मक तरीकों से हो सकता है। फिल्मी दृश्यों को वास्तविक दिखाने के लिए डीपफेक तकनीक का उपयोग किया जा रहा है, जिससे कंटेंट की क्वाॅलिटी बढ़ती है, लेकिन मशहूर हस्तियों को बदनाम करने के लिए भी नकली वीडियोज बन सकते हैं। जब बिना किसी की सहमति के उसके ऑडियो-वीडियो विजुअल्स का रीमेक किया जाए, तो यह उसके निजता के अधिकार के खिलाफ होगा। एक ऐसे दौर में जब दिन भर में हम लोन, सरप्राइज गिफ्ट, डोनेशन, मुफ्त क्रेडिट कार्ड संबंधी ढेरों फोन कॉल्स अटेंड कर रहे होते हैं, हमारी आवाज को कौन सा सॉफ्टवेयर कॉपी कर ले और हमारा नुकसान हो जाए, इसकी कल्पना की जा सकती है। ऐसे वीडियोज-फोटोज ना सिर्फ नैतिक-कानूनी रूप से गलत हैं, बल्कि नफरत, जातीय-नस्लीय विषमताओं-विद्रोहों को बढ़ा सकते हैं, सामाजिक-राजनीतिक संरचना पर प्रहार कर सकते हैं। यूक्रेन के राष्ट्रपति जेलेंस्की के ऐसे ही वीडियो में दिखाया गया कि वे रूस के आगे आत्मसमर्पण कर रहे हैं, लेकिन उनके सिर के आकार और बोलने के लहजे ने जाहिर कर दिया कि यह डीपफेक वीडियो था।

हर कदम सतर्कता जरूरी

सीनियर जर्नलिस्ट और ओएसआईएनटी (ओपन सोर्स इन्वेस्टिगेशन) एक्सपर्ट बालाकृष्ण कहते हैं, ‘‘डीपफेक की शुरुआत ही पोर्न इंडस्ट्री के लिए हुई थी। इसलिए नुकसान महिलाओं को ज्यादा होंगे। आज तमाम एप्लिकेशंस और सॉफ्टवेयर उपलब्ध हैं, टेक्नोलॉजी सस्ती व सर्वसुलभ है। पहले मशीन ट्रेनिंग और डेटा की जरूरत होती थी, लेकिन अब यह जरूरत कम हो गयी है। सोशल मीडिया प्लेटफॉर्म्स पर महिलाएं काफी एक्टिव हैं, इसलिए उन्हें सतर्क रहना होगा। अपनी निजता का खयाल रखें, अनजान लोगों की फ्रेंड रिक्वेस्ट ना स्वीकार करें, अजीबोगरीब लिंक पर क्लिक ना करें, इनबॉक्स में स्ट्रेंजर्स से बात ना करें और निजी जानकारियां जाहिर ना करें। अकाउंट का टू फैक्टर ऑथेंटिफिकेशन ऑन रखें। हर जगह एक सा पासवर्ड ना रखें। इंस्टा-फेसबुक को प्राइवेट रखें। पहले किसी महिला का ब्रेकअप होता या तलाक का केस चलता, तो कई बार उसे धमकी या हिंसा का सामना करना पड़ता था। अब धमकियों का स्वरूप भी डिजिटल है। रिवेंज पोर्नोग्राफी के केसेज भी देखने को मिल रहे हैं। अगर ब्रेकअप-अलगाव हुआ हो, रिवेंज की आशंका हो तो कुछ समय के लिए अपने सभी सोशल मीडिया अकाउंट्स को डिएक्टिवेट कर दें, क्योंकि खतरा किसी भी रूप में सामने आ सकता है। प्राइवेट पर्सन हैं और सोशल मीडिया पर बहुत शेअर नहीं करते, तो आप खुद को अपेक्षाकृत सुरक्षित समझ सकते हैं।’’

डिजिटल सुरक्षा पुख्ता रखें

कानून बनेगा तो अपना काम करेगा, लेकिन इससे घटनाएं रुकती नहीं हैं। जिस तरह एआई का धड़ल्ले से प्रयोग हो रहा है, इसके खतरों की सिर्फ कल्पना ही की जा सकती है। बालाकृष्ण कहते हैं, ‘‘ये सारे खतरे नए हैं, इनके लिए हमारे सिस्टम में ट्रेनिंग का भी अभाव है। दहेज या घरेलू हिंसा की शिकायत एकबारगी समझ आती है, लेकिन एआई, डीपफेक और डिजिटल हमलों को ले कर अभी उतनी जागरूकता या समझदारी नहीं है। इसलिए अपनी डिजिटल सुरक्षा के पुख्ता उपाय करें और सोशल मीडिया प्लेटफॉर्म पर अपनी उपस्थिति का आकलन भी करें।’’

1458149255