प्रसिद्ध अभिनेत्री रश्मिका मंदाना हिचा ‘डीप फेक’ तंत्रज्ञानाचा वापर करत बनावट व्हीडिओ बनवणाऱ्याला दिल्ली पोलिसांनी आंध्र प्रदेशातून अटक केलीय.
एएनआयच्या वृत्तानुसार, IFSO युनिटचे डीसीपी हेमंत तिवारी यांनी सांगितलं की, अभिनेत्री रश्मिका मंदानाची डीप फेक प्रोफाईल बनवणाऱ्याला अटक करण्यात आलीय.
गेल्या महिन्यात दिल्ली पोलिसांनी या प्रकरणात चार संशयितांना शोधल्याचा दावा केला होता. मात्र, मुख्य आरोपीचा शोध सुरू होता.
रश्मिकाच्या डीपफेक व्हीडिओमागचं सत्य काय?
काही महिन्यांपूर्वी प्रसिद्ध अभिनेत्री रश्मिका मंदानाचा एक डीपफेक व्हीडिओ सोशल मीडियावर जोरदार व्हायरल झाला होता.
‘पुष्पा’ सारख्या यशस्वी चित्रपटातून आपला ठसा उमटविणाऱ्या रश्मिकाच्या डीपफेक व्हायरल व्हीडिओमुळे मोठा वाद निर्माण झाला होता.
त्या व्हायरल व्हीडीओमध्ये दिसणारी महिला रश्मिका मंदाना असल्याचं दाखवण्याचा प्रयत्न डीपफेक व्हीडिओच्या माध्यमातून करण्यात आला होता.
यावर रश्मिकाने नाराजी व्यक्त केली होती. तसंच, यावर लवकरात लवकर उपाय शोधण्याचे आवाहन केले होते, जेणेकरुन तिच्यासारखा त्रास इतर कोणालाही होणार नाही.
रश्मिकाने सोशल मीडिया प्लॅटफॉर्म एक्सवर लिहिलं होतं की, “प्रामाणिकपणे सांगायचं तर फक्त माझ्यासाठीच नाही तर आपल्या सर्वांसाठी अशी कोणतीही गोष्ट खूप भीतीदायक आहे.”
तिने पुढे लिहिलं होतं की, “आज ज्याप्रकारे तंत्रज्ञानाचा दुरुपयोग होतो आहे, त्यामुळे केवळ तिचंच नाही तर इतर अनेकांचंही मोठं नुकसान होऊ शकतं. आज एक महिला आणि एक अभिनेत्री म्हणून मी सुदैवी आहे. कारण माझे कुटुंब, मित्र आणि हितचिंतक माझे संरक्षक आणि सपोर्ट सिस्टम आहेत आणि त्यांची मी आभारी आहे.
“पण मी शाळेत किंवा कॉलेजमध्ये असताना असं काही घडलं असतं तर त्यावेळी परिस्थिती काय असती किंवा मी त्यावेळी त्याचा कसा सामना केला असता याची मी कल्पनाच करू शकत नाही.”
रश्मिकाचा व्हीडिओ डीपफेक आहे हे कसं कळलं?
या व्हीडीओचा हवाला देत अभिनेते अमिताभ बच्चन यांनी याप्रकरणी कायदेशीर कारवाई व्हायला हवी असं म्हटलं आहे.
त्याचवेळी, केंद्रीय (राज्य प्रभार) मंत्री राजीव चंद्रशेखर म्हणाले की, सोशल मीडिया प्लॅटफॉर्मने त्यांच्या प्लॅटफॉर्मवर चुकीची माहिती शेअर केली जाणार नाही याची खात्री करावी.
हा व्हायरल व्हीडिओ डीपफेक आहे, ही माहिती एका फॅक्ट चेक करणाऱ्या व्यक्तीने दिली आहे.
फॅक्ट चेकिंग वेबसाइट ऑल्ट न्यूजशी संबंधित अभिषेकने एक्स (ट्विटर) वर सांगितलं की, “या व्हीडिओमध्ये दिसणारी महिला रश्मिका मंदाना नसून हा व्हिडिओ डीपफेक तंत्रज्ञानाचा वापर करून बनविला आहे.”
सचिन तेंडुलकर ‘डीप फेक’चा बळी
‘मास्टर ब्लास्टर’ सचिन तेंडुलकरही ‘डीप फेक’चा बळी ठरलाय. सचिनने यासंदर्भात सोशल मीडियावरून लोकांना सतर्क केलं आहे.
‘स्कायवर्ड एव्हिएटर क्वेस्ट’ नामक गेम अॅपचा एक व्हीडिओ सोशल मीडियावर व्हायरल होतोय. हे अॅप आयफोन वापरकर्त्यांनी इन्स्टॉल करण्याचं आवाहन करणारा व्हीडिओ सचिनच्या आवाजात आणि दृश्यात दिसतो. मात्र, असं कुठलंही आवाहन सचिनने केलं नसल्याचं त्यानं स्वत: सोशल मीडियावरून स्पष्ट केलं आहे.
सचिनने सोशल मीडियावरील पोस्टमध्ये म्हटलंय की, “हा व्हीडिओ खोटा आहे. तुम्हाला धोका देण्यासाठी बनवण्यात आलाय. तंत्रज्ञानाचा असा वापर करणं अत्यंत चुकीचं आहे. तुम्हा सगळ्यांना विनंती आहे की, हा व्हीडिओ कुठे दिसल्यास किंवा या अॅपची जाहिरात कुठेही दिसल्यास रिपोर्ट तातडीने रिपोर्ट करा.”
तसंच, सचिन पुढे म्हणाला की, “सोशल मीडिया प्लॅटफॉर्म कंपन्यांनी सुद्धा अशा गोष्टींबाबत सतर्क राहिलं पाहिजे आणि अशा चुकीच्या गोष्टींवर तातडीने कारवाई केली पाहिजे. कारण या कंपन्यांची भूमिका अत्यंत महत्त्वाची ठरते. चुकीची माहिती आणि चुकीच्या बातम्यांना रोखलं जाणं आवश्यक आहे. डीप फेकचा दुरुपयोग थांबला पाहिजे.”
डीपफेक म्हणजे काय?
डीपफेक हे एक असं तंत्रज्ञान आहे जे व्हीडिओ, फोटो आणि ऑडिओ मध्ये बदल करण्यासाठी एआय तंत्रज्ञानाचा वापर करतं.
या तंत्रज्ञानाच्या मदतीने एखाद्या व्यक्तीच्या फोटो किंवा व्हीडिओवर दुसऱ्याचा चेहरा लावता येऊ शकतो.
सोप्या भाषेत सांगायचं तर कृत्रिम बुद्धिमत्ता म्हणजेच एआय तंत्रज्ञानाचा वापर करून बनावट व्हीडिओ बनवतात जो हुबेहूब वाटतो पण तो बनावटच असतो. त्यामुळे त्याला डीपफेक असं नाव देण्यात आलं आहे.
एका अहवालानुसार, 2017 मध्ये एका रेडीट युजरने अश्लील व्हीडिओंमध्ये चेहरा बदलण्यासाठी या तंत्राचा वापर केल्यानंतर हा शब्द रूढ झाला. नंतर रेडिटने ‘डीपफेक पॉर्न’वर बंदी घातली.
हे तंत्रज्ञान कसं काम करतं?
डीपफेक हे अतिशय गुंतागुंतीचं तंत्रज्ञान आहे. यासाठी मशिन लर्निंग म्हणजेच कॉम्प्युटरमध्ये प्रावीण्य असलं पाहिजे.
एकमेकांशी स्पर्धा करू शकणाऱ्या दोन अल्गोरिदमचा वापर करून डीपफेक कंटेंट तयार केले जातात.
एकाला डीकोडर म्हणतात तर दुसऱ्याला एन्कोडर म्हणतात.
यामध्ये, फेक डिजिटल कंटेंट बनवला जातो आणि डीकोडरला हा व्हिडिओ बनावट आहे का? हे शोधायला लावलं जातं.
प्रत्येक वेळी डीकोडर तो कंटेंट खरा आहे की बनावट आहे हे योग्यरित्या ओळखून याची माहिती एन्कोडरकडे पाठवतो. जेणेकरून एन्कोडर डीपफेक मधील चुका सुधारू शकेल.
दोन्ही प्रक्रिया एकत्रित केल्यावर जीएएन नावाचे जनरेटिव्ह अॅडव्हर्सियल नेटवर्क तयार होते.
डीपफेक कुठे वापरले जातात?
अहवालानुसार, या तंत्रज्ञानाची सुरुवात अश्लील कंटेंट तयार करण्यापासून झाली.
पोर्नोग्राफीमध्ये हे तंत्र खूप वापरले जाते. अभिनेते-अभिनेत्रींचे चेहरे वापरून अश्लील कंटेंट पॉर्न साइटवर टाकला जातो.
डीपट्रेसच्या अहवालानुसार, 2019 मध्ये ऑनलाइन आढळलेल्या डीपफेक व्हीडिओंपैकी 96 टक्के व्हीडिओंमध्ये अश्लील कंटेंट होता.
याशिवाय मनोरंजनासाठीही या तंत्रज्ञानाचा वापर केला जातो. ‘प्रत्यक्षात असं काही घडलंच नाही’ हे दाखविण्यासाठी या डीपफेक व्हीडिओंचा वापर केला जात होता, जेणेकरून दर्शकांचा यावर विश्वास बसेल.
अनेक यूट्यूब चॅनलवर विविध चित्रपटांतील दृश्यांचे डीपफेक व्हीडिओ पोस्ट केले जातात.
उदाहरणार्थ, ‘द शायनिंग’ चित्रपटातील एका प्रसिद्ध दृश्याचा डीपफेक व्हिडिओ कंट्रोल शिफ्ट फेस (Ctrl Shift face) या यूट्यूब चॅनलवर उपलब्ध आहे.
गेल्या काही वर्षांपासून भूतकाळातील गोष्टी (नॉस्टॅल्जिया) जगण्यासाठीही या तंत्रज्ञानाचा वापर केला जात आहे. जसं की, मृत नातेवाईकांच्या छायाचित्रांमध्ये चेहऱ्यांचं ॲनिमेशन केलं जातं.
या वैशिष्ट्याचा वापर करून लोकांनी तंत्रज्ञानाद्वारे त्यांचे पूर्वज आणि ऐतिहासिक व्यक्ती जिवंत केल्या होत्या.
डीपफेकचा वापर आता राजकारणातही होऊ लागला आहे. निवडणुकीत राजकीय पक्ष डीपफेक तंत्रज्ञानाद्वारे एकमेकांवर टीका करतात. युक्रेन-रशिया युद्धादरम्यान काही डीपफेक व्हिडिओ समोर आले होते.
डीपफेक कंटेंट कसा ओळखायचा?
डीपफेक कंटेंट ओळखण्यासाठी, काही विशिष्ट गोष्टींकडे लक्ष देणं खूप महत्वाचं असतं.
त्यांच्यामध्ये पहिल्यांदा चेहऱ्याची स्थिती पाहिली जाते. डीपफेक तंत्रज्ञान अनेकदा चेहरा आणि डोळ्यांमध्ये मार खाते. यात पापण्यांची हालचाल देखील पाहिली जाते.
जर तुम्हाला असं वाटलं की, डोळे आणि नाक दुसरीकडेच कुठेतरी जात आहेत किंवा बराच वेळ पापण्यांची हालचाल झाली नाही तर समजून जा की हा डीपफेक कंटेंट आहे.
अमुक एखाद्या फोटोत किंवा व्हीडिओत छेडछाड झाली आहे की नाही हे ओळखण्यासाठी रंगसंगती पाहिली जाते आणि त्यावरून डीपफेक कंटेंट ओळखला जातो.