आमीर, रणवीर आणि ‘डीपफेक’ (अप)प्रचार 

By ऑनलाइन लोकमत | Published: April 20, 2024 06:14 AM2024-04-20T06:14:35+5:302024-04-20T06:16:53+5:30

निवडणुकीचे वातावरण तापलेले असताना ‘फेक’ व्हिडिओज आणि त्यातल्या अपप्रचारापासून स्वतःचा बचाव करायचा असेल तर दोन मार्ग आहेत; त्याबद्दल..  

bollywood actor Aamir khan, Ranveer singh and the Deepfake video | आमीर, रणवीर आणि ‘डीपफेक’ (अप)प्रचार 

आमीर, रणवीर आणि ‘डीपफेक’ (अप)प्रचार 

प्रसाद शिरगावकर, मुक्तस्रोत तंत्रज्ञानाचे प्रशिक्षक

गेल्या आठवड्यात अभिनेता आमीर खान बोलत आहे, असं दिसणारा एक व्हिडिओ X प्लॅटफॉर्मवर प्रकाशित झाला. आमीर खानच्या आयडीवरून नाही तर भलत्याच कोणीतरी तो प्रकाशित केला होता. त्या व्हिडिओमध्ये ‘‘प्रत्येक भारतीय श्रीमंत व्हायला हवा होता; पण १५ लाख रुपये न आल्याने आपण श्रीमंत झालो नाही आणि त्यामुळे हे देण्याचं वचन देणाऱ्या जुमला पार्टीला मत देऊ नका, असं तो सांगतोय’’ असं दिसत होतं. 

त्यापाठोपाठ दोनच दिवसांमध्ये अभिनेता रणवीर सिंग बोलत आहे, असं दिसणारा एक व्हिडिओ प्रकाशित झाला. या व्हिडिओमध्ये रणवीर सिंग गंगेत नौकानयन करत असताना, ‘‘काशीमध्ये जो प्रचंड विकास झाला आहे तो विकास करणाऱ्या आणि असाच संपूर्ण देशाचा विकास व्हावा, असं वाटत असेल तर हे करणाऱ्या पक्षाला मत द्या’’ असं सांगताना दिसत होता. हे दोन्ही व्हिडिओज नव्याने विकसित होत असलेल्या ‘‘डीपफेक’’ या तंत्रज्ञानाने तयार केलेले वाटत आहेत. म्हणजे दोन्ही व्हिडिओज हे त्या त्या अभिनेत्यांनी कधीतरी प्रकाशित केलेले व्हिडिओज आहेत; पण त्यात ते जे बोलले होते ते मात्र तंत्रज्ञानाच्या आधाराने बदलून तिथे भलतंच काहीतरी घालून हे व्हिडिओज तयार केले आहेत. दोन्ही अभिनेत्यांनी तसा खुलासा करणारं निवेदन प्रकाशित केलं आहे आणि रीतसर पोलिस तक्रारही नोंदवली आहे.

कृत्रिम बुद्धिमत्ता (AI) या क्षेत्रामध्ये सध्या प्रचंड झपाट्याने नवनवीन प्रकारची ॲप्लिकेशन्स तयार होत आहेत. त्यात जनरेटिव्ह एआय, कॉम्प्युटर व्हिजन, रोबोटिक्स यासारखी अत्यंत सकारात्मक वापर होऊ शकणारी ॲप्लिकेशन्स जशी तयार होत आहेत, तशीच ‘डीपफेक’सारखी संभाव्यतः अत्यंत घातक असलेली ॲप्लिकेशन्सही तयार होत आहेत. डीपफेक व्हिडिओजमध्ये कोणत्याही व्यक्तीच्या बोलण्याचा व्हिडिओ घेऊन त्यातील आशय पूर्णपणे बदलणं किंवा एका व्यक्तीच्या बोलण्याचा व्हिडिओ घेऊन ती दुसरीच कोणी व्यक्ती बोलते आहे, असा व्हिडिओ निर्माण करणं, असे वेगवेगळे प्रकार करता येऊ शकतात. 

आमीर आणि रणवीर या दोघांचे व्हिडिओज हे अगदीच प्राथमिक पातळीवरचे डीपफेक आहेत. यात त्या दोघांचे प्रत्यक्षातले कुठले तरी व्हिडिओज घेऊन त्याचा फक्त आशय किंवा ‘व्हॉइस ओव्हर’ बदलणे हे एवढंच केलेलं आहे. त्यातील आवाज त्यांचाच वाटावा, असा कदाचित कॉम्प्युटर जनरेटेड असेल किंवा एखाद्या दुसऱ्या व्यक्तीने दिलेला असू शकेल. पण हा डीपफेकचा अगदी बेसिक प्रकार आहे. मात्र हे तंत्रज्ञान जसजसं प्रगत होत जात आहे तसतसं संपूर्णपणे नवा व्हिडिओ कोणा विशिष्ट व्यक्तीच्या आवाजात आणि ती विशिष्ट व्यक्ती बोलते आहे, अशा पद्धतीने दाखवणं  शक्य होऊ लागलं आहे.

हे अत्यंत घातक अशासाठी आहे की, कोणतीही व्यक्ती बोलतानाचा एखादा व्हिडिओ समोर आला, की तो खरोखर त्या व्यक्तीने तयार केलेला आहे, त्यात मांडलेले विचार खरोखर त्या व्यक्तीचे आहेत, का तो डीपफेक तंत्रज्ञान वापरून भलत्याच कोणी तरी तयार करून त्यांचे शब्द त्या व्यक्तीच्या तोंडी दिलेले आहेत, हे समजायला काहीही मार्ग नसतो. 

तंत्रज्ञानाची फारशी जाण नसलेल्या सर्वसामान्य माणसाला तर नसतोच नसतो. त्यामुळे अमुक व्यक्ती ही तमुकच बोलत आहे, असं सांगून ज्या व्यक्तीची बदनामी करणारे किंवा निवडणूक प्रचारामध्ये मतदारांवर प्रभाव पडणारे व्हिडिओज तयार करणं, हे खूप मोठ्या प्रमाणावर व्हायची शक्यता आहे. 

कदाचित हे घडायला सुरुवातही झाली आहे. असे डीपफेक पद्धतीने अपप्रचारासाठी तयार केलेले व्हिडिओज हे सोशल मीडियावर टाकले जातात. ते तिथे प्रचंड वेगाने व्हायरल होतात आणि एकदा व्हायरल झाले की ते सर्व ठिकाणाहून काढून टाकणं किंवा डिलीट करणं हे केवळ अशक्य असतं. 

असे व्हिडिओज आणि त्यातून केल्या जाणाऱ्या कोणत्याही प्रकारच्या अपप्रचारापासून स्वतःचा बचाव करायचा असेल तर दोन मार्ग आहेत. त्यातला पहिला मार्ग म्हणजे व्हाॅट्सॲपवर आलेल्या कोणत्याही व्हिडिओवर विश्वास ठेवायचा नाही. व्हिडिओत बोलणारी व्यक्ती खरोखर असं काही बोलली आहे का हे आपल्याला जाणून घ्यायचंच असेल तर त्या व्यक्तीच्या अधिकृत चॅनेलवर, म्हणजे फेसबुक, इंस्टाग्राम, युट्युब किंवा ट्विटरवरच्या त्यांच्या अधिकृत पेजवर जाऊन, खरोखर तिथे त्यांनी असा कुठला व्हिडिओ प्रकाशित केला आहे का, हे तपासून घ्यायचं. तिथे असा काही व्हिडिओ नसेल तर मात्र व्हाॅट्सॲपला आलेला व्हिडिओ पुढे न पाठवता डिलीट करून टाकायचा! 

थोडक्यात, समोर आलेल्या कुठल्याही थेट व्हिडिओवर विश्वास न ठेवणं. ठेवावासा वाटलाच तर व्हिडिओ खरा आहे का याची स्वतः खातरजमा करून घेणं आणि तो खरा नसेल तर तो पुढे न पाठवता तो डिलीट करून टाकणं, या सोप्या उपायांनी डीपफेकसारख्या अपप्रचार करण्यासाठी वापरल्या जाणाऱ्या अत्यंत घातक तंत्रज्ञानापासून स्वतःचा बचाव आपण करू शकतो. करत राहुया. prasad@aadii.net

Web Title: bollywood actor Aamir khan, Ranveer singh and the Deepfake video

Get Latest Marathi News , Maharashtra News and Live Marathi News Headlines from Politics, Sports, Entertainment, Business and hyperlocal news from all cities of Maharashtra.