शहरं
Join us  
Trending Stories
1
Vaibhav Suryavanshi : १४ वर्षांच्या पोराचा धुमाकूळ! सिक्सर मारत ठोकली IPL मधील विक्रमी सेंच्युरी
2
विद्यार्थ्यांच्या मनामनात रुजणार भारतीय संविधानाची मूल्ये; नागपूर विद्यापीठाने तयार केला अभ्यासक्रम
3
विविध रेल्वे गाड्यांमधून दारूच्या एकूण १० हजार बाटल्या जप्त! मद्य तस्करीविरोधात मोठी कारवाई
4
नागरिकत्व पाकिस्तानी, मात्र 'दिल हिंदुस्थानी'! उल्हासनगरात २५० जण 'भारतीय' होण्याच्या प्रतीक्षेत
5
'भारतीय सैन्य कधीही हल्ला करू शकते...', पाकिस्तानी संरक्षण मंत्र्याने व्यक्त केली भीती
6
बोगस डॉक्टरांविरोधात प्रशासनाने कसली कंबर; तालुकापातळीवरही समिती सक्षम होणार!
7
जिल्हा पोलिस दलातील सांगलीच्या सहा जणांना महासंचालक सन्मानचिन्ह; १ मे रोजी प्रदान सोहळा
8
हिवराच्या शेंगा खाल्ल्याने २६ मेंढ्यांचा मृत्यू; साताऱ्याजवळील फलटण तालुक्यातील घटना
9
RR vs GT : गिलचा कॅच सुटल्यावर बहिणीने मानले देवाचे आभार; तिची रिॲक्शन होतीये व्हायरल
10
पहलगाम हल्ल्याचा नवीन व्हिडिओ समोर; पर्यटकाच्या कॅमेऱ्यात कैद झाली संपूर्ण घटना, पाहा...
11
Padma Awards: क्रिकेटपटू आर अश्विनला पद्मश्री, हॉकीपटू श्रीजेशला पद्मभूषण; येथे पाहा संपूर्ण यादी!
12
पावसाळ्याआधी मृदा व जलसंधारणाविषयी मुख्यमंत्री देवेंद्र फडणवीसांनी घेतला 'हा' महत्त्वाचा निर्णय
13
'शरिया कोर्ट', 'कोर्ट ऑफ काजी'ला कायदेशीर मान्यता नाही; त्यांचे निर्देश बंधनकारक नाहीत: सर्वोच्च न्यायालय
14
मुलगी आयएएस अधिकारी झाली, आनंदोत्सवात वडिलांना ह्रदयविकाराचा झटका
15
युरोपात ब्लॅकआउट! फ्रान्स, स्पेनसह अनेक देशांमध्ये वीजपुरवठा खंडित; विमान, मेट्रोसेवा ठप्प
16
पहलगाम हल्यानंतर जम्मू-काश्मीरमध्ये ट्रेकिंगवर बंदी; पर्यटकांसाठी सूचना जारी...
17
Vaibhav Suryavanshi Fastest Fifty :..अन् वैभव सूर्यंवशीनं रचला नवा इतिहास
18
मुंबईकरांचे जगणेच कठीण व्हावे, असाच सत्ताधाऱ्यांचा विचार; बेस्ट दरवाढीवरून आदित्य ठाकरे संतापले
19
आयपॅडमुळे विमानात उडाला गोंधळ, आणीबाणीची परिस्थिती, करावं लागलं एमर्जन्सी लँडिंग, कारण काय? 
20
कर्नाटकचे मुख्यमंत्री सिद्धारामैय्या भर सभेत पोलीस अधिकाऱ्यावर भडकले, मारण्यासाठी उगारला हात, त्यानंतर...  

आमीर, रणवीर आणि ‘डीपफेक’ (अप)प्रचार 

By ऑनलाइन लोकमत | Updated: April 20, 2024 06:16 IST

निवडणुकीचे वातावरण तापलेले असताना ‘फेक’ व्हिडिओज आणि त्यातल्या अपप्रचारापासून स्वतःचा बचाव करायचा असेल तर दोन मार्ग आहेत; त्याबद्दल..  

प्रसाद शिरगावकर, मुक्तस्रोत तंत्रज्ञानाचे प्रशिक्षक

गेल्या आठवड्यात अभिनेता आमीर खान बोलत आहे, असं दिसणारा एक व्हिडिओ X प्लॅटफॉर्मवर प्रकाशित झाला. आमीर खानच्या आयडीवरून नाही तर भलत्याच कोणीतरी तो प्रकाशित केला होता. त्या व्हिडिओमध्ये ‘‘प्रत्येक भारतीय श्रीमंत व्हायला हवा होता; पण १५ लाख रुपये न आल्याने आपण श्रीमंत झालो नाही आणि त्यामुळे हे देण्याचं वचन देणाऱ्या जुमला पार्टीला मत देऊ नका, असं तो सांगतोय’’ असं दिसत होतं. 

त्यापाठोपाठ दोनच दिवसांमध्ये अभिनेता रणवीर सिंग बोलत आहे, असं दिसणारा एक व्हिडिओ प्रकाशित झाला. या व्हिडिओमध्ये रणवीर सिंग गंगेत नौकानयन करत असताना, ‘‘काशीमध्ये जो प्रचंड विकास झाला आहे तो विकास करणाऱ्या आणि असाच संपूर्ण देशाचा विकास व्हावा, असं वाटत असेल तर हे करणाऱ्या पक्षाला मत द्या’’ असं सांगताना दिसत होता. हे दोन्ही व्हिडिओज नव्याने विकसित होत असलेल्या ‘‘डीपफेक’’ या तंत्रज्ञानाने तयार केलेले वाटत आहेत. म्हणजे दोन्ही व्हिडिओज हे त्या त्या अभिनेत्यांनी कधीतरी प्रकाशित केलेले व्हिडिओज आहेत; पण त्यात ते जे बोलले होते ते मात्र तंत्रज्ञानाच्या आधाराने बदलून तिथे भलतंच काहीतरी घालून हे व्हिडिओज तयार केले आहेत. दोन्ही अभिनेत्यांनी तसा खुलासा करणारं निवेदन प्रकाशित केलं आहे आणि रीतसर पोलिस तक्रारही नोंदवली आहे.

कृत्रिम बुद्धिमत्ता (AI) या क्षेत्रामध्ये सध्या प्रचंड झपाट्याने नवनवीन प्रकारची ॲप्लिकेशन्स तयार होत आहेत. त्यात जनरेटिव्ह एआय, कॉम्प्युटर व्हिजन, रोबोटिक्स यासारखी अत्यंत सकारात्मक वापर होऊ शकणारी ॲप्लिकेशन्स जशी तयार होत आहेत, तशीच ‘डीपफेक’सारखी संभाव्यतः अत्यंत घातक असलेली ॲप्लिकेशन्सही तयार होत आहेत. डीपफेक व्हिडिओजमध्ये कोणत्याही व्यक्तीच्या बोलण्याचा व्हिडिओ घेऊन त्यातील आशय पूर्णपणे बदलणं किंवा एका व्यक्तीच्या बोलण्याचा व्हिडिओ घेऊन ती दुसरीच कोणी व्यक्ती बोलते आहे, असा व्हिडिओ निर्माण करणं, असे वेगवेगळे प्रकार करता येऊ शकतात. 

आमीर आणि रणवीर या दोघांचे व्हिडिओज हे अगदीच प्राथमिक पातळीवरचे डीपफेक आहेत. यात त्या दोघांचे प्रत्यक्षातले कुठले तरी व्हिडिओज घेऊन त्याचा फक्त आशय किंवा ‘व्हॉइस ओव्हर’ बदलणे हे एवढंच केलेलं आहे. त्यातील आवाज त्यांचाच वाटावा, असा कदाचित कॉम्प्युटर जनरेटेड असेल किंवा एखाद्या दुसऱ्या व्यक्तीने दिलेला असू शकेल. पण हा डीपफेकचा अगदी बेसिक प्रकार आहे. मात्र हे तंत्रज्ञान जसजसं प्रगत होत जात आहे तसतसं संपूर्णपणे नवा व्हिडिओ कोणा विशिष्ट व्यक्तीच्या आवाजात आणि ती विशिष्ट व्यक्ती बोलते आहे, अशा पद्धतीने दाखवणं  शक्य होऊ लागलं आहे.

हे अत्यंत घातक अशासाठी आहे की, कोणतीही व्यक्ती बोलतानाचा एखादा व्हिडिओ समोर आला, की तो खरोखर त्या व्यक्तीने तयार केलेला आहे, त्यात मांडलेले विचार खरोखर त्या व्यक्तीचे आहेत, का तो डीपफेक तंत्रज्ञान वापरून भलत्याच कोणी तरी तयार करून त्यांचे शब्द त्या व्यक्तीच्या तोंडी दिलेले आहेत, हे समजायला काहीही मार्ग नसतो. 

तंत्रज्ञानाची फारशी जाण नसलेल्या सर्वसामान्य माणसाला तर नसतोच नसतो. त्यामुळे अमुक व्यक्ती ही तमुकच बोलत आहे, असं सांगून ज्या व्यक्तीची बदनामी करणारे किंवा निवडणूक प्रचारामध्ये मतदारांवर प्रभाव पडणारे व्हिडिओज तयार करणं, हे खूप मोठ्या प्रमाणावर व्हायची शक्यता आहे. 

कदाचित हे घडायला सुरुवातही झाली आहे. असे डीपफेक पद्धतीने अपप्रचारासाठी तयार केलेले व्हिडिओज हे सोशल मीडियावर टाकले जातात. ते तिथे प्रचंड वेगाने व्हायरल होतात आणि एकदा व्हायरल झाले की ते सर्व ठिकाणाहून काढून टाकणं किंवा डिलीट करणं हे केवळ अशक्य असतं. 

असे व्हिडिओज आणि त्यातून केल्या जाणाऱ्या कोणत्याही प्रकारच्या अपप्रचारापासून स्वतःचा बचाव करायचा असेल तर दोन मार्ग आहेत. त्यातला पहिला मार्ग म्हणजे व्हाॅट्सॲपवर आलेल्या कोणत्याही व्हिडिओवर विश्वास ठेवायचा नाही. व्हिडिओत बोलणारी व्यक्ती खरोखर असं काही बोलली आहे का हे आपल्याला जाणून घ्यायचंच असेल तर त्या व्यक्तीच्या अधिकृत चॅनेलवर, म्हणजे फेसबुक, इंस्टाग्राम, युट्युब किंवा ट्विटरवरच्या त्यांच्या अधिकृत पेजवर जाऊन, खरोखर तिथे त्यांनी असा कुठला व्हिडिओ प्रकाशित केला आहे का, हे तपासून घ्यायचं. तिथे असा काही व्हिडिओ नसेल तर मात्र व्हाॅट्सॲपला आलेला व्हिडिओ पुढे न पाठवता डिलीट करून टाकायचा! 

थोडक्यात, समोर आलेल्या कुठल्याही थेट व्हिडिओवर विश्वास न ठेवणं. ठेवावासा वाटलाच तर व्हिडिओ खरा आहे का याची स्वतः खातरजमा करून घेणं आणि तो खरा नसेल तर तो पुढे न पाठवता तो डिलीट करून टाकणं, या सोप्या उपायांनी डीपफेकसारख्या अपप्रचार करण्यासाठी वापरल्या जाणाऱ्या अत्यंत घातक तंत्रज्ञानापासून स्वतःचा बचाव आपण करू शकतो. करत राहुया. prasad@aadii.net

टॅग्स :lok sabha election 2024लोकसभा निवडणूक २०२४Aamir Khanआमिर खानRanveer Singhरणवीर सिंगElectionनिवडणूक