डॉ. अमेय पांगारकर, एआय तज्ज्ञआजच्या डिजिटल युगात आपण अनेक कृत्रिम बुद्धिमत्तानिर्मित (एआय) व्हिडीओ पाहतो. चंद्रपूरच्या ब्रह्मपुरी वनविश्रामगृहावर एक वाघ एका माणसावर हल्ला करतो आणि त्याच्या नरडीचा घोट घेत फरफटत नेतो, असा एक व्हिडीओ तुम्ही बघितलाच असेल. सोशल मीडियात तो तुफान फिरला. या व्हिडीओचे फॅक्ट चेक केल्यानंतर तो एआयनिर्मित असल्याचे स्पष्ट झाले. त्याला उत्तर म्हणून एकाने तोच वाघ त्या माणसाला परत आणून देतो आणि पाणीही पाजतो, असा दुसरा एआयनिर्मित व्हिडीओ बनवला. जाणून घेऊया काय आहे हे प्रकरण...
कसे बनतात असे व्हिडीओ?हे व्हिडीओ इतके वास्तवदर्शी असतात की, साध्या डोळ्यांना खरे व खोटे यातील फरक ओळखणे कठीण जाते. एआय आणि 'डीप लर्निंग' तंत्रज्ञानाच्या मदतीने असे बनावट व्हिडीओ तयार केले जातात. या व्हिडीओत खऱ्या व्यक्तीचा चेहरा, आवाज आणि हावभाव कृत्रिमरीत्या तयार करतात.
...असे ओळखा एआय व्हिडीओ एआयनिर्मित व्हिडीओ ओळखणे सहज नसते. मात्र, काही बारकावे लक्षात घेतल्यास त्यांची सत्यता तपासता येते.
१) सर्वप्रथम, व्हिडीओतील व्यक्तीच्या चेहऱ्याच्या हालचाली, डोळ्यांचा फोकस आणि आवाजातील समन्वय नीट पाहा. अनेकदा अशा व्हिडीओंमध्ये हलणारे ओठ आणि आवाज यात ताळमेळ साधलेला नसतो.
२) बनावट व्हिडीओतील व्यक्तीच्या चेहऱ्यावर अनैसर्गिक भाव दिसतात. 3 चेहरा स्थिर असतो आणि ओठ हलत असतात. पण, चेहऱ्यावरील भाव मात्र आवाजात व्यक्त होणाऱ्या भावनांशी विसंगत असतात.
३) काही वेळा चेहऱ्याभोवती धूसर रेषा किंवा विकृती जाणवतात. त्वचेचा 3 रंग अनैसर्गिक जाणवतो. हे एआय एडिटिंगचे मुख्य संकेत असतात.
४) बनावट व्हिडीओतील पार्श्वभूमीकडे लक्ष दिल्यास काही विसंगती आढळतात. विशेषतः व्हिडीओतील विश्वास बसू नये, असा वेग आणि ४ संबंधित व्यक्ती, प्राणी, गाड्यांची इमेज तेवढा काळ धूसर झालेली दिसते.
५) प्रकाशमानता, सावलींची दिशा किंवा शरीराभोवतीचा फोकस बनावट व्हिडीओत असमान दिसतो.
आणखी काय करता येते? अशा संशयास्पदव्हिडीओंची सत्यता पडताळण्यासाठी 'गुगल लेन्स' किंवा 'इनव्हिड' अशा साधनांचा वापर करून 'रिव्हर्स सर्च' करता येते. व्हिडीओ आला की ढकल, असे करण्याआधी दोन मिनिटे विचार करा. एका चुकीच्या फॉरवर्डमुळे खोटे सत्य बनू शकते, सामाजिक तणाव निर्माण होऊ शकतो.
Web Summary : AI-generated videos, like the tiger attack hoax, are increasingly realistic. Learn to spot deepfakes by checking facial movements, unnatural expressions, and background inconsistencies. Use reverse image search tools to verify questionable videos before sharing to prevent misinformation.
Web Summary : बाघ के हमले जैसे एआई-जनित वीडियो तेजी से यथार्थवादी होते जा रहे हैं। चेहरे की गतिविधियों, अप्राकृतिक भावों और पृष्ठभूमि की विसंगतियों की जांच करके डीपफेक को पहचानना सीखें। गलत सूचना को रोकने के लिए साझा करने से पहले संदिग्ध वीडियो को सत्यापित करने के लिए रिवर्स इमेज सर्च टूल का उपयोग करें।