चुकीची माहिती अनेकदा भावनिक ट्रिगरवर खेळते
वेगाने प्रगत तंत्रज्ञानाच्या युगात, डीपफेक शोधणे अधिक कठीण होत आहे.
वास्तववादी तरीही बनावट प्रतिमा, व्हिडिओ आणि ऑडिओ, डीपफेकमुळे गोपनीयता, सुरक्षितता आणि डिजिटल सामग्रीवरील विश्वासाला मोठा धोका निर्माण होतो.
ते लोकांच्या प्रतिष्ठेलाही धोका निर्माण करतात. डीपफेक हा इंटरनेटचा एक गडद कोपरा बनला आहे, जिथे हजारोंच्या संख्येने लोक सेलिब्रेटी महिलांचे सेक्सचे बनावट व्हिडिओ शेअर करण्यासाठी जमले आहेत.
नोव्हेंबर 2023 मध्ये, भारतात बॉलीवूडमध्ये डीपफेकचा एक प्रकार दिसला अभिनेत्री ठळक दृश्यांमध्ये चित्रित केले होते.
सर्वात लक्षणीय व्हिडिओ होता रश्मिका मंडन्ना लो-कट युनिटर्ड परिधान.
कृत्रिम बुद्धिमत्ता विकसित होत राहते आणि परिणामी, खात्रीशीर डीपफेक तयार करण्यासाठी वापरल्या जाणाऱ्या तंत्रांचा वापर होतो.
तथापि, या डिजिटल फसव्या गोष्टी अत्यंत फसव्या असू शकतात, त्यामध्ये बऱ्याचदा योग्य ज्ञानासह, ओळखले जाऊ शकते असे सांगण्याची चिन्हे असतात.
एक AI तज्ञ डीपफेक शोधण्यासाठी शीर्ष टिपा आणि धोरणे सामायिक करतो, सूक्ष्म परंतु गंभीर त्रुटी हायलाइट करतो जे हाताळलेले मीडिया उघड करू शकतात.
स्त्रोत सत्यापित करा
X वर, बनावट बातम्या वैध बातम्यांपेक्षा अधिक वेगाने पसरतात.
यूके मधील जवळजवळ दोन तृतीयांश तरुण प्रौढ नियमित बातम्या म्हणून सोशल मीडियाचा वापर करतात हे लक्षात घेता स्रोत.
तुम्ही वापरत असलेल्या सामग्रीमागील स्रोतांची विश्वासार्हता नेहमी पहा.
माहिती प्रतिष्ठित वृत्त आउटलेट किंवा सत्यापित अधिकृत खात्यातून येते का?
स्त्रोत अपरिचित असल्यास किंवा संशयास्पद दिसल्यास, विश्वसनीय वृत्त संस्था किंवा Google Fact Check Tools सारख्या तथ्य-तपासणी प्लॅटफॉर्मचा वापर करून सामग्रीची सत्यता तपासा.
चुकीची माहिती बहुधा भीती, राग किंवा क्लाउड निर्णयाचा आक्रोश यासारख्या भावनिक ट्रिगरवर खेळते.
तीव्र भावना भडकावणाऱ्या सामग्रीचा सामना करताना, एखाद्याच्या गेममध्ये एखाद्याचा मोहरा म्हणून वापर केला जात नाही याची खात्री करण्यासाठी विराम देणे आणि पुन्हा मूल्यांकन करणे महत्त्वाचे आहे.
चेहर्यावरील भाव पहा
चेहर्यावरील हावभाव आणि नैसर्गिक हालचालींच्या सूक्ष्म गुंतागुंतीची प्रतिकृती तयार करण्यासाठी डीपफेक सहसा संघर्ष करतात.
लक्ष केंद्रित करण्याच्या प्रमुख क्षेत्रांमध्ये डोळे आणि तोंडाभोवती सूक्ष्म अभिव्यक्ती समाविष्ट आहेत.
अनैसर्गिक ब्लिंकिंग पॅटर्न, डोळ्यांच्या अनियमित हालचाली किंवा डोक्याच्या अचानक हालचालींकडे लक्ष द्या आणि चेहऱ्यावरील हावभाव व्यक्त केल्या जात असलेल्या भावनांशी जुळतात की नाही याचे मूल्यांकन करा.
याव्यतिरिक्त, दातांची एकसमानता, केसांची रचना आणि एकूणच चेहऱ्याची रचना यासारखे तपशील डीपफेक ओळखण्यात मदत करू शकतात.
उदाहरणार्थ, चा डीपफेक व्हिडिओ रणवीर सिंग पंतप्रधान नरेंद्र मोदींवर टीका व्हायरल झाली.
जरी खात्रीशीर असले तरी, व्हिडिओ हा डीपफेक आहे ही एक मोठी संधी म्हणजे चेहरा आणि कानांचा आकार – डीपफेकमध्ये या भागात बरेचदा मोजमाप कमी असते, कानांची प्रतिकृती बनवणे विशेषतः कठीण असते.
व्हिडिओला विराम दिल्याने आणि चेहऱ्याच्या वैशिष्ट्यांचे परीक्षण केल्याने तुम्हाला या अनियमितता शोधण्यात मदत होऊ शकते.
पाहण्यासारखी दुसरी गोष्ट म्हणजे शरीराचा आकार. सामान्यतः, महिला सेलिब्रिटींचे चेहरे इतर महिलांच्या शरीरावर लावले जातात आणि ऑनलाइन शेअर केले जातात. लाड हेतू.
एक प्रसंग पाहिला कॅटरिना कैफचे टॉवेल फाईट सीन मध्ये व्याघ्र एक्सएनयूएमएक्स डॉक्टर केलेले
डीपफेकने टॉवेलच्या जागी उघड दोन-तुकडा घेतला.
तिचे शरीर देखील फोटोशॉप केलेले होते, ज्यामध्ये तिचे वक्र लक्षणीयरीत्या अधिक प्रमाणात होते.
बनावट प्रतिमेमध्ये कतरिनाचे हात अधिक कामुक पोझसाठी ठेवलेले दाखवले होते.
उलट प्रतिमा शोध वापरा
व्हिज्युअल सामग्रीचे मूळ शोधण्यासाठी आणि त्याच्या सत्यतेचे मूल्यांकन करण्यासाठी उलट प्रतिमा आणि व्हिडिओ शोध साधनांचा लाभ घ्या.
इमेजसाठी, Google रिव्हर्स इमेज सर्च सारख्या टूल्सवर फाइल अपलोड केल्याने इमेज AI-व्युत्पन्न केली गेली आहे, डिजिटली बदलली गेली आहे किंवा भ्रामक संदर्भात वापरली गेली आहे की नाही हे ओळखण्यात मदत होऊ शकते.
प्रतिमेची इतर उदाहरणे ऑनलाइन शोधून, ती प्रथम कुठे दिसली आणि ती हाताळली गेली आहे किंवा त्याचा गैरवापर झाला आहे हे तुम्ही ठरवू शकता.
व्हिडिओंसाठी, InVID किंवा WeVerify सारखी अधिक विशेष साधने फुटेजचे विश्लेषण करण्यासाठी उपयुक्त आहेत.
ही साधने तुम्हाला व्हिडिओंना फ्रेममध्ये विभाजित करण्यास, वैयक्तिक फ्रेम्सवर उलट प्रतिमा शोध घेण्यास आणि संपादने, बदल किंवा फुटेज वेगळ्या संदर्भात दिसण्यासाठी मेटाडेटा तपासण्याची परवानगी देतात.
ही तंत्रे तुम्हाला विसंगती उघड करण्यास, सत्यता सत्यापित करण्यास आणि छेडछाड किंवा पुनर्वापराची कोणतीही चिन्हे शोधण्यास सक्षम करतात.
एकत्रितपणे, हे शोध व्हिज्युअल सामग्री चुकीची किंवा दुर्भावनापूर्णपणे बदलली जात नाहीत याची खात्री करण्यात मदत करू शकतात.
विसंगती शोधा
अस्पष्टता किंवा अनैसर्गिक पिक्सेलेशन यासारख्या सूक्ष्म डिजिटल त्रुटींद्वारे डीपफेक ओळखले जाऊ शकतात, विशेषत: चेहऱ्याच्या किंवा वस्तूंच्या काठावर.
प्रकाश, सावल्या आणि प्रतिबिंबांमधील विसंगतीकडे लक्ष देणे महत्वाचे आहे, कारण हे हाताळणीची चिन्हे असू शकतात.
अगदी लहान तपशील जसे की अतिरिक्त बोट किंवा चुकीची वैशिष्ट्ये काहीतरी बंद असल्याचे सूचित करू शकतात.
याव्यतिरिक्त, विकृती किंवा अनियमिततेसाठी पार्श्वभूमीचे परीक्षण केल्याने हाताळणी उघड करण्यात मदत होऊ शकते, कारण हे घटक दृश्याच्या एकूण सुसंगततेमध्ये व्यत्यय आणू शकतात.
चे ठळक डीपफेक आलिया भट्ट सूचक अभिव्यक्ती करणे आणि घाईघाईने तिच्या तोंडाभोवती विकृती आणि विरोधाभासी त्वचेचा टोन यासारख्या विसंगती दिसून आल्या.
AI-व्युत्पन्न सामग्री ओळखण्यात मदत करण्याचा एक मजेदार मार्ग म्हणजे प्ले करणे कोणता चेहरा खरा आहे, वॉशिंग्टन विद्यापीठातील प्राध्यापकांनी तयार केलेला गेम.
ऑडिओ-व्हिज्युअल सिंक्रोनाइझेशन
डीपफेक पाहणे हे ओठांच्या हालचालींचे बारकाईने निरीक्षण करण्यावर अवलंबून असते, कारण विशिष्ट अक्षरे उच्चारताना आपले तोंड नैसर्गिकरित्या वेगळे आकार बनवतात.
AI सिस्टीम या सूक्ष्म हालचालींची अचूक प्रतिकृती बनवण्यासाठी वारंवार धडपडत असतात, ज्यामुळे याकडे लक्ष केंद्रीत करण्याचे प्रमुख क्षेत्र बनते.
खरं तर, जवळजवळ एक तृतीयांश डीपफेक व्हिडिओ आवाजासह ओठांच्या हालचाली अचूकपणे समक्रमित करण्यात अयशस्वी ठरतात, विशेषत: “M”, “B” आणि “P” सारख्या अक्षरांसाठी, ज्यांना विशिष्ट ओठांची रचना आवश्यक असते.
जेव्हा स्पीकरचे ओठ तयार होत असलेल्या आवाजांशी जुळत नाहीत किंवा दृकश्राव्य सिंक्रोनायझेशनमध्ये लक्षणीय विलंब किंवा जुळत नसल्यास, त्यामुळे संशय निर्माण झाला पाहिजे.
याव्यतिरिक्त, स्पीकरच्या टोन, खेळपट्टी किंवा भाषणाच्या लयमधील कोणत्याही अनियमिततेकडे लक्ष द्या.
हे मॅनिप्युलेट केलेल्या व्हिडिओचे सूचक देखील असू शकतात, कारण AI-व्युत्पन्न केलेल्या ऑडिओमध्ये सहसा मानवी बोलण्याची नैसर्गिकता आणि लय नसतो.
क्रिस्टोफ सी सेम्पर, एआय तज्ञ AIPRM, म्हणाला:
“वर्ल्ड इकॉनॉमिक फोरमने 2024 साठी डिसइन्फॉर्मेशनला सर्वात मोठा धोका म्हणून ध्वजांकित केले आहे, ज्यामध्ये डीपफेक हे AI च्या सर्वात चिंताजनक वापरांपैकी एक म्हणून उदयास आले आहेत.
“तुम्हाला संभाव्य डीपफेक आढळल्यास, कृतीचा सर्वोत्तम मार्ग म्हणजे तो सामायिक करण्यापासून परावृत्त करणे.
"डीपफेकची शक्ती त्याच्या पसरण्याच्या क्षमतेमध्ये असते आणि जर त्याचा व्यापक प्रसार झाला नाही तर त्याचा प्रभाव कमी होतो."
“तुम्ही इतर कोणीतरी ते सामायिक करताना पाहिल्यास, त्यांना विनम्रपणे माहिती देण्यासाठी थोडा वेळ द्या आणि त्यांना विश्वासार्ह तथ्य-तपासणी संसाधनांकडे निर्देशित करा, विशेषतः जर बनावट डिबंक केले गेले असेल.
“याव्यतिरिक्त, सोशल मीडिया प्लॅटफॉर्मवर त्याची पोहोच मर्यादित करण्यासाठी रिपोर्टिंग वैशिष्ट्यांचा फायदा घ्या.
“आम्ही सर्वांनी जागरूकता वाढवण्यात भूमिका बजावणे अत्यंत महत्त्वाचे आहे – इतरांना तत्सम धमक्यांचा प्रतिकार करण्यात मदत करण्यासाठी तुम्ही डीपफेक कसे ओळखले याबद्दल तुमचा अनुभव आणि अंतर्दृष्टी शेअर करा.
"आम्ही ऑनलाइन वापरत असलेल्या सामग्रीबद्दल जागरुक राहून, आम्ही एकत्रितपणे चुकीच्या माहितीचा सामना करू शकतो आणि आमच्या डिजिटल वातावरणाच्या अखंडतेचे रक्षण करू शकतो."
डीपफेक अधिक अत्याधुनिक होत असताना, डिजिटल सामग्रीवर विश्वास राखण्यासाठी त्यांना ओळखण्याची क्षमता महत्त्वपूर्ण आहे.
AI-व्युत्पन्न केलेल्या खोट्या गोष्टी खात्रीशीर वाटू शकतात, परंतु ते अनेकदा सूक्ष्म संकेत सोडतात.
हे संकेतक समजून घेऊन आणि उलट प्रतिमा शोध आणि व्हिडिओ विश्लेषण यांसारखी साधने वापरून, आम्ही चुकीची माहिती आणि हाताळणीपासून स्वतःचे संरक्षण करू शकतो.