- टेकमान शाक्य
- फाल्गुन १७, २०८२

इरानमा भएको आक्रमण दावी गर्दै नेपालमा भाइरल भएको भिडिओ सत्य होइन
सामाजिक सञ्जालमा इरानमाथि आक्रमण भएको भयावह दृश्य देखिएको दावीसहितको ६ सेकेन्डको एउटा भिडिओ क्लिप भाइरल भएको छ।
तर, नेपाल तथ्य जाँचले गरेको विश्लेषणमा उक्त भिडिओ एआईमार्फत उत्पादन तथा सम्पादन गरेर तयार गरिएको भेटिएको छ।
के हो दावी ?
फागुन १६ गते (फेब्रुअरी २८) जनआस्थाले आफ्नो आधिकारिक फेसबुक पेजबाट ६ सेकेन्डको एउटा भिडिओ सार्वजनिक गरेको छ।
भिडिओमा केही मानिस दौडिरहेको देखिन्छ भने ठूलो आवाजसहित विस्फोट भएको सुनिन्छ। शीर्षकमा लेखिएको छ: “इरानमाथि अमेरिकी आक्रमण, मध्यपूर्वमा तनाव”
यो तथ्य जाँच गर्ने समय आइतबार दिउँसोसम्म भिडिओमा ७५३ रियाक्सन, ४१ कमेन्ट, ९२ शेयर र २ लाखभन्दा बढी भ्यूज देखिन्छ। अन्य प्रयोगकर्ताहरूले पनि उक्त भिडिओलाई वास्तविक घटना भन्दै सेयर गरिरहेका छन्।
हेर्नुहोस् जनआस्थाले राखेको भिडिओको स्क्रिन रेकर्ड
जनआश्थाको ओरिजिनल लिंक यहाँ छ भने अर्काइभ लिंक यहाँ छ ।
के हो तथ्य ?
भाइरल भिडिओको सुरुवाती फ्रेम (० सेकेन्ड) निकालेर गुगल रिभर्स इमेज सर्च गर्दा अन्तर्राष्ट्रिय सञ्चारमाध्यमहरूले प्रयोग गरेको मिल्दोजुल्दो फोटो भेटियो।
रेडियो फ्री युरोप रेडियो लिबर्टी, बीबीसी कोरियन, इकोनोमिक टाइम्स लगायतले यही फ्रेमको फोटो प्रयोग गरेका छन्।
बीबीसी कोरियनले प्रयोग गरेको फोटोको स्क्रिनसट
यसले के देखाउँछ भने फोटोलाई विभिन्न न्युज वेबसाइटले प्रयोग गरेका छन्। तर भाइरल ६ सेकेन्डको भिडिओ उनीहरुले प्रयोग गरेका छैनन्।
भिडिओमा गुगलको SynthID मार्फत परीक्षण गर्दा प्रत्यक्ष Google AI वाटरमार्क भेटिएन। तर दृश्य संरचना विश्लेषण गर्दा धुवाँ अत्यधिक सीधा र समान रूपले माथि उठेको, विस्फोटको फैलावट प्राकृतिक भन्दा बढी डिजिटल प्रभाव (VFX) जस्तो, भवन संरचनाको प्रकाश र धुवाँको छायाँ नमिलेको देखिएको छ।
Hive Moderation मार्फत फ्रेम परीक्षण गर्दा ८७.६% एआई–निर्मित सम्भावना देखायो। तर अडिओ भने सून्य प्रतिशत सम्भावना देखायो।

यसले संकेत गर्छ भिडिओ दृश्य एआईबाट बनेको तर अडिओ वास्तविक हुन सक्छ।
त्यसपछि हामीले अर्को फ्रेम निकालेर इमेजह्विस्पररमा पनि जाँच गरेर हेर्यौँ । नतिजामा उच्च कन्फिडेन्टसहित एआईमार्फत निर्मित भएको देखियो । इमेजह्विस्पररले विभिन्न ४ वटा टुल प्रयोग गरेर जाँच गर्दा भिडिओ एआई निर्मित भएको देखायो ।
हेर्लेनुहोस् इमेजह्विस्पररले दिएको नतिजाको स्क्रिनसट

अर्को फ्रेमलाई हामीले wasitai को सहायताले जाँच गरेर हेर्यौँ । नतिजामा यो टुलले पनि एआईमार्फत निर्माण गरिएको देखायो ।
हेर्नुहोस् wasitai ले दिएको नतिजाको स्क्रिनसट

भिडिओमा अडिओ एआईबाट निर्मित हो कि होइन भनेर हामीले ट्रुथ स्क्यानबाट जाँच गरेर हेर्यौँ यसले अडिओ ९९ प्रतिशत वास्तविक रहेको र १ प्रतिशत मात्रै एआई प्रयोग भएको हुन सक्ने देखायो । यसको मतलव यो अडिओ वास्तविक नै हो भन्ने देखिन्छ ।
हेर्नुहोस् ट्रथ स्क्यान ले दिएको नतिजाको स्क्रिनसट

तथ्य जाँच
दावी : इरानमाथि अमेरिकी आक्रमण भन्दै दावी गरिएको भिडिओ।
दावीकर्ता : जनआस्थाको फेसबुक पेज
तथ्य/निश्कर्ष : भ्रामक (Misleading) । इजरायलले तेहरानमा आक्रमण गरेको सम्बन्धी समाचारहरुमा यो फोटो प्रकाशन भएको छ। तर जनआस्थाले सार्वजनिक गरेको ६ सेकेन्डको भिडिओ भने वास्तविक घटनाको फुटेज होइन। विभिन्न प्राविधिक परीक्षण (Hive Moderation, ImageWhisperer, Wasitai) अनुसार उक्त भिडिओ एआईमार्फत निर्माण गरिएको पुष्टि हुन्छ। सम्भवतः सार्वजनिक भएको फोटो प्रयोग गरेर कृत्रिम भिडिओ बनाइएको हो।
