द डीपफेक लैब: एडवांस्ड एआई के साथ डीपफेक के खिलाफ जांच और बचाव

वैचारिक झूठ कोई नई बात नहीं है। यहां तक ​​कि भ्रामक सुर्खियों और पाठ एक पाठक को बेवकूफ बना सकते हैं। हालांकि, वास्तविकता को बदलने की क्षमता ने “डीपफेक” तकनीक के साथ एक छलांग आगे ले ली है, जो वास्तविक लोगों की छवियों और वीडियो के निर्माण की अनुमति देता है, जो उन चीजों को कहते हैं और करते हैं जो उन्होंने कभी नहीं कहा या किया। डीप लर्निंग तकनीक प्रौद्योगिकी की चालाकी को बढ़ा रही है, और भी अधिक यथार्थवादी सामग्री का उत्पादन कर रही है जिसे पता लगाना मुश्किल है।

डीपफेक ने तब ध्यान आकर्षित करना शुरू किया जब एक “वंडर वुमन” अभिनेत्री की एक नकली अश्लील वीडियो रेड्डी पर 2017 के अंत में छद्म नाम के उपयोगकर्ता द्वारा जारी की गई थी। तब से कई प्रतिष्ठित वीडियो जारी किए गए हैं, जिनमें से कुछ हाई-प्रोफाइल हस्तियों की विशेषता है, जिनमें से कुछ विशुद्ध रूप से मनोरंजन मूल्य और अन्य लोगों के लिए हैं, जिन्होंने सार्वजनिक आंकड़ों को एक नीरस प्रकाश में चित्रित किया है। यह एक वास्तविक खतरा प्रस्तुत करता है। इंटरनेट पहले से ही सच्चाई को विकृत कर देता है क्योंकि सोशल मीडिया पर जानकारी प्रस्तुत की जाती है और हमारे स्वयं के संज्ञानात्मक पूर्वाग्रहों के फिल्टर के माध्यम से प्रस्तुत की जाती है।

डीपफेक इस समस्या को काफी तेज करेगा। मशहूर हस्तियों, राजनेताओं और यहां तक ​​कि वाणिज्यिक ब्रांडों को धमकी रणनीति, धमकी, और व्यक्तिगत छवि तोड़फोड़ के अद्वितीय रूपों का सामना करना पड़ सकता है। हमारे लोकतंत्र, न्याय, राजनीति और राष्ट्रीय सुरक्षा के लिए जोखिम भी गंभीर हैं। एक डार्क वेब इकोनॉमी की कल्पना करें जहां डीपफेकर्स भ्रामक सामग्री का उत्पादन करते हैं जो दुनिया के लिए जारी की जा सकती है कि हम कौन सी कार खरीदते हैं, कौन सा सुपरमार्केट हम बार-बार खरीदते हैं और यहां तक ​​कि किस राजनीतिक उम्मीदवार को हमारा वोट मिलता है। गहरी चट्टानें हमारे जीवन के सभी क्षेत्रों को छू सकती हैं; इसलिए, बुनियादी सुरक्षा आवश्यक है।

डीपफेक कैसे बनाए जाते हैं?

डीपफेक आर्टिफिशियल इंटेलिजेंस (एआई) की अत्याधुनिक उन्नति है जो अक्सर खराब अभिनेताओं द्वारा लीवरेज की जाती है जो तेजी से यथार्थवादी और आश्वस्त करने के लिए तकनीक का उपयोग करते हैं, नकली चित्र, वीडियो, आवाज और पाठ। इन वीडियो को मौजूदा मीडिया फ़ाइलों के सुपरइम्पोज़िशन द्वारा बनाया गया है, और एक उन्नत गहरी सीखने की तकनीक का लाभ उठाकर स्रोत मीडिया फ़ाइलों पर वीडियो बनाया जाता है, जिसे “जनरेटिव एडवरसियर नेटवर्क” (GANs) कहा जाता है। एअर इंडिया में GANs अपेक्षाकृत हाल की अवधारणाएं हैं जो कृत्रिम छवियों को संश्लेषित करने का लक्ष्य रखते हैं जो प्रामाणिक लोगों से अप्रभेद्य हैं। GAN दृष्टिकोण दो तंत्रिका नेटवर्क को एक साथ काम करने के लिए लाता है: “जनरेटर” नामक एक नेटवर्क एक नमूना बनाने के लिए एक डेटासेट पर खींचता है जो इसे नकल करता है। अन्य नेटवर्क, जिसे “विभेदक” के रूप में जाना जाता है, जनरेटर के सफल होने के लिए डिग्री का आकलन करता है। Iteratively, विवेचक के आकलन जनरेटर के आकलन को सूचित करते हैं। जीएएन दृष्टिकोणों के बढ़ते परिष्कार ने कभी अधिक ठोस और लगभग असंभव डीपफेक को उजागर करने का उत्पादन किया है, और इसका परिणाम मानव समीक्षकों द्वारा प्राप्त की जा सकने वाली गति, पैमाने और बारीकियों से अधिक है।

McAfee डीपफेक लैब बोगस वीडियो का पता लगाने के लिए डेटा साइंस विशेषज्ञता लागू करता है

इस खतरे को कम करने के लिए, McAfee ने आज कंपनी के विश्वस्तरीय डेटा विज्ञान विशेषज्ञता और उपकरणों पर ध्यान केंद्रित करने के लिए McAfee Deepfakes Lab के शुभारंभ की घोषणा की, जिसमें हमारे समाज में व्यक्तियों, संगठनों, लोकतंत्र और सूचनाओं की समग्र अखंडता पर गहरा प्रभाव डालने का प्रयास किया गया। डीपफेक लैब कंप्यूटर विज़न और डीप लर्निंग तकनीकों को छिपाए गए पैटर्न का फायदा उठाने और हेरफेर करने वाले वीडियो तत्वों का पता लगाने के लिए जोड़ती है जो मूल मीडिया फ़ाइलों को प्रमाणित करने में महत्वपूर्ण भूमिका निभाते हैं।

गहरी सीखने की रूपरेखा के पूर्वानुमान परिणामों और प्रत्येक भविष्यवाणी के लिए समाधानों की उत्पत्ति को समझने के लिए, हमने अपने नेटवर्क की परतों और फिल्टर की कल्पना करते हुए एक महत्वपूर्ण समय बिताया, फिर पता लगाने के शीर्ष पर एक मॉडल-अज्ञेय व्याख्यात्मक रूपरेखा जोड़ी। । प्रत्येक भविष्यवाणी के लिए स्पष्टीकरण होने से हमें इस बारे में एक सूचित निर्णय लेने में मदद मिलती है कि हम छवि और मॉडल पर कितना भरोसा करते हैं और साथ ही अंतर्दृष्टि प्रदान करते हैं जिसका उपयोग बाद में सुधार करने के लिए किया जा सकता है।

हमने एक बड़े डेटासेट पर जांच की रूपरेखा का विस्तृत सत्यापन और सत्यापन भी किया और जंगल में पाए जाने वाले डीपफेक सामग्री पर परीक्षण की क्षमता का पता लगाया। हमारा पता लगाने की रूपरेखा फेसबुक के मार्क जुकरबर्ग के हालिया डीपफेक वीडियो का पता लगाने में सक्षम थी जो बड़े डेटा की शक्ति के बारे में एक संक्षिप्त भाषण दे रहा था। उपकरण ने न केवल एक सटीक पहचान स्कोर प्रदान किया, बल्कि मॉडल-अज्ञेय स्पष्टीकरण स्पष्टीकरण के माध्यम से हीटमैप उत्पन्न किया, जो निर्णय में योगदान देने वाले उसके चेहरे के हिस्सों को उजागर करता है, जिससे हमारी भविष्यवाणियों में विश्वास बढ़ जाता है।

इस तरह की आसानी से उपलब्ध डीपफेक उन चुनौतियों को दोहराते हैं जो सामाजिक नेटवर्क का सामना करती हैं जब यह हेरफेर की गई सामग्री को पुलिस करने की बात आती है। जीएएन तकनीकों में प्रगति बहुत यथार्थवादी दिखने वाली नकली छवियां पैदा करती है, उन्नत कंप्यूटर विज़न तकनीकों को गहरे झीलों के उन्नत रूपों की पहचान और पता लगाने के लिए विकसित करने की आवश्यकता होगी। इसके अतिरिक्त, वॉटरमार्क या प्रमाणीकरण ट्रेल्स का उपयोग करके डीपफेक से बचाव के लिए कदम उठाए जाने की आवश्यकता है।

अलार्म बज रहा है

हम महसूस करते हैं कि समाचार मीडिया में लोगों के विश्वासों और विचारों को आकार देने में काफी शक्ति है। परिणामस्वरूप, उनकी सत्यता के प्रभाव को अधिकतम करने के लिए अक्सर समझौता किया जाता है। तानाशाह “एक तस्वीर एक हजार शब्दों के लायक है” गहरी घटना का महत्व accentuates। विश्वसनीय अभी तक कपटपूर्ण ऑडियो, वीडियो और पाठ का एक बड़ा प्रभाव पड़ेगा जो सेलिब्रिटी और ब्रांड प्रतिष्ठा को बर्बाद करने के साथ-साथ भयानक प्रभाव के साथ राजनीतिक राय को प्रभावित करने के लिए इस्तेमाल किया जा सकता है। कंप्यूटर दृष्टि और गहरी सीखने का पता लगाने के ढांचे नकली दृश्य मीडिया और पाठ सामग्री को प्रमाणित और पता लगा सकते हैं, लेकिन प्रतिष्ठा और क्षति को प्रभावित करने वाली राय बनी हुई है।

डीपफेक लैब शुरू करने में, मैकएफी पारंपरिक समाचारों और सोशल मीडिया संगठनों के साथ मिलकर इस महत्वपूर्ण 2020 राष्ट्रीय चुनाव के मौसम के दौरान दुर्भावनापूर्ण डीपफेक वीडियो की पहचान करेगा और डीपफेक से जुड़े कीटाणुशोधन की इस नई लहर का मुकाबला करने में मदद करेगा।

डीपफेक पर हमारे अगले ब्लॉग में, हम अपने विस्तृत जांच ढांचे का प्रदर्शन करेंगे। इस ढांचे के साथ, हम विघटन से लड़ने में मदद करेंगे और डीपफेक की बढ़ती चुनौती को कम करेंगे।

McAfee Deepfakes Lab की सेवाओं को संलग्न करने के लिए, समाचार और सामाजिक मीडिया संगठन सामग्री के लिंक भेजकर विश्लेषण के लिए संदिग्ध वीडियो प्रस्तुत कर सकते हैं [email protected]