×

डीपफेक वीडियो एआई कैसे पृथ्वी के सबसे बड़े चुनाव को प्रभावित कर रहा है, साइबर पुलिस भी पहचानने में असमर्थ

prativad news photo, top news photo, प्रतिवाद
Location: भोपाल                                                 👤Posted By: prativad                                                                         Views: 2012

भोपाल: 30 अप्रैल 2024। राजनीतिक समर्थन के हेरफेर किए गए वीडियो इतने परिष्कृत हैं कि उन्हें पहचानना या ट्रैक करना मुश्किल है। विशेषज्ञों का कहना है कि इरादा विपरीत मनोविज्ञान का हो सकता है - वीडियो का जब मतदाताओं को पता चले कि यह फर्जी है देर हो चुकी होती हैं।

अमेरिका, पाकिस्तान और इंडोनेशिया की तरह चल रहे भारतीय संसदीय चुनावों में कृत्रिम बुद्धिमत्ता का रचनात्मक उपयोग देखा जा रहा है। कुछ एआई-जनरेटेड सामग्री, जैसे मतदाताओं को स्पष्ट रूप से उम्मीदवारों की ओर से लेकिन वास्तव में एआई-जनित आवाजों द्वारा फोन कॉल लोगों से समर्थन मांग रहे हैं। फिल्मी सितारों के डीपफेक वीडियो, जो स्पष्ट रूप से एक पार्टी को दूसरी पार्टी के बजाय समर्थन करते नजर आ रहे हैं और मतदाताओं को प्रथावित कर रहे हैं।

भारत की प्रमुख पुलिस साइबर वास्तविक वीडियो से डीपफेक को पहचानने में असमर्थ है और उनकी उत्पत्ति का पता लगाने में असमर्थ है, उन्हें ब्लॉक करने का एकमात्र सहारा बचाता है पर तब तक बहुत देर हो चुकी होती है।

'डीपफेक' शब्द की उत्पत्ति 'डीप लर्निंग' और 'फेक' से हुई है, और यह एक व्यक्ति की छवि को दूसरे की छवि से बदलने के लिए मीडिया के डिजिटल हेरफेर को दर्शाता है।

लगभग दो हफ्ते पहले, बॉलीवुड सितारों आमिर खान और रणवीर सिंह के वीडियो सामने आए थे, जिसमें वे प्रधानमंत्री नरेंद्र मोदी की आलोचना कर रहे थे और लोगों से विपक्षी कांग्रेस पार्टी के लिए वोट करने के लिए कह रहे थे। अभिनेताओं ने बिना समय बर्बाद किए मुंबई पुलिस साइबर-क्राइम विंग में शिकायत की - लेकिन तब तक, वीडियो को पांच लाख से अधिक बार देखा जा चुका था।

यह देखते हुए कि Google के स्वामित्व वाले YouTube के भारत में 462 मिलियन उपयोगकर्ता हैं, और मतदाता 968 मिलियन हैं, आधा मिलियन अधिक नहीं लग सकते हैं। एस्या सेंटर और आईआईएम (ए) के एक सर्वेक्षण के अनुसार, 900 मिलियन इंटरनेट उपयोगकर्ता हैं; प्रत्येक व्यक्ति प्रतिदिन औसतन 194 मिनट सोशल मीडिया पर सर्फिंग में बिताता है।

विपरीत मनोविज्ञान की शक्ति
चुनाव विशेषज्ञ दयानंद नेने बताते हैं कि डीपफेक वीडियो जनता की राय को प्रभावित कर सकते हैं और लोगों और राजनेताओं को बदनाम कर सकते हैं। उन्होंने बताया, "डीपफेक कई मनोवैज्ञानिक आम जनता की कमजोरियों का फायदा उठाते हैं।"

मनुष्य में जो कुछ भी देखा और सुना जाता है उस पर भरोसा करने की स्वाभाविक प्रवृत्ति होती है, और डीपफेक यथार्थवादी सामग्री बनाकर इसका लाभ उठाते हैं। नेने ने कहा, "इसके अलावा, पुष्टिकरण पूर्वाग्रह जैसे संज्ञानात्मक पूर्वाग्रह - जहां हम उन सूचनाओं पर विश्वास करने की अधिक संभावना रखते हैं जो हमारी पहले से मौजूद मान्यताओं की पुष्टि करती हैं - हमें उन डीपफेक के प्रति संवेदनशील बनाती हैं जो हमारे दृष्टिकोण से मेल खाते हैं।"

उदाहरण के लिए, दिल्ली पुलिस को रविवार को एक छेड़छाड़ किए गए वीडियो के सामने आने के बाद मामला दर्ज करना पड़ा, जिसमें गृह मंत्री अमित शाह को भारत के वंचितों - दलितों और 'पिछड़ी' जातियों के लिए शिक्षा और नौकरी कोटा खत्म करने की वकालत करते देखा गया था। यह एक डीपफेक था, जो उनके दक्षिण भारतीय राज्य तेलंगाना में दिए गए एक भाषण से जोड़-तोड़ कर तैयार किया गया था और यह वायरल हो गया।

मानव व्यवहार पर प्रौद्योगिकी के प्रभाव का अध्ययन करने वाले भाटिया ने कहा, "मेरी राय में, इन वीडियो का यही एजेंडा था।" "बुद्धिमान मतदाता सच्चे एजेंडे को समझ सकते हैं लेकिन बहुमत तर्कसंगत निर्णय के बजाय भावनाओं पर काम करता है।"

इन मामलों की जांच चुनौतीपूर्ण साबित हुई है। नाम न छापने की शर्त पर पुलिस का कहना है कि नकली और वास्तविकता में अंतर करना मुश्किल है। डीपफेक कम लागत वाले, बनाने में आसान और ट्रैक करने में कठिन होते हैं, जिससे बुरे कलाकारों को 'खुली छूट' मिल जाती है।

17 अप्रैल को जैसे ही सिंह का वीडियो सामने आया, कांग्रेस प्रवक्ता सुजाता पॉल ने इसे एक्स पर अपने 16,000 फॉलोअर्स के साथ साझा किया। इसके बाद, उनकी पोस्ट को 2,900 बार शेयर किया गया और 8,700 बार लाइक किया गया। वीडियो को 438,000 व्यूज मिले।

यह पहली बार नहीं है जब बॉलीवुड डीपफेक की चपेट में आया है। इससे पहले, अभिनेता रश्मिका मंदाना और काजोल ऑनलाइन प्रसारित होने वाले डीपफेक में शामिल हुए थे। मंदाना के वीडियो में, उनका चेहरा ब्रिटिश-भारतीय सोशल मीडिया व्यक्तित्व ज़ारा पटेल के चेहरे पर लगाया गया था, जो एक आकर्षक पोशाक में एक लिफ्ट में प्रवेश कर रही थी।

ये एआई-जनित दृश्य इंटरनेट पर किसी भी ट्रैकिंग सिस्टम को कमजोर करने की क्षमता रखते हैं। लाइटहौज़ एआई के सह-संस्थापक और सीईओ कुमार ने कहा, "यही कारण है कि यह निर्धारित करना लगभग असंभव है कि कोई छवि असली है या नकली।"

जेनेरिक एआई मॉडल का उपयोग करके, अच्छी और बुरी दोनों तरह की उच्च गुणवत्ता वाली सामग्री तैयार करने की लागत में भारी कमी आई है। ई-कॉमर्स प्लेटफॉर्म पर नकली समीक्षकों से निपटने के लिए डेटा विज्ञान के तरीके बनाने वाले साइबरस्पेस विशेषज्ञ ने कहा, "एआई उपकरण अकल्पनीय पैमाने पर हेरफेर को सक्षम बनाते हैं।" "यह यथार्थवादी दिखने वाली लेकिन पूरी तरह से मनगढ़ंत और गलत सूचना देने वाली सामग्री बनाने में महत्वपूर्ण भूमिका निभाता है।"

अब तक, जांचकर्ता यह स्पष्ट नहीं कर पाए हैं कि बॉलीवुड अभिनेताओं के डीपफेक वीडियो विदेश में बनाए गए थे या भारत में बनाए गए थे। जबकि पुलिस ने वीडियो को ब्लॉक कर दिया है, भारत के इलेक्ट्रॉनिक्स और आईटी मंत्रालय ने एक्स (पूर्व में ट्विटर) और मेटा जैसे सोशल मीडिया प्लेटफार्मों से एआई-जनित डीपफेक के प्रसार को विनियमित करने का आग्रह किया है।

प्रौद्योगिकी के साथ दौड़
क्या डीपफेक वीडियो का पता लगाने और उसे कम करने के कोई समाधान हैं?

प्रौद्योगिकी की प्रगति, पहुंच में आसानी और कम लागत की वजह से डीपफेक की पहचान करना कठिन होता जा रहा है। दुर्भाग्य से, कोई तत्काल समाधान नजर नहीं आ रहा है।


- दीपक शर्मा

Related News

Latest News

Global News