Tweets from PFL News
क्योंकि सच को जरूरत थी
मंगलवार, 16 अप्रैल 2024

AI से हम इतना लाचार क्यों है? रश्मिका मंदाना का डीपफेक वीडियो

159 days ago   -    92 views

PFL News - AI से हम इतना लाचार क्यों है? रश्मिका मंदाना का डीपफेक वीडियो

AI Deepfake : कैटरीना कैफ और रश्मिका मंदाना की हालिया डीपफेक फिल्में हमारी पूरी असहायता को प्रदर्शित करती हैं। एआई की हमारे लिए कोई प्रासंगिकता नहीं है। उसके शिकार हम हैं. कृत्रिम बुद्धिमत्ता के युग में विश्वसनीय डीपफेक तैयार करना अब कोई बड़ी चुनौती नहीं है। चेहरे की तस्वीरों का आदान-प्रदान करके, उपयोगकर्ता एल्गोरिदम चलाने में एक-दूसरे की सहायता करते हैं, जिससे उन्हें अपना उद्देश्य पूरा करने में मदद मिलती है। इसका आम लोगों के जीवन पर गहरा असर पड़ रहा है. व्यक्तिगत अखंडता और स्वतंत्रता के संबंध में गंभीर चिंताओं के अलावा, धोखे और संगठित अपराध का भी लोकतंत्र पर प्रभाव पड़ सकता है। इसके अलावा, इसमें राष्ट्रीय सुरक्षा को खतरे में डालने और व्यापक वित्तीय धोखाधड़ी शुरू करने की क्षमता है। यह हाल ही में यूनाइटेड किंगडम में एक ऊर्जा कंपनी के सीईओ के साथ हुआ। जर्मनी में उनके सीईओ का फोन आने के बाद उन्होंने पैसे भेज दिये. हालाँकि, वह आवाज़ वास्तव में एक डीपफेक नमूना थी। महिलाओं को आभासी दुनिया में भी उतना ही उत्पीड़न का सामना करना पड़ा है जितना कि वास्तविक दुनिया में। महिलाओं की तरह, खुद के प्रति उच्च सम्मान रखने वालों को भी निशाना बनाया जाता है।

 

इलेक्ट्रॉनिक्स और सूचना प्रौद्योगिकी मंत्री ने इंटरनेट और सोशल मीडिया व्यवसायों पर लागू होने वाले नियमों पर चर्चा की है। इसके अलावा, उन्होंने आईटी मध्यस्थ नियम 3(2)(बी) का हवाला दिया, जिसके तहत मध्यस्थ को शिकायत प्राप्त होने के एक दिन के भीतर फोटो, वीडियो और अन्य सामग्री से छेड़छाड़ को रोकने या हटाने की आवश्यकता होती है। हालाँकि, डीपफेक को नियंत्रित करना एक वैश्विक मुद्दा है। अमेरिका में विदेशी डीपफेक को रोकने के लिए एक संघीय कानून पारित किया गया है, लेकिन अमेरिकी निवासियों की सुरक्षा के लिए एक विधेयक पर अभी भी काम चल रहा है। जबकि कुछ अमेरिकी न्यायक्षेत्रों ने बिना अनुमति के डीपफेक बनाने के कार्य को अवैध बना दिया है, अन्य ने इसे नागरिक आरोपों के तहत बरकरार रखा है। यूरोपीय संघ के भीतर भी डीपफेक से संबंधित एक विनियमन पर गंभीरता से विचार किया जा रहा है।

 

बड़ी तकनीकी कंपनियाँ इस मुद्दे का समाधान कर रही हैं, लेकिन बहुत धीरे-धीरे। मुद्दा यह है कि वास्तविक और नकली के बीच अंतर करने के लिए दृश्य विशेषज्ञों द्वारा उपयोग किए जाने वाले मानदंड बेकार हैं, जिससे डीपफेक की पहचान करना बेहद कठिन हो जाता है। डीपफेक निर्माता नकली सूचनाओं की पहचान करने वाली तकनीक से आगे निकल रहे हैं। घटिया प्रौद्योगिकी को चुनौती देने के लिए बेहतर प्रौद्योगिकी की प्रतीक्षा करते हुए हम क्या कर सकते हैं? यदि यह दोषपूर्ण तकनीक आपको भी प्रभावित करती है, तो अत्यधिक सावधानी बरतें और अधिकारियों को इसकी सूचना दें।

 

Tags rashmina mandhana aI Fake

संबंधित पोस्ट