यह ब्लॉग खोजें

शनिवार, 21 अगस्त 2021

सावधान आपके वीडीओ फोटो को किया जा रहा नंगा और बेचा जा रहा पोर्न साइट पर


सावधान आपके वीडीओ फोटो को किया जा रहा नंगा और बेचा जा रहा पोर्न साइट पर


मार्केट में आया एक एप्प जिसके जरिए महिलाओ लड़कियो के निजी फोटो वीडीओ को एडिट कर उन्हे अश्लील तरीके से प्रस्तुत किया जा रहा है यंहा तक की नगा दिखाया जाकर पोर्न साइटों पर भी अपलोड किया जा रहा है

महिलाए हो जाए सावधान वरना जिंदगी हो जाएगी बर्बाद

 लोकप्रिय मैसेजिंग ऐप 'टेलीग्राम' (Telegram) को लेकर एक बेहद परेशान करने वाली खबर सामने आई है. इस मैसेजिंग ऐप (Messeging App) ने पिछले दिनों में बहुत अधिक लोकप्रियता पाई है, क्योंकि इस पर किये जा रहे मैसेज और अन्य मीडिया की न सिर्फ प्राइवेसी (privacy) का पक्का इंतजाम होता है बल्कि इसपर बड़ी फाइलें भी आसानी से शेयर (share) की जा सकती हैं. लेकिन अब यह ऐप एक कंट्रोवर्सी में फंस गई है. समस्या बनकर आया है एक डीपफेक टूल (deepfake tool), जिसके जरिए इस पर कपड़े पहने फोटो के भी कपड़े उतारे जा सकते हैं. इसके जरिए इस ऐप पर नाबालिग लड़कियों (Minor girls) को निशाना बनाया जा रहा है और उन्हें परेशान किया जा रहा है.

कही आपके फोटो भी तो नही आ गए इसमे
 
इसके जरिए अब तक दस हजार महिलाओं और लड़कियों की बिना सहमति वाली एक लाख न्यूड तस्वीरें (Nude Photos) ऑनलाइन साझा की जा चुकी हैं. ये तस्वीरें जुलाई 2019 और 2020 के बीच एआई-बॉट (AI Bot) का उपयोग करके बनाई गई थीं. पीड़ितों में से अधिकांश की ये निजी तस्वीरें (personal photos) थी, जिन्हें सोशल मीडिया (Social Media) से लिया गया था. ये सभी महिलाएं थीं और कुछ देखने से ही 'नाबालिग' लग रही थीं. यह बिना नाम का 'बॉट' कृत्रिम बुद्धिमत्ता (Artificial Learning) और मशीन लर्निंग का उपयोग करता है. जो टेलीग्राम (Telegram) मैसेजिंग ऐप पर शेयर की कई फोटोज पर काम करता है.

सामान्य लोगों की निजी तस्वीरों को बॉट ने बनाया न्यूड

इसके बारे में रिपोर्ट करने वालों का कहना है कि किसी की भी तस्वीर लेकर इस पर उसे नग्न किये जाने का खतरा बना रहता है. उन्होंने बताया है कि इस बॉट द्वारा जिन महिलाओं और लड़कियों के 'फेक' न्यूड बनाये गये, वे सामान्य लोगों की निजी तस्वीरें थीं.

सोशल मीडिया पर शेयर की गई कम उम्र की लड़कियों की तस्वीरों को मैसेजिंग ऐप टेलीग्राम पर एक डीपफेक बॉट द्वारा नग्न करने के लिए नकली किया जा रहा है. एक नई रिपोर्ट में यह बात सामने आई है. रिपोर्ट लेखकों के अनुसार, ये परेशान करने वाली फोटोज आर्टिफिशियल इंटेलिजेंस के एक साधारण प्रयोग पर आधारित हैं और इसी के जरिए बनाई गई हैं. ये बिल्कुल वास्तविक लग सकती हैं.

कोई टिप्पणी नहीं:

एक टिप्पणी भेजें

टिप्पणी करें

टिप्पणी: केवल इस ब्लॉग का सदस्य टिप्पणी भेज सकता है.

function disabled

Old Post from Sanwariya