सर्वेक्षण के निष्कर्ष नाबालिगों के हाथों में जनरेटिव एआई प्रौद्योगिकियों द्वारा उत्पन्न बढ़ते खतरों की एक कठोर याद दिलाते हैं। कई मामलों में, विशेष रूप से अमेरिका में, कई छात्रों ने अपने शिक्षकों और सहपाठियों की अनुचित छवियाँ बनाने के लिए एआई का उपयोग किया
और पढ़ें
एक नए सर्वेक्षण से नाबालिगों के बीच एक परेशान करने वाली प्रवृत्ति सामने आई है, जिसमें पता चला है कि हर 10 में से एक बच्चा अपने सहपाठियों की बिना सहमति के नग्न तस्वीरें बनाने के लिए एआई तकनीक का उपयोग कर रहा है।
बच्चों को यौन शोषण से बचाने पर केंद्रित गैर-लाभकारी संगठन थॉर्न द्वारा जारी किए गए निष्कर्ष, युवाओं के बीच, विशेष रूप से स्कूलों में, एआई उपकरणों के बढ़ते दुरुपयोग को रेखांकित करते हैं।
बढ़ती चिंता
3 नवंबर से 1 दिसंबर, 2023 के बीच ऑनलाइन आयोजित इस सर्वेक्षण में 9 से 17 वर्ष की आयु के 1,040 नाबालिग शामिल थे। विभिन्न पृष्ठभूमियों से आए इन प्रतिभागियों से बाल यौन शोषण सामग्री (CSAM) और अन्य हानिकारक ऑनलाइन गतिविधियों के साथ उनके अनुभवों के बारे में पूछा गया। परिणाम इस बात की चिंताजनक तस्वीर पेश करते हैं कि कैसे AI तकनीकें, विशेष रूप से “न्यूडिफाई” ऐप, बच्चों द्वारा अपने साथियों की नकली नग्न तस्वीरें बनाने के लिए दुरुपयोग की जा रही हैं।
इन निष्कर्षों ने माता-पिता, शिक्षकों और बाल संरक्षण अधिवक्ताओं के बीच महत्वपूर्ण चिंता पैदा कर दी है, क्योंकि वे इस बात पर प्रकाश डालते हैं कि नाबालिग कितनी आसानी से इन एआई उपकरणों तक पहुंच सकते हैं और दुर्भावनापूर्ण उद्देश्यों के लिए उनका उपयोग कर सकते हैं।
सर्वेक्षण में यह भी पता चला कि सात में से एक नाबालिग ने खुद से तैयार की गई CSAM को साझा करने की बात स्वीकार की, जो युवाओं के बीच जोखिम भरे ऑनलाइन व्यवहार की व्यापक प्रवृत्ति को दर्शाता है। हालाँकि इनमें से कुछ हरकतों को किशोरों के दुर्व्यवहार के रूप में देखा जा सकता है, लेकिन पीड़ितों के लिए गंभीर परिणामों को नज़रअंदाज़ नहीं किया जा सकता है।
अध्ययन में कठिनाई
सर्वेक्षण के पीछे का संगठन थॉर्न को भी विवादों का सामना करना पड़ा है। गैर-लाभकारी संगठन की कानून प्रवर्तन के लिए उपकरण विकसित करने में इसके पिछले काम के लिए जांच की गई है, जिसकी कुछ गोपनीयता विशेषज्ञों ने आलोचना की है। इसके अतिरिक्त, संगठन के संस्थापक एश्टन कुचर ने पिछले साल एक दोषी बलात्कारी का समर्थन करने के लिए आलोचना के बाद पद छोड़ दिया था।
इन विवादों के बावजूद, थॉर्न ने Google, मेटा और Microsoft जैसी प्रमुख तकनीकी कंपनियों के साथ काम करना जारी रखा है, जिसका उद्देश्य AI-जनरेटेड बाल यौन शोषण सामग्री (AIG-CSAM) से निपटना है। हालाँकि, इन प्लेटफ़ॉर्म पर हानिकारक AI-जनरेटेड सामग्री की निरंतरता ने इन साझेदारियों की प्रभावशीलता पर सवाल खड़े कर दिए हैं।
एआई-चालित नुकसान के विरुद्ध
सर्वेक्षण के निष्कर्ष नाबालिगों के हाथों में जनरेटिव एआई तकनीकों द्वारा उत्पन्न बढ़ते खतरों की एक कठोर याद दिलाते हैं। वाशिंगटन राज्य और फ्लोरिडा में जांच जैसी हालिया घटनाएं, जहां छात्रों ने अपने शिक्षकों और सहपाठियों की अनुचित छवियां बनाने के लिए एआई का उपयोग किया, इस डिजिटल दुरुपयोग के वास्तविक दुनिया के परिणामों को उजागर करती हैं।
जैसा कि रिपोर्ट में निष्कर्ष निकाला गया है, इन जोखिमों को दूर करने के लिए सक्रिय उपायों की आवश्यकता स्पष्ट है। जबकि प्रौद्योगिकी इन हानिकारक व्यवहारों को बढ़ावा देने में महत्वपूर्ण भूमिका निभाती है, अंतर्निहित समस्या स्वयं व्यवहार में निहित है। सर्वेक्षण में “डीपफेक न्यूड्स” के खतरों के बारे में खुली चर्चा और स्कूलों और समुदायों में स्वीकार्य व्यवहार के बारे में स्पष्ट सीमाएँ स्थापित करने का आह्वान किया गया है, चाहे कोई भी उपकरण इस्तेमाल किया जा रहा हो।
सर्वेक्षण में एआई के दुरुपयोग के संभावित नुकसानों के बारे में नाबालिगों और वयस्कों दोनों को शिक्षित करने के महत्व को रेखांकित किया गया है, जिसमें इस बात पर जोर दिया गया है कि पीड़ितों के लिए परिणाम गंभीर और दूरगामी हैं। निष्कर्ष समाज को इन खतरनाक प्रवृत्तियों को और अधिक बढ़ने से पहले रोकने के लिए निर्णायक कार्रवाई करने की चुनौती देते हैं।