होम > Daily-current-affairs

Daily-current-affairs / 04 Apr 2025

"AI-जनित बाल यौन शोषण सामग्री: एक बढ़ता डिजिटल खतरा और कानूनी समाधान"

image

सन्दर्भ-

आर्टिफिशियल इंटेलिजेंस (AI) की तीव्र प्रगति ने विभिन्न क्षेत्रों में क्रांति ला दी है, जिससे स्वास्थ्य, शिक्षा और सुरक्षा में महत्वपूर्ण बदलाव आए हैं। लेकिन इसके साथ ही, इसने डिजिटल खतरों को भी जन्म दिया है, विशेष रूप से ऑनलाइन बाल शोषण के क्षेत्र में। सबसे चिंताजनक बदलावों में से एक एआई-जनित बाल यौन शोषण सामग्री (CSAM) का सामने आना है।

  • ब्रिटिश सरकार के विज्ञान, नवाचार और प्रौद्योगिकी विभाग और एआई सुरक्षा संस्थान द्वारा जारी अंतर्राष्ट्रीय एआई सुरक्षा रिपोर्ट 2025 ने उन जोखिमों को उजागर किया है जो बाल यौन शोषण सामग्री (CSAM) बनाने में सक्षम एआई टूल्स से जुड़े हैं। इस खतरनाक प्रवृत्ति के कारण यूके सरकार ने एक ऐतिहासिक कानून पेश किया है, जो केवल इस प्रकार की सामग्री के निर्माण और वितरण को अपराध मानता है, बल्कि उन एआई टूल्स के स्वामित्व को भी अवैध घोषित करता है जो इसे उत्पन्न कर सकते हैं।   
  • यह नया कानून, कानूनी प्रणाली में एक महत्वपूर्ण बदलाव का प्रतीक है। पारंपरिक रूप से, अपराधी और उनके कृत्यों पर ध्यान केंद्रित किया जाता था, लेकिन अब ध्यान एआई टूल्स पर केंद्रित किया गया है। चूंकि एआई द्वारा उत्पन्न सामग्री को असली सामग्री से अलग करना कठिन होता जा रहा है, इसलिए इस मुद्दे से निपटने के लिए वैश्विक स्तर पर त्वरित कानूनी हस्तक्षेप की आवश्यकता है।  

बाल यौन शोषण सामग्री (CSAM) और आर्टिफिशियल इंटेलिजेंस की भूमिका को समझना

  • बाल यौन शोषण सामग्री (CSAM) किसी भी प्रकार की सामग्री (चित्र, वीडियो या ऑडियो) को संदर्भित करता है जो नाबालिगों को यौन रूप से स्पष्ट तरीके से दर्शाती है। पहले, इस प्रकार की सामग्री प्रत्यक्ष रूप से बच्चों के शोषण के माध्यम से बनाई जाती थी, लेकिन अब AI तकनीक के माध्यम से नकली लेकिन अत्यधिक यथार्थवादी CSAM उत्पन्न की जा सकती है, जिससे पहचान और कानून प्रवर्तन की प्रक्रिया और जटिल हो गई है।
  • विश्व आर्थिक मंच (2023) और इंटरनेट वॉच फाउंडेशन (अक्टूबर 2024) की रिपोर्ट के अनुसार CSAM की उपस्थिति केवल सामान्य इंटरनेट बल्कि डार्क वेब पर भी बढ़ रही है। ये अध्ययन चेतावनी देते हैं कि AI इतनी वास्तविक लगने वाली बाल छवियां बना सकता है कि यह पारंपरिक पहचान प्रणालियों को धोखा दे सकता है, जिससे इसका प्रसार और भी खतरनाक हो जाता है।

AI-जनित CSAM से जुड़ी कानूनी और नैतिक दुविधाएं

AI-जनित CSAM एक गंभीर कानूनी और नैतिक समस्या उत्पन्न करता है। चूंकि इन छवियों में असली बच्चे शामिल नहीं होते, इसलिए पारंपरिक बाल पोर्नोग्राफी कानून उन पर लागू नहीं हो सकते। लेकिन इसका मनोवैज्ञानिक और सामाजिक प्रभाव उतना ही हानिकारक है क्योंकि यह बाल शोषण को सामान्य करता है, इस तरह की सामग्री की मांग को बढ़ाता है और बच्चों की सुरक्षा के लिए गंभीर खतरा पैदा करता है।

यूके की कानूनी प्रतिक्रिया-

इन खतरों को ध्यान में रखते हुए, यूके सरकार ने एक सख्त कानून लागू किया है, जो AI-जनित CSAM टूल्स के स्वामित्व, निर्माण और वितरण को अपराध घोषित करता है। इसके अलावा, ऐसे "पीडोफाइल मैनुअल्स" पर प्रतिबंध लगाया गया है जो अपराधियों को AI के माध्यम से CSAM बनाने के तरीकों के बारे में मार्गदर्शन प्रदान करते हैं।

इस परिवर्तन के पीछे कई महत्वपूर्ण कारण हैं:

·        टूल-केंद्रित दृष्टिकोण अपराध होने से पहले हस्तक्षेप की अनुमति देता है, जिससे संभावित अपराधियों को खतरनाक AI क्षमताओं तक पहुंचने से रोका जा सकता है।

·        यह इस तथ्य को स्वीकार करता है कि CSAM, चाहे वह AI-जनित हो या असली, मनोवैज्ञानिक रूप से हानिकारक है और नाबालिगों के यौन शोषण को बढ़ावा देता है।

·        सबसे महत्वपूर्ण बात, यह कानूनी खामियां को कम करता है और यह सुनिश्चित करता है कि कानून AI जैसी विकसित होती तकनीकों के अनुरूप रहें।

भारत में मौजूदा कानूनी ढांचा और खामियां-

भारत ने बाल यौन शोषण से निपटने के लिए कुछ कानून लागू किए हैं, लेकिन इनमें AI-जनित CSAM को स्पष्ट रूप से संबोधित नहीं किया गया है, जिससे कानूनी शोषण की संभावना बनी रहती है।

·        सूचना प्रौद्योगिकी (IT) अधिनियम, 2000 की धारा 67B नाबालिगों से संबंधित यौन स्पष्ट सामग्री के प्रकाशन और प्रसारण पर रोक लगाती है।

·        POCSO अधिनियम, 2012 की धारा 13, 14 और 15 बाल अश्लीलता (Child Pornography) के निर्माण, भंडारण और उपयोग को अपराध मानती है।

·        भारतीय न्याय संहिता (BNS), 2023 की धारा 294 और 295 अश्लील सामग्री की बिक्री और वितरण पर दंड का प्रावधान करती है।

      हालांकि, इन कानूनों में "असली" बच्चों की संलिप्तता पर जोर दिया गया है, जिससे AI-जनित CSAM को दंडित करना कठिन हो जाता है। इसके अलावा, AI टूल डेवलपर्स और वितरकों पर कोई नियमन नहीं है।

भारत में नीति सुधारों की आवश्यकता-

·        भारत को AI-जनित CSAM से निपटने के लिए अपनी कानूनी व्यवस्था में तत्काल सुधार करने की आवश्यकता है।

·        POCSO अधिनियम में "Child Pornography" की जगह "CSAM" शब्द को शामिल किया जाए ताकि व्यापक कानूनी कवरेज सुनिश्चित हो सके।

·        IT अधिनियम की धारा 67B में AI-जनित अश्लील सामग्री को स्पष्ट रूप से परिभाषित किया जाए ताकि कोई कानूनी अस्पष्टता रहे।

·        डिजिटल इंडिया अधिनियम, 2023 में AI-विशिष्ट प्रावधान जोड़े जाएं, जो CSAM बनाने वाले AI टूल्स के विकास, स्वामित्व और उपयोग को अपराध घोषित करें।

·        VPN, VPS और क्लाउड सेवाओं को IT अधिनियम के तहत "मध्यस्थों" की परिभाषा में शामिल किया जाए, ताकि CSAM के वितरण को नियंत्रित किया जा सके।

·        संयुक्त राष्ट्र के "ICT अपराध निवारण संधि" को अपनाया जाए, जिससे अंतर्राष्ट्रीय सहयोग बढ़े।

भारत की ऑनलाइन बाल सुरक्षा पहलें-

भारत ने ऑनलाइन बाल सुरक्षा के लिए कुछ संस्थागत ढांचे विकसित किए हैं:

राष्ट्रीय साइबर अपराध रिपोर्टिंग पोर्टल (NCRP): CSAM से जुड़े अपराधों की रिपोर्टिंग के लिए।
भारतीय साइबर अपराध समन्वय केंद्र (I4C): साइबर अपराधों पर कानून प्रवर्तन प्रयासों के समन्वय के लिए।
NCMEC (
अमेरिका) के साथ समझौता: अंतर्राष्ट्रीय खुफिया साझेदारी के लिए।

इन उपायों के बावजूद, कार्यान्वयन एक चुनौती बना हुआ है। AI द्वारा उत्पन्न CSAM अक्सर रिपोर्ट नहीं किए जाते हैं, क्योंकि पीड़ितों को पता ही नहीं होता कि उनकी छवियों के साथ AI का उपयोग करके छेड़छाड़ की गई है। इसके अलावा, डीपफेक खतरों के बारे में सार्वजनिक जागरूकता कम बनी हुई है, जिससे सक्रिय हस्तक्षेप सीमित हो रहे हैं।

AI-जनित CSAM को रोकने की रणनीतियाँ

    कानून और प्रवर्तन को मजबूत करना: AI-जनित बाल शोषण सामग्री को अपराधी बनाने के लिए कानूनों को अपडेट करना और अपराधियों के लिए सख्त कानूनी परिणाम सुनिश्चित करना।

    वैश्विक सहयोग: सीमा पार CSAM नेटवर्क को ट्रैक करने और नष्ट करने के लिए INTERPOL और FBI जैसी अंतर्राष्ट्रीय एजेंसियों के साथ सहयोग बढ़ाना।

    जन जागरूकता अभियान: बच्चों, अभिभावकों और शिक्षकों को AI खतरों और ऑनलाइन सुरक्षा उपायों के बारे में शिक्षित करने के लिए डिजिटल साक्षरता कार्यक्रम शुरू करना।

    तकनीकी कंपनियों के लिए जवाबदेही: प्रमुख डिजिटल प्लेटफ़ॉर्म पर मजबूत सामग्री मॉडरेशन नीतियों को अनिवार्य बनाना, यह सुनिश्चित करना कि AI-आधारित पहचान प्रणाली CSAM को प्रभावी ढंग से पहचान और हटा सकती है।

    डेटा संग्रह और अनुसंधान में सुधार: साक्ष्य-आधारित नीति हस्तक्षेप विकसित करने के लिए AI-संचालित CSAM रुझानों का वास्तविक समय विश्लेषण करना।

निष्कर्ष

AI-जनित CSAM वैश्विक बाल सुरक्षा के लिए एक गंभीर चुनौती है। इस संदर्भ में भारत को अपने कानूनों को त्वरित रूप से मजबूत करने की आवश्यकता है। कानूनी परिभाषाओं का विस्तार करना, कानून प्रवर्तन को मजबूत करना, वैश्विक सहयोग को बढ़ावा देना और डिजिटल साक्षरता को बढ़ावा देना इस बढ़ते खतरे से निपटने के लिए आवश्यक होगा।

जैसे-जैसे AI विकसित होता जा रहा है, सरकारों, प्रौद्योगिकी फर्मों और नागरिक समाज को यह सुनिश्चित करने के लिए मिलकर काम करना चाहिए कि डिजिटल दुनिया बच्चों के लिए एक सुरक्षित स्थान बनी रहे। नाबालिगों को AI-सक्षम शोषण से बचाना केवल एक कानूनी आवश्यकता है, बल्कि एक नैतिक अनिवार्यता भी है, जिसके लिए तत्काल, समन्वित और निरंतर कार्रवाई की आवश्यकता है।

 

मुख्य प्रश्न: एआई की तीव्र प्रगति ने डिजिटल क्षेत्र में नए खतरे पैदा कर दिए हैं। AI-जनित CSAM बाल सुरक्षा और कानून प्रवर्तन प्रयासों को कैसे प्रभावित करता है? विश्लेषण करें।