Summary: अब बिना पहचान नहीं चलेगा AI कंटेंट, सरकार ने बनाए कड़े नियम
केंद्र सरकार ने AI-generated और deepfake कंटेंट पर सख्त नियम लागू करते हुए सोशल मीडिया प्लेटफॉर्म्स को 3 घंटे के भीतर भ्रामक सामग्री हटाने का निर्देश दिया है।
AI Deepfake New Rules: डिजिटल दौर में आर्टिफिशियल इंटेलिजेंस (AI) का इस्तेमाल तेजी से बढ़ रहा है। सोशल मीडिया पर रोज़ाना ऐसे वीडियो और तस्वीरें सामने आ रही हैं जो असली लगती हैं लेकिन वास्तव में नहीं होती हैं। कई बार लोग इन्हें सच मानकर शेयर कर देते हैं और कुछ ही मिनटों में ये वायरल हो जाती हैं। इसी खतरे को देखते हुए केंद्र सरकार ने AI-जेनरेटेड और डीपफ़ेक कंटेंट पर सख्ती बढ़ाने का फैसला लिया है। सरकार ने 10 फरवरी को नए दिशानिर्देश जारी किए हैं, जो 20 फरवरी से लागू होंगे। इसके तहत सूचना प्रौद्योगिकी (मध्यस्थ दिशा-निर्देश और डिजिटल मीडिया आचार संहिता) नियम, 2021 में संशोधन कर AI से बने कंटेंट को औपचारिक रूप से डिजिटल कानूनों के दायरे में शामिल किया गया है। अब इंटरनेट पर फैलने वाले सिंथेटिक कंटेंट को लेकर प्लेटफॉर्म्स और यूजर्स दोनों जिम्मेदार होंगे।
3 घंटे में हटाना होगा भ्रामक कंटेंट

नए नियमों के अनुसार सोशल मीडिया कंपनियों को आपत्तिजनक या भ्रामक AI कंटेंट पर शीघ्र कार्रवाई करनी होगी। पहले ऐसे कंटेंट को हटाने के लिए 36 घंटे तक का समय मिलता था, लेकिन अब यह सीमा घटाकर केवल 3 घंटे कर दी गई है। साथ ही अन्य समय सीमाएं भी कम कर दी गई हैं, जैसे 15 दिन की प्रक्रिया को 7 दिन और 24 घंटे की डेडलाइन को 12 घंटे कर दिया गया है। सरकार का उद्देश्य है कि फर्जी वीडियो फैलने से पहले ही रोक दिए जाएं ताकि लोगों को भ्रमित न किया जा सके।
AI कंटेंट पर लेबल लगाना जरूरी
अब कोई भी AI से बनाया या बदला गया फोटो-वीडियो बिना पहचान के साझा नहीं किया जा सकेगा। प्लेटफॉर्म्स को साफ-साफ बताना होगा कि कंटेंट मशीन द्वारा तैयार किया गया है। यूजर्स को भी अपलोड करते समय बताना पड़ेगा कि कंटेंट पूरी तरह AI से बना है या AI की मदद से एडिट किया गया है। इसके अलावा कंपनियों को कंटेंट में तकनीकी पहचान चिन्ह (metadata या provenance marker) जोड़ने होंगे ताकि यह पता लगाया जा सके कि सामग्री कहां और किस सिस्टम से बनी।
कुछ मामलों में सीधे अपराध माना जाएगा
सरकार ने स्पष्ट किया है कि कुछ तरह का सिंथेटिक कंटेंट सीधे आपराधिक श्रेणी में आएगा। इनमें शामिल हैं:
- बच्चों से जुड़ा यौन शोषण सामग्री (CSAM)
- अश्लील सामग्री
- किसी व्यक्ति की पहचान या आवाज की नकली प्रस्तुति
- फर्जी इलेक्ट्रॉनिक रिकॉर्ड
- विस्फोटक पदार्थों से संबंधित खतरनाक सामग्री
- ऐसे मामलों में भारतीय न्याय संहिता, POCSO एक्ट और अन्य संबंधित कानूनों के तहत सख्त कार्रवाई होगी।
प्लेटफॉर्म्स भी जिम्मेदार
अगर सोशल मीडिया कंपनियां नियमों का पालन करती हैं तो उन्हें आईटी एक्ट की धारा 79 के तहत ‘सेफ हार्बर’ सुरक्षा मिलती रहेगी, यानी यूजर पोस्ट के लिए सीधे जिम्मेदार नहीं ठहराया जाएगा। लेकिन नियमों का पालन न करने पर उनकी यह कानूनी सुरक्षा समाप्त हो सकती है और उन पर भी कार्रवाई संभव है।
क्यों जरूरी हैं ये नियम?
AI तकनीक ने रचनात्मकता बढ़ाई है, लेकिन इसके दुरुपयोग से समाज में भ्रम, बदनामी और हिंसा तक की स्थिति बन सकती है। सरकार का मानना है कि पारदर्शिता और जवाबदेही तय करके इंटरनेट को अधिक सुरक्षित और भरोसेमंद बनाया जा सकता है। नए नियमों के लागू होने के बाद अब कोई भी फर्जी वीडियो बनाकर वायरल करना आसान नहीं रहेगा।
