Person typing on a laptop with holographic AI and law icons displayed on screen.
India’s IT Ministry has revised regulations governing the use of generative AI on social media platforms.

Summary: अब बिना पहचान नहीं चलेगा AI कंटेंट, सरकार ने बनाए कड़े नियम

केंद्र सरकार ने AI-generated और deepfake कंटेंट पर सख्त नियम लागू करते हुए सोशल मीडिया प्लेटफॉर्म्स को 3 घंटे के भीतर भ्रामक सामग्री हटाने का निर्देश दिया है।

AI Deepfake New Rules: डिजिटल दौर में आर्टिफिशियल इंटेलिजेंस (AI) का इस्तेमाल तेजी से बढ़ रहा है। सोशल मीडिया पर रोज़ाना ऐसे वीडियो और तस्वीरें सामने आ रही हैं जो असली लगती हैं लेकिन वास्तव में नहीं होती हैं। कई बार लोग इन्हें सच मानकर शेयर कर देते हैं और कुछ ही मिनटों में ये वायरल हो जाती हैं। इसी खतरे को देखते हुए केंद्र सरकार ने AI-जेनरेटेड और डीपफ़ेक कंटेंट पर सख्ती बढ़ाने का फैसला लिया है। सरकार ने 10 फरवरी को नए दिशानिर्देश जारी किए हैं, जो 20 फरवरी से लागू होंगे। इसके तहत सूचना प्रौद्योगिकी (मध्यस्थ दिशा-निर्देश और डिजिटल मीडिया आचार संहिता) नियम, 2021 में संशोधन कर AI से बने कंटेंट को औपचारिक रूप से डिजिटल कानूनों के दायरे में शामिल किया गया है। अब इंटरनेट पर फैलने वाले सिंथेटिक कंटेंट को लेकर प्लेटफॉर्म्स और यूजर्स दोनों जिम्मेदार होंगे।

3 घंटे में हटाना होगा भ्रामक कंटेंट

Hands holding a glowing “AI” symbol surrounded by digital technology icons.
Under India’s IT regulations, authorities may direct the removal of content considered unlawful under various statutes, including provisions concerning national security and public order.

नए नियमों के अनुसार सोशल मीडिया कंपनियों को आपत्तिजनक या भ्रामक AI कंटेंट पर शीघ्र कार्रवाई करनी होगी। पहले ऐसे कंटेंट को हटाने के लिए 36 घंटे तक का समय मिलता था, लेकिन अब यह सीमा घटाकर केवल 3 घंटे कर दी गई है। साथ ही अन्य समय सीमाएं भी कम कर दी गई हैं, जैसे 15 दिन की प्रक्रिया को  7 दिन और 24 घंटे की डेडलाइन को 12 घंटे कर दिया गया है। सरकार का उद्देश्य है कि फर्जी वीडियो फैलने से पहले ही रोक दिए जाएं ताकि लोगों को भ्रमित न किया जा सके।

AI कंटेंट पर लेबल लगाना जरूरी

अब कोई भी AI से बनाया या बदला गया फोटो-वीडियो बिना पहचान के साझा नहीं किया जा सकेगा। प्लेटफॉर्म्स को साफ-साफ बताना होगा कि कंटेंट मशीन द्वारा तैयार किया गया है। यूजर्स को भी अपलोड करते समय बताना पड़ेगा कि कंटेंट पूरी तरह AI से बना है या AI की मदद से एडिट किया गया है। इसके अलावा कंपनियों को कंटेंट में तकनीकी पहचान चिन्ह (metadata या provenance marker) जोड़ने होंगे ताकि यह पता लगाया जा सके कि सामग्री कहां और किस सिस्टम से बनी।

कुछ मामलों में सीधे अपराध माना जाएगा

सरकार ने स्पष्ट किया है कि कुछ तरह का सिंथेटिक कंटेंट सीधे आपराधिक श्रेणी में आएगा। इनमें शामिल हैं:

  1. बच्चों से जुड़ा यौन शोषण सामग्री (CSAM)
  2. अश्लील सामग्री
  3. किसी व्यक्ति की पहचान या आवाज की नकली प्रस्तुति
  4. फर्जी इलेक्ट्रॉनिक रिकॉर्ड
  5. विस्फोटक पदार्थों से संबंधित खतरनाक सामग्री
  6. ऐसे मामलों में भारतीय न्याय संहिता, POCSO एक्ट और अन्य संबंधित कानूनों के तहत सख्त कार्रवाई होगी।

प्लेटफॉर्म्स भी जिम्मेदार

अगर सोशल मीडिया कंपनियां नियमों का पालन करती हैं तो उन्हें आईटी एक्ट की धारा 79 के तहत ‘सेफ हार्बर’ सुरक्षा मिलती रहेगी, यानी यूजर पोस्ट के लिए सीधे जिम्मेदार नहीं ठहराया जाएगा। लेकिन नियमों का पालन न करने पर उनकी यह कानूनी सुरक्षा समाप्त हो सकती है और उन पर भी कार्रवाई संभव है।

क्यों जरूरी हैं ये नियम?

AI तकनीक ने रचनात्मकता बढ़ाई है, लेकिन इसके दुरुपयोग से समाज में भ्रम, बदनामी और हिंसा तक की स्थिति बन सकती है। सरकार का मानना है कि पारदर्शिता और जवाबदेही तय करके इंटरनेट को अधिक सुरक्षित और भरोसेमंद बनाया जा सकता है। नए नियमों के लागू होने के बाद अब कोई भी फर्जी वीडियो बनाकर वायरल करना आसान नहीं रहेगा।

अभिलाषा सक्सेना चक्रवर्ती पिछले 15 वर्षों से प्रिंट और डिजिटल मीडिया में सक्रिय हैं। हिंदी और अंग्रेज़ी दोनों भाषाओं में दक्षता रखने वाली अभिलाषा ने करियर की शुरुआत हिंदुस्तान टाइम्स, भोपाल से की थी। डीएनए, नईदुनिया, फर्स्ट इंडिया,...