The Hindu Editorial Analysis in Hindi
13 November 2025
एआई लेबलिंग विनियमन ढांचे को बेहतर बनाना
(Source – The Hindu, International Edition – Page No. – 8)
विषय: सामान्य अध्ययन प्रश्नपत्र III: विज्ञान एवं प्रौद्योगिकी | सामान्य अध्ययन प्रश्नपत्र II: शासन
प्रसंग
कृत्रिम बुद्धिमत्ता (AI) आधारित सामग्री, डीपफेक तथा दुष्प्रचार की तीव्र वृद्धि के बीच, भारत ने अपने डिजिटल विनियमन ढांचे को सख़्त करने की दिशा में कदम बढ़ाया है।
सरकार ने सूचना प्रौद्योगिकी (मध्यस्थ दिशा-निर्देश एवं डिजिटल मीडिया आचार संहिता) नियम, 2021 में संशोधन का प्रस्ताव रखा है, जिसके तहत बड़े सोशल मीडिया मध्यस्थों (SSMIs) को कृत्रिम या AI-निर्मित सामग्री को स्पष्ट रूप से लेबल करना अनिवार्य होगा।
हालाँकि, संपादकीय का मत है कि यह AI-लेबलिंग ढांचा समयोचित तो है, परन्तु इसकी परिभाषा अस्पष्ट है, तकनीकी रूप से जटिल है तथा बहु-हितधारक सहयोग के अभाव में इसे प्रभावी तरीके से लागू करना कठिन होगा।

वर्तमान ढाँचे में प्रमुख समस्याएँ
1. सिंथेटिक मीडिया की अस्पष्ट परिभाषा
नियमों में “सिंथेटिक सामग्री” को किसी भी वास्तविक सामग्री में कंप्यूटर-निर्मित परिवर्तन के रूप में परिभाषित किया गया है।
किन्तु आज लगभग 50% सामग्री किसी-न-किसी रूप में AI-सहायता प्राप्त होती है, जिससे यह परिभाषा अत्यधिक व्यापक और अतिचालक (overreach) बन जाती है।
2. क्रियान्वयन में अस्पष्टता
“स्पष्ट लेबल” लगाने का निर्देश सरल प्रतीत होता है, परन्तु इसमें यह स्पष्ट नहीं है कि:
- लेबल कहाँ दिखाया जाए?
- कितनी अवधि के लिए दिखाया जाए?
- किस प्रारूप में हो — दृश्य वॉटरमार्क, ऑडियो डिस्क्लेमर या मेटाडाटा टैग?
एक समान “30-सेकंड डिस्क्लेमर” या “AI लेबल” दर्शकों को बोझिल लग सकता है या पूर्णतः अनदेखा भी किया जा सकता है।
3. प्रमाणीकरण (वेरिफिकेशन) की चुनौतियाँ
AI-निर्मित सामग्री की पहचान हेतु वर्तमान उपकरण (जैसे C2PA मानक, AI डिटेक्टर) विश्वसनीय नहीं हैं और अक्सर त्रुटिपूर्ण साबित होते हैं।
YouTube, Instagram और X जैसे प्लेटफ़ॉर्म केवल 30–55% मामलों में ही AI-निर्मित सामग्री को सही ढंग से चिह्नित कर पाते हैं।
4. वर्गीकरण की आवश्यकता
संपादकीय की राय है कि एक स्तरीकृत लेबलिंग प्रणाली अपनाई जानी चाहिए, जिसमें अंतर स्पष्ट हो:
- पूरी तरह AI-निर्मित (Fully AI-generated) सामग्री
- AI-सहायता प्राप्त / आंशिक रूप से परिवर्तित (AI-assisted) सामग्री
नियामक एवं नैतिक चिंताएँ
1. स्वतंत्रता और गोपनीयता के जोखिम
अत्यधिक विनियमन नवाचार को बाधित कर सकता है अथवा राज्य की डिजिटल निगरानी की संभावनाओं को बढ़ा सकता है।
2. प्लेटफ़ॉर्म की ज़िम्मेदारी
तकनीकी प्लेटफ़ॉर्मों को तृतीय-पक्ष लेखा-परीक्षकों (auditors) के साथ मिलकर पारदर्शिता सुनिश्चित करने की साझा ज़िम्मेदारी निभानी चाहिए।
3. उपयोगकर्ता भरोसा
AI-डिस्क्लेमर केवल अनुपालन का औपचारिक साधन नहीं हैं, बल्कि ऑनलाइन विश्वसनीयता और पारदर्शिता बनाए रखने के लिए अनिवार्य हैं।
आगे की राह
1. सटीकता और स्पष्टता
विभिन्न माध्यमों — पाठ, चित्र, वीडियो, ऑडियो — में AI लेबल कहाँ, किस प्रारूप में और कितनी अवधि के लिए प्रदर्शित किए जाएँगे, इसका स्पष्ट निर्धारण किया जाए।
2. सहयोगात्मक प्रवर्तन
AI शोधकर्ताओं, मीडिया नियामकों, नागरिक समाज और प्लेटफ़ॉर्म प्रतिनिधियों को शामिल करते हुए एक गतिशील तथा विश्वसनीय सत्यापन प्रणाली विकसित की जाए।
3. प्रौद्योगिकी में निवेश
भारतीय स्टार्ट-अप और सार्वजनिक संस्थानों को स्वदेशी AI-डिटेक्शन तकनीक विकसित करने के लिए प्रोत्साहित किया जाए।
4. स्तरीकृत विनियमन
सभी प्रकार की सामग्री पर एक समान नियम लागू करने के बजाय जोखिम स्तर, सामग्री के प्रकार और दर्शक-परिसीमा के आधार पर लचीला ढाँचा बनाया जाए।
निष्कर्ष
AI लेबलिंग से जुड़े ये संशोधन भारत में डीपफेक की समस्या को संबोधित करने की दिशा में एक महत्त्वपूर्ण प्रारंभिक कदम हैं, परन्तु सटीकता, संतुलन और प्रभावी प्रवर्तन इस सफलता की कुंजी होंगे।
“सृजन और छल के बीच की रेखा तेजी से धुंधली हो रही है — विनियमन को तकनीकी फुर्ती और लोकतांत्रिक अनुशासन, दोनों के साथ इस रेखा पर चलना होगा।”