Achieve your IAS dreams with The Core IAS – Your Gateway to Success in Civil Services

प्रसंग

कृत्रिम बुद्धिमत्ता (AI) आधारित सामग्री, डीपफेक तथा दुष्प्रचार की तीव्र वृद्धि के बीच, भारत ने अपने डिजिटल विनियमन ढांचे को सख़्त करने की दिशा में कदम बढ़ाया है।
सरकार ने सूचना प्रौद्योगिकी (मध्यस्थ दिशा-निर्देश एवं डिजिटल मीडिया आचार संहिता) नियम, 2021 में संशोधन का प्रस्ताव रखा है, जिसके तहत बड़े सोशल मीडिया मध्यस्थों (SSMIs) को कृत्रिम या AI-निर्मित सामग्री को स्पष्ट रूप से लेबल करना अनिवार्य होगा।

हालाँकि, संपादकीय का मत है कि यह AI-लेबलिंग ढांचा समयोचित तो है, परन्तु इसकी परिभाषा अस्पष्ट है, तकनीकी रूप से जटिल है तथा बहु-हितधारक सहयोग के अभाव में इसे प्रभावी तरीके से लागू करना कठिन होगा।

वर्तमान ढाँचे में प्रमुख समस्याएँ
1. सिंथेटिक मीडिया की अस्पष्ट परिभाषा

नियमों में “सिंथेटिक सामग्री” को किसी भी वास्तविक सामग्री में कंप्यूटर-निर्मित परिवर्तन के रूप में परिभाषित किया गया है।
किन्तु आज लगभग 50% सामग्री किसी-न-किसी रूप में AI-सहायता प्राप्त होती है, जिससे यह परिभाषा अत्यधिक व्यापक और अतिचालक (overreach) बन जाती है।

2. क्रियान्वयन में अस्पष्टता

“स्पष्ट लेबल” लगाने का निर्देश सरल प्रतीत होता है, परन्तु इसमें यह स्पष्ट नहीं है कि:

  • लेबल कहाँ दिखाया जाए?
  • कितनी अवधि के लिए दिखाया जाए?
  • किस प्रारूप में हो — दृश्य वॉटरमार्क, ऑडियो डिस्क्लेमर या मेटाडाटा टैग?

एक समान “30-सेकंड डिस्क्लेमर” या “AI लेबल” दर्शकों को बोझिल लग सकता है या पूर्णतः अनदेखा भी किया जा सकता है।

3. प्रमाणीकरण (वेरिफिकेशन) की चुनौतियाँ

AI-निर्मित सामग्री की पहचान हेतु वर्तमान उपकरण (जैसे C2PA मानक, AI डिटेक्टर) विश्वसनीय नहीं हैं और अक्सर त्रुटिपूर्ण साबित होते हैं।

YouTube, Instagram और X जैसे प्लेटफ़ॉर्म केवल 30–55% मामलों में ही AI-निर्मित सामग्री को सही ढंग से चिह्नित कर पाते हैं।

4. वर्गीकरण की आवश्यकता

संपादकीय की राय है कि एक स्तरीकृत लेबलिंग प्रणाली अपनाई जानी चाहिए, जिसमें अंतर स्पष्ट हो:

  • पूरी तरह AI-निर्मित (Fully AI-generated) सामग्री
  • AI-सहायता प्राप्त / आंशिक रूप से परिवर्तित (AI-assisted) सामग्री

नियामक एवं नैतिक चिंताएँ
1. स्वतंत्रता और गोपनीयता के जोखिम

अत्यधिक विनियमन नवाचार को बाधित कर सकता है अथवा राज्य की डिजिटल निगरानी की संभावनाओं को बढ़ा सकता है।

2. प्लेटफ़ॉर्म की ज़िम्मेदारी

तकनीकी प्लेटफ़ॉर्मों को तृतीय-पक्ष लेखा-परीक्षकों (auditors) के साथ मिलकर पारदर्शिता सुनिश्चित करने की साझा ज़िम्मेदारी निभानी चाहिए।

3. उपयोगकर्ता भरोसा

AI-डिस्क्लेमर केवल अनुपालन का औपचारिक साधन नहीं हैं, बल्कि ऑनलाइन विश्वसनीयता और पारदर्शिता बनाए रखने के लिए अनिवार्य हैं।


आगे की राह
1. सटीकता और स्पष्टता

विभिन्न माध्यमों — पाठ, चित्र, वीडियो, ऑडियो — में AI लेबल कहाँ, किस प्रारूप में और कितनी अवधि के लिए प्रदर्शित किए जाएँगे, इसका स्पष्ट निर्धारण किया जाए।

2. सहयोगात्मक प्रवर्तन

AI शोधकर्ताओं, मीडिया नियामकों, नागरिक समाज और प्लेटफ़ॉर्म प्रतिनिधियों को शामिल करते हुए एक गतिशील तथा विश्वसनीय सत्यापन प्रणाली विकसित की जाए।

3. प्रौद्योगिकी में निवेश

भारतीय स्टार्ट-अप और सार्वजनिक संस्थानों को स्वदेशी AI-डिटेक्शन तकनीक विकसित करने के लिए प्रोत्साहित किया जाए।

4. स्तरीकृत विनियमन

सभी प्रकार की सामग्री पर एक समान नियम लागू करने के बजाय जोखिम स्तर, सामग्री के प्रकार और दर्शक-परिसीमा के आधार पर लचीला ढाँचा बनाया जाए।


निष्कर्ष

AI लेबलिंग से जुड़े ये संशोधन भारत में डीपफेक की समस्या को संबोधित करने की दिशा में एक महत्त्वपूर्ण प्रारंभिक कदम हैं, परन्तु सटीकता, संतुलन और प्रभावी प्रवर्तन इस सफलता की कुंजी होंगे।

“सृजन और छल के बीच की रेखा तेजी से धुंधली हो रही है — विनियमन को तकनीकी फुर्ती और लोकतांत्रिक अनुशासन, दोनों के साथ इस रेखा पर चलना होगा।”


Leave a comment

Your email address will not be published. Required fields are marked *