Achieve your IAS dreams with The Core IAS – Your Gateway to Success in Civil Services

प्रसंग
न्यायपालिका में आर्टिफिशियल इंटेलिजेंस (AI) के बढ़ते उपयोग के साथ यह आवश्यक है कि इसके सुरक्षित, नैतिक और ज़िम्मेदार प्रयोग हेतु स्पष्ट ढाँचे बनाए जाएँ।

परिचय

केरल उच्च न्यायालय की पहल न्यायिक प्रक्रिया में AI एकीकरण की दिशा में प्रगतिशील उपलब्धि है। यह नीति तकनीकी दक्षता और कड़े सुरक्षा उपायों के बीच संतुलन साधते हुए अन्य न्यायालयों के लिए एक मॉडल प्रस्तुत करती है। भारत में मामलों के भारी लंबित बोझ को देखते हुए, यदि AI का उपयोग न्याय और निष्पक्षता के मूल सिद्धांतों से जुड़ा रहे, तो यह न्यायपालिका का प्रभावी सहयोगी बन सकता है।

न्यायालयों में AI के परिचालन जोखिम (Operational Risks)

  1. अनुवाद और ट्रांसक्रिप्शन:
    • त्रुटियाँ: “Leave granted” का अनुवाद “छुट्टी स्वीकार”।
    • Noel Anthony Clarke vs Guardian News & Media Ltd. (2025) में “Noel” को “no” लिखा गया।
    • OpenAI का Whisper विराम के दौरान पूरे वाक्य गढ़ लेता है।
    • सुरक्षा उपाय: विशेषज्ञों द्वारा मैनुअल जाँच; AI को केवल कम-जोखिम कार्यों तक सीमित करना।
  2. कानूनी अनुसंधान:
    • पूर्वनिर्णयों को अदृश्य कर देने का जोखिम।
    • अध्ययनों में पाया गया कि LLMs काल्पनिक केस लॉ बनाकर झूठे संदर्भ देते हैं।
    • सुरक्षा उपाय: AI अनुसंधान हेतु दिशा-निर्देश; न्यायाधीशों और वकीलों को AI साक्षरता प्रशिक्षण।
  3. न्यायनिर्णयन (Adjudication):
    • जोखिम: गहन तर्क प्रक्रिया को नियम-आधारित आउटपुट में सीमित करना।
    • सुरक्षा उपाय: AI को सहायक भूमिका में रखना, निर्णायक नहीं; मानव विवेक बनाए रखना।

संस्थागत और संरचनात्मक चुनौतियाँ

  • पायलट कार्यक्रम:
    • मौखिक दलीलों की ट्रांसक्रिप्शन, गवाहों के बयान आदि पर चल रहे पायलट्स में समयसीमा, मानक और डेटा सुरक्षा का अभाव।
    • सुरक्षा उपाय: स्पष्ट सफलता मीट्रिक, डेटा सुरक्षा और बेहतर ढाँचा।
  • प्रोक्योरमेंट और जोखिम प्रबंधन:
    • अदालतें बिना नैतिक/कानूनी ढाँचे के टेंडर जारी कर रही हैं।
    • सुरक्षा उपाय: स्टैंडर्ड नॉर्म्स (Explainability, डेटा उपयोग, जोखिम मूल्यांकन) लागू करना।
  • मानव पर्यवेक्षण और “हैलूसिनेशन”:
    • LLM की “हैलूसिनेशन” अंतर्निहित विशेषता है, दुर्घटनावश त्रुटि नहीं।
    • सुरक्षा उपाय: उच्च-जोखिम वाले कार्यों में अनिवार्य पर्यवेक्षण; AI आउटपुट का नियमित ऑडिट।

क्षमता, अधिकार और पारदर्शिता

  • क्षमता निर्माण:
    • न्यायाधीश, स्टाफ और वकील अक्सर AI के लिए तैयार नहीं; अधिकांश अदालतें अब भी पेपर-बेस्ड
    • सुरक्षा उपाय: न्यायिक अकादमियों में AI साक्षरता प्रशिक्षण; AI गवर्नेंस विशेषज्ञों के साथ साझेदारी।
  • वादकारियों के अधिकार और पारदर्शिता:
    • जब AI अनुसंधान या ड्राफ्टिंग में मदद करता है, तो वादकारी को इसकी जानकारी नहीं होती।
    • सुरक्षा उपाय: वादकारियों को AI उपयोग की जानकारी देना; उन्हें AI-आधारित प्रक्रिया से ऑप्ट-आउट का विकल्प देना।

ई-कोर्ट्स प्रोजेक्ट पर दृष्टि

  • अनुपालन की निगरानी: न्यायालयों को वेंडर प्रदर्शन और अनुपालन ट्रैक करने हेतु ढाँचे की आवश्यकता।
  • eCourts Vision Document Phase III: सुप्रीम कोर्ट की ई-कमेटी ने तकनीकी कार्यालय बनाने का सुझाव दिया, ताकि न्यायालयों को डिजिटल समाधान चुनने और निगरानी में मार्गदर्शन मिले।
  • विशेषज्ञता अंतराल पाटना: विशेषज्ञ सलाह उपलब्ध कराने से AI उपकरणों की स्पष्ट, जिम्मेदार और दीर्घकालिक योजना संभव होगी।
  • विशेषज्ञों की भागीदारी: बुनियादी ढाँचा, सॉफ़्टवेयर और AI तैनाती के लिए स्वतंत्र विशेषज्ञ शामिल करना आवश्यक।

निष्कर्ष

न्यायपालिका में AI को अपनाते समय यह याद रखना अनिवार्य है कि इसका मुख्य उद्देश्य न्याय की उन्नति होना चाहिए। बदलती तकनीकी परिस्थितियों में AI का प्रयोग स्पष्ट, पारदर्शी और जवाबदेह ढाँचों से संचालित होना चाहिए। अन्यथा, दक्षता और गति की खोज न्यायिक प्रक्रिया की विचारशीलता, सहानुभूति और मानवीय विवेक को पीछे धकेल सकती है।

इसलिए, AI तभी न्यायपालिका का सहयोगी बन पाएगा जब इसे न्याय की आत्मा के अधीन रखा जाए, न कि उसके स्थानापन्न के रूप में।


Leave a comment

Your email address will not be published. Required fields are marked *