AI और भारतीय कानून: जब मशीन गलती करे तो जिम्मेदारी किसकी?
🔹 परिचय:
आर्टिफिशियल इंटेलिजेंस (AI) यानी कृत्रिम बुद्धिमत्ता, अब केवल कल्पना नहीं रह गई — यह हमारी रोज़मर्रा की ज़िंदगी का अहम हिस्सा बन चुकी है। चाहे वो मेडिकल रिपोर्ट पढ़ना हो, गाड़ी चलाना, या कानूनी दस्तावेज़ तैयार करना — AI हर क्षेत्र में घुसपैठ कर चुका है।
लेकिन जैसे-जैसे AI का दायरा बढ़ा है, एक बड़ा सवाल भी खड़ा हुआ है —
अगर AI आधारित कोई सिस्टम गलती करता है, तो उसकी जिम्मेदारी किस पर तय होगी?
क्या हम एक मशीन को दोषी ठहरा सकते हैं?
🔹 AI की भूमिका और उससे जुड़ी जटिलताएं:
AI सिस्टम एक तय प्रोग्रामिंग और डेटा के आधार पर निर्णय लेता है। लेकिन जब ये सिस्टम स्वायत्त निर्णय लेने लगता है और उसमें कोई चूक हो जाए, तो स्थिति पेचीदा हो जाती है।
उदाहरण के लिए:
-
एक ऑटोनोमस गाड़ी ने किसी राहगीर को टक्कर मार दी
-
एक AI सॉफ्टवेयर ने गलत मेडिकल रिपोर्ट दी
-
एक वकील द्वारा इस्तेमाल किए गए AI टूल ने ग़लत कानून सुझाया
तो ऐसे मामलों में किसे जिम्मेदार माना जाए — मशीन, डेवलपर या उपयोगकर्ता?
🔹 भारत में कानूनी स्थिति:
भारत में फिलहाल कोई अलग AI कानून नहीं है। लेकिन कुछ मौजूदा कानूनों के आधार पर जिम्मेदारी तय की जा सकती है:
| कानून | उपयोग |
|---|---|
| भारतीय दंड संहिता (IPC) धारा 304A | यदि AI से दुर्घटना हो |
| उपभोक्ता संरक्षण अधिनियम, 2019 | ग्राहक को नुकसान हो तो |
| सूचना प्रौद्योगिकी अधिनियम, 2000 | डेटा या डिजिटल अपराध से संबंधित |
फिर भी, इन कानूनों में AI की स्वतंत्र सोच और कार्य को ध्यान में रखते हुए स्पष्ट दिशा-निर्देश नहीं हैं।
🔹 कौन हो सकता है जिम्मेदार?
🔸 1. निर्माता / प्रोग्रामर:
अगर सिस्टम की गलती कोडिंग की खामी से हुई है तो निर्माता की जवाबदेही बनती है।
🔸 2. सेवा प्रदाता या यूज़र:
जिस व्यक्ति या संस्था ने AI का उपयोग किया और पर्याप्त निगरानी नहीं रखी, वह भी दोषी हो सकती है।
🔸 3. कंपनी या संगठन:
कई बार कॉर्पोरेट संस्थाएं 'strict liability' के तहत जवाबदेह मानी जाती हैं।
🔸 4. AI को कानूनी इकाई मानना:
कुछ विद्वान मानते हैं कि जब AI पूरी तरह स्वतंत्र निर्णय लेने लगे, तब उसे एक 'लीगल पर्सन' माना जाए — जैसे कंपनियों को माना जाता है। लेकिन यह विचार अभी भारत में मान्य नहीं है।
🔹 अंतरराष्ट्रीय दृष्टिकोण:
-
अमेरिका में Tesla दुर्घटना केस:
Autopilot द्वारा सड़क दुर्घटना पर कंपनी को जवाब देना पड़ा। -
फ्रांस में चैटबॉट केस:
AI चैटबॉट द्वारा आत्महत्या को उकसाने वाले उत्तर देने पर जांच हुई। -
यूरोपीय संघ (EU):
AI Liability Directive और AI Act जैसे प्रारूप बनाए जा रहे हैं जो AI के विफल होने पर जिम्मेदारियों को स्पष्ट करते हैं।
🔹 भविष्य में भारत को क्या करना चाहिए?
-
✅ एक स्पष्ट AI नियामक कानून बनाना
-
✅ उत्तरदायित्व तय करने वाली गाइडलाइन तैयार करना
-
✅ AI उत्पादों के परीक्षण की प्रक्रिया अनिवार्य करना
-
✅ न्यायपालिका को AI के कानूनी पक्ष पर प्रशिक्षण देना
-
✅ AI में नैतिकता और पारदर्शिता सुनिश्चित करना
🔹 निष्कर्ष:
AI हमारे जीवन को आसान बना रहा है, लेकिन जब यह तकनीक गलती करती है, तो उसके परिणाम गंभीर हो सकते हैं। ऐसे में ज़रूरत है एक ऐसे कानूनी ढांचे की, जो स्पष्ट रूप से बताए कि गलती की स्थिति में जिम्मेदारी किस पर तय होगी।
जब तक AI को सिर्फ एक उपकरण माना जाता है, तब तक उसकी गलती का जिम्मेदार कोई मानव पक्ष ही रहेगा — चाहे वो निर्माता हो, कंपनी हो या उपयोगकर्ता
Comments
Post a Comment