हमने डीपफेक, स्पष्ट छवियां देखी हैं सेलिब्रिटीज, कृत्रिम बुद्धिमत्ता (एआई) द्वारा निर्मित। इसमें एआई ने भी अहम भूमिका निभाई है संगीत बनाना, चालक रहित रेस कारें और फैल रहा है झूठी खबरअन्य बातों के अलावा।
फिर, इसमें कोई आश्चर्य की बात नहीं है कि एआई का हमारी कानूनी प्रणालियों पर भी गहरा प्रभाव पड़ता है।
यह सर्वविदित है कि अदालतों को विवादों का फैसला कानून के आधार पर करना चाहिए, जो वकीलों द्वारा ग्राहक के मामले के हिस्से के रूप में अदालत में प्रस्तुत किया जाता है। इसलिए यह बेहद चिंताजनक है कि एआई द्वारा आविष्कृत नकली कानून का इस्तेमाल कानूनी विवादों में किया जा रहा है।
इससे न केवल वैधता और नैतिकता के मुद्दे पैदा होते हैं, बल्कि वैश्विक कानूनी प्रणालियों में विश्वास और विश्वास को भी कम करने का खतरा होता है।
फर्जी कानून कैसे बनते हैं?
इसमें कोई संदेह नहीं है कि जेनेरिक एआई कानूनी प्रणाली के कई पहलुओं सहित समाज के लिए परिवर्तनकारी क्षमता वाला एक शक्तिशाली उपकरण है। लेकिन इसका उपयोग जिम्मेदारियों और जोखिमों के साथ आता है।
वकीलों को पेशेवर ज्ञान और अनुभव को सावधानीपूर्वक लागू करने के लिए प्रशिक्षित किया जाता है, और आमतौर पर वे बड़े जोखिम लेने वाले नहीं होते हैं। हालाँकि, कुछ लापरवाह वकील (और) स्वयं का प्रतिनिधित्व किया वादियों) को कृत्रिम बुद्धिमत्ता द्वारा पकड़ लिया गया है।
एआई मॉडल को बड़े पैमाने पर डेटा सेट पर प्रशिक्षित किया जाता है। उपयोगकर्ता द्वारा संकेत दिए जाने पर, वे नई सामग्री (पाठ्य और दृश्य-श्रव्य दोनों) बना सकते हैं।
हालाँकि इस तरह से तैयार की गई सामग्री बहुत विश्वसनीय लग सकती है, लेकिन यह ग़लत भी हो सकती है। यह एआई मॉडल के “अंतराल को भरने” के प्रयास का परिणाम है जब इसका प्रशिक्षण डेटा अपर्याप्त या त्रुटिपूर्ण होता है, और इसे आमतौर पर “माया”।
कुछ संदर्भों में, जेनरेटिव एआई मतिभ्रम कोई समस्या नहीं है। दरअसल, इसे रचनात्मकता के उदाहरण के तौर पर देखा जा सकता है।
लेकिन अगर एआई ने मतिभ्रम किया या गलत सामग्री बनाई जिसे कानूनी प्रक्रियाओं में उपयोग किया जाता है, तो यह एक समस्या है – खासकर जब वकीलों पर समय के दबाव और कई लोगों के लिए कानूनी सेवाओं तक पहुंच की कमी के साथ संयुक्त हो।
इस शक्तिशाली संयोजन के परिणामस्वरूप कानूनी अनुसंधान और दस्तावेज़ तैयार करने में लापरवाही और शॉर्टकट हो सकते हैं, संभावित रूप से कानूनी पेशे के लिए प्रतिष्ठित मुद्दे पैदा हो सकते हैं और न्याय प्रशासन में जनता के विश्वास की कमी हो सकती है।
यह पहले से ही हो रहा है
सबसे प्रसिद्ध जेनेरिक एआई “फर्जी मामला” 2023 अमेरिकी मामला है माता बनाम एवियंका, जिसमें वकीलों ने न्यूयॉर्क की अदालत में नकली उद्धरण और मामले के उद्धरणों से युक्त एक संक्षिप्त विवरण प्रस्तुत किया। संक्षेप में चैटजीपीटी का उपयोग करके शोध किया गया था।
वकील, इस बात से अनजान थे कि चैटजीपीटी मतिभ्रम कर सकता है, यह जाँचने में विफल रहे कि मामले वास्तव में मौजूद थे। परिणाम विनाशकारी थे. एक बार जब त्रुटि उजागर हो गई, तो अदालत ने उनके मुवक्किल के मामले को खारिज कर दिया, वकीलों को बुरे विश्वास में काम करने के लिए दंडित किया, उन पर और उनकी फर्म पर जुर्माना लगाया, और उनके कार्यों को सार्वजनिक जांच के लिए उजागर किया।
प्रतिकूल प्रचार के बावजूद, अन्य फर्जी मामले के उदाहरण सामने आते रहते हैं। डोनाल्ड ट्रम्प के पूर्व वकील माइकल कोहेन ने अपने स्वयं के वकील को Google बार्ड, एक अन्य जेनरेटर एआई चैटबॉट द्वारा उत्पन्न मामले दिए। उनका मानना था कि वे असली थे (वे नहीं थे) और उनका वकील उनकी तथ्यात्मक जाँच करेगा (उन्होंने नहीं किया)। उनके वकील के मामले शामिल हैं अमेरिकी संघीय न्यायालय में दायर एक संक्षिप्त विवरण में।
हाल ही में सामने आए मामलों में फर्जी मामले भी सामने आए हैं कनाडा और यूनाइटेड किंगडम.
यदि यह प्रवृत्ति अनियंत्रित हो जाती है, तो हम यह कैसे सुनिश्चित कर सकते हैं कि जेनेरिक एआई का लापरवाह उपयोग कानूनी प्रणाली में जनता के विश्वास को कम नहीं करेगा? इन उपकरणों का उपयोग करते समय वकीलों द्वारा उचित सावधानी बरतने में लगातार विफलता से अदालतों को गुमराह करने और भीड़भाड़ करने, ग्राहकों के हितों को नुकसान पहुंचाने और आम तौर पर कानून के शासन को कमजोर करने की संभावना होती है।
इसके बारे में क्या किया जा रहा है?
दुनिया भर में, कानूनी नियामकों और अदालतों ने विभिन्न तरीकों से प्रतिक्रिया दी है।
कई अमेरिकी राज्य बार और अदालतों ने जेनेरिक एआई के उपयोग पर मार्गदर्शन, राय या आदेश जारी किए हैं, जिसमें जिम्मेदार अपनाने से लेकर पूर्ण प्रतिबंध तक शामिल है।
यूके और ब्रिटिश कोलंबिया की लॉ सोसायटी और न्यूजीलैंड की अदालतों ने भी दिशानिर्देश विकसित किए हैं।
ऑस्ट्रेलिया में, एनएसडब्ल्यू बार एसोसिएशन के पास एक है जेनरेटिव एआई गाइड बैरिस्टरों के लिए. एनएसडब्ल्यू की लॉ सोसायटी और यह विक्टोरिया का विधि संस्थान सॉलिसिटर आचरण नियमों के अनुरूप जिम्मेदार उपयोग पर लेख जारी किए हैं।
जनता की तरह, कई वकीलों और न्यायाधीशों को जेनरेटिव एआई की कुछ समझ होगी और वे इसकी सीमा और लाभ दोनों को पहचान सकते हैं। लेकिन ऐसे भी लोग हैं जो शायद इतने जागरूक नहीं हैं। मार्गदर्शन निस्संदेह मदद करता है।
लेकिन एक अनिवार्य दृष्टिकोण की आवश्यकता है. जो वकील जेनरेटिव एआई टूल का उपयोग करते हैं, वे इसे अपने निर्णय और परिश्रम के विकल्प के रूप में नहीं मान सकते हैं, और उन्हें प्राप्त जानकारी की सटीकता और विश्वसनीयता की जांच करनी चाहिए।
ऑस्ट्रेलिया में, अदालतों को अभ्यास नोट्स या नियमों को अपनाना चाहिए जो मुकदमेबाजी में जेनरेटिव एआई का उपयोग किए जाने पर अपेक्षाएं निर्धारित करते हैं। न्यायालय के नियम स्व-प्रतिनिधित्व करने वाले वादियों का भी मार्गदर्शन कर सकते हैं, और जनता को सूचित करेंगे कि हमारी अदालतें समस्या से अवगत हैं और इसका समाधान कर रही हैं।
वकीलों द्वारा एआई के जिम्मेदार उपयोग को बढ़ावा देने के लिए कानूनी पेशा भी औपचारिक मार्गदर्शन अपना सकता है। कम से कम, प्रौद्योगिकी योग्यता ऑस्ट्रेलिया में वकीलों की सतत कानूनी शिक्षा की एक आवश्यकता बन जानी चाहिए।
ऑस्ट्रेलिया में वकीलों द्वारा जेनरेटिव एआई के जिम्मेदार और नैतिक उपयोग के लिए स्पष्ट आवश्यकताएं निर्धारित करने से उचित अपनाने को बढ़ावा मिलेगा और हमारे वकीलों, हमारी अदालतों और इस देश में न्याय के समग्र प्रशासन में जनता का विश्वास बढ़ेगा।
(लेखक:माइकल लेगकानून के प्रोफेसर, यूएनएसडब्ल्यू सिडनी और विकी मैकनामारावरिष्ठ अनुसंधान सहयोगी, कानूनी पेशे के भविष्य के लिए केंद्र, यूएनएसडब्ल्यू सिडनी)
(प्रकटीकरण निवेदन:विकी मैकनामारा एनएसडब्ल्यू की लॉ सोसाइटी (सदस्य के रूप में) से संबद्ध हैं। माइकल लेग इस लेख से लाभान्वित होने वाली किसी भी कंपनी या संगठन के लिए काम नहीं करते, परामर्श नहीं देते, शेयरों के मालिक नहीं हैं या उनसे धन प्राप्त नहीं करते हैं, और उन्होंने अपनी अकादमिक नियुक्ति से परे कोई प्रासंगिक संबद्धता का खुलासा नहीं किया है)
यह आलेख से पुनः प्रकाशित किया गया है बातचीत क्रिएटिव कॉमन्स लाइसेंस के तहत। को पढ़िए मूल लेख.
(शीर्षक को छोड़कर, यह कहानी एनडीटीवी स्टाफ द्वारा संपादित नहीं की गई है और एक सिंडिकेटेड फ़ीड से प्रकाशित हुई है।)