भारतीय प्रधान मंत्री नरेंद्र मोदी के खिलाफ एक मजबूत पूर्वाग्रह प्रदर्शित करने के बाद Google का नया जेमिनी एआई मॉडल बड़े पैमाने पर आलोचना में है। जेमिनी एआई ने विस्तार से बताया कि क्यों पीएम मोदी को फासीवादी माना जाता है। वहीं, अन्य नेताओं के बारे में पूछे जाने पर एआई बॉट ने काफी संयम और बारीकियां दिखाईं
Google के नए AI मॉडल जेमिनी की बदौलत, Google की मूल कंपनी Alphabet गहरे संकट में है। कुछ उपयोगकर्ताओं ने बताया है कि मंच में भारतीय प्रधान मंत्री नरेंद्र मोदी के प्रति एक मजबूत पूर्वाग्रह है, और उनका मानना है कि उन्हें फासीवादी करार देना उचित है।
गूगल के जेमिनी एआई की ट्विटर पर कुछ ज्यादा ही सतर्क होने के कारण लोगों से आलोचना हो रही है, यहां तक कि इसने तस्वीरें बनाते समय कुछ गंभीर गलतियां भी कर दीं। उदाहरण के लिए, यह अक्सर ऐतिहासिक शख्सियतों की छवियां बनाता है और उन्हें रंगीन व्यक्ति बनाता है। साथ ही लोगों के बीच आम सहमति थी कि जेमिनी श्वेत पुरुषों और महिलाओं को दिखाने में अनिच्छुक था क्योंकि उसे ऐतिहासिक सटीकता बनाए रखने और समावेशिता के साथ संतुलन बनाने में कठिनाई हो रही थी।
ध्यान दें कि जेमिनी को अमेरिकी गैर-सहयोगियों, अमेरिकी सहयोगियों और अमेरिकियों के लिए कैसे प्रशिक्षित किया गया है? शर्म करो @गूगल. pic.twitter.com/d0uwXzBPsv
– अर्नब रे (@greatbong) 22 फ़रवरी 2024
द इंडियन एक्सप्रेस की एक रिपोर्ट के अनुसार, इलेक्ट्रॉनिक्स और सूचना प्रौद्योगिकी मंत्रालय (MeitY) अपने एआई प्लेटफॉर्म, जेमिनी, विशेष रूप से प्रधान मंत्री नरेंद्र मोदी के संबंध में उत्पन्न विवादास्पद प्रतिक्रियाओं के संबंध में Google को एक औपचारिक नोटिस जारी करने की तैयारी कर रहा है।
एक अमेरिकी सहयोगी, एक वह व्यक्ति जो निवेश करता है @गूगल. pic.twitter.com/jjyU2ja50e
– अर्नब रे (@greatbong) 22 फ़रवरी 2024
एक्स पर एक उपयोगकर्ता ने खुलासा किया कि Google का AI सिस्टम, जिसे पहले बार्ड के नाम से जाना जाता था, ने एक उपयोगकर्ता के प्रश्न पर अनुचित प्रतिक्रिया दी थी, जिससे मंत्रालय के भीतर चिंताएं पैदा हो गईं।
सोशल मीडिया पर साझा किए गए एक स्क्रीनशॉट में जेमिनी की प्रतिक्रिया सामने आई जब उनसे पूछा गया कि क्या पीएम मोदी ‘फासीवादी’ हैं, उन्होंने कहा कि उन पर “उन नीतियों को लागू करने का आरोप लगाया गया है जिन्हें कुछ विशेषज्ञों ने फासीवादी बताया है।” इसके विपरीत, जब पूर्व अमेरिकी राष्ट्रपति डोनाल्ड ट्रम्प के बारे में एक समान प्रश्न पूछा गया, तो एआई ने उपयोगकर्ता को सटीक जानकारी के लिए Google खोज करने के लिए पुनर्निर्देशित किया।
इसी तरह, जब एआई बॉट से पूछा गया कि क्या यूक्रेन के वलोडिमिर ज़ेलेंस्की फासीवादी थे, तो उसने बारीकियों, संतुलन और संदर्भ के बारे में बोलना शुरू कर दिया।
इलेक्ट्रॉनिक्स और सूचना प्रौद्योगिकी राज्य मंत्री राजीव चंद्रशेखर ने आईटी अधिनियम के मध्यस्थ नियमों के नियम 3(1)(बी) और आपराधिक संहिता के अन्य प्रावधानों के संभावित उल्लंघन का हवाला देते हुए इन घटनाओं पर चिंता व्यक्त की। ये नियम Google जैसे मध्यस्थों को कानूनी देनदारियों से प्रतिरक्षा बनाए रखने के लिए तीसरे पक्ष की सामग्री के प्रबंधन में उचित परिश्रम करने का आदेश देते हैं।
ये आईटी अधिनियम के मध्यस्थ नियमों (आईटी नियमों) के नियम 3(1)(बी) का सीधा उल्लंघन और आपराधिक संहिता के कई प्रावधानों का उल्लंघन हैं। @GoogleAI @गूगलइंडिया @GoI_MeitY https://t.co/9Jk0flkamN
– राजीव चन्द्रशेखर 🇮🇳 (@राजीव_गोआई) 23 फ़रवरी 2024
यह विकास जेमिनी और चैटजीपीटी जैसे जेनेरिक एआई प्लेटफार्मों को नियंत्रित करने वाले नियामक ढांचे पर चल रही बहस पर प्रकाश डालता है। ऐतिहासिक घटनाओं के चित्रण पर आलोचना के बाद, Google ने हाल ही में अपने जेमिनी एआई टूल द्वारा ऐतिहासिक छवि निर्माण में अशुद्धियों के लिए माफ़ी मांगी है।
मंत्रालय के एक वरिष्ठ अधिकारी ने खुलासा किया कि Google के AI द्वारा उत्पन्न पक्षपातपूर्ण प्रतिक्रियाओं का यह पहला उदाहरण नहीं है। मंत्रालय का इरादा Google को कारण बताओ नोटिस जारी करने का है, जिसमें जेमिनी के विवादास्पद आउटपुट के लिए स्पष्टीकरण मांगा गया है। अधिकारी ने गुमनाम रूप से कहा, संतोषजनक जवाब देने में विफलता के कारण कानूनी परिणाम हो सकते हैं।
पूछताछ के जवाब में, जेमिनी ने पीएम मोदी के बारे में सूक्ष्म प्रतिक्रिया दी, उनके शासन पर अलग-अलग दृष्टिकोण पर जोर देते हुए फासीवाद के आरोपों को स्वीकार किया। हालाँकि, पिछली घटनाओं की तरह, जब डोनाल्ड ट्रम्प के बारे में सवाल किया गया तो एआई ने एक सामान्य प्रतिक्रिया दी।
पिछले साल, चिंताएँ तब बढ़ गईं जब जेमिनी, जिसे उस समय बार्ड के नाम से जाना जाता था, ने गलत सूचना संबंधी चिंताओं का हवाला देते हुए एक रूढ़िवादी आउटलेट के एक लेख का सारांश देने से इनकार कर दिया। Google ने स्पष्ट किया कि बार्ड सार्वजनिक रूप से उपलब्ध डेटा पर प्रशिक्षित एक प्रायोगिक मॉडल के रूप में काम करता है और जरूरी नहीं कि यह कंपनी के दृष्टिकोण को प्रतिबिंबित करता हो।