नवगठित आर्टिफिशियल इंटेलिजेंस सेफ्टी एंड सिक्योरिटी बोर्ड में, जो बिडेन के नेतृत्व वाली अमेरिकी सरकार ने टेस्ला और स्पेसएक्स के सीईओ एलोन मस्क को छोड़ दिया, और मेटा के सीईओ मार्क जुकरबर्ग को बोर्ड से बाहर कर दिया गया।
और पढ़ें
जो बिडेन के नेतृत्व वाले प्रशासन ने इस सप्ताह की शुरुआत में एक नया एआई सुरक्षा बोर्ड बनाया, जिसमें तकनीकी उद्योग के कुछ सबसे बड़े नाम शामिल थे।
डीपफेक तकनीक से बढ़ते खतरे के जवाब में बनाए गए आर्टिफिशियल इंटेलिजेंस सेफ्टी एंड सिक्योरिटी बोर्ड में ओपनएआई के सैम अल्टमैन, एनवीआईडीआईए के जेन्सेन हुआंग, माइक्रोसॉफ्ट के सत्य नडेला, अल्फाबेट के सुंदर पिचाई, एडोब के शांतनु नारायण, एएमडी के लिसा सु आदि जैसे उल्लेखनीय नाम शामिल हैं। .
यान लेकुन और (या) मार्क जुकरबर्ग को इस सूची में होना चाहिए था pic.twitter.com/UunykWfriT
– अरविंद श्रीनिवास (@AravSrinivas) 28 अप्रैल 2024
कुलीन समूह का हिस्सा कुछ सरकारी अधिकारी भी थे, जिनमें व्हाइट हाउस, राज्य के गवर्नर, रक्षा ठेकेदार और मानवाधिकार निकायों के कुछ लोग शामिल थे।
जिन दो लोगों को स्पष्ट रूप से बोर्ड से बाहर रखा गया था, वे थे टेस्ला और स्पेसएक्स के सीईओ एलोन मस्क और मेटा के सीईओ मार्क जुकरबर्ग।
🚨🇺🇸ब्रेकिंग: बिडेन एलोन को एआई सलाहकार बोर्ड में आमंत्रित नहीं करते?!
बिडेन ने पावर ग्रिड और हवाई अड्डों सहित एआई प्रौद्योगिकियों से लेकर महत्वपूर्ण बुनियादी ढांचे तक संभावित खतरों से निपटने के लिए एक नया एआई सुरक्षा और सुरक्षा बोर्ड बनाया है।
बोर्ड में OpenAI के सैम ऑल्टमैन और… pic.twitter.com/sdJtJX2SUp
– मारियो नवाफ़ल (@MarioNawfal) 26 अप्रैल 2024
यह कदम राजनेताओं से लेकर मशहूर हस्तियों और यहां तक कि नाबालिगों तक को निशाना बनाने वाले डीपफेक के दुर्भावनापूर्ण उपयोग से जुड़ी कई घटनाओं के मद्देनजर उठाया गया है।
डीपफेक बनाने के लिए “न्यूडिफिकेशन” कार्यक्रमों और जेनएआई का उपयोग करने के उदाहरण, जिनका उपयोग लोगों, विशेषकर महिलाओं को ब्लैकमेल करने या परेशान करने के लिए किया जाता है, विशेष रूप से अमेरिकी शैक्षणिक संस्थानों में तेजी से प्रचलित हो गए हैं, जैसा कि न्यूयॉर्क टाइम्स ने उजागर किया है।
उद्योग जगत के दिग्गजों को शामिल करते हुए एक संघीय बोर्ड का गठन इन गंभीर चिंताओं को दूर करने की दिशा में एक महत्वपूर्ण कदम का प्रतिनिधित्व करता है। हालाँकि, जुकरबर्ग और मस्क की अनुपस्थिति के कारण बोर्ड की संरचना को लेकर विवाद पहले ही उठ चुके हैं।
अटकलें लगाई जा रही हैं कि होमलैंड सिक्योरिटी विभाग (डीएचएस) द्वारा जारी बोर्ड सदस्यों की सूची से जुकरबर्ग और मस्क को क्यों नहीं हटाया गया।
जबकि होमलैंड सिक्योरिटी के सचिव, एलेजांद्रो मयोरकास ने सोशल मीडिया प्लेटफार्मों की छूट को उनके बहिष्कार का कारण बताया, कई पर्यवेक्षकों के बीच संदेह बना हुआ है।
मेटा, जिसका नाम पहले फेसबुक था, को जांच का सामना करना पड़ा है, जिसमें कथित तौर पर अपने प्लेटफॉर्म पर रूसी दुष्प्रचार को रोकने में विफल रहने के लिए यूरोपीय संघ की लंबित जांच भी शामिल है।
इसके अतिरिक्त, न्यूडिफिकेशन ऐप्स को बढ़ावा देने वाले विज्ञापनों से निपटने के लिए अपर्याप्त उपायों के बारे में भी चिंताएं व्यक्त की गई हैं।
इसी तरह, मीडिया मैटर्स की रिपोर्ट में यहूदी विरोधी सामग्री के साथ विज्ञापनों को उजागर करने के कारण प्रमुख विज्ञापनदाताओं को मंच से हटना पड़ा, जिससे मस्क को मेटा के खिलाफ मुकदमा दायर करने के लिए प्रेरित किया गया।
इस तरह के विवादों ने एआई सुरक्षा पहलों के प्रति मेटा और टेस्ला की प्रतिबद्धता पर संदेह पैदा कर दिया है, विशेष रूप से संभावित एआई व्यवधानों पर डीएचएस और अन्य हितधारकों को सलाह देने के लिए बोर्ड के जनादेश को देखते हुए।
जुकरबर्ग ने ओपन-सोर्स एआई की वकालत की है, जो विनियमन और सुरक्षा के मामले में अद्वितीय चुनौतियां पेश करता है। इस बीच, सिक्योरिटीज एंड एक्सचेंज कमीशन (एसईसी) के साथ चल रहे कानूनी विवादों के कारण मस्क की अप्रत्याशितता के बारे में चिंताएं बढ़ गई हैं।
इन विवादों के बावजूद, सुरक्षा बोर्ड में शामिल कंपनियों ने एआई सुरक्षा पर चर्चा में शामिल होने की अधिक इच्छा प्रदर्शित की है। उदाहरण के लिए, सीनेट की सुनवाई के दौरान, ऑल्टमैन ने सुरक्षित एआई उत्पादों को डिजाइन करने के महत्व पर जोर दिया।
इसके अलावा, इन कंपनियों ने अपने स्वयं के एआई सुरक्षा प्रोटोकॉल लागू किए हैं, हालांकि सफलता की अलग-अलग डिग्री के साथ। उदाहरण के लिए, ओपनएआई अपने मॉडल के व्यवहार को बेहतर बनाने के लिए मानवीय प्रतिक्रिया के साथ सुदृढीकरण सीखने का उपयोग करता है, जबकि अन्य कंपनियों ने अपने स्वयं के सुरक्षा ढांचे विकसित किए हैं।
डीपफेक के प्रसार को कम करने के प्रयासों में एडोब और गूगल जैसी कंपनियों द्वारा वॉटरमार्किंग तकनीकों को अपनाना, साथ ही संभावित स्पष्ट सामग्री का पता लगाने में एआई मॉडल को प्रशिक्षित करने के लिए सीएसएएम डेटाबेस का प्रस्ताव शामिल है।
हालांकि ये उपाय डीपफेक खतरे को संबोधित करने की दिशा में सकारात्मक कदमों का प्रतिनिधित्व करते हैं, लेकिन मुद्दे की जटिल प्रकृति के कारण एआई-संचालित खतरों के खिलाफ प्रभावी ढंग से सुरक्षा के लिए स्वतंत्र शोधकर्ताओं और उद्योग हितधारकों के बीच निरंतर सहयोग की आवश्यकता होती है।
(इनपुट के साथ)