OpenAI का GPT-4o-संचालित ChatGPT वही है जो Apple के Siri, Samsung के Bixby, Microsoft के Cortana और Google Assistant को शुरू से ही होना चाहिए था। GPT-4o से प्राप्त क्षमताएं इसे AI जैसा मानवीय बनाती हैं
और पढ़ें
ChatGPT का हालिया अपडेट, जिसे GPT-4o कहा जाता है, कृत्रिम बुद्धिमत्ता की दुनिया में हलचल मचा रहा है। यह सिर्फ एक छोटा सा सुधार नहीं है – यह एआई मॉडल में अब तक देखे गए सबसे बड़े अपडेट में से एक है, और यह पूर्ण पीढ़ीगत अपडेट भी नहीं है।
अंततः, GPT-4o-संचालित ChatGPT वही है जो Apple के Siri, Samsung के Bixby, Microsoft के Cortana और Google Assistant को शुरू से ही होना चाहिए था
चैटजीपीटी का यह नवीनतम संस्करण अविश्वसनीय रूप से बहुमुखी है – यह चुटकुले सुना सकता है, गाने गा सकता है, मानवीय भावनाओं को समझ सकता है और मिश्रण में कुछ व्यंग्य भी जोड़ सकता है।
OpenAI ने सोमवार को GPT-4o पेश किया और इसे मानव-कंप्यूटर संपर्क को और अधिक स्वाभाविक बनाने की दिशा में एक महत्वपूर्ण कदम बताया। इस मॉडल के बारे में वास्तव में अच्छी बात यह है कि यह टेक्स्ट, ऑडियो या छवियों में इनपुट को संसाधित कर सकता है और इनमें से किसी भी प्रारूप में प्रतिक्रिया दे सकता है। यह भावनाओं को पहचानने में भी काफी चतुर है और एक इंसान की तरह ही तेजी से बातचीत कर सकता है।
लाइव-स्ट्रीम प्रेजेंटेशन के दौरान, ओपनएआई की सीटीओ मीरा मुराती ने बताया कि जीपीटी-4o मुफ्त संस्करण का उपयोग करने वालों सहित सभी के लिए जीपीटी-4 का खुफिया स्तर लाता है। इसका मतलब यह है कि AI का उपयोग करना हर किसी के लिए बहुत आसान हो जाता है।
प्रस्तुति में, OpenAI ने GPT-4o के कुछ प्रभावशाली कारनामों का प्रदर्शन किया। इसने अंग्रेजी और इतालवी के बीच बातचीत का लाइव अनुवाद किया, कागज पर वास्तविक समय में गणित की समस्याओं को हल करने में मदद की, और यहां तक कि किसी की सांस सुनकर गहरी सांस लेने पर मार्गदर्शन भी प्रदान किया।
यहां कुछ वाइल्ड डेमो दिए गए हैं जिन्हें OpenAI ने प्रस्तुत किया है।
वास्तविक समय का संवादी भाषण जो किसी इंसान की तरह लगता है
GPT-4o रीयलटाइम वार्तालाप भाषण का लाइव डेमो pic.twitter.com/FON78LxAPL
– ओपनएआई (@OpenAI) 13 मई 2024
चुटकले छोड़ना
पिताजी GPT-4o के साथ मजाक करते हैं pic.twitter.com/8w1coXBRGH
– ओपनएआई (@OpenAI) 13 मई 2024
GPT-4o के साथ व्यंग्य pic.twitter.com/APrYJMvBFF
– ओपनएआई (@OpenAI) 13 मई 2024
अपनी ओर से किसी बैठक में भाग लें
GPT-4o के साथ AI की बैठक pic.twitter.com/rHkQ316MYj
– ओपनएआई (@OpenAI) 13 मई 2024
अनायास गाने गाएं और बनाएं
दो GPT-4os के साथ सामंजस्य स्थापित करना pic.twitter.com/GerFmdzpMI
– ओपनएआई (@OpenAI) 13 मई 2024
GPT-4o के साथ लोरी और फुसफुसाहट pic.twitter.com/5T7ob0ItuM
– ओपनएआई (@OpenAI) 13 मई 2024
गणित हल करते समय तर्क दीजिए
GPT-4o के साथ गणित की समस्याएं और @खान अकादमी pic.twitter.com/RfKaYx5pTJ
– ओपनएआई (@OpenAI) 13 मई 2024
उपयोगकर्ताओं को दृश्य रूप से भाषाएँ सीखने में मदद करना
GPT-4o के साथ स्पैनिश सीखें और सीखें pic.twitter.com/TdOy2w5eM6
– ओपनएआई (@OpenAI) 13 मई 2024
इंसानों को पढ़ना
GPT-4o विज़न क्षमताओं के लिए लाइव दर्शकों का अनुरोध pic.twitter.com/FPRXpZ2I9N
– ओपनएआई (@OpenAI) 13 मई 2024
साक्षात्कार, परीक्षा आदि की तैयारी में आपकी सहायता करना।
GPT-4o के साथ साक्षात्कार की तैयारी pic.twitter.com/st3LjUmywa
– ओपनएआई (@OpenAI) 13 मई 2024
चीज़ों को देखना और आपके लिए उनका वर्णन करना
GPT-4o को नमस्ते कहें, हमारा नया फ्लैगशिप मॉडल जो वास्तविक समय में ऑडियो, विज़न और टेक्स्ट का विश्लेषण कर सकता है: https://t.co/MYHZB79UqN
टेक्स्ट और इमेज इनपुट आज एपीआई और चैटजीपीटी में आने वाले हफ्तों में आवाज और वीडियो के साथ उपलब्ध होगा। pic.twitter.com/uuthKZyzYx
– ओपनएआई (@OpenAI) 13 मई 2024
कुत्ता GPT-4o से मिलता है pic.twitter.com/5C0hlYq5ws
– ओपनएआई (@OpenAI) 13 मई 2024
OpenAI ने इस बात पर प्रकाश डाला कि GPT-4o को टेक्स्ट, विज़न और ऑडियो में प्रशिक्षण दिया गया, जो कंपनी के पिछले मॉडल, GPT-3.5 और GPT-4 के साथ अपनाए गए दृष्टिकोण से अलग है। अपने पूर्ववर्तियों के विपरीत, जिसमें उपयोगकर्ताओं को बोलकर प्रश्न पूछने और फिर भाषण को पाठ में स्थानांतरित करने की आवश्यकता होती है, GPT-4o एक ही तंत्रिका नेटवर्क के माध्यम से सभी इनपुट और आउटपुट को संसाधित करता है। इसका मतलब यह है कि बातचीत अधिक निर्बाध होती है और स्वर और भावना बरकरार रहती है, जिससे तेजी से और अधिक प्राकृतिक बातचीत होती है।
फिलहाल, हमने अब तक जो डेमो देखे हैं उनमें से केवल कुछ ही सभी चैटजीपीटी उपयोगकर्ताओं के लिए उपलब्ध हैं। OpenAI जल्द ही बाकी सुविधाएं भी शुरू करेगा।