EBM News Hindi
Leading News Portal in Hindi

Google I/O 2025: गूगल का Deep Think मोड हुआ लॉन्च, Gemini 2.5 में AI को मिली इंसानी सोच और आवाज


गूगल ने अपने सबसे बड़े टेक इवेंट Google I/O 2025 में ऐसा धमाका किया है, जिससे आर्टिफिशियल इंटेलिजेंस (AI) की दुनिया में एक नया दौर शुरू हो गया है। इस बार गूगल ने अपने Gemini 2.5 AI मॉडल्स में कई जबरदस्त और दिलचस्प फीचर्स जोड़े हैं। अब ये मॉडल पहले से कहीं ज्यादा समझदार, तेज और इंसानों जैसे हो गए हैं। नए फीचर्स जैसे Deep Think मोड, Native Audio Output और Flash मॉडल अपग्रेड ने सबका ध्यान खींचा है। आइए जानते हैं ये AI अब क्या-क्या कर सकता है।

सबसे खास फीचर है ‘Deep Think मोड’

गूगल ने अपने सालाना प्रोग्राम Google I/O 2025 में Gemini 2.5 सीरीज के आर्टिफिशियल इंटेलिजेंस (AI) मॉडल्स के लिए कई नए और शानदार फीचर्स लॉन्च किए हैं। इनमें सबसे खास फीचर है “Deep Think मोड”। यह फीचर Gemini 2.5 Pro मॉडल को पहले से भी ज्यादा समझदार और सोचने में तेज बना देता है। Deep Think मोड की मदद से अब यह AI किसी भी सवाल का जवाब देने से पहले अच्छी तरह सोचता है, अलग-अलग संभावनाओं पर ध्यान देता है और फिर सबसे सही जवाब देता है। गूगल का कहना है कि यह नई सोचने की टेक्नोलॉजी पुराने तरीकों से काफी अलग है। इसमें नई और बेहतर रिसर्च टेक्नोलॉजी का इस्तेमाल किया गया है, जिससे AI अब पहले से ज्यादा होशियार हो गया है।

—विज्ञापन—

टेस्टिंग में Deep Think ने हासिल किए बेहतरीन नंबर

गूगल ने बताया है कि Deep Think मोड अभी टेस्टिंग के दौर में है। फिलहाल इसे सिर्फ कुछ खास लोगों को ही API के जरिए इस्तेमाल करने दिया गया है। अब तक इस मोड ने कई मुश्किल टेस्ट में अच्छे नंबर लाए हैं। उदाहरण के लिए इसने 2025 के UAMO मैथ टेस्ट में 49.4% अंक हासिल किए। यह टेस्ट बहुत ही कठिन माना जाता है। इसके अलावा यह AI मॉडल LiveCodeBench और MMMU जैसे दूसरे टेस्ट में भी बहुत अच्छा प्रदर्शन कर रहा है। गूगल अभी इस मोड की सुरक्षा की पूरी तरह जांच कर रहा है और विशेषज्ञों (experts) से सलाह भी ले रहा है, ताकि इसे और बेहतर और सुरक्षित बनाया जा सके।

Native Audio Output से AI बोलेगा इंसानों की तरह

गूगल ने एक और नया फीचर लॉन्च किया है, जिसका नाम है Native Audio Output यह फीचर AI को इंसानों जैसी आवाज में बोलने की ताकत देता है। यह फीचर Live API के जरिए डेवलपर्स को मिलेगा, यानी जो लोग ऐप या सॉफ्टवेयर बनाते हैं, वे इसका इस्तेमाल कर सकेंगे। इसमें यूजर ये तय कर सकता है कि AI किस टोन (आवाज के लहजे) में बोले, कैसे उच्चारण करे और उसकी बोलने की स्टाइल कैसी हो। इस फीचर में तीन खास बातें शामिल हैं…

  • Affective Dialogue: यह AI यूजर की भावनाओं को समझकर उसी हिसाब से जवाब देता है।
  • Proactive Audio: यह AI सिर्फ यूजर की आवाज पर ध्यान देता है और बैकग्राउंड की आवाजों को नजरअंदाज करता है।
  • Thinking: इस फीचर में AI सोचते हुए बोलता है, यानी जैसे इंसान बोलते वक्त सोचते हैं, वैसे ही यह भी बोलेगा।

Gemini Flash को मिला नया रूप और नए डेवलपर टूल्स

गूगल ने यह भी बताया कि अब Gemini 2.5 Flash मॉडल को और बेहतर बना दिया गया है। अब यह मॉडल पहले से ज्यादा स्मार्ट, तेज और 20-30% कम टोकन (यानी डेटा खर्च) करता है। Flash मॉडल अब लंबी बातचीत को बेहतर ढंग से समझ सकता है, कोडिंग में मदद कर सकता है और टेक्स्ट, आवाज और तस्वीरों को एक साथ समझने की ताकत रखता है। अभी यह मॉडल Google AI Studio पर ट्रायल (यानि प्रिव्यू) के रूप में दिया गया है। लेकिन जून महीने में इसे सभी के लिए पूरी तरह से उपलब्ध कर दिया जाएगा। इसके अलावा गूगल की Vertex AI नाम की सेवा के जरिए कंपनियां भी इस मॉडल का इस्तेमाल कर सकेंगी। इस नए वर्जन में दो नए आसान फीचर भी जोड़े गए हैं…

  • Thought Summary: यह फीचर बताता है कि AI ने जवाब सोचते वक्त क्या-क्या विचार किया।
  • Thinking Budget: इसमें डेवलपर्स तय कर सकते हैं कि AI एक सवाल पर कितना समय और पावर लगाए।