गूगल ने अपने सबसे बड़े टेक इवेंट Google I/O 2025 में ऐसा धमाका किया है, जिससे आर्टिफिशियल इंटेलिजेंस (AI) की दुनिया में एक नया दौर शुरू हो गया है। इस बार गूगल ने अपने Gemini 2.5 AI मॉडल्स में कई जबरदस्त और दिलचस्प फीचर्स जोड़े हैं। अब ये मॉडल पहले से कहीं ज्यादा समझदार, तेज और इंसानों जैसे हो गए हैं। नए फीचर्स जैसे Deep Think मोड, Native Audio Output और Flash मॉडल अपग्रेड ने सबका ध्यान खींचा है। आइए जानते हैं ये AI अब क्या-क्या कर सकता है।
सबसे खास फीचर है ‘Deep Think मोड’
गूगल ने अपने सालाना प्रोग्राम Google I/O 2025 में Gemini 2.5 सीरीज के आर्टिफिशियल इंटेलिजेंस (AI) मॉडल्स के लिए कई नए और शानदार फीचर्स लॉन्च किए हैं। इनमें सबसे खास फीचर है “Deep Think मोड”। यह फीचर Gemini 2.5 Pro मॉडल को पहले से भी ज्यादा समझदार और सोचने में तेज बना देता है। Deep Think मोड की मदद से अब यह AI किसी भी सवाल का जवाब देने से पहले अच्छी तरह सोचता है, अलग-अलग संभावनाओं पर ध्यान देता है और फिर सबसे सही जवाब देता है। गूगल का कहना है कि यह नई सोचने की टेक्नोलॉजी पुराने तरीकों से काफी अलग है। इसमें नई और बेहतर रिसर्च टेक्नोलॉजी का इस्तेमाल किया गया है, जिससे AI अब पहले से ज्यादा होशियार हो गया है।
टेस्टिंग में Deep Think ने हासिल किए बेहतरीन नंबर
गूगल ने बताया है कि Deep Think मोड अभी टेस्टिंग के दौर में है। फिलहाल इसे सिर्फ कुछ खास लोगों को ही API के जरिए इस्तेमाल करने दिया गया है। अब तक इस मोड ने कई मुश्किल टेस्ट में अच्छे नंबर लाए हैं। उदाहरण के लिए इसने 2025 के UAMO मैथ टेस्ट में 49.4% अंक हासिल किए। यह टेस्ट बहुत ही कठिन माना जाता है। इसके अलावा यह AI मॉडल LiveCodeBench और MMMU जैसे दूसरे टेस्ट में भी बहुत अच्छा प्रदर्शन कर रहा है। गूगल अभी इस मोड की सुरक्षा की पूरी तरह जांच कर रहा है और विशेषज्ञों (experts) से सलाह भी ले रहा है, ताकि इसे और बेहतर और सुरक्षित बनाया जा सके।
Google i/o 2025 summary
—विज्ञापन—What a firework display of announcements, publications and outlooks.
First things first: no Gemini 2.5 Ultra. The Ultra we got was the Ultra Tier for $250 – not the Ultra we were hoping for. BUT: With Gemini 2.5 Pro Deep Think, we get a revision of the… pic.twitter.com/bsTBBhZaYn
— Chubby♨️ (@kimmonismus) May 20, 2025
Native Audio Output से AI बोलेगा इंसानों की तरह
गूगल ने एक और नया फीचर लॉन्च किया है, जिसका नाम है Native Audio Output यह फीचर AI को इंसानों जैसी आवाज में बोलने की ताकत देता है। यह फीचर Live API के जरिए डेवलपर्स को मिलेगा, यानी जो लोग ऐप या सॉफ्टवेयर बनाते हैं, वे इसका इस्तेमाल कर सकेंगे। इसमें यूजर ये तय कर सकता है कि AI किस टोन (आवाज के लहजे) में बोले, कैसे उच्चारण करे और उसकी बोलने की स्टाइल कैसी हो। इस फीचर में तीन खास बातें शामिल हैं…
- Affective Dialogue: यह AI यूजर की भावनाओं को समझकर उसी हिसाब से जवाब देता है।
- Proactive Audio: यह AI सिर्फ यूजर की आवाज पर ध्यान देता है और बैकग्राउंड की आवाजों को नजरअंदाज करता है।
- Thinking: इस फीचर में AI सोचते हुए बोलता है, यानी जैसे इंसान बोलते वक्त सोचते हैं, वैसे ही यह भी बोलेगा।
Gemini Flash को मिला नया रूप और नए डेवलपर टूल्स
गूगल ने यह भी बताया कि अब Gemini 2.5 Flash मॉडल को और बेहतर बना दिया गया है। अब यह मॉडल पहले से ज्यादा स्मार्ट, तेज और 20-30% कम टोकन (यानी डेटा खर्च) करता है। Flash मॉडल अब लंबी बातचीत को बेहतर ढंग से समझ सकता है, कोडिंग में मदद कर सकता है और टेक्स्ट, आवाज और तस्वीरों को एक साथ समझने की ताकत रखता है। अभी यह मॉडल Google AI Studio पर ट्रायल (यानि प्रिव्यू) के रूप में दिया गया है। लेकिन जून महीने में इसे सभी के लिए पूरी तरह से उपलब्ध कर दिया जाएगा। इसके अलावा गूगल की Vertex AI नाम की सेवा के जरिए कंपनियां भी इस मॉडल का इस्तेमाल कर सकेंगी। इस नए वर्जन में दो नए आसान फीचर भी जोड़े गए हैं…
- Thought Summary: यह फीचर बताता है कि AI ने जवाब सोचते वक्त क्या-क्या विचार किया।
- Thinking Budget: इसमें डेवलपर्स तय कर सकते हैं कि AI एक सवाल पर कितना समय और पावर लगाए।