CareerDigitalNews

Google TurboQuant AI: गूगल के टर्बोक्वांट जैसे जटिल विषय को आसान शब्दों में समझाया एआई ने

Google TurboQuant AI: गूगल ने हाल ही में (मार्च-अप्रैल 2026 में) ‘TurboQuant’ नाम की एक क्रांतिकारी तकनीक पेश की है, जो सीधे तौर पर गैजेट्स और AI की ‘याददाश्त’ (मैमोरी) को संभालने का तरीका बदल देगी। यह तकनीक कैसे काम करती है, के बारे में एआई ने एक पॉडकास्ट के जरिये आसान शब्दों में समझाया। आप भी जानिए इस जटिल तकनीक को सरल हिन्दी में।

Google TurboQuant AI: महिला होस्ट: कल्पना कीजिए एक सुपरकार की… यू नो, जिसका इंजन तो दुनिया का सबसे तेज है, लेकिन उसे किसी संकरी सी, लाइक सिंगल लेन गली में उतार दिया गया है। आप एक्सीलरेटर दबाते हैं, इंजन ज़ोर से दहाड़ता है लेकिन… लेकिन कार आगे ही नहीं बढ़ पाती, क्योंकि रास्ता ही नहीं है।

पुरुष होस्ट 1:  बिल्कुल जगह ही नहीं बची है वहां।

महिला होस्ट: राइट! और आज के जो सबसे उन्नत AI मॉडल्स हैं ना, उनका ठीक यही हाल है। मतलब जब हम स्क्रीन पर कोई सवाल टाइप करते हैं और पलक झपकते ही जवाब मिल जाता है, तो हमें लगता है कि सब कुछ कितना जादुई है।

पुरुष होस्ट 1: हां, बाहर से सब बहुत स्मूथ लगता है।

महिला होस्ट: एकदम स्मूथ। लेकिन उस चिकनी स्क्रीन के पीछे, AI के दिमाग में एक भयानक, एक जबरदस्त जानकारी की भीड़, या कह लें कि ट्रैफिक जाम लगा हुआ है। AI का इंजन तो बहुत पावरफुल हो गया है, लेकिन उसकी मेमोरी की गलियां अभी भी संकरी हैं। और यही आज के हमारे इस विश्लेषण का, इस गहन चर्चा का मुख्य विषय है।

पुरुष होस्ट 2: जी, और हम इस बात पर चर्चा करने जा रहे हैं कि कैसे AI अपनी बुद्धिमत्ता या कह लें अपनी सटीकता को खोए बिना इस भारी ट्रैफिक जाम से बाहर निकल रहा है। लाइक, एक बहुत बड़े मेमोरी अपग्रेड और अकल्पनीय स्पीड को प्राप्त कर रहा है।

महिला होस्ट: बिल्कुल! और इस बदलाव को समझने के लिए हमारे पास जो स्रोत है, वह सच में AI की दुनिया के लिए एक बहुत बड़ी खबर है।

Google TurboQuant AI: पुरुष होस्ट 2: हां। हम ‘गूगल रिसर्च’ द्वारा 24 मार्च 2026 को पब्लिश की गई एक ब्लॉग पोस्ट का विश्लेषण कर रहे हैं, जिसका टाइटल है: “टर्बोक्वांट: अत्यधिक कंप्रेशन के साथ AI दक्षता को फिर से परिभाषित करना”

महिला होस्ट: ‘टर्बोक्वांट’ नाम ही काफी भारी लग रहा है।

पुरुष होस्ट 2: भारी है भी। देखिए, यह कोई रूटीन सॉफ्टवेयर अपडेट नहीं है। यह बेसिकली इस बात का एक पूरा ब्लूप्रिंट है कि भविष्य में मशीनें जानकारी को कैसे प्रोसेस करेंगी, यू नो, कैसे याद रखेंगी, और कैसे वे उस सुपरकार को सिंगल लेन गली से निकालकर एक हाई-स्पीड एक्सप्रेसवे पर दौड़ाएंगी।

महिला होस्ट: ठीक है। चलिए इसे डीकोड करते हैं। हमारा आज का मिशन इस ‘टर्बोक्वांट’ तकनीक के पीछे के रहस्य को समझना है। लेकिन वहां तक पहुँचने से पहले मुझे लगता है हमें इस ट्रैफिक जाम की असल वजह को समझना होगा… मतलब यह सिंगल लेन गली आखिर है क्या? और AI के दिमाग में जो भीड़ है, उसमें ये गाड़ियां किस चीज़ की हैं?

पुरुष होस्ट 2: वे गाड़ियां असल में ‘वेक्टर्स’ (Vectors) हैं।

महिला होस्ट: वेक्टर्स?

पुरुष होस्ट 2: हां, वेक्टर्स। अगर हम AI के सोचने के तरीके को समझना चाहते हैं ना, तो वेक्टर्स को समझे बिना काम नहीं चलेगा। देखिए, इंसानों की तरह AI शब्दों या वाक्यों को सीधे नहीं पढ़ता।

महिला होस्ट: राइट। वह हर चीज़ को नंबर्स में बदल देता है।

पुरुष होस्ट 2: एकदम सही। वह हर चीज़ को संख्याओं में बदल देता है। एक साधारण वेक्टर को आप एक छोटे डेटा पॉइंट की तरह सोच सकती हैं। लेकिन AI को दुनिया की जटिलताओं को समझना है, उसे कॉन्टेक्स्ट या संदर्भ चाहिए। यहीं पर ‘हाई-डायमेंशनल वेक्टर्स’ (High-Dimensional Vectors) की एंट्री होती है।

महिला होस्ट: हाई-डायमेंशनल? मतलब क्या इसका यह मतलब है कि किसी एक शब्द के लिए बहुत सारे अलग-अलग नंबर इस्तेमाल हो रहे हैं?

पुरुष होस्ट 2: बात सिर्फ नंबरों की नहीं है, बात विशेषताओं की है। एक हाई-डायमेंशनल वेक्टर बेसिकली संख्याओं की एक बहुत लंबी लिस्ट होती है, जिसमें लाइक हज़ारों डायमेंशन या आयाम हो सकते हैं।

महिला होस्ट: हज़ारों? सिर्फ एक शब्द के लिए!

पुरुष होस्ट 2: हां। मान लीजिए हम ‘सेब’ शब्द की बात कर रहे हैं। AI के लिए यह सिर्फ एक लाल फल नहीं है। उसका एक डायमेंशन इसके रंग को दर्शाता है, दूसरा इसके स्वाद को…

महिला होस्ट:  तीसरा इसके गोल आकार को।

पुरुष होस्ट 2: बिल्कुल। और चौथा शायद न्यूटन के गुरुत्वाकर्षण वाले संदर्भ को, और पांचवा शायद ‘एप्पल’ कंपनी के आईफोन को।

महिला होस्ट: अरे वाह! तो वह एक साथ इतना कुछ सोच रहा होता है।

पुरुष होस्ट 2: जी। AI इन हज़ारों आयामों को एक साथ प्रोसेस करता है, ताकि वह समझ सके कि आप असल में किस वाले ‘सेब’ की बात कर रही हैं। ये वेक्टर्स अविश्वसनीय रूप से शक्तिशाली होते हैं क्योंकि ये AI को अर्थ और इमोशंस समझने में मदद करते हैं।

महिला होस्ट: समझ गई। तो जानकारी जितनी गहरी होगी, वेक्टर उतना ही बड़ा होगा। लेकिन अगर ये इतने ही शानदार हैं, तो फिर प्रॉब्लम क्या है? ये जाम क्यों लगा रहे हैं?

पुरुष होस्ट 2: प्रॉब्लम यह है कि ये हाई-डायमेंशनल वेक्टर्स मेमोरी बहुत ज़्यादा खाते हैं। जब कोई बड़ा AI मॉडल काम करता है ना, तो वह एक-एक शब्द (जिसे हम ‘टोकन’ कहते हैं) उसका अनुमान लगाता है।

महिला होस्ट: एक-एक करके?

पुरुष होस्ट 2: हां। और हर नया शब्द लिखते समय उसे पीछे जाकर देखना पड़ता है कि उसने अब तक क्या लिखा है, ताकि कॉन्टेक्स्ट न टूटे। अब बार-बार पूरे डेटाबेस को छानने के बजाय, AI इन वेक्टर्स को एक खास जगह पर सेव कर लेता है, जिसे ‘की-वैल्यू कैश’ (KV Cache) कहते हैं।

महिला होस्ट: अच्छा, की-वैल्यू कैश। इसे मैंने लाइक एक तरह की ‘डिजिटल चीट-शीट’ के रूप में सुना है।

पुरुष होस्ट 2: हां, आप कह सकती हैं। मतलब जैसे परीक्षा के दौरान आपके पास एक पर्ची हो जिसमें सारे इंपॉर्टेंट फॉर्मूले लिखे हों, ताकि आपको पूरी किताब न पलटनी पड़े। राइट?

महिला होस्ट: यह चीट-शीट वाला कंपैरिजन बहुत दिलचस्प है।

पुरुष होस्ट 2: लेकिन कल्पना कीजिए कि आपकी वह चीट-शीट इतनी बड़ी और भारी हो गई है कि परीक्षा में उसे खोलने और पन्ने पलटने में ही आपका सारा टाइम बर्बाद हो रहा है।

महिला होस्ट: ओहो! तो चीट-शीट ही मुसीबत बन गई।

पुरुष होस्ट 2: एक्जेक्टली। यही AI के साथ हो रहा है। की-वैल्यू कैश AI को तेज़ बनाने के लिए बनाया गया था, लेकिन वेक्टर्स के इतने बड़े साइज के कारण यह कैश खुद ही फुल हो जाता है, चिप की मेमोरी भर जाती है और सिस्टम एक भयंकर ‘बॉटलनेक’ का शिकार हो जाता है।

महिला होस्ट: रुको… अगर वेक्टर्स इतने बड़े हैं और इतनी जगह घेर रहे हैं, तो क्या हम उन्हें बस ‘ज़िप’ (Zip) नहीं कर सकते?

पुरुष होस्ट 2: ज़िप? मतलब सिकोड़ना?

महिला होस्ट: हां। जैसे जब मेरे लैपटॉप की हार्ड ड्राइव फुल होने लगती है, तो मैं पुरानी फाइलों को एक ज़िप फोल्डर में डाल देती हूँ। क्या हम AI के वेक्टर्स के साथ ऐसा कोई कंप्रेशन इस्तेमाल नहीं कर सकते?

पुरुष होस्ट 2: यहाँ सबसे दिलचस्प बात यह है कि कंप्यूटर विज्ञान में लंबे समय से ठीक यही करने की कोशिश की जा रही है।

महिला होस्ट: अच्छा?

पुरुष होस्ट 2: हां। इस प्रोसेस को ‘वेक्टर क्वांटाइजेशन’ (Vector Quantization) कहा जाता है। विचार वही है जो आपने कहा—हाई-डायमेंशनल डेटा को लो-डायमेंशनल डेटा में सिकोड़ना। यह तकनीक वेक्टर्स के साइज को छोटा तो कर देती है, जिससे की-वैल्यू कैश में ज़्यादा डेटा आ सके।

महिला होस्ट: फिर तो प्रॉब्लम सॉल्व हो जानी चाहिए ना?

पुरुष होस्ट 2: नहीं। क्योंकि पारंपरिक क्वांटाइजेशन के साथ एक बहुत बड़ा और अजीब पेंच जुड़ा हुआ है, जो इस पूरी प्रक्रिया को बेमतलब कर देता है।

महिला होस्ट: अजीब पेंच? वह क्या है? अगर डेटा छोटा हो गया, तो मतलब फायदा ही है।

पुरुष होस्ट 2: देखिए, जब आप पुराने तरीकों से वेक्टर्स को सिकोड़ते हैं, तो वह तरीका अपने साथ एक नई मुसीबत लेकर आता है, जिसे टेक्निकल भाषा में ‘मेमोरी ओवरहेड’ (Memory Overhead) कहते हैं।

महिला होस्ट: मेमोरी ओवरहेड? क्या इसका मतलब वह एक्स्ट्रा डेटा है जो कंप्रेशन के दौरान बनता है?

पुरुष होस्ट 2: जी। इसे ऐसे समझिए—जब डेटा को सिकोड़ा जाता है, तो AI को बाद में यह भी समझना होता है कि उसे किस नियम या किस स्केल के आधार पर सिकोड़ा गया था, ताकि वह उसे वापस पढ़ सके।

महिला होस्ट: मतलब डिकोड करने का तरीका भी याद रखना पड़ेगा।

पुरुष होस्ट 2: बिल्कुल। इसके लिए पुराने तरीकों को हर छोटे डेटा ब्लॉक के लिए कुछ गणितीय स्थिरांक यानी ‘कांस्टेंट’ (Constants), जैसे कि ‘स्केल’ और ‘जीरो पॉइंट’ की गणना करनी पड़ती है।

महिला होस्ट: और ये कांस्टेंट जगह लेते हैं?

पुरुष होस्ट 2: बहुत जगह लेते हैं। इन कांस्टेंट्स को पूरी सटीकता के साथ, यानी 16-बिट या 32-बिट्स में स्टोर करना पड़ता है।

महिला होस्ट: क्या! मतलब डेटा को छोटा करने की जो किताब या नियम हैं, वे इतने बड़े हैं कि उन्हें भी स्टोर करना भारी पड़ रहा है!

पुरुष होस्ट 2: विडंबना यही है।

महिला होस्ट: यह तो ऐसा हुआ कि मान लीजिए मैंने अपने घर का सामान कम करने के लिए कुछ वैक्यूम बैग्स खरीदे, लेकिन अब उन बैग्स से हवा निकालने वाला वैक्यूम पंप इतना विशाल है कि उसने मेरी आधी अलमारी घेर ली है।

पुरुष होस्ट 2: (हंसते हुए) आपका वैक्यूम पंप वाला उदाहरण स्थिति को पूरी तरह क्लियर कर देता है। एकदम सटीक है।

महिला होस्ट: तो कंप्रेशन का फायदा ही क्या हुआ?

पुरुष होस्ट 2: वही तो। शोधकर्ताओं ने पाया कि डेटा को सिकोड़कर जो मेमोरी वे बचा रहे थे ना, उसका एक बहुत बड़ा हिस्सा उन कांस्टेंट्स को स्टोर करने में वापस खर्च हो रहा था। हर एक नंबर पर आपको एक से दो एक्स्ट्रा बिट्स खर्च करने पड़ रहे थे।

महिला होस्ट: बाप रे!

पुरुष होस्ट 2: अब सोचिए जब आप अरबों वेक्टर्स प्रोसेस कर रहे हो, तो यह ओवरहेड इतना बड़ा हो जाता है कि कंप्रेशन का मुख्य उद्देश्य ही फेल हो जाता है।

महिला होस्ट: तो पुरानी तकनीक एक तरह से खुद को ही हरा रही थी। हम जगह बचाने की कोशिश में नई जगह घेर रहे थे। अब मुझे समझ आ रहा है कि गूगल रिसर्च को ‘टर्बोक्वांट’ विकसित करने की ज़रूरत क्यों पड़ी।

पुरुष होस्ट 2: जी।

महिला होस्ट: लेकिन उन्होंने इस ओवरहेड वाले वैक्यूम पंप से छुटकारा कैसे पाया? क्या उन्होंने वह नियम ही मिटा दिए?

पुरुष होस्ट 2: उन्होंने नियम मिटाए नहीं, उन्होंने पूरा गणितीय खेल का मैदान ही बदल दिया। शोधकर्ताओं को एहसास हुआ कि इस ओवरहेड की समस्या को सुलझाने के लिए डेटा को देखने का नज़रिया पूरी तरह बदलना होगा।

महिला होस्ट: नज़रिया बदलना होगा?

पुरुष होस्ट 2: हां। और यहीं से टर्बोक्वांट की शुरुआत होती है, जिसके पहले चरण का नाम है— ‘पोलर क्वांट’ (Polar Quant)।

महिला होस्ट: अच्छा।

पुरुष होस्ट 2: यहाँ पर बात सच में बहुत दिलचस्प हो जाती है। मैंने इस स्रोत सामग्री में वह हिस्सा पढ़ा था जहाँ वे इस बदलाव को समझाते हैं। उन्होंने ज्योमेट्री यानी ज्यामिति का एक बहुत ही शानदार रूपक उपयोग किया है— ‘कार्टेशियन ग्रिड’ (Cartesian Grid) वाला।

महिला होस्ट: कार्टेशियन?

पुरुष होस्ट 2: हां। मान लीजिए आप किसी शहर में रास्ता बता रहे हैं। पारंपरिक तरीका जिसे कार्टेशियन कोऑर्डिनेट सिस्टम कहते हैं, यह कुछ ऐसा कहने जैसा है कि पहले तीन ब्लॉक पूर्व की ओर जाओ और फिर वहां से मुड़कर चार ब्लॉक उत्तर की ओर जाओ।

महिला होस्ट: बिल्कुल। वह एक आम ग्रिड सिस्टम है, जैसे स्कूल के ग्राफ पेपर पर X और Y एक्सिस होते हैं ना?

पुरुष होस्ट 2: हां। हमारा ज़्यादातर डेटा इसी रूप में होता है।

महिला होस्ट: राइट।

पुरुष होस्ट 2: लेकिन टर्बोक्वांट का यह जो ‘पोलर क्वांट’ चरण है, यह इसे पूरी तरह पलट देता है। यह तीन ब्लॉक पूर्व और चार ब्लॉक उत्तर कहने के बजाय कुछ ऐसा कहता है— “तुम जहाँ खड़े हो, वहां से 37 डिग्री के कोण पर घूमो और सीधे पांच ब्लॉक चले जाओ।”

महिला होस्ट: जिसे वे ‘पोलर कोऑर्डिनेट सिस्टम’ कहते हैं। हां, मैंने स्कूल में यह पढ़ा तो था लेकिन यू नो, AI की दुनिया में यह इतना क्रांतिकारी क्यों है? रास्ता तो दोनों तरीके से एक ही मंज़िल तक पहुँचता है ना?

पुरुष होस्ट 2: मंज़िल एक है, आप सही कह रही हैं। लेकिन वहां पहुँचने का जो खर्च है, वह बहुत अलग है।

महिला होस्ट: खर्च मतलब?

पुरुष होस्ट 2: देखिए, जब हम कार्टेशियन ग्रिड पर काम करते हैं, तो डेटा के पॉइंट्स पूरे ग्राफ पर बेतरतीब ढंग से फैले होते हैं। कुछ पॉइंट केंद्र के बहुत करीब होते हैं, कुछ बहुत दूर।

महिला होस्ट: हम्म… सब बिखरा हुआ है।

पुरुष होस्ट 2: हां। तो ऐसे बिखरे हुए डेटा को सिकोड़ने से पहले AI को उन्हें ‘नॉर्मलाइज’ (Normalize) करना पड़ता है, यानी उन्हें एक समान पैमाने पर लाना पड़ता है।

महिला होस्ट: अच्छा।

पुरुष होस्ट 2: और इसी नॉर्मलाइजेशन प्रोसेस में वे महंगे कांस्टेंट्स पैदा होते हैं जो वह मेमोरी ओवरहेड बनाते हैं।

महिला होस्ट: अरे! तो यह नॉर्मलाइजेशन ही वह वैक्यूम पंप है जो फालतू की जगह घेर रहा था। एकदम सही पकड़े हैं। तो क्या पोलर सिस्टम में इस नॉर्मलाइजेशन की ज़रूरत नहीं पड़ती?

पुरुष होस्ट 2: बिल्कुल नहीं। और यही इसका असली जादू है। पोलर क्वांट क्या करता है—वह सबसे पहले डेटा वेक्टर्स को बेतरतीब ढंग से घुमाता है, जिसे ‘रैंडम रोटेशन’ कहते हैं।

महिला होस्ट: घुमाता है? क्यों?

पुरुष होस्ट 2: इसका कारण यह है कि डेटा अक्सर गुच्छों में या क्लम्प्स में होता है, और घुमाने से वह पूरे स्पेस में समान रूप से फैल जाता है। फिर वह उन्हें चौकोर ग्रिड से हटाकर पोलर सिस्टम में बदल देता है।

महिला होस्ट: मतलब X-Y से हटा देता है।

पुरुष होस्ट 2: हां। जब डेटा पोलर सिस्टम में आता है, तो वह X और Y अक्ष पर नहीं रहता, वह दो नई चीज़ों में बदल जाता है।

महिला होस्ट: वे क्या हैं?

पुरुष होस्ट 2: पहला है ‘रेडियस’ (Radius) यानी त्रिज्या, जो हमें बताती है कि केंद्र से दूरी कितनी है। यह डेटा की ताकत या मैग्नीट्यूड का प्रतिनिधित्व करता है।

महिला होस्ट: ठीक है, रेडियस मतलब ताकत।

पुरुष होस्ट 2: और दूसरा है ‘एंगल’ (Angle) यानी कोण, जो हमें दिशा बताता है। यह डेटा के अर्थ या कॉन्टेक्स्ट का प्रतिनिधित्व करता है।

महिला होस्ट: ठीक है, ताकत और दिशा। लेकिन मुझे अभी भी समझ नहीं आ रहा कि इससे वह ओवरहेड कैसे खत्म हुआ?

पुरुष होस्ट 2: क्योंकि… क्योंकि अब डेटा एक अप्रत्याशित चौकोर ग्रिड पर नहीं है। पोलर क्वांट सारे डेटा को एक निश्चित, पहले से तय किए गए गोलाकार ग्रिड पर मैप कर देता है।

महिला होस्ट: गोलाकार ग्रिड?

पुरुष होस्ट 2: हां, एक सर्कुलर ग्रिड। इस गोले का आकार और सीमाएं AI को पहले से पता होती हैं। अब जब सब कुछ एक समान गोले की सतह पर या उसके भीतर आ जाता है, तो AI को डेटा को नॉर्मलाइज करने की उस महंगी प्रोसेस से नहीं गुज़रना पड़ता।

महिला होस्ट: ओह!

पुरुष होस्ट 2: और ज़ाहिर है, जब नॉर्मलाइजेशन नहीं होगा, तो उन कांस्टेंट्स की गणना और स्टोरिंग भी नहीं होगी। और रातों-रात आपका मेमोरी ओवरहेड शून्य हो जाता है।

महिला होस्ट: वाओ! यह तो किसी जीनियस का काम लगता है। मतलब हमने डेटा को सिकोड़ने वाले उन नियमों से ही छुटकारा पा लिया जो जगह घेर रहे थे, सिर्फ ग्राफ को देखने का तरीका बदलकर।

पुरुष होस्ट 2: जी। पोलर क्वांट ने डेटा का सबसे बड़ा हिस्सा बिना किसी एक्स्ट्रा सामान के सिकोड़ दिया।

महिला होस्ट: लेकिन देखिए, भौतिकी और कंप्यूटर साइंस में एक नियम है कि मुफ़्त में कुछ नहीं मिलता। राइट? सही बात है। जैसे हमने बात की थी जब हम JPEG को बार-बार सिकोड़ते हैं, तो वह ब्लर या धुंधला हो जाता है।

पुरुष होस्ट 2: हां, क्वालिटी गिर जाती है।

महिला होस्ट: तो पोलर क्वांट से डेटा में कोई छिपी हुई त्रुटि या अशुद्धि तो आती ही होगी। और अगर आती है, तो उसे ठीक कैसे किया जाता है, वह भी बिना वापस ओवरहेड बढ़ाए?

पुरुष होस्ट 2: यह एक बहुत ही पैनी ऑब्जर्वेशन है आपकी। और आप बिल्कुल सही हैं। जब डेटा को इतना ज़्यादा सिकोड़ा जाता है, तो कुछ बारीकियां छूट जाती हैं।

महिला होस्ट: मुझे पता था।

पुरुष होस्ट 2: एक तरह का कंप्रेशन बायस या अशुद्धि आ ही जाती है। और अगर इसे ऐसे ही छोड़ दिया जाए ना, तो AI मॉडल्स कंफ्यूज होने लगेंगे और गलत जवाब देने लगेंगे।

महिला होस्ट: अब यहीं पर मैं थोड़ा उलझ गई हूँ। ब्लॉग पोस्ट में बताया गया है कि टर्बोक्वांट इस बचे हुए एरर को ठीक करने के लिए सिर्फ ‘वन बिट’ (1-Bit) कंप्रेशन पावर का इस्तेमाल करता है।

पुरुष होस्ट 2: जी, वन बिट।

महिला होस्ट: यू नो, ‘ऑन’ या ‘ऑफ’, ‘प्लस’ या ‘माइनस’ होता है… बस एक बाइनरी चॉइस। तो आप सिर्फ वन बिट पावर का इस्तेमाल करके किसी जटिल AI एरर को कैसे सुधार सकते हैं? यह तो ऐसा है जैसे शेक्सपियर की किसी कविता का भाव एक ऑन-ऑफ स्विच से सुरक्षित करने की कोशिश करना। यह काम कैसे करता है?

पुरुष होस्ट 2: अगर हम इसे बड़ी तस्वीर से जोड़कर देखें ना, तो यह वन बिट का समाधान ही इस पूरी रिसर्च का सबसे चौंकाने वाला हिस्सा है।

महिला होस्ट: अच्छा?

पुरुष होस्ट 2: उस एक बिट के पीछे एक बहुत ही जटिल गणितीय सिद्धांत काम कर रहा है जिसे ‘क्वांटाइज्ड जॉनसन-लिंडनस्ट्रॉस’ (Quantized Johnson-Lindenstrauss) कहते हैं, या शॉर्ट में QJL।

महिला होस्ट: QJL… नाम तो वाकई किसी भारी-भरकम साइंस फिक्शन फिल्म के प्रोफेसर जैसा लग रहा है।

पुरुष होस्ट 2: नाम भारी है, लेकिन काम बहुत एलीगेंट है।

महिला होस्ट: लेकिन यह कैसे उस एक बिट से AI की याददाश्त ठीक करता है? मुझे इसका मैकेनिज़्म समझना है।

पुरुष होस्ट 2: देखिए, QJL के लिए वेक्टर्स के सटीक नंबर्स उतने मतलब नहीं रखते जितना इस बात से होता है कि वे वेक्टर्स एक-दूसरे से कितनी दूर हैं।

महिला होस्ट: मतलब उनकी दूरी?

पुरुष होस्ट 2: हां। इसे रिलेटिव डिस्टेंस या आपसी संबंध कहते हैं। मतलब AI यह नहीं देखता कि सेब और केला ग्राफ में ठीक कहाँ बैठे हैं, बल्कि वह यह देखता है कि सेब और केला एक-दूसरे के कितने करीब हैं—बजाय सेब और कार के।

महिला होस्ट: एकदम सही।

पुरुष होस्ट 2: QJL एक ऐसा मैथमेटिकल टूल है जो डेटा पॉइंट्स के बीच के इसी रिलेटिव डिस्टेंस या ज्योमेट्रिक स्ट्रक्चर को सुरक्षित रखता है, भले ही आप उसे कितने भी छोटे आयाम में सिकोड़ दें। अब उस वन बिट की बात करते हैं। QJL उन भारी-भरकम कोऑर्डिनेट्स को स्टोर करने के बजाय हर रिजल्ट को सिर्फ एक सिंगल साइन बिट यानी प्लस वन या माइनस वन में बदल देता है।

महिला होस्ट: सिर्फ प्लस या माइनस।

पुरुष होस्ट 2: हां। यह कोई बड़ा डेटा स्टोर नहीं कर रहा है, यह बेसिकली एक हाई-स्पीड शॉर्टहैंड भाषा बना रहा है जो सिर्फ एक सवाल का जवाब देती है— क्या वेक्टर A, वेक्टर B के करीब है या नहीं?

महिला होस्ट: अच्छा। तो उसे पूरा वाक्य याद रखने की ज़रूरत ही नहीं है। उसे सिर्फ यह याद रखना है कि रिश्ता ‘हाँ’ है या ‘ना’।

पुरुष होस्ट 2: बिल्कुल। और क्योंकि यह सिर्फ एक या शून्य है, इसलिए कोई मेमोरी ओवरहेड नहीं लगता।

महिला होस्ट: माइंड ब्लोइंग!

पुरुष होस्ट 2: यह एक बिना ओवरहेड वाले गणितीय एरर-चेकर के रूप में काम करता है। देखिए, AI सिस्टम्स में एक कोर मैकेनिज़्म होती है जिसे ‘अटेंशन स्कोर’ (Attention Score) कहते हैं। यही वह प्रोसेस है जिससे AI यह तय करता है कि उसे दिए गए इनपुट में से कौन सा शब्द सबसे इंपॉर्टेंट है और किसे वह इग्नोर कर सकता है। अगर सिकोड़े गए डेटा में थोड़ी सी भी अशुद्धि होती है ना, तो यह अटेंशन स्कोर गलत दिशा में चला जाता है।

महिला होस्ट: और AI गलत जवाब दे देता है।

पुरुष होस्ट 2: जी। अब QJL क्या करता है—वह एक विशेष एस्टीमेटर का उपयोग करके एक हाई-एक्यूरेसी वाली क्वेरी को उस वन बिट वाले लो-एक्यूरेसी डेटा के साथ जोड़ता है। वह वन बिट का साइन AI को बताता है कि उसका अटेंशन स्कोर सही रास्ते पर है या नहीं।

महिला होस्ट: मतलब वह उसे गाइड करता है।

पुरुष होस्ट 2: बिल्कुल। इससे जो बायस या पूर्वाग्रह था, वह पूरी तरह खत्म हो जाता है और अटेंशन स्कोर बिल्कुल वैसा ही सटीक बना रहता है जैसा कंप्रेशन से पहले था।

महिला होस्ट: तो आखिर इस सबका मतलब क्या है? मेरा मतलब है, हम एक बहुत ही गहरे टेक्निकल गोते लगा रहे हैं। पोलर क्वांट ज्योमेट्री बदल रहा है, QJL वन बिट से अटेंशन स्कोर ठीक कर रहा है… यह सब कागज़ पर और थ्योरी में तो किसी नोबेल पुरस्कार विजेता के काम जैसा लग रहा है।

पुरुष होस्ट 2: जी, काम तो बहुत शानदार है।

महिला होस्ट: लेकिन मुझे सबूत चाहिए। सीधी सी बात है। क्या यह वास्तविक दुनिया में असली AI मॉडल्स के साथ काम करता है? या यह सिर्फ लैब में काम करने वाली कोई थ्योरी है जिसे असल में आने में अभी 10 साल लगेंगे?

पुरुष होस्ट 2: मैं आपका डाउट समझता हूँ, लेकिन यह कोई कोरी थ्योरी नहीं है। शोधकर्ताओं ने इस तकनीक को सीधे ले जाकर आज के ओपन सोर्स यानी वास्तविक लार्ज लैंग्वेज मॉडल्स पर टेस्ट किया, जैसे कि Gemma और Mistral।

महिला होस्ट: ओके, रियल मॉडल्स पर।

पुरुष होस्ट 2: हां। और उन्होंने इसे आसान टेस्ट पर नहीं, बल्कि इंडस्ट्री के सबसे कड़े स्टैंडर्ड बेंचमार्क्स पर परखा। मैंने इस स्रोत सामग्री में उन बेंचमार्क्स के नाम देखे थे— एक का नाम था ‘नीडल इन ए हेस्टैक’ (Needle In A Haystack), जिसका मतलब है भूसे के ढेर में सुई खोजना। यह AI की दुनिया का सबसे कड़ा टेस्ट माना जाता है। यह बेसिकली AI के कॉन्टेक्स्ट विंडो को चेक करता है। यह परीक्षण कुछ ऐसा है जैसे किसी AI को हज़ार पन्नों की एक किताब या कई कानूनी दस्तावेज़ बस एक सेकंड में पढ़ने को दे दिए जाएं और फिर उससे पूछा जाए कि बताओ पन्ना 642 के तीसरे पैराग्राफ में नायक ने किस रंग की शर्ट पहनी थी। यह देखने के लिए कि क्या कंप्रेशन के बाद AI वह शर्ट का रंग भूल तो नहीं गया।

पुरुष होस्ट 1: एकदम सही उदाहरण दिया आपने। अगर की-वैल्यू कैश ठीक से काम नहीं कर रहा है या कंप्रेशन ने डेटा को धुंधला कर दिया है, तो AI वह शर्ट का रंग कभी नहीं ढूंढ पाएगा।

महिला होस्ट: तो टर्बोक्वांट का रिजल्ट क्या रहा?

पुरुष होस्ट 2: टर्बोक्वांट ने नीडल इन ए हेस्टैक, लॉन्ग बेंच और ज़ीरो स्क्रोल जैसे सभी बड़े टेस्ट्स में बिना किसी सटीकता के नुकसान के यानी ‘ज़ीरो एक्यूरेसी लॉस’ के साथ शानदार प्रदर्शन किया।

महिला होस्ट: ज़ीरो एक्यूरेसी लॉस! AI ने कुछ भी नहीं भूला?

पुरुष होस्ट 2: कुछ भी नहीं। बिना सटीकता खोये।

महिला होस्ट: लेकिन उन्होंने मेमोरी कितनी बचाई?

पुरुष होस्ट 2: टर्बोक्वांट ने की-वैल्यू मेमोरी के साइज को कम से कम छह गुना तक घटा दिया।

महिला होस्ट: छह गुना! वाओ।

पुरुष होस्ट 2: और इससे भी बड़ी बात यह है कि यह किसी भी मॉडल को बिना फाइन-ट्यूनिंग या दोबारा ट्रेनिंग दिए उसके की-वैल्यू कैश को मात्र तीन बिट्स तक क्वांटाइज कर सकता है।

महिला होस्ट: बिना फाइन-ट्यूनिंग के? मतलब आपको मॉडल को स्क्रैच से दोबारा सिखाने की ज़रूरत नहीं।

पुरुष होस्ट 2: बिल्कुल नहीं। जो कि अपने आप में लाखों डॉलर और महीनों का समय बचाता है। छह गुना कम मेमोरी और कोई फाइन-ट्यूनिंग नहीं—यह तो हार्डवेयर की दुनिया में एक भूकंप जैसा है।

महिला होस्ट: लेकिन उस ट्रैफिक जाम का क्या? क्या मेमोरी कम होने से मॉडल तेज़ भी हुआ?

पुरुष होस्ट 2: तेज़? सुनें, उन्होंने इसे H100 GPU एक्सीलरेटर पर टेस्ट किया। H100 कोई आम कंप्यूटर चिप नहीं है। यह इस वक्त दुनिया के सबसे शक्तिशाली और महंगे AI हार्डवेयर में से एक है।

महिला होस्ट: राइट।

पुरुष होस्ट 2: ऐसी मशीन पर 10 फ़ीसदी की स्पीड बढ़ना भी एक बहुत बड़ी उपलब्धि मानी जाती है। तो टर्बोक्वांट ने H100 को कितना तेज़ किया? जब उन्होंने 32-बिट अनक्वांटाइज्ड कीज़ की तुलना चार बिट टर्बोक्वांट से की, तो उन्होंने देखा कि टर्बोक्वांट आठ गुना तक अधिक गति प्रदान करता है।

महिला होस्ट: आठ गुना स्पीड! लाइक 800% का उछाल दुनिया के सबसे तेज़ चिप पर।

पुरुष होस्ट 2: जी हां। यह तो सचमुच उस कार को संकरी गली से निकालकर किसी फॉर्मूला वन ट्रैक पर उतार देने जैसा है। दिमाग चकरा देने वाला। और सिर्फ की-वैल्यू कैश में ही नहीं, हाई-डायमेंशनल वेक्टर सर्च में भी इसने अपना दबदबा साबित किया है। ‘ग्लोव’ (GloVe) नाम के एक मशहूर डेटा सेट पर जब इसका परीक्षण किया गया ना, तो टर्बोक्वांट ने PQ और रबिक्यू जैसी मौजूदा सबसे बेहतरीन विधियों को भी बहुत पीछे छोड़ दिया।

महिला होस्ट: मतलब यह हर जगह जीत रहा है।

पुरुष होस्ट 2: बिल्कुल। इसने साबित कर दिया कि यह तकनीक न केवल जगह बचाती है, बल्कि सबसे सटीक जवाब भी सबसे तेज़ी से ढूंढ कर लाती है।

महिला होस्ट: यह सब सुनकर ऐसा लग रहा है जैसे हम AI के विकास के एक बिल्कुल नए युग के दरवाज़े पर खड़े हैं। यह AI के काम करने के तरीके में कोई छोटा-मोटा सुधार नहीं है, यह एक बुनियादी बदलाव है।

पुरुष होस्ट 2: एकदम सही।

महिला होस्ट: लेकिन हमारे श्रोताओं के लिए यह जानना बहुत ज़रूरी है कि इसका उनकी रोज़मर्रा की ज़िंदगी पर क्या असर होगा। मतलब क्या यह सिर्फ सर्वर रूम्स तक सीमित रहेगा या इसका असर हम तक भी पहुँचेगा?

पुरुष होस्ट 2: इसका असर बहुत जल्द और बहुत बड़े पैमाने पर होने वाला है। देखिए, आज हम जिस तरह से इंटरनेट पर जानकारी खोजते हैं ना, वह बदल रहा है।

महिला होस्ट: हां, सर्च इंजन स्मार्ट हो रहे हैं।

पुरुष होस्ट 2: आज के सर्च इंजन केवल आपके द्वारा टाइप किए गए कीवर्ड से काम नहीं चलाते। वे ‘सेमेंटिक सर्च’ (Semantic Search) की ओर बढ़ रहे हैं। यानी वे आपके इरादे और अर्थ को समझने की कोशिश कर रहे हैं। जैसे अगर मैं गूगल से कहूँ— “मुझे उदासी भरे दिनों में देखने वाली कोई ऐसी फिल्म बताओ जिसमें अंत में सब ठीक हो जाता है”, तो सर्च इंजन सिर्फ उदासी और फिल्म शब्द नहीं खोजेगा, बल्कि वह उस जटिल मानवीय भावना को समझेगा। और उस भावना को समझने के लिए सर्च इंजन को उन अरबों वेक्टर्स के बीच पलक झपकते ही सबसे करीबी अर्थ ढूंढना होगा। टर्बोक्वांट जैसी तकनीकें गूगल जैसे विशाल स्तर पर सर्च को अधिक तेज़, सटीक और बहुत कम मेमोरी में काम करने लायक बनाती हैं।

महिला होस्ट: यह तो रोज़मर्रा की सर्फिंग को ही बदल देगा।

पुरुष होस्ट 2: जी। इसके अलावा जो सबसे एडवांस्ड AI मॉडल्स हैं, जैसे जेमिनी, उनके सामने सबसे बड़ी चुनौती यह थी कि बहुत लंबे कॉन्टेक्स्ट को याद रखने पर उनकी मेमोरी बॉटलनेक हो रही थी।

महिला होस्ट: जो हमने शुरू में ट्रैफिक जाम की बात की थी।

पुरुष होस्ट 2: हाँ। टर्बोक्वांट उस बॉटलनेक को पूरी तरह से खोल देता है।

महिला होस्ट: यह वाकई कमाल है। हमने चर्चा की शुरुआत उस ट्रैफिक जाम वाले रूपक से की थी और अब ऐसा लग रहा है कि टर्बोक्वांट ने न केवल AI की उस भारी-भरकम चीट-शीट को छोटा कर दिया है, बल्कि उसने पुरानी चौकोर सड़कों को हटाकर एक ऐसा गोल और हाई-स्पीड एक्सप्रेसवे बना दिया है जहाँ अब कभी जाम नहीं लगेगा।

पुरुष होस्ट 2: बिल्कुल रास्ता एकदम साफ़ हो गया है।

महिला होस्ट: लेकिन यह सारी चर्चा सुनकर मेरे मन में एक ऐसा सवाल आ रहा है जो इस ब्लॉग पोस्ट में सीधे तौर पर नहीं लिखा है, लेकिन यू नो, यह सोचने पर मजबूर ज़रूर करता है।

पुरुष होस्ट 2: वह क्या सवाल है?

महिला होस्ट: मैं सोच रही थी अगर AI अब अपने जटिल विचारों, अपनी पूरी मेमोरी और अपनी समझ को बिना किसी नुकसान के इतने छोटे आकार में, लाइक केवल तीन बिट्स तक कंप्रेस कर सकता है… तो क्या हम उस भविष्य की ओर नहीं बढ़ रहे हैं जहाँ हमें उन विशाल ऊर्जा खाने वाले क्लाउड सर्वर्स की ज़रूरत ही ना पड़े?

पुरुष होस्ट 2: अरे, आप तो बहुत आगे की सोच रही हैं।

महिला होस्ट: दूर बैठे सर्वर पर निर्भर रहने के बजाय सीधे हमारे रोज़मर्रा के कम पावर वाले उपकरणों पर, जैसे हमारे फोन, हमारी स्मार्ट घड़ियों या चश्मों पर पूरी तरह से स्वतंत्र रूप से चल सकेंगे।

पुरुष होस्ट 2: यह एक बहुत ही गहरा और विचारणीय प्रश्न है। अगर मॉडल्स का साइज सच में इतना छोटा हो जाता है और उन्हें प्रोसेस करने की स्पीड इतनी बढ़ जाती है, तो बुद्धिमत्ता का असली विकेंद्रीकरण यानी डिसेंट्रलाइजेशन शुरू हो सकता है।

महिला होस्ट: तो मतलब यह पॉसिबल है।

पुरुष होस्ट 2: जी। यह तकनीक को हमेशा के लिए बदल सकता है। यह सिर्फ शुरुआत है।

महिला होस्ट: और यही वह बड़ा सवाल है जिसे आज हम अपने श्रोताओं के साथ छोड़ना चाहेंगे— “क्या भविष्य का सुपर AI हमारे क्लाउड में नहीं, बल्कि सीधे हमारी जेब में होगा?” आज के विश्लेषण में बस इतना ही। सीखते रहिए और तकनीकी तेज़ी से बदलती दुनिया के पीछे के विज्ञान पर हमेशा सवाल उठाते रहिए। नमस्कार।

Rajesh Pandey

newslive24x7.com टीम के सदस्य राजेश पांडेय, उत्तराखंड के डोईवाला, देहरादून के निवासी और 1996 से पत्रकारिता का हिस्सा। अमर उजाला, दैनिक जागरण और हिन्दुस्तान जैसे प्रमुख हिन्दी समाचार पत्रों में 20 वर्षों तक रिपोर्टिंग और एडिटिंग का अनुभव। बच्चों और हर आयु वर्ग के लिए 100 से अधिक कहानियां और कविताएं लिखीं। स्कूलों और संस्थाओं में बच्चों को कहानियां सुनाना और उनसे संवाद करना जुनून। रुद्रप्रयाग के ‘रेडियो केदार’ के साथ पहाड़ के गांवों की अनकही कहानियां लोगों तक पहुंचाईं और सामुदायिक जागरूकता के लिए काम किया। रेडियो ऋषिकेश के शुरुआती दौर में लगभग छह माह सेवाएं दीं। ऋषिकेश में महिला कीर्तन मंडलियों के माध्यम से स्वच्छता का संदेश दिया। जीवन का मंत्र- बाकी जिंदगी को जी खोलकर जीना चाहता हूं, ताकि बाद में ऐसा न लगे कि मैं तो जीया ही नहीं। शैक्षणिक योग्यता: बी.एससी (पीसीएम), पत्रकारिता स्नातक, एलएलबी संपर्क: प्रेमनगर बाजार, डोईवाला, देहरादून, उत्तराखंड-248140 ईमेल: rajeshpandeydw@gmail.com फोन: +91 9760097344

Leave a Reply

Your email address will not be published. Required fields are marked *

Back to top button