Font by Mehr Nastaliq Web

AI अगले वीक ऑफ़ के लिए क्या ‘सोच’ रहे हो!

पहली कड़ी से आगे...

गणना बनाम अंतर्ज्ञान

साल 1997 में शतरंज की दुनिया ने एक ऐतिहासिक पल देखा, जब IBM के सुपरकंप्यूटर डीप ब्लू (Deep Blue) ने तब के वर्ल्ड चैंपियन गैरी कास्पारोव को हराया। यह पहली बार था, जब एक कंप्यूटर ने टूर्नामेंट की कंडीशन में एक मौजूदा शतरंज के विश्व चैंपियन को हराया था और इसे आर्टिफ़िशियल इंटेलिजेंस के इंसानी इंटेलिजेंस के बराबर आने का एक सिंबॉलिक संकेत माना गया।

लेकिन क्या डीप ब्लू अस्ल में ‘सोच’ रहा था? कास्पारोव को शुरू में शक था कि IBM ने धोखा दिया था, क्योंकि डीप ब्लू ने एक ‘अतार्किक चाल’ चली थी जो सिर्फ़ एक इंसान ही चल सकता था। बाद में—डीप ब्लू के इंजीनियरों में से एक—मरे कैंपबेल ने खुलासा किया कि यह ‘अतार्किक बलिदान’ न तो इंसानी दख़्ल था और न ही आर्टिफ़िशियल इंटेलिजेंस, यह सिर्फ़ एक ‘गड़बड़’ थी।

डीप ब्लू की जीत ‘ब्रूट फ़ोर्स’ अप्रोच का नतीजा थी। एक ऐसा तरीक़ा, जहाँ कंप्यूटर हर पॉसिबल चाल को कैलकुलेट करता है। यह हर सेकंड 200 मिलियन पॉसिबल चालों का एनालिसिस कर सकता था और जीत की सबसे ज़्यादा पॉसिबिलिटी वाली चाल चुन सकता था। यह इंसान खिलाड़ी पर कंप्यूटर का सबसे बड़ा फ़ायदा था : बहुत सारी संख्याओं को बहुत-बहुत तेज़ी से क्रंच करने की क्षमता। हालाँकि, डीप ब्लू एक नई रणनीति के हिसाब से ख़ुद को ढाल नहीं सका।

यह ‘चाइनीज़ रूम’ तर्क के साथ मेल खाता है : डीप ब्लू ने नियमों और गणनाओं के आधार पर शानदार परफ़ॉरमेंस दिया (सिंटेक्स), लेकिन उसमें इंसान जैसी अंतर्ज्ञान (intuition) या सच्ची समझ (सिमेंटिक्स) की कमी थी। यह एक मशीन की प्रभावशाली कम्प्यूटेशनल पॉवर और इंसानी दिमाग़ की गहरी, लचीली समझ के बीच के फ़र्क़ को उजागर करता है। आज के शतरंज प्रोग्राम डीप ब्लू की क्षमताओं को आसानी से पार कर जाते हैं, लेकिन यह बहस अभी भी जारी है कि क्या यह सच्ची समझ है या सिर्फ़ ज़्यादा परिष्कृत गणना।

ऐपल का ‘सोचने का भ्रम’

अब आते हैं आज की सबसे नई और धमाकेदार रिसर्च पर। ऐपल के कुछ धुरंधर वैज्ञानिकों ने हाल ही में एक स्टडी की है, जिसका टाइटल है—The Illusion of Thinking : Understanding the Strengths and Limitations of Reasoning Models via the Lens of Problem Complexity.

इस रिसर्च के दौरान ऐपल के रिसर्चर्स ने दुनिया के सबसे एडवांस्ड AI मॉडल्स (जैसे ओपन AI के चैट जीपीटी, गूगल के जैमिनी, एंथ्रोपिक के क्लॉड) को लिया और उन्हें कुछ ख़ास तरह की पहेलियाँ हल करने को दीं। ये पहेलियाँ ऐसी थीं, जिन्हें हल करने के लिए तर्क-वितर्क (reasoning) करना पड़ता है; सिर्फ़ जानकारी याद करके काम नहीं चलता। ट्रेडिशनल बेंचमार्क—जो डेटा कन्टैमनैशन से परेशान हो सकते हैं—के बजाय, उन्होंने कंट्रोलेबल पज़ल एनवायरनमेंट का यूज़ किया। (एक लाइन में कहें तो ऐपल के रिसर्चर्स ने AI को ‘रट्टा मारने’ का मौक़ा नहीं दिया और यह सुनिश्चित किया कि वे AI की याददाश्त को नहीं, बल्कि उसकी असली तर्क शक्ति और समस्या सुलझाने की क्षमता को परख रहे हैं।)

रिसर्चर्स ने AI मॉडल्स को किस तरह की पहेलियाँ दीं?

टावर ऑफ़ हनोई (Tower of Hanoi): यह एक क्लासिक पहेली है। कल्पना कीजिए कि आपके पास तीन खंभे हैं। एक खंभे में अलग-अलग आकार की कई सारी चकरियाँ (डिस्क) हैं, सबसे बड़ी नीचे और सबसे छोटी ऊपर। आपका काम इन सभी चकरियों को इसी क्रम में दूसरे खंभे पर पहुँचाना है। लेकिन नियम हैं : (1) एक बार में सिर्फ़ एक ही चक्री उठा सकते हैं, और (2) कभी भी कोई बड़ी चक्री किसी छोटी चक्री के ऊपर नहीं रखी जा सकती। इस पहेली को हल करने के लिए गहरी प्लानिंग और एकाग्रता की ज़रूरत होती है।

चेकर जंपिंग (Checker Jumping): इसे आप एक लाइन वाले शतरंज की तरह समझ सकते हैं। मान लीजिए एक लाइन में कुछ गोटियाँ रखी हैं, और बीच में एक जगह ख़ाली है। आपको गोटियों को एक-एक करके आगे बढ़ाना है या दूसरी गोटी के ऊपर से कूदकर (जंप करके) ख़ाली जगह में ले जाना है। लक्ष्य होता है सभी गोटियों को एक ख़ास पैटर्न में व्यवस्थित करना। इसमें हर क़दम सोचने के बाद ही उठाना पड़ता है।

रिवर क्रॉसिंग (River Crossing): यह दुनिया की सबसे मज़ेदार पहेलियों में से एक है। आपको एक भेड़िये, एक बकरी और एक पत्तागोभी को नाव से नदी पार करानी है, लेकिन नाव में आपके अलावा सिर्फ़ एक ही चीज़ आ सकती है। समस्या यह है कि अगर आपने भेड़िये और बकरी को अकेला छोड़ दिया, तो भेड़िया बकरी को खा जाएगा और अगर आपने बकरी और गोभी को अकेला छोड़ दिया, तो बकरी गोभी खा जाएगी। अब आपको ऐसा रास्ता निकालना है कि सब सुरक्षित नदी पार कर जाएँ और कोई किसी को न खाए!

इस तरह की पहेलियाँ देकर, रिसर्चर्स AI के काम करने के तरीक़े की जासूसी कर सकते थे। यह नया तरीक़ा उन्हें AI के इंटर्नल रीज़निंग ट्रेसेज़ को देखने की इज़ाज़त देता है। मतलब अब वे यह देख सकते थे कि AI किसी समस्या को हल करते समय “अंदर ही अंदर क्या सोच रहा है”। ठीक वैसे ही, जैसे आप किसी छात्र की सिर्फ़ फ़ाइनल आंसर शीट नहीं, बल्कि उसकी रफ़ शीट भी देखते हैं, यह जानने के लिए कि उसने सवाल हल कैसे किया। इससे यह समझने में मदद मिलती है कि यह मॉडल अस्ल में “कैसे सोचते हैं”।

रिसर्चर्स ने क्या पाया

मुश्किल की खाई (The Complexity Cliff): जब तक पहेलियाँ थोड़ी आसान या मीडियम लेवल की थीं, AI मॉडल्स ने कमाल का परफ़ॉरमेंस दिया। ऐसा लगा कि वे सच में ‘सोच’ रहे थे; लेकिन जैसे ही पहेली की मुश्किल एक ‘ख़ास लिमिट’ (Threshold) को पार कर गई, AI मॉडल्स का परफ़ॉरमेंस अचानक धड़ाम हो गया! यह गिरावट हौले-हौले नहीं, बल्कि सडन थी। उदाहरण के लिए, क्लाउड 3.7 सोनट और डीपसीक R1 ने टावर ऑफ़ हनोई प्रॉब्लम में पाँचवीं डिस्क जोड़ने पर फ़ेल होना शुरू कर दिया, तो अगर AI सच में ‘सोच’ रहा होता, तो मुश्किल बढ़ने पर शायद थोड़ा धीरे होता, थोड़ी ग़लतियाँ करता, लेकिन अचानक से पूरी तरह से काम करना बंद नहीं करता। यह दिखाता है कि उनकी ‘समझ’ की क्षमता इंसान की तरह फ़्लेक्सिबल (लचीली) नहीं है।

मेहनत का विरोधाभास (The Effort Paradox): वैज्ञानिकों ने देखा कि AI मॉडल्स अक्सर मुश्किल पहेलियों पर ‘ज़्यादा मेहनत’ करने का दिखावा करते हैं। वो ज़्यादा लंबा जवाब, ज़्यादा ‘सोच-प्रक्रिया’ वाला टेक्स्ट जेनरेट करते हैं, लेकिन जब पहेली ‘बहुत ज़्यादा मुश्किल’ हो जाती है (जो उनकी क्षमता से बाहर है), तो वे अचानक से ये ‘मेहनत’ करना बंद कर देते हैं, भले ही उनके पास और ‘सोचने’ का मौक़ा हो। गोया कुंदन का डायलॉग याद आ गया हो उन्हें—…पर नहीं! अब साला मूड नहीं है।

तो, वे हार मान लेते हैं और ‘कम टोकन ख़र्च’ करते हैं, या कहें कि ‘कम सोचते हैं’। ये ऐसा है जैसे एक बच्चा सिर्फ़ एग्जाम में पास होने के लिए रट्टा मार रहा हो। जब तक सवाल रटे हुए सिलेबस से आते हैं, वह धड़ाधड़ लिखता है; लेकिन जैसे ही कोई नया या बहुत जटिल सवाल आता है, वह हाथ खड़े कर देता है क्योंकि उसे असली समझ नहीं है, बस पैटर्न याद हैं। AI भी ‘समझ’ नहीं रहा, बस ‘पैटर्न’ दिखा रहा है।

तो पाकिस्तानी आंटी की भाषा में पूछें तो क्या ये सारे मिलकर हमें पागल बना रहे हैं? एक ‘विज़ार्ड ऑफ़ ओज़’ (The Wizard of Oz) जैसा खेल खेल रहा है? एक सम्मोहक भ्रम पैदा करते हैं और अंदर से वे अभी भी सिर्फ़ पैटर्न मैचिंग सिस्टम हैं जिनकी अपनी लिमिट्स हैं?


आगे बढ़ने से पहले LRM-LLM को समझ लीजिए, जिनका रेफ़रेंस ऊपर टेबल में आया है। 

LLM (Large Language Model): इसे आप एक ऐसे व्यक्ति की तरह समझिए जिसने दुनिया की लगभग सारी किताबें, लेख और वेबसाइटें पढ़ रखी हैं।

• यह क्या करता है : इसका काम है ‘अगला शब्द क्या होगा?’ का अनुमान लगाना। इसी एक क़ाबिलियत को जब बहुत बड़े पैमाने पर ट्रेन किया जाता है, तो यह लिखना, बातें करना, सारांश बनाना और रचनात्मक काम करना सीख जाता है।

• इसकी ताक़त क्या है : इसका विशाल ज्ञान और पैटर्न पहचानने की क्षमता, क्योंकि इसने अरबों पन्नों का डेटा पढ़ा है, यह संदर्भ को बहुत अच्छी तरह समझता है और इंसानों जैसी स्वाभाविक बातचीत कर सकता है। यह एक जनरलिस्ट (generalist) है, जिसे हर विषय की थोड़ी-बहुत जानकारी है।

LRM (Large Reasoning Model): इसे आप एक ऐसे विशेषज्ञ की तरह समझिए जिसे ख़ास तौर पर पहेलियाँ सुलझाने, गणित करने और तर्क के आधार पर काम करने के लिए ही ट्रेनिंग दी गई है।

• यह क्या करता है : इसका मुख्य काम है नियमों का पालन करते हुए स्टेप-बाय-स्टेप किसी समस्या को हल करना। यह योजना बनाने और किसी प्रक्रिया का सख्ती से पालन करने के लिए डिज़ाइन किया गया है।

• इसकी ताक़त क्या है : इसकी सटीकता (precision) और तार्किक प्रक्रिया। यह किसी भी काम को व्यवस्थित तरीक़े से करने में माहिर होता है। यह एक स्पेशलिस्ट (specialist) है, जो तार्किक कामों के लिए बना है।


तो बात यह है बंधु कि ‘कॉम्प्लेक्सिटी क्लिफ़’ और ‘एफ़र्ट पैराडॉक्स’ सिर्फ़ डेटा पॉइंट नहीं हैं, वे एक ख़ास तरह की इंटेलिजेंस के सिग्नेचर हैं : स्टेट्स-बेस्ड पैटर्न रिकग्निशन। मतलब, अगर AI अस्ल में पहेलियों के अंदरूनी कारण तर्क को समझता (जैसे एक इंसान करता है), तो उसका परफ़ॉरमेंस धीरे-धीरे ख़राब होता, अचानक ढह नहीं जाता। यह ‘अचानक गिरावट’ इस बात का साफ़ संकेत है कि एक ख़ास सीमा के बाद, AI के सीखे हुए सांख्यिकीय पैटर्न काम करना बंद कर देते हैं। ऐसा इसलिए है, क्योंकि मॉडल ने समस्या के पीछे के सिद्धांतों (principles) को नहीं, बल्कि सिर्फ़ डेटा में मौजूद सहसंबंधों (correlations) को सीखा है। यही इंसानी तर्क और AI में एक बुनियादी फ़र्क़ है। हम इंसान अक्सर किसी समस्या के मूल सिद्धांतों को समझते हैं और फिर उन्हें किसी भी नई परिस्थिति में, अपने हिसाब से ढालकर (flexibly) लागू कर सकते हैं, भले ही इसमें हमें थोड़ा ज़्यादा समय लगे। इसलिए, Apple का यह रिसर्च इस बात का पुख्ता सबूत देता है कि AI का तर्क इंसानी तर्क से मौलिक रूप से अलग है। AI का तर्क पूरी तरह से सीखे हुए पैटर्न पर नाज़ुक ढंग से निर्भर करता है, और जैसे ही उसे अपनी ट्रेनिंग के दायरे से बाहर की कोई चुनौती मिलती है, यह सिस्टम बुरी तरह फ़ेल हो जाता है। इसके विपरीत, इंसानी तर्क किसी विषय पर गहरी और मज़बूत पकड़ पर आधारित होता है।

बात निकलेगी तो

लेकिन गुरु कहानी में एक ट्विस्ट है। इनफ़ैक्ट दो। Apple के पेपर के जवाब में जो तर्क आ रहे हैं, वे ख़ुद ही एक पहेली हैं। यह बहस अपने आप में फ़िल्म ‘इंसेप्शन’ की तरह है—एक सपने के अंदर एक और सपना, एक पहेली के अंदर एक और पहेली।

• पहला काउंटर-आर्गुमेंट यह है : क्या ऐसा नहीं हो सकता कि AI फ़ेल नहीं हो रहा, बल्कि हमसे ज़्यादा स्मार्ट तरीक़े से सोच रहा है? शायद AI को यह पता चल जाता है कि पहेली उसकी क्षमता की सीमा तक पहुँच रही है, और वह जानबूझकर एक छोटा जवाब देने का फैसला करता है। यह वैसा ही है जैसे एक शतरंज का ग्रैंडमास्टर कोई ऐसा दांव चले जो हमें ग़लती लगे, पर अस्ल में वह एक लंबी, सोची-समझी रणनीति का हिस्सा हो। यह AI की ‘सोच के बारे में सोच’ है, जो उसे और भी ज़्यादा कॉम्प्लेक्स बनाती है।

• दूसरा, गैरी मार्कस जैसे AI एक्सपर्ट्स एक आईना दिखाते हैं। वह कहते हैं कि जिन मुश्किल पहेलियों (जैसे टावर ऑफ़ हनोई) में AI फ़ेल होता है, उनमें ज़्यादातर इंसान भी बुरी तरह फ़ेल होते हैं! तो क्या हम AI को एक ऐसे स्टैंडर्ड पर परख रहे हैं जिस पर हम ख़ुद खरे नहीं उतरते? शायद हमारा सवाल पूछने का तरीक़ा ही ग़लत हो और यहीं पर हम असली और सबसे गहरी चुनौती पर पहुँचते हैं। जैसे दमयंती को पाँच एक जैसे दिखने वाले नलों में से असली नल को पहचानना था, आज के रिसर्चर्स भी उसी चुनौती का सामना कर रहे हैं : वे सच्ची समझ और उसकी बेहतरीन नक़ल के बीच फ़र्क़ कैसे करें? यह काम और भी मुश्किल हो जाता है, क्योंकि AI मॉडल अब इतने माहिर हो गए हैं कि वे इंसानों की तरह ‘निर्णय लेने’ की भी नक़ल कर सकते हैं—शायद वे अपनी सीमाओं को पहचानने और हार मानने की भी नक़ल कर रहे हों।

~~~

अगली बेला में जारी...

'बेला' की नई पोस्ट्स पाने के लिए हमें सब्सक्राइब कीजिए

Incorrect email address

कृपया अधिसूचना से संबंधित जानकारी की जाँच करें

आपके सब्सक्राइब के लिए धन्यवाद

हम आपसे शीघ्र ही जुड़ेंगे

26 मई 2025

प्रेम जब अपराध नहीं, सौंदर्य की तरह देखा जाएगा

26 मई 2025

प्रेम जब अपराध नहीं, सौंदर्य की तरह देखा जाएगा

पिछले बरस एक ख़बर पढ़ी थी। मुंगेर के टेटिया बंबर में, ऊँचेश्वर नाथ महादेव की पूजा करने पहुँचे प्रेमी युगल को गाँव वालों न

31 मई 2025

बीएड वाली लड़कियाँ

31 मई 2025

बीएड वाली लड़कियाँ

ट्रेन की खिड़कियों से आ रही चीनी मिल की बदबू हमें रोमांचित कर रही थी। आधुनिक दुनिया की आधुनिक वनस्पतियों की कृत्रिम सुगंध

30 मई 2025

मास्टर की अरथी नहीं थी, आशिक़ का जनाज़ा था

30 मई 2025

मास्टर की अरथी नहीं थी, आशिक़ का जनाज़ा था

जीवन मुश्किल चीज़ है—तिस पर हिंदी-लेखक की ज़िंदगी—जिसके माथे पर रचना की राह चलकर शहीद हुए पुरखे लेखक की चिता की राख लगी हु

30 मई 2025

एक कमरे का सपना

30 मई 2025

एक कमरे का सपना

एक कमरे का सपना देखते हुए हमें कितना कुछ छोड़ना पड़ता है! मेरी दादी अक्सर उदास मन से ये बातें कहा करती थीं। मैं तब छो

28 मई 2025

विनोद कुमार शुक्ल का आश्चर्यलोक

28 मई 2025

विनोद कुमार शुक्ल का आश्चर्यलोक

बहुत पहले जब विनोद कुमार शुक्ल (विकुशु) नाम के एक कवि-लेखक का नाम सुना, और पहले-पहल उनकी ‘प्रतिनिधि कविताएँ’ हाथ लगी, तो

बेला लेटेस्ट