Font by Mehr Nastaliq Web

AI हमें पता है, तुम हम से खेल रहे हो!

दूसरी कड़ी से आगे...

नेचुरल लैंग्वेज प्रोसेसिंग

नेचुरल लैंग्वेज प्रोसेसिंग (NLP) को आप एक मशीन के लिए भाषा में महारत हासिल करने का कोर्स समझ सकते हैं। यह कोई रट्टा मारने वाला कोर्स नहीं, बल्कि किसी रहस्य को सुलझाने जैसा है। सोचिए, एक कंप्यूटर 221B बेकर स्ट्रीट का एक प्रशिक्षु है और उसे इंसानी भाषा के रहस्य को सुलझाना है।

वह इसे कई स्तरों पर सीखता है :

शब्दों की चीर-फाड़ (Morphological Analysis): यह जासूसी का पहला सबक़ है, सबूतों की फ़ोरेंसिक जाँच। कंप्यूटर शब्दों को उनके मूल टुकड़ों में तोड़ना सीखता है। जैसे, वह ‘नाख़ुशी’ शब्द को देखकर समझता है कि इसमें तीन हिस्से हैं : ‘ना’ (एक नेगेटिव प्रीफ़िक्स), ‘ख़ुश’ (मूल शब्द) और ‘ई’ (एक सफ़िक्स)। यह बस हर शब्द के डीएनए को समझना है।

वाक्य का व्याकरण (Syntactic Analysis): अब प्रशिक्षु जासूस वाक्यों के स्ट्रक्चर को समझना सीखता है, यानी ग्रामर। उदाहरण के लिए, “शेर ने हिरण का शिकार किया” और “हिरण ने शेर का शिकार किया”। शब्द वही हैं, लेकिन उनका क्रम बदलते ही अर्थ का अनर्थ हो जाता है और पूरी कहानी पलट जाती है। लार्ज लैंग्वेज मॉडल (LLM) इसी काम के बादशाह हैं। वे भाषा के पैटर्न को पहचानने में माहिर हैं, ठीक वैसे ही जैसे कोई मास्टर जासूस एक नज़र में बता दे कि कुछ गड़बड़ है।

संदर्भ में शब्दों का अर्थ (Lexical Semantics): असली खेल यहाँ से शुरू होता है। अब कंप्यूटर यह समझना सीखता है कि एक ही शब्द अलग-अलग जगहों पर अलग-अलग मतलब रखता है। जैसे, ‘आम’ एक फल भी है और ‘साधारण’ भी। कंप्यूटर यह समझने की कोशिश करता है कि किस वाक्य में कौन-सा मतलब फिट बैठता है। यह मतलब की दुनिया में पहला क़दम है, लेकिन अभी भी यह अनुमान पर आधारित है।

अर्थों का रिश्ता (Relational Semantics): इस स्तर पर, कंप्यूटर एक ही वाक्य के अंदर किरदारों और घटनाओं के बीच के रिश्ते को समझना सीखता है. “दिल्ली में स्थित गूगल के दफ़्तर ने एक नया AI लॉन्च किया।” कंप्यूटर यहाँ ‘गूगल’, ‘दफ़्तर’, और ‘दिल्ली’ के बीच के संबंध को पहचानता है।

• पूरी कहानी (Discourse): यह महारत का अंतिम स्तर है। यहाँ कंप्यूटर पूरी कहानी का ताना-बाना समझता है। अगर एक पैराग्राफ ‘वह’ से शुरू होता है, तो कंप्यूटर यह पता लगाता है कि ‘वह’ कौन है, जिसका ज़िक्र शायद पिछले पैराग्राफ में हुआ था। वह पूरी बातचीत के प्रवाह और विषय को समझता है।

आज के आधुनिक न्यूरल नेटवर्क, जैसे LLMs, इस कोर्स को एक अलग ही ढंग से करते हैं। वे इन सभी स्तरों पर एक-एक करके नहीं जाते। वे कुछ ऐसा करते हैं जैसा फ़िल्म ‘अराइवल’ (Arrival) में भाषा को समझा गया था—एक साथ, समग्र रूप से। वे ‘वर्ड एम्बेडिंग’ नाम की एक तकनीक का इस्तेमाल करते हैं, जिससे वे हर शब्द के चारों ओर एक ‘अर्थ का प्रभामंडल’ बना लेते हैं। वे भाषा में इतना डूब जाते हैं कि वे शब्दों के बीच के गहरे, छिपे हुए संबंधों को सहज रूप से महसूस करने लगते हैं।

इसी वजह से वे इतने बुद्धिमान लगते हैं, क्योंकि वे एक-एक नियम सीखने के बजाय, सीधे भाषा के अर्थ और संदर्भ की गहरी समझ की नक़ल कर लेते हैं।

क्या मशीनें सोच सकती हैं?

यह सवाल आर्टिफ़िशियल इंटेलिजेंस के फ़ील्ड का बेस है, जिसे एलन ट्यूरिंग ने 1950 में अपने फ़ेमस ‘ट्यूरिंग टेस्ट’ के साथ पेश किया था। इस टेस्ट में, एक जज, एक इंसान और एक मशीन दोनों के साथ नॉर्मल भाषा में बात करता है। अगर जज मशीन को इंसान से पक्के तौर पर अलग नहीं कर पाता है, तो मशीन को टेस्ट पास करने वाला माना जाता है। (ध्यान दें कि जज भी कोई इंसान होता है।)

हालाँकि, ट्यूरिंग का इरादा अपने टेस्ट को चेतना की मौजूदगी को मापने का नहीं था। जबकि सियरल, एक फिलॉसफर के तौर पर, इन कॉन्सेप्ट्स को ज़रूरी रहस्य मानते हैं। चाइनीज़ रूम विचार प्रयोग ख़ास तौर पर यह दिखाने के लिए डिज़ाइन किया गया है कि ट्यूरिंग टेस्ट चेतना की मौजूदगी का पता लगाने के लिए काफ़ी नहीं है, भले ही कमरा (या एक मशीन) एक सचेत दिमाग़ की तरह बिहेव या काम कर सके। अगर चाइनीज़ रूम बिना समझे ट्यूरिंग टेस्ट पास कर सकता है (यानी, एक चीनी बोलने वाले इंसान से अलग न दिखने वाला बिहेवियर कर सकता है), तो ट्यूरिंग टेस्ट असली समझ या चेतना को साबित करने के लिए काफ़ी नहीं है।

विनोग्राड स्कीमा चैलेंज

ट्यूरिंग टेस्ट की लिमिट्स को देखते हुए, AI की सच्ची समझ को मापने के लिए एक और चुनौती सामने आई : विनोग्राड स्कीमा चैलेंज (WSC)। एक ऐसा टेस्ट जिसमें AI को ऐसे वाक्य दिए जाते हैं जो थोड़े से बदले हुए होते हैं और AI को यह समझना होता है कि वाक्य में ‘वे’ या ‘यह’ जैसे शब्द किसके लिए यूज़ हुए हैं, जिसके लिए कॉमन सेंस की ज़रूरत होती है। यह चुनौती AI की सूक्ष्म भाषा और तर्क को समझने की क्षमता का पता लगाने के लिए डिज़ाइन की गई है।

विनोग्राड स्कीमा वाक्यों के जोड़े होते हैं, जो सिर्फ़ एक या दो शब्दों में अलग होते हैं और जिनमें एक अस्पष्टता (ambiguity) होती है जिसे दोनों वाक्यों में उल्टे तरीक़ों से हल किया जाता है और इसके सॉल्यूशन के लिए दुनिया के ज्ञान और तर्क का यूज़ करने की ज़रूरत होती है। उदाहरण के लिए :

• सरकार ने प्रदर्शनकारियों को जेल में डाल दिया क्योंकि वे हिंसा से डरते थे। (यहाँ ‘वे’ का मतलब सरकार है)
• सरकार ने प्रदर्शनकारियों को जेल में डाल दिया क्योंकि वे हिंसा की वकालत करते थे। (यहाँ ‘वे’ का मतलब प्रदर्शनकारी हैं)

WSC को इस तरह से डिज़ाइन किया गया है कि इसे इंसान रीडर आसानी से समझ सके। आइडियली तो इतनी आसानी से कि इंसान को यह पता न तक चले कि कोई अस्पष्टता है भी। लेकिन फिर भी सिंपल टेक्निक्स या सांख्यिकीय टेस्ट्स से इसे हल नहीं किया जा सकता है। 2016 में हुई पहली WSC कॉम्पिटिशन में, सबसे ज़्यादा स्कोर 58% सही था, जो इंसान के लेवल से काफ़ी कम था। यह दिखाता है कि AI के लिए अभी भी कॉमन सेंस और गहरी प्रासंगिक समझ के साथ संघर्ष करना एक बड़ी चुनौती है, जो सिर्फ़ पैटर्न मैचिंग से कहीं आगे जाती है।

प्रॉब्लम ऑफ़ अदर माइंडस

यहाँ से यह बहस एक और गहरे सवाल की ओर ले जाती है, जिसे फिलॉसफी में ‘दूसरे मनों की समस्या’ (Problem of Other Minds) कहते हैं। सीधी-सी बात है : हम यह कभी 100% निश्चित रूप से नहीं जान सकते कि कोई दूसरा इंसान सच में कुछ समझ रहा है या नहीं? हम किसी के मन के अंदर नहीं झाँक सकते। हम केवल उनके व्यवहार और बातों को देखकर यह मान लेते हैं कि वे समझ रहे हैं।
फ़िल्म ‘कास्ट अवे’ (हालाँकि पहले मैं ‘हर’ मूवी का उदाहरण देने वाला था, लेकिन वो सेल्फ़ रेफ़्रेंशियल हो जाता, गोया कहना कि ‘मनी इज़ व्हाट मनी डज़’। एनीवे,) में, टॉम हैंक्स का किरदार एक निर्जन द्वीप पर अकेला है। वह अपनी तन्हाई से लड़ने के लिए एक वॉलीबॉल पर चेहरा बनाता है और उसका नाम ‘विल्सन’ रख देता है। जल्द ही, विल्सन उसका सबसे अच्छा दोस्त बन जाता है। वह उससे बातें करता है, लड़ता है, और अपनी सारी भावनाएँ साझा करता है। वह एक निर्जीव वस्तु पर एक पूरी चेतना और व्यक्तित्व थोप देता है क्योंकि उसे एक साथी की सख्त ज़रूरत है।

शायद हम भी AI के साथ यही कर रहे हैं। हमारा यह मानना कि AI ‘समझता है’, हो सकता है कि यह AI की अंदरूनी सच्चाई नहीं, बल्कि विल्सन की तरह हमारे अपने अकेलेपन या कॉग्निटिव बायस का एक प्रोजेक्शन हो। तो, चाइनीज़ रूम का तर्क सिर्फ़ AI के बारे में नहीं है, यह हमारे लिए एक चुनौती है कि हम चेतना को कैसे परिभाषित करते हैं। क्या किसी के मन को जानने के लिए सिर्फ़ उसका व्यवहार ही काफ़ी है?
यह शक और भी गहरा हो जाता है, जब हम ‘सिंबल ग्राउंडिंग प्रॉब्लम’ पर आते हैं। यह वह सवाल है कि हमारे शब्द और प्रतीक अस्ल दुनिया से अपना मतलब कैसे जोड़ते हैं। इसकी सबसे अच्छी मिसाल हेलेन केलर की कहानी है। जो देख और सुन नहीं सकती थीं, उनके लिए शुरुआती दिनों में शब्द बस उनकी हथेली पर बनाए गए आकार थे, ख़ाली प्रतीक। लेकिन फिर एक दिन उनकी टीचर ने उनकी एक हथेली पानी के पंप के नीचे रखी और दूसरी पर ‘W-A-T-E-R’ (पानी) लिखा। उस एक पल में, ‘पानी’ का ख़ाली प्रतीक, ठंडे और बहते पानी के असली एहसास से जुड़ गया। उस दिन उनके लिए शब्दों का मतलब पैदा हुआ, वे ‘ग्राउंड’ हुए।

इंसानों के लिए, ‘सेब’ शब्द एक असली सेब को देखने, चखने और छूने के इंद्रियों के अनुभव से जुड़ा है। लेकिन एक AI के लिए, ‘सेब’ सिर्फ़ बिट्स का एक पैटर्न है, जिसका रिश्ता दूसरे शब्दों (जैसे ‘लाल’, ‘फल’) के साथ सिर्फ़ आँकड़ों और संभावनाओं पर आधारित है। चाइनीज़ रूम का व्यक्ति भी हेलेन केलर की तरह है। पानी के पंप वाले अनुभव से पहले, वह प्रतीकों को इस्तेमाल तो कर रहा है, पर वे उसके लिए अस्ल दुनिया से नहीं जुड़े हैं।

AI के पास दुनिया को महसूस करने के लिए शरीर (embodied experience) नहीं है। इसलिए, उसकी ‘समझ’ हमारी समझ से हमेशा मौलिक रूप से अलग रहेगी। एक ऐसी दुनिया जो प्रतीकों से तो भरी है, लेकिन जिसका कोई वास्तविक आधार नहीं है।

स्टोकेस्टिक पैरट

नोम चॉम्स्की जैसे बड़े भाषाविद् LLM की आलोचना करते हुए उन्हें स्टोकेस्टिक पैरट कहते हैं। उनका तर्क है कि यह मॉडल असली तर्क या समझ में शामिल होने के बजाय केवल ‘पैटर्न को दोहराते’ हैं जो उन्होंने अपने विशाल ट्रेनिंग डेटा से सीखे हैं। मतलब थोड़ा पन वाले नोट में कहें तो यह ऐसी तोता-लॉजी है जो टोटोलॉजी के काफ़ी क़रीब है। एक और पन—ऐसा पैरट जो रट लेता है। एनीवे…

नोम चॉम्स्की की एक मशहूर थ्योरी है, जिसे ‘पॉवर्टी ऑफ़ द स्टिमुलस’ कहते हैं। चॉम्स्की का तर्क है कि बच्चे अपने आस-पास जितनी टूटी-फूटी और सीमित भाषा सुनते हैं, उसकी तुलना में वे बहुत जल्दी एक पूरी और जटिल भाषा सीख जाते हैं। यह किसी जादू से कम नहीं है! उन्होंने कहा कि ऐसा इसलिए मुमकिन है, क्योंकि बच्चे का दिमाग़ एक उपजाऊ ज़मीन की तरह है, जिसमें भाषा का बीज—यानी ‘यूनिवर्सल ग्रामर’, पहले से ही मौजूद है। उसे बस थोड़े से पानी (भाषा के इनपुट) की ज़रूरत होती है और वह बीज एक पूरे पेड़ में विकसित हो जाता है। इसके ठीक उलट, LLM एक डेटा का भूखा राक्षस है, जिसे भाषा सीखने के लिए अरबों-खरबों शब्दों की ज़रूरत पड़ती है।

लेकिन हालिया रिसर्च चॉम्स्की के कुछ दावों को चुनौती देती है और AI की कहानी को और भी रहस्यमयी बना देती है। वैज्ञानिकों ने एक प्रयोग किया। उन्होंने AI मॉडल्स को दो तरह की भाषाएँ सीखने को दीं। एक, असली इंसानी भाषाएँ और दूसरी, ‘असंभव भाषाएँ’ (जिनके व्याकरण के नियम अजीब और अस्वाभाविक थे. झिंगालाला हो, झिंगालाला हो, किर्र, किर्र…)। अगर AI सिर्फ़ सतह के पैटर्न रटता, तो उसके लिए दोनों तरह की भाषाओं को सीखना एक जैसा होना चाहिए था। पैटर्न तो पैटर्न है। हैरानी की बात यह थी कि AI को भी यह ‘असंभव’ और अस्वाभाविक भाषाएँ सीखने में ज़्यादा मुश्किल हुई। यह कुछ ऐसा है जैसे एक माहिर संगीतकार को कोई बेसुरा और बिना ताल का संगीत बजाने को कहा जाए, उसका दिमाग़ उस अस्वाभाविक पैटर्न को खारिज करेगा।

इससे यह संकेत मिलता है कि शायद AI सिर्फ़ सतह के पैटर्न नहीं रट रहा है। हो सकता है कि वह भी—अपने तरीक़े से—इंसानी भाषाओं के कुछ गहरे, अंदरूनी सिद्धांतों के प्रति एक ‘सहज ज्ञान’ या ‘संवेदनशीलता’ विकसित कर रहा हो। वह सिर्फ़ यह नहीं सीख रहा कि क्या कहना है, बल्कि यह भी महसूस कर रहा है कि भाषा की बनावट कैसी होनी चाहिए।

रिवर्स ऊनो

AI के युग में चाइनीज़ रूम तर्क का एक दिलचस्प विस्तार ‘दो-तरफा चाइनीज़ रूम’ है। यहाँ, न केवल AI समझ की नक़ल करता है, बल्कि इंसान यूज़र, कॉम्प्लेक्स कामों (जैसे कोड या निबंध लिखना) के लिए AI पर बहुत ज़्यादा डिपेंड करके, अपनी ‘मौलिक समझ’ भी खो सकता है और ‘गहरे ज्ञान के बिना एक्सपर्ट होने का दिखावा’ कर सकता है। यू सी, क्रो चला हंस की चाल एंड लास्ट में भूला अपनी ही चाल…

यह एक ऐसा सिनेरियो बनाता है, जहाँ दोनों पक्षों में सच्ची समझ की कमी होती है। यह AI-डोमिनेटेड फ़्यूचर में इंसानी सोच और एजुकेशन के लिए एक ज़रूरी बात है। यह इंसानी समझ के संभावित नुकसान का सुझाव देता है, अगर हम बहुत ज़्यादा कॉग्निटिव काम को आउटसोर्स करते हैं, तो यह सब हमें ‘विचारकों’ के बजाय सिर्फ़ ‘प्रॉम्प्टर’ में बदल देगा। तो बोनधु… सोचने का भ्रम सिर्फ़ AI के बारे में नहीं है, यह इस बात के बारे में है कि AI के साथ हमारी बातचीत इंसानी समझ और एक्सपर्टाइज़ के नेचर को कैसे धीरे-धीरे बदल सकती है। (यहाँ पर शायद मेरी बात हो रही हो। मैं जो भूल चुका हूँ कि इस लेख में AI की हिस्सेदारी कितनी है।)

हाल ही में हुए एक अध्ययन, “The Cognitive Cost of Using LLMs”, ने एक महत्त्वपूर्ण चिंता को उजागर किया है : क्या ChatGPT जैसे कृत्रिम बुद्धिमत्ता (AI) उपकरणों पर हमारी बढ़ती निर्भरता वास्तव में हमारी संज्ञानात्मक क्षमताओं को कमज़ोर कर रही है? चार महीने तक चले इस शोध में, शोधकर्ताओं ने 54 छात्रों की दिमाग़ी गतिविधियों का बारीक़ी से अध्ययन किया। अध्ययन के परिणामों ने चौंकाने वाले खुलासे किए। जिन छात्रों ने लेखन कार्यों के लिए AI का नियमित रूप से उपयोग किया, उनके इलेक्ट्रोएन्सेफ़लोग्राम (EEG) ब्रेन स्कैन में कम स्मृति प्रतिधारण (lower memory retention) और कम आलोचनात्मक सोच कौशल (reduced critical thinking skills) देखे गए। इतना ही नहीं, इन उपयोगकर्ताओं ने कम मौलिक सामग्री का उत्पादन किया और अपना काम पूरा करने के तुरंत बाद उसे याद रखने में भी कठिनाई महसूस की—एक ऐसा पैटर्न जिसे शोधकर्ताओं ने ‘मानसिक निष्क्रियता’ (mental passivity) के रूप में वर्णित किया है। यह सुझाव देता है कि AI द्वारा प्रदान की जाने वाली सुविधा हमारे दिमाग़ी जुड़ाव की क़ीमत पर आ सकती है।

अध्ययन में एक दिलचस्प पहलू यह भी सामने आया कि जो छात्र पहले AI का उपयोग नहीं करते थे और बाद में इन उपकरणों का उपयोग करने लगे, उनमें बढ़ी हुई मस्तिष्क गतिविधि देखी गई। यह इंगित करता है कि AI सबसे अधिक फायदेमंद तब होता है, जब यह हमारी सोचने की प्रक्रिया को बढ़ाता है, न कि उसकी जगह लेता है। शोधकर्ताओं ने इस बात पर भी ज़ोर दिया कि जब उपयोगकर्ता एल्गोरिथम द्वारा दिए गए उत्तरों को बिना किसी छानबीन के निष्क्रिय रूप से स्वीकार करते हैं, तो ‘इको चैंबर’ बनने का ख़तरा होता है, जहाँ विभिन्न दृष्टिकोणों पर विचार नहीं किया जाता।

वैपिंग को कभी-कभी एक ‘गेटवे ड्रग’ के रूप में देखा जाता है जो उन लोगों को धूम्रपान की ओर धकेल सकता है जो पहले नहीं करते थे। वहीं, जो लोग पहले से सिगरेट पी रहे हैं, उनके लिए यह एक कम नुकसानदेह विकल्प के रूप में पेश किया जाता है ताकि वे सिगरेट छोड़ सकें। ठीक इसी तरह, AI (जैसे ChatGPT) उन लोगों के लिए एक गेट का काम कर सकता है जो आमतौर पर नहीं लिखते या जिन्हें लिखने में बहुत मुश्किल होती है। यह उन्हें शुरुआती ड्राफ़्ट बनाने, विचारों को व्यवस्थित करने या व्याकरण और वर्तनी की चिंता किए बिना कुछ भी लिखने के लिए प्रेरित कर सकता है, एक तरह से ब्लैंक पेज सिंड्रोम को ख़त्म कर देता है। वहीं, जो लोग पहले से ही अच्छा लिखते हैं और जिनके पास अपनी मौलिक विचार प्रक्रिया है, AI का अत्यधिक उपयोग उनकी अपनी सोचने, रिसर्च करने और मौलिक कंटेंट बनाने की आदत को छुड़ा सकता है। यह उन्हें ‘मानसिक निष्क्रियता’ की ओर धकेल सकता है, जिससे उनकी आलोचनात्मक सोच और रचनात्मकता कमज़ोर हो सकती है।

~~~

अगली बेला में जारी...

'बेला' की नई पोस्ट्स पाने के लिए हमें सब्सक्राइब कीजिए

Incorrect email address

कृपया अधिसूचना से संबंधित जानकारी की जाँच करें

आपके सब्सक्राइब के लिए धन्यवाद

हम आपसे शीघ्र ही जुड़ेंगे

12 जून 2025

‘अब सनी देओल में वो बात नहीं रही’

12 जून 2025

‘अब सनी देओल में वो बात नहीं रही’

‘बॉर्डर 2’ का विचार सुनते ही जो सबसे पहला दृश्य मन में कौंधा, वह बालकनी में खड़े होकर पिता का कहना था—‘अब सनी देओल में व

29 जून 2025

‘बिंदुघाटी’ पढ़ते तो पूछते न फिरते : कौन, क्यों, कहाँ?

29 जून 2025

‘बिंदुघाटी’ पढ़ते तो पूछते न फिरते : कौन, क्यों, कहाँ?

• उस लड़की की छवि हमेशा के लिए स्टीफ़न की आत्मा में बस गई, और फिर उस आनंद में डूबा हुआ पवित्र मौन किसी भी शब्द से नहीं टूट

14 जून 2025

बेवफ़ा सोनम बनी क़ातिल!

14 जून 2025

बेवफ़ा सोनम बनी क़ातिल!

‘बेवफ़ा सोनम बनी क़ातिल’—यह नब्बे के दशक में किसी पल्प साहित्य के बेस्टसेलर का शीर्षक हो सकता था। रेलवे स्टेशन के बुक स्टा

10 जून 2025

‘जब सोशल मीडिया नहीं था, हिंदी कविता अधिक ब्राह्मण थी’

10 जून 2025

‘जब सोशल मीडिया नहीं था, हिंदी कविता अधिक ब्राह्मण थी’

वर्ष 2018 में ‘सदानीरा’ पर आपकी कविता-पंक्ति पढ़ी थी—‘यह कवियों के काम पर लौटने का समय है’। इस बीच आप फ़्रांस से लौटकर आ

20 जून 2025

8/4 बैंक रोड, इलाहाबाद : फ़िराक़-परस्तों का तीर्थ

20 जून 2025

8/4 बैंक रोड, इलाहाबाद : फ़िराक़-परस्तों का तीर्थ

इलाहाबाद विश्वविद्यालय के एम.ए. में पढ़ने वाले एक विद्यार्थी मेरे मित्र बन गए। मैं उनसे उम्र में छोटा था, लेकिन काव्य हम

बेला लेटेस्ट