AI to Forget |
एआई तकनीक ने पिछले कुछ सालों में क्रांति ला दी है। हेल्थकेयर से लेकर ऑटोनॉमस ड्राइविंग (स्वायत्त वाहन) जैसे क्षेत्रों में एआई का उपयोग बढ़ा है। लेकिन जैसे-जैसे तकनीक जटिल होती जा रही है, इसके साथ ही कई नैतिक और व्यावहारिक सवाल भी उठ रहे हैं। आज के समय में बड़े पैमाने पर तैयार किए गए प्री-ट्रेंड एआई मॉडल, जैसे OpenAI के ChatGPT और CLIP (Contrastive Language–Image Pre-training), ने हमारे मशीनों से जुड़ी अपेक्षाओं को पूरी तरह बदल दिया है। ये मॉडल न केवल बहु-कार्यात्मक (multitask) हैं, बल्कि विभिन्न क्षेत्रों में एक समान सटीकता के साथ काम कर सकते हैं।
हालांकि, इस प्रकार के मॉडल की बहुमुखी प्रतिभा (versatility) अपने साथ कई चुनौतियां भी लाती है। इन मॉडलों को प्रशिक्षित (train) और चलाने के लिए अत्यधिक ऊर्जा और समय की आवश्यकता होती है, जिससे सतत विकास (sustainability) के दृष्टिकोण से चिंताएं बढ़ जाती हैं। साथ ही, इनके लिए आवश्यक हार्डवेयर बेहद उन्नत (cutting-edge) और महंगे होते हैं, जो इन्हें आम उपयोगकर्ताओं की पहुंच से दूर कर देते हैं। इसके अतिरिक्त, इनके जनरलिस्ट (सर्वसामान्य) रुझान कई बार इन्हें विशिष्ट कार्यों में कम प्रभावी बना सकते हैं।
उदाहरण के लिए, एक ऑटोनॉमस ड्राइविंग सिस्टम में सभी प्रकार की वस्तुओं की पहचान करना जरूरी नहीं होता। Associate Professor गो इरी, जो इस रिसर्च का नेतृत्व कर रहे हैं, बताते हैं कि "ऐसी स्थिति में केवल कार, पैदल यात्री और ट्रैफिक साइन जैसी वस्तुओं को पहचानना पर्याप्त होता है। फर्नीचर, खाद्य पदार्थ या जानवरों की प्रजातियों की पहचान करने की आवश्यकता नहीं होती।" अगर अनावश्यक जानकारी को शामिल रखा जाए, तो न केवल कुल सटीकता (accuracy) पर असर पड़ता है, बल्कि कंप्यूटर संसाधनों (computational resources) का भी व्यर्थ उपयोग होता है। साथ ही, अनावश्यक जानकारी से डेटा लीक (information leakage) का खतरा भी बढ़ता है।
ऐसे में, एक व्यावहारिक समाधान यह हो सकता है कि एआई मॉडल को "भूलने" (forgetting) के लिए प्रशिक्षित किया जाए। यह तरीका उन्हें केवल उन जानकारियों पर ध्यान केंद्रित करने में सक्षम बनाता है, जो वास्तव में आवश्यक हैं। हालांकि, मौजूदा तकनीकें अक्सर ‘व्हाइट-बॉक्स’ (white-box) दृष्टिकोण पर आधारित होती हैं, जहां उपयोगकर्ताओं को मॉडल के आंतरिक संरचना और पैरामीटर की जानकारी होती है। लेकिन, अधिकांश व्यावसायिक और नैतिक प्रतिबंधों के कारण, उपयोगकर्ताओं को ऐसे "ब्लैक-बॉक्स" (black-box) सिस्टम का सामना करना पड़ता है, जिनके आंतरिक तंत्र (inner mechanisms) का कोई विवरण नहीं मिलता।
इस चुनौती को हल करने के लिए, टोक्यो यूनिवर्सिटी ऑफ साइंस (TUS) के शोधकर्ताओं ने ‘ब्लैक-बॉक्स फॉरगेटिंग’ नामक एक विधि विकसित की है। Associate Professor गो इरी के नेतृत्व में यह रिसर्च CMA-ES (Covariance Matrix Adaptation Evolution Strategy) नामक एक एल्गोरिद्म पर आधारित है, जो क्रमिक चरणों (step-by-step) में समाधान को अनुकूलित करता है। यह विधि, बिना मॉडल की आंतरिक संरचना तक पहुंच के, उसके इनपुट (prompts) को संशोधित करके विशिष्ट वर्गों की जानकारी को "भूलने" के लिए प्रेरित करती है।
इस प्रक्रिया के तहत, शोधकर्ताओं ने CLIP मॉडल पर प्रयोग किए, जो एक विजन-लैंग्वेज मॉडल है और छवि वर्गीकरण (image classification) में सक्षम है। CLIP को दिए गए प्रॉम्प्ट्स को संशोधित कर, और फिर इन संशोधनों का परीक्षण कर, वे यह सुनिश्चित करने में सफल रहे कि मॉडल अपनी कक्षाओं में से लगभग 40% लक्षित वर्गों को "भूल" जाए। यह उपलब्धि इस तथ्य के बावजूद हासिल की गई कि शोधकर्ताओं के पास मॉडल की अंदरूनी जानकारी तक कोई पहुंच नहीं थी।
हालांकि, यह प्रक्रिया सरल नहीं थी। जब लक्षित वर्गों की संख्या अधिक होती है, तो मौजूदा तकनीकें उस पैमाने पर काम करने में विफल रहती हैं। इस चुनौती से निपटने के लिए, शोधकर्ताओं ने एक नया पैरामीट्राइजेशन (parametrisation) दृष्टिकोण तैयार किया, जिसे "लेटेंट कॉन्टेक्स्ट शेयरिंग" (latent context sharing) कहा जाता है। यह तकनीक लेटेंट कॉन्टेक्स्ट—जो कि प्रॉम्प्ट्स द्वारा उत्पन्न जानकारी का प्रतिनिधित्व करती है—को छोटे और प्रबंधनीय भागों में तोड़ देती है।
लेटेंट कॉन्टेक्स्ट शेयरिंग के तहत, कुछ तत्वों को एक टोकन (शब्द या अक्षर) में सीमित कर दिया जाता है, जबकि अन्य तत्वों को कई टोकन में साझा किया जाता है। इससे समस्या की जटिलता (complexity) कम हो जाती है और इसे बड़े अनुप्रयोगों के लिए भी संगणनात्मक रूप से व्यावहारिक (computationally tractable) बनाया जा सकता है। इस प्रक्रिया ने न केवल सफलतापूर्वक काम किया, बल्कि इसे विभिन्न इमेज क्लासिफिकेशन डेटासेट्स पर परीक्षण कर इसके परिणामों की पुष्टि भी की गई।
यह शोध कई व्यावहारिक और नैतिक दृष्टिकोण से बेहद महत्वपूर्ण है। उदाहरण के लिए, जब एआई मॉडल को विशिष्ट कार्यों के लिए अनुकूलित (customized) किया जाता है, तो वे तेज, संसाधन-कुशल और कम शक्तिशाली उपकरणों पर भी चलने योग्य हो सकते हैं। इससे उन क्षेत्रों में एआई का उपयोग संभव हो सकेगा, जहां पहले इसे अव्यावहारिक माना जाता था।
इसके अलावा, छवि निर्माण (image generation) के क्षेत्र में, इस तरह की "भूलने" की प्रक्रिया अवांछनीय या हानिकारक सामग्री उत्पन्न होने से रोकने में मदद कर सकती है। उदाहरण के लिए, यह सुनिश्चित किया जा सकता है कि कोई मॉडल अनजाने में आक्रामक सामग्री (offensive material) या गलत जानकारी (misinformation) न बनाए।
सबसे महत्वपूर्ण बात यह है कि यह तकनीक गोपनीयता (privacy) से जुड़े मुद्दों को हल करने में सहायक हो सकती है। बड़े पैमाने पर एआई मॉडल अक्सर विशाल डेटासेट पर प्रशिक्षित किए जाते हैं, जिनमें अनजाने में संवेदनशील या पुरानी जानकारी शामिल हो सकती है। "राइट टू बी फॉरगॉटन" (Right to be Forgotten) जैसे कानूनों के तहत ऐसे डेटा को हटाने की मांग बढ़ती जा रही है।
किसी मॉडल को पुनः प्रशिक्षित करना (retraining) अत्यधिक ऊर्जा-गहन (energy-intensive) और महंगा है। लेकिन, "चयनात्मक भूलने" (selective forgetting) या "मशीन अनलर्निंग" (machine unlearning) इस समस्या के लिए एक प्रभावी समाधान प्रदान कर सकता है। विशेष रूप से स्वास्थ्य सेवा और वित्त जैसे संवेदनशील क्षेत्रों में, जहां गोपनीय डेटा का महत्व बहुत अधिक होता है, यह तकनीक उपयोगी साबित हो सकती है।
Associate Professor इरी बताते हैं कि "एक बड़े पैमाने के मॉडल को पुनः प्रशिक्षित करने में भारी ऊर्जा की खपत होती है। चयनात्मक भूलने की तकनीक इस समस्या का कुशल समाधान हो सकती है।"
यह शोध एआई की नैतिक और व्यावहारिक चुनौतियों को हल करने के लिए एक महत्वपूर्ण मार्ग प्रशस्त करता है। हालांकि, इसके दुरुपयोग की संभावना को नकारा नहीं जा सकता। फिर भी, इस तरह की तकनीक दिखाती है कि शोधकर्ता नैतिकता और व्यावहारिकता दोनों को ध्यान में रखते हुए एआई को और अधिक अनुकूल और सुरक्षित बनाने के लिए सक्रिय रूप से काम कर रहे हैं।
टोक्यो यूनिवर्सिटी ऑफ साइंस की यह पहल न केवल एआई को अधिक अनुकूलनीय (adaptable) और कुशल बना रही है, बल्कि उपयोगकर्ताओं के लिए महत्वपूर्ण सुरक्षा उपाय (safeguards) भी जोड़ रही है। यह न केवल तकनीकी दृष्टि से बल्कि नैतिक दृष्टिकोण से भी एआई विकास (AI advancement) के लिए एक बड़ा कदम है।