IT दिल्ली ने “निष्पक्ष“ नामक एक AI फेयरनेस असेसमेंट टूल विकसित किया है। इमेज एआई जेनरेटेड
लोकेश शर्मा, नई दिल्ली। आर्टिफिशियल इंटेलिजेंस (AI) के तेज़ी से बढ़ते इस्तेमाल ने टेक्नोलॉजी को आम लोगों की पहुँच में ला दिया है, लेकिन इसने इसकी एक्यूरेसी और रिलायबिलिटी पर नए सवाल भी खड़े कर दिए हैं। हाल के सालों में, कई ऐसे मामले सामने आए हैं जहां AI चैटबॉट से मिली जानकारी गलत या गुमराह करने वाली साबित हुई।
यूनाइटेड स्टेट्स में, एक बुज़ुर्ग आदमी ने AI चैटबॉट को असली औरत समझ लिया और उससे मिलने निकल पड़ा, लेकिन रास्ते में ही उसकी मौत हो गई। इसी तरह, एक घटना जिसमें विक्टोरिया नाम की एक विदेशी औरत को AI सिस्टम ने खतरनाक सुसाइड की सलाह दी, उसने टेक्नोलॉजी के रिलायबिलिटी पर एक गंभीर बहस छेड़ दी है।
किस कमी के कारण AI रिस्पॉन्स आएगा गलत
एक्सपर्ट्स का कहना है कि अधूरी जानकारी, बायस्ड डेटा या कॉन्टेक्स्ट की कमी के कारण AI रिस्पॉन्स कभी-कभी बायस्ड और गलत हो सकते हैं। इस बढ़ती चिंता के बीच, न केवल तेज और स्मार्ट AI, बल्कि फेयर और भरोसेमंद AI की जरूरत पर भी जोर दिया जा रहा है।
इसके लिए, IIT दिल्ली ने “निष्पक्ष“ (बीटा वर्शन) नाम का एक नया AI फेयरनेस असेसमेंट टूल बनाया है, जिसे टेलीकम्युनिकेशन इंजीनियरिंग सेंटर के 2023 AI फेयरनेस स्टैंडर्ड (TEC 57050:2023) के हिसाब से बनाया गया है। यह टूल मुख्य रूप से टेबल वाले डेटा के आधार पर सुपरवाइज्ड लर्निंग मॉडल की जांच करता है और यह पता लगाने में मदद करता है कि कोई AI सिस्टम अपने फैसलों में किसी क्लास, कम्युनिटी या कैटेगरी के खिलाफ बायस्ड है या नहीं।
प्रोफेसर रंजीता प्रसाद ने कहा कि यह दो से तीन महीने में आम लोगों के लिए उपलब्ध हो जाएगा। उन्होंने बताया कि सिस्टम की खास बात इसका तीन-स्टेज वाला इवैल्यूएशन प्रोसेस है। पहले स्टेज में, AI सिस्टम के रिस्क लेवल का असेसमेंट किया जाता है, जैसे कि एप्लीकेशन एरिया, फैसलों पर इंसानी निर्भरता की डिग्री, और गलत नतीजे के संभावित बुरे नतीजे। दूसरे स्टेज में, रिस्क के आधार पर सही फेयरनेस मेट्रिक्स और थ्रेशहोल्ड तय किए जाते हैं, ताकि ज्यादा रिस्क वाले मामलों में ज्यादा कड़े क्राइटेरिया लागू किए जा सकें।
आखिरी स्टेज में, चुने गए पैरामीटर के आधार पर फेयरनेस का एनालिसिस किया जाता है, जिससे पूरा प्रोसेस ट्रांसपेरेंट और ऑडिटेबल हो जाता है। एक्सपर्ट्स का मानना है कि ऐसे स्टैंडर्ड टूल डेवलपर्स, ऑडिटर्स और रेगुलेटरी बॉडीज के लिए बहुत काम के होंगे, क्योंकि इनसे AI मॉडल्स के बिहेवियर और पोटेंशियल लिमिटेशन्स की साइंटिफिक समझ मिलती है।
यह टूल AI Kosh और GIT Hub पर ओपन-सोर्स बीटा फॉर्म में अवेलेबल है, जिससे रिसर्चर्स और इंस्टीट्यूशन्स अपने सिस्टम्स की फेयरनेस को टेस्ट कर सकते हैं। फ्यूचर में AI पर बढ़ती डिपेंडेंस के साथ, ऐसे फेयरनेस और एक्यूरेसी टेस्टिंग टूल्स ज़रूरी हो जाएंगे। वे न सिर्फ टेक्नोलॉजी में भरोसा बढ़ाएंगे बल्कि यह भी पक्का करेंगे कि AI-बेस्ड फैसले सोसाइटी के सभी हिस्सों के लिए बराबर, सेफ और रिस्पॉन्सिबल हों।
यह भी पढ़ें: दिल्ली MCD कमिश्नर ने बनाई नई टीम, कई अधिकारियों के विभाग बदले |