search

AI चैटबॉट की गलत सलाह से मौत तक, IIT दिल्ली ने बनाया फेयरनेस असेसमेंट टूल

deltin33 Yesterday 21:58 views 188
  

IT दिल्ली ने “निष्पक्ष“ नामक एक AI फेयरनेस असेसमेंट टूल विकसित किया है। इमेज एआई जेनरेटेड



लोकेश शर्मा, नई दिल्ली। आर्टिफिशियल इंटेलिजेंस (AI) के तेज़ी से बढ़ते इस्तेमाल ने टेक्नोलॉजी को आम लोगों की पहुँच में ला दिया है, लेकिन इसने इसकी एक्यूरेसी और रिलायबिलिटी पर नए सवाल भी खड़े कर दिए हैं। हाल के सालों में, कई ऐसे मामले सामने आए हैं जहां AI चैटबॉट से मिली जानकारी गलत या गुमराह करने वाली साबित हुई।

यूनाइटेड स्टेट्स में, एक बुज़ुर्ग आदमी ने AI चैटबॉट को असली औरत समझ लिया और उससे मिलने निकल पड़ा, लेकिन रास्ते में ही उसकी मौत हो गई। इसी तरह, एक घटना जिसमें विक्टोरिया नाम की एक विदेशी औरत को AI सिस्टम ने खतरनाक सुसाइड की सलाह दी, उसने टेक्नोलॉजी के रिलायबिलिटी पर एक गंभीर बहस छेड़ दी है।
किस कमी के कारण AI रिस्पॉन्स आएगा गलत

एक्सपर्ट्स का कहना है कि अधूरी जानकारी, बायस्ड डेटा या कॉन्टेक्स्ट की कमी के कारण AI रिस्पॉन्स कभी-कभी बायस्ड और गलत हो सकते हैं। इस बढ़ती चिंता के बीच, न केवल तेज और स्मार्ट AI, बल्कि फेयर और भरोसेमंद AI की जरूरत पर भी जोर दिया जा रहा है।

इसके लिए, IIT दिल्ली ने “निष्पक्ष“ (बीटा वर्शन) नाम का एक नया AI फेयरनेस असेसमेंट टूल बनाया है, जिसे टेलीकम्युनिकेशन इंजीनियरिंग सेंटर के 2023 AI फेयरनेस स्टैंडर्ड (TEC 57050:2023) के हिसाब से बनाया गया है। यह टूल मुख्य रूप से टेबल वाले डेटा के आधार पर सुपरवाइज्ड लर्निंग मॉडल की जांच करता है और यह पता लगाने में मदद करता है कि कोई AI सिस्टम अपने फैसलों में किसी क्लास, कम्युनिटी या कैटेगरी के खिलाफ बायस्ड है या नहीं।

प्रोफेसर रंजीता प्रसाद ने कहा कि यह दो से तीन महीने में आम लोगों के लिए उपलब्ध हो जाएगा। उन्होंने बताया कि सिस्टम की खास बात इसका तीन-स्टेज वाला इवैल्यूएशन प्रोसेस है। पहले स्टेज में, AI सिस्टम के रिस्क लेवल का असेसमेंट किया जाता है, जैसे कि एप्लीकेशन एरिया, फैसलों पर इंसानी निर्भरता की डिग्री, और गलत नतीजे के संभावित बुरे नतीजे। दूसरे स्टेज में, रिस्क के आधार पर सही फेयरनेस मेट्रिक्स और थ्रेशहोल्ड तय किए जाते हैं, ताकि ज्यादा रिस्क वाले मामलों में ज्यादा कड़े क्राइटेरिया लागू किए जा सकें।

आखिरी स्टेज में, चुने गए पैरामीटर के आधार पर फेयरनेस का एनालिसिस किया जाता है, जिससे पूरा प्रोसेस ट्रांसपेरेंट और ऑडिटेबल हो जाता है। एक्सपर्ट्स का मानना है कि ऐसे स्टैंडर्ड टूल डेवलपर्स, ऑडिटर्स और रेगुलेटरी बॉडीज के लिए बहुत काम के होंगे, क्योंकि इनसे AI मॉडल्स के बिहेवियर और पोटेंशियल लिमिटेशन्स की साइंटिफिक समझ मिलती है।

यह टूल AI Kosh और GIT Hub पर ओपन-सोर्स बीटा फॉर्म में अवेलेबल है, जिससे रिसर्चर्स और इंस्टीट्यूशन्स अपने सिस्टम्स की फेयरनेस को टेस्ट कर सकते हैं। फ्यूचर में AI पर बढ़ती डिपेंडेंस के साथ, ऐसे फेयरनेस और एक्यूरेसी टेस्टिंग टूल्स ज़रूरी हो जाएंगे। वे न सिर्फ टेक्नोलॉजी में भरोसा बढ़ाएंगे बल्कि यह भी पक्का करेंगे कि AI-बेस्ड फैसले सोसाइटी के सभी हिस्सों के लिए बराबर, सेफ और रिस्पॉन्सिबल हों।

यह भी पढ़ें: दिल्ली MCD कमिश्नर ने बनाई नई टीम, कई अधिकारियों के विभाग बदले
like (0)
deltin33administrator

Post a reply

loginto write comments
deltin33

He hasn't introduced himself yet.

1510K

Threads

0

Posts

4710K

Credits

administrator

Credits
473740