deltin33 Publish time 2026-2-19 21:58:16

AI चैटबॉट की गलत सलाह से मौत तक, IIT दिल्ली ने बनाया फेयरनेस असेसमेंट टूल

https://www.jagranimages.com/images/2026/02/19/article/image/ddd-(15)-1771519203204_m.webp

IT दिल्ली ने “निष्पक्ष“ नामक एक AI फेयरनेस असेसमेंट टूल विकसित किया है। इमेज एआई जेनरेटेड



लोकेश शर्मा, नई दिल्ली। आर्टिफिशियल इंटेलिजेंस (AI) के तेज़ी से बढ़ते इस्तेमाल ने टेक्नोलॉजी को आम लोगों की पहुँच में ला दिया है, लेकिन इसने इसकी एक्यूरेसी और रिलायबिलिटी पर नए सवाल भी खड़े कर दिए हैं। हाल के सालों में, कई ऐसे मामले सामने आए हैं जहां AI चैटबॉट से मिली जानकारी गलत या गुमराह करने वाली साबित हुई।

यूनाइटेड स्टेट्स में, एक बुज़ुर्ग आदमी ने AI चैटबॉट को असली औरत समझ लिया और उससे मिलने निकल पड़ा, लेकिन रास्ते में ही उसकी मौत हो गई। इसी तरह, एक घटना जिसमें विक्टोरिया नाम की एक विदेशी औरत को AI सिस्टम ने खतरनाक सुसाइड की सलाह दी, उसने टेक्नोलॉजी के रिलायबिलिटी पर एक गंभीर बहस छेड़ दी है।
किस कमी के कारण AI रिस्पॉन्स आएगा गलत

एक्सपर्ट्स का कहना है कि अधूरी जानकारी, बायस्ड डेटा या कॉन्टेक्स्ट की कमी के कारण AI रिस्पॉन्स कभी-कभी बायस्ड और गलत हो सकते हैं। इस बढ़ती चिंता के बीच, न केवल तेज और स्मार्ट AI, बल्कि फेयर और भरोसेमंद AI की जरूरत पर भी जोर दिया जा रहा है।

इसके लिए, IIT दिल्ली ने “निष्पक्ष“ (बीटा वर्शन) नाम का एक नया AI फेयरनेस असेसमेंट टूल बनाया है, जिसे टेलीकम्युनिकेशन इंजीनियरिंग सेंटर के 2023 AI फेयरनेस स्टैंडर्ड (TEC 57050:2023) के हिसाब से बनाया गया है। यह टूल मुख्य रूप से टेबल वाले डेटा के आधार पर सुपरवाइज्ड लर्निंग मॉडल की जांच करता है और यह पता लगाने में मदद करता है कि कोई AI सिस्टम अपने फैसलों में किसी क्लास, कम्युनिटी या कैटेगरी के खिलाफ बायस्ड है या नहीं।

प्रोफेसर रंजीता प्रसाद ने कहा कि यह दो से तीन महीने में आम लोगों के लिए उपलब्ध हो जाएगा। उन्होंने बताया कि सिस्टम की खास बात इसका तीन-स्टेज वाला इवैल्यूएशन प्रोसेस है। पहले स्टेज में, AI सिस्टम के रिस्क लेवल का असेसमेंट किया जाता है, जैसे कि एप्लीकेशन एरिया, फैसलों पर इंसानी निर्भरता की डिग्री, और गलत नतीजे के संभावित बुरे नतीजे। दूसरे स्टेज में, रिस्क के आधार पर सही फेयरनेस मेट्रिक्स और थ्रेशहोल्ड तय किए जाते हैं, ताकि ज्यादा रिस्क वाले मामलों में ज्यादा कड़े क्राइटेरिया लागू किए जा सकें।

आखिरी स्टेज में, चुने गए पैरामीटर के आधार पर फेयरनेस का एनालिसिस किया जाता है, जिससे पूरा प्रोसेस ट्रांसपेरेंट और ऑडिटेबल हो जाता है। एक्सपर्ट्स का मानना है कि ऐसे स्टैंडर्ड टूल डेवलपर्स, ऑडिटर्स और रेगुलेटरी बॉडीज के लिए बहुत काम के होंगे, क्योंकि इनसे AI मॉडल्स के बिहेवियर और पोटेंशियल लिमिटेशन्स की साइंटिफिक समझ मिलती है।

यह टूल AI Kosh और GIT Hub पर ओपन-सोर्स बीटा फॉर्म में अवेलेबल है, जिससे रिसर्चर्स और इंस्टीट्यूशन्स अपने सिस्टम्स की फेयरनेस को टेस्ट कर सकते हैं। फ्यूचर में AI पर बढ़ती डिपेंडेंस के साथ, ऐसे फेयरनेस और एक्यूरेसी टेस्टिंग टूल्स ज़रूरी हो जाएंगे। वे न सिर्फ टेक्नोलॉजी में भरोसा बढ़ाएंगे बल्कि यह भी पक्का करेंगे कि AI-बेस्ड फैसले सोसाइटी के सभी हिस्सों के लिए बराबर, सेफ और रिस्पॉन्सिबल हों।

यह भी पढ़ें: दिल्ली MCD कमिश्नर ने बनाई नई टीम, कई अधिकारियों के विभाग बदले
Pages: [1]
View full version: AI चैटबॉट की गलत सलाह से मौत तक, IIT दिल्ली ने बनाया फेयरनेस असेसमेंट टूल