AI से लोग दिनभर में अनगिनत सवाल पूछते हैं। जो काम पहले गूगल किया करता था, अब वह AI कर रहा है, उससे बेहतर कर रहा है। लोगों के मन में कोई भी सवाल आता है, तो वे अब गूगल की बजाय AI चैटबॉट से पूछना ज्यादा मुनासिब समझते हैं। ऐसा इसलिए क्योंकि AI आपको डीप जानकारी देता है, आपका जो सवाल है, उसका सटीक जवाब देता है, इसमें अलग-अलग साइट्स खोलने का झंझट नहीं रहता है। लेकिन क्या आप जानते हैं कि AI द्वारा दिए गए जवाबों में कुछ जानकारी ऐसी भी होती है, जो सोर्स नहीं देते हैं। यानी एक तरह से लोग इनकी जानकारी के आधार पर बेवकूफ बन सकते हैं।
इन टूल्स की जांच की गईइंडियन एक्सप्रेस की एक रिपोर्ट में एक रिसर्च का जिक्र हुआ है, जो सेल्सफोर्स एआई रिसर्च के प्रणव नारायण वेंकट और उनकी टीम ने की। इस अध्ययन में पाया गया कि कई AI टूल्स एकतरफा जानकारी देते हैं या ऐसी बातें बताते हैं जो उनके स्रोतों में नहीं होतीं। रिसर्चर्स ने OpenAI के जीपीटी-4.5 और 5, यू.कॉम, परप्लेक्सिटी और माइक्रोसॉफ्ट के बिंग चैट जैसे AI सर्च इंजनों का टेस्ट किया। इनके अलावा, पांच डीप रिसर्च टूल्स की भी जांच की गई।
सवालों को दो हिस्सों में बांटाशोधकर्ताओं ने आठ पैरामीटर पर बेस्ड डीपट्रेस का इस्तेमाल किया। इस सिस्टम से यह जांचा गया कि AI के जवाब एकतरफा हैं या निष्पक्ष? सवालों को दो हिस्सों में बांटा गया। पहले ऐसे सवाल जिनसे AI के जवाबों में पक्षपात का पता चल सके। दूसरे एक्सपर्ट्स वाले सवाल, जैसे मौसम विज्ञान, मेडिसिन और कंप्यूटर-ह्यूमन इंटरैक्शन।
एक तिहाई AI टूल्स दे रहे गलत जानकारीइस रिसर्च में पाया गया कि वन थर्ड एआई टूल्स और सर्च इंजन एकतरफा या गलत जानकारी देते हैं। बिंग चैट के 23% जवाबों में ऐसी बातें थीं जो स्रोतों से सही नहीं थीं। यू.कॉम और परप्लेक्सिटी के 31% दावे बिना सबूत के थे। सबसे ज्यादा चिंता की बात यह थी कि OpenAI के जीपीटी-4.5 ने 47% और परप्लेक्सिटी के डीप रिसर्च एजेंट ने 97.5% दावे बिना सही सोर्स के किए।
पहले भी ऐसी रिसर्च में उठे हैं सवालAI के पक्षपात पर ऑक्सफोर्ड यूनिवर्सिटी के फेलिक्स साइमन का कहना है कि यह रिसर्च एआई सिस्टम की कमियों को दिखाती है। पहले के भी कुछ रिसर्च में यह बात सामने आई थी कि एआई एकतरफा या गलत जवाब देता है। यह रिसर्च इस समस्या को सुधारने में मदद कर सकता है। हालांकि, स्विट्जरलैंड की ज्यूरिख यूनिवर्सिटी की अलेक्सांद्रा उरमान ने रिसर्च के तरीके पर सवाल उठाए।
इन टूल्स की जांच की गईइंडियन एक्सप्रेस की एक रिपोर्ट में एक रिसर्च का जिक्र हुआ है, जो सेल्सफोर्स एआई रिसर्च के प्रणव नारायण वेंकट और उनकी टीम ने की। इस अध्ययन में पाया गया कि कई AI टूल्स एकतरफा जानकारी देते हैं या ऐसी बातें बताते हैं जो उनके स्रोतों में नहीं होतीं। रिसर्चर्स ने OpenAI के जीपीटी-4.5 और 5, यू.कॉम, परप्लेक्सिटी और माइक्रोसॉफ्ट के बिंग चैट जैसे AI सर्च इंजनों का टेस्ट किया। इनके अलावा, पांच डीप रिसर्च टूल्स की भी जांच की गई।
सवालों को दो हिस्सों में बांटाशोधकर्ताओं ने आठ पैरामीटर पर बेस्ड डीपट्रेस का इस्तेमाल किया। इस सिस्टम से यह जांचा गया कि AI के जवाब एकतरफा हैं या निष्पक्ष? सवालों को दो हिस्सों में बांटा गया। पहले ऐसे सवाल जिनसे AI के जवाबों में पक्षपात का पता चल सके। दूसरे एक्सपर्ट्स वाले सवाल, जैसे मौसम विज्ञान, मेडिसिन और कंप्यूटर-ह्यूमन इंटरैक्शन।
एक तिहाई AI टूल्स दे रहे गलत जानकारीइस रिसर्च में पाया गया कि वन थर्ड एआई टूल्स और सर्च इंजन एकतरफा या गलत जानकारी देते हैं। बिंग चैट के 23% जवाबों में ऐसी बातें थीं जो स्रोतों से सही नहीं थीं। यू.कॉम और परप्लेक्सिटी के 31% दावे बिना सबूत के थे। सबसे ज्यादा चिंता की बात यह थी कि OpenAI के जीपीटी-4.5 ने 47% और परप्लेक्सिटी के डीप रिसर्च एजेंट ने 97.5% दावे बिना सही सोर्स के किए।
पहले भी ऐसी रिसर्च में उठे हैं सवालAI के पक्षपात पर ऑक्सफोर्ड यूनिवर्सिटी के फेलिक्स साइमन का कहना है कि यह रिसर्च एआई सिस्टम की कमियों को दिखाती है। पहले के भी कुछ रिसर्च में यह बात सामने आई थी कि एआई एकतरफा या गलत जवाब देता है। यह रिसर्च इस समस्या को सुधारने में मदद कर सकता है। हालांकि, स्विट्जरलैंड की ज्यूरिख यूनिवर्सिटी की अलेक्सांद्रा उरमान ने रिसर्च के तरीके पर सवाल उठाए।
You may also like
अमीषा पटेल का बड़ा राज खुला: शादी के प्रपोजल भेजते हैं लोग, लेकिन सिंगल रहने की ये है असली वजह!
IND vs OMN, Asia Cup 2025: Sanju Samson के पास इतिहास रचने का मौका, तोड़ सकते हैं MS Dhoni का ये T20I महारिकॉर्ड
Asia Cup 2025: भारत और ओमान के बीच आज कहा देख सकते हैं आप लाइव मैच, जाने कितने बजे होगा शुरू
Pitru Paksha Rituals: क्या हमें पितृ पक्ष में जन्मदिन मनाना चाहिए? शास्त्र क्या कहते हैं? जानें
बिहार विधानसभा चुनाव: सीट बंटवारे को लेकर एनडीए और महागठबंधन में घमासान