जयपुर। एक नई रिसर्च में सामने आया है कि लोग एआइ (Artificial Intelligence) के जरिए काम सौंपकर ज्यादा धोखाधड़ी करते हैं। खासकर तब, जब एआइ इंटरफेस उन्हें साफ-साफ नियम बताने के बजाय सिर्फ धुंधले लक्ष्य (जैसे “ज्यादा फायदा कमाना”) तय करने की सुविधा देता है। अगर सीधे-सीधे गलत या अनैतिक आदेश दिए जाएं, तो मशीनें उन्हें इंसानों की तुलना में कहीं ज्यादा बार मान लेती हैं। यही तस्वीर 8,000 से ज्यादा लोगों पर किए गए 13 प्रयोगों से सामने आई है। ये अध्ययन मैक्स प्लांक इंस्टीट्यूट, यूनिवर्सिटी ऑफ डुइसबर्ग-एस्सेन और टूलूज़ स्कूल ऑफ इकोनॉमिक्स की टीम ने मिलकर किया।
रिसर्च में पाया गया कि एआइ इस्तेमाल करने से लोग अपने कर्म और परिणाम के बीच एक “नैतिक दूरी” महसूस करने लगते हैं। यानी, वे मशीन से वो काम करवा लेते हैं, जो शायद खुद न करते और न ही किसी इंसान से करवाने की हिम्मत करते।
उदाहरण के तौर पर, पासा फेंककर नंबर बताने वाले प्रयोग में जब लोग खुद नंबर बताते थे, तो 95% ईमानदारी दिखी। लेकिन जैसे ही रिपोर्टिंग का काम एआई को सौंपा गया, ईमानदारी घटकर 75% रह गई। और जब लक्ष्य तय करने का विकल्प दिया गया (जैसे- “सटीकता बढ़ाओ” बनाम “लाभ बढ़ाओ”), तो 84% लोगों ने धोखा किया।
अध्ययन में एक और रोचक तथ्य सामने आया।
टैक्स चोरी वाले गेम में भी यही पैटर्न मिला: इंसानों ने 26% बार नियम तोड़े, जबकि मशीनों ने 61% बार।
एआइ से जुड़ी गड़बड़ियां सिर्फ प्रयोगों तक सीमित नहीं हैं।
इनमें किसी ने सीधे “धोखा दो” नहीं लिखा, लेकिन इंटरफेस सिर्फ मुनाफे को इनाम दे रहा था, नैतिकता को नहीं।
टीम ने कई तरह के गार्डरेइल (सुरक्षा नियम) भी जांचे – सिस्टम स्तर पर, यूज़र को याद दिलाने वाले या फिर “धोखा न दो” जैसे खास निर्देश। ज़्यादातर कमजोर साबित हुए। केवल तब सुधार दिखा, जब यूज़र ने खुद स्पष्ट रूप से लिखा – “इस काम में धोखा न करना।”
लेकिन यह उपाय लंबे समय के लिए टिकाऊ नहीं है, क्योंकि हर कोई ऐसा नहीं लिखेगा और बुरे इरादे वाले लोग तो बिलकुल नहीं।
शोधकर्ताओं का कहना है कि एआई के साथ नैतिक जिम्मेदारी साझा करने का सवाल समाज के सामने खड़ा हो गया है।
ये अध्ययन नेचर (Nature) जर्नल में प्रकाशित हुआ है।
Published on:
24 Sept 2025 05:38 pm
बड़ी खबरें
View Allखास खबर
ट्रेंडिंग