Patrika LogoSwitch to English
home_icon

मेरी खबर

video_icon

शॉर्ट्स

epaper_icon

ई-पेपर

एआइ के साथ काम करने पर लोग ज्यादा धोखा देने लगते हैं

एक नई रिसर्च में सामने आया है कि लोग एआइ (Artificial Intelligence) के जरिए काम सौंपकर ज्यादा धोखाधड़ी करते हैं। खासकर तब, जब एआइ इंटरफेस उन्हें साफ-साफ नियम बताने के बजाय सिर्फ धुंधले लक्ष्य (जैसे “ज्यादा फायदा कमाना”) तय करने की सुविधा देता है।

2 min read

जयपुर। एक नई रिसर्च में सामने आया है कि लोग एआइ (Artificial Intelligence) के जरिए काम सौंपकर ज्यादा धोखाधड़ी करते हैं। खासकर तब, जब एआइ इंटरफेस उन्हें साफ-साफ नियम बताने के बजाय सिर्फ धुंधले लक्ष्य (जैसे “ज्यादा फायदा कमाना”) तय करने की सुविधा देता है। अगर सीधे-सीधे गलत या अनैतिक आदेश दिए जाएं, तो मशीनें उन्हें इंसानों की तुलना में कहीं ज्यादा बार मान लेती हैं। यही तस्वीर 8,000 से ज्यादा लोगों पर किए गए 13 प्रयोगों से सामने आई है। ये अध्ययन मैक्स प्लांक इंस्टीट्यूट, यूनिवर्सिटी ऑफ डुइसबर्ग-एस्सेन और टूलूज़ स्कूल ऑफ इकोनॉमिक्स की टीम ने मिलकर किया।


एआइ और नैतिक दूरी

रिसर्च में पाया गया कि एआइ इस्तेमाल करने से लोग अपने कर्म और परिणाम के बीच एक “नैतिक दूरी” महसूस करने लगते हैं। यानी, वे मशीन से वो काम करवा लेते हैं, जो शायद खुद न करते और न ही किसी इंसान से करवाने की हिम्मत करते।

उदाहरण के तौर पर, पासा फेंककर नंबर बताने वाले प्रयोग में जब लोग खुद नंबर बताते थे, तो 95% ईमानदारी दिखी। लेकिन जैसे ही रिपोर्टिंग का काम एआई को सौंपा गया, ईमानदारी घटकर 75% रह गई। और जब लक्ष्य तय करने का विकल्प दिया गया (जैसे- “सटीकता बढ़ाओ” बनाम “लाभ बढ़ाओ”), तो 84% लोगों ने धोखा किया।


इंसान बनाम मशीन: किसने ज्यादा धोखा दिया?

अध्ययन में एक और रोचक तथ्य सामने आया।

  • जब इंसानों से कहा गया कि “ज्यादा पैसे कमाने के लिए पूरा धोखा करो,” तो वे केवल 42% बार मान गए।
  • वही आदेश एआइ मॉडल्स (जैसे GPT-4 या Claude) को दिया गया, तो उन्होंने 93% बार उसे मान लिया।

टैक्स चोरी वाले गेम में भी यही पैटर्न मिला: इंसानों ने 26% बार नियम तोड़े, जबकि मशीनों ने 61% बार।


असली दुनिया में भी ऐसे मामले

एआइ से जुड़ी गड़बड़ियां सिर्फ प्रयोगों तक सीमित नहीं हैं।

  • राइड-हेलिंग कंपनियों के एल्गोरिद्म ने ड्राइवरों को जानबूझकर ऐसे इलाकों में भेजा, जिससे कृत्रिम कमी पैदा हो और सर्ज प्राइसिंग बढ़ जाए।
  • किराये के मकान प्लेटफॉर्म्स ने “मुनाफा बढ़ाने” के नाम पर प्राइस-फिक्सिंग जैसा काम किया।
  • जर्मन पेट्रोल पंपों में भी दाम तय करने वाले एल्गोरिद्म आपस में मिलकर दाम बढ़ाते पाए गए।

इनमें किसी ने सीधे “धोखा दो” नहीं लिखा, लेकिन इंटरफेस सिर्फ मुनाफे को इनाम दे रहा था, नैतिकता को नहीं।


सुरक्षा उपाय नाकाम

टीम ने कई तरह के गार्डरेइल (सुरक्षा नियम) भी जांचे – सिस्टम स्तर पर, यूज़र को याद दिलाने वाले या फिर “धोखा न दो” जैसे खास निर्देश। ज़्यादातर कमजोर साबित हुए। केवल तब सुधार दिखा, जब यूज़र ने खुद स्पष्ट रूप से लिखा – “इस काम में धोखा न करना।”

लेकिन यह उपाय लंबे समय के लिए टिकाऊ नहीं है, क्योंकि हर कोई ऐसा नहीं लिखेगा और बुरे इरादे वाले लोग तो बिलकुल नहीं।


आगे का रास्ता

शोधकर्ताओं का कहना है कि एआई के साथ नैतिक जिम्मेदारी साझा करने का सवाल समाज के सामने खड़ा हो गया है।

  • एआइ इंटरफेस को ऐसा होना चाहिए कि इंसानों के फैसले साफ दिखें और जिम्मेदारी टाली न जा सके।
  • धुंधले लक्ष्य तय करने के बजाय स्पष्ट नियम और सीमाएं हों।
  • डिफॉल्ट सेटिंग्स ऐसी हों, जो हानिकारक काम को मानने से मना कर दें।

ये अध्ययन नेचर (Nature) जर्नल में प्रकाशित हुआ है।