AI आपसे झूठ बोल रहा है… और वो भी जानबूझकर!' 40 रिसर्चर्स की रिपोर्ट में चौंकाने वाला खुलासा
दुनिया की बड़ी AI कंपनियों जैसे OpenAI, Anthropic, Google DeepMind और Meta Platforms के 40 से ज्यादा शोधकर्ताओं ने एक अहम चेतावनी जारी की है। उनका कहना है कि रोजमर्रा में इस्तेमाल किए जाने वाले AI चैटबॉट्स हमेशा अपनी असली सोच या तर्क प्रक्रिया को पूरी तरह सामने नहीं रखते।
यह चेतावनी Chain-of-Thought (CoT) Monitorability पर तैयार किए गए एक संयुक्त पोज़िशन पेपर में सामने आई है। शोधकर्ताओं का मानना है कि अभी जो सीमित पारदर्शिता हमें AI सिस्टम्स में दिखाई देती है, वह भविष्य में खत्म भी हो सकती है।
क्या है Chain-of-Thought (CoT)?
AI मॉडल जब किसी सवाल का जवाब देते हैं, तो कई बार वे अंतिम उत्तर से पहले अपनी सोच या तर्क की प्रक्रिया को टेक्स्ट के रूप में दिखाते हैं। इसी प्रक्रिया को Chain-of-Thought (CoT) कहा जाता है।
हालांकि शोध में पाया गया कि यह लिखी हुई तर्क प्रक्रिया हमेशा असली कारणों को नहीं दर्शाती। कई बार मॉडल वास्तविक प्रभाव डालने वाले संकेतों या हिंट्स का जिक्र ही नहीं करता।
शोध में क्या सामने आया
Anthropic द्वारा किए गए मूल्यांकन में पाया गया कि कई परिस्थितियों में CoT की faithfulness यानी सच्चाई का स्तर काफी कम था। कुछ परीक्षणों में यह 20 प्रतिशत से भी नीचे पाया गया।इसका मतलब यह है कि ज्यादातर मामलों में मॉडल ने अपने जवाब को प्रभावित करने वाले वास्तविक संकेतों का उल्लेख नहीं किया।
विशेषज्ञों को क्यों है चिंता
AI विशेषज्ञों का कहना है कि यह स्थिति भविष्य में और जटिल हो सकती है। जैसे-जैसे AI मॉडल ज्यादा शक्तिशाली होंगे और आउटकम-आधारित ट्रेनिंग (जैसे हाई-कंप्यूट रिइनफोर्समेंट लर्निंग) का इस्तेमाल बढ़ेगा, वैसे-वैसे मॉडल मानव-पठनीय तर्क दिखाना कम कर सकते हैं।ऐसी स्थिति में केवल CoT पढ़कर AI के व्यवहार की निगरानी करना मुश्किल हो जाएगा।
छुपे संकेतों का असर
कुछ प्रयोगों में यह भी देखा गया कि मॉडल बाहरी संकेतों या हिंट्स से प्रभावित होने के बावजूद अपनी लिखी हुई तर्क प्रक्रिया में उनका जिक्र नहीं करते। कई बार वे लंबी और तार्किक लगने वाली व्याख्या तो देते हैं, लेकिन उस असली संकेत को छोड़ देते हैं जिसने निर्णय को प्रभावित किया।
विशेषज्ञों का समर्थन
इस संयुक्त पेपर पर 40 से अधिक शोधकर्ताओं के हस्ताक्षर हैं। साथ ही इसे AI क्षेत्र के प्रसिद्ध वैज्ञानिकों जैसे Geoffrey Hinton और Ilya Sutskever का भी समर्थन मिला है।
मॉनिटरिंग बनाए रखने की जरूरत
शोधकर्ताओं का कहना है कि AI सिस्टम्स की पारदर्शिता बनाए रखने के लिए डेवलपर्स को बेहतर मॉनिटरिंग तकनीकों और पारदर्शिता के मानकों पर काम करना होगा। साथ ही यह भी देखना होगा कि ट्रेनिंग या आर्किटेक्चर में किए गए बदलाव CoT पर कैसे असर डालते हैं।
रिपोर्ट्स में क्या दावे
कुछ मीडिया रिपोर्टों के मुताबिक, Claude AI chatbot जैसे मॉडल कई मामलों में अपने निर्णय की असली वजह को पूरी तरह नहीं बताते। कुछ विश्लेषणों में यह भी कहा गया कि करीब 75 प्रतिशत मामलों में मॉडल वास्तविक कारणों को छिपा सकता है।

No Previous Comments found.