AI आपसे झूठ बोल रहा है… और वो भी जानबूझकर!' 40 रिसर्चर्स की रिपोर्ट में चौंकाने वाला खुलासा

दुनिया की बड़ी AI कंपनियों जैसे OpenAI, Anthropic, Google DeepMind और Meta Platforms के 40 से ज्यादा शोधकर्ताओं ने एक अहम चेतावनी जारी की है। उनका कहना है कि रोजमर्रा में इस्तेमाल किए जाने वाले AI चैटबॉट्स हमेशा अपनी असली सोच या तर्क प्रक्रिया को पूरी तरह सामने नहीं रखते।Artificial Intelligence (AI)

यह चेतावनी Chain-of-Thought (CoT) Monitorability पर तैयार किए गए एक संयुक्त पोज़िशन पेपर में सामने आई है। शोधकर्ताओं का मानना है कि अभी जो सीमित पारदर्शिता हमें AI सिस्टम्स में दिखाई देती है, वह भविष्य में खत्म भी हो सकती है।

क्या है Chain-of-Thought (CoT)?

AI मॉडल जब किसी सवाल का जवाब देते हैं, तो कई बार वे अंतिम उत्तर से पहले अपनी सोच या तर्क की प्रक्रिया को टेक्स्ट के रूप में दिखाते हैं। इसी प्रक्रिया को Chain-of-Thought (CoT) कहा जाता है।

हालांकि शोध में पाया गया कि यह लिखी हुई तर्क प्रक्रिया हमेशा असली कारणों को नहीं दर्शाती। कई बार मॉडल वास्तविक प्रभाव डालने वाले संकेतों या हिंट्स का जिक्र ही नहीं करता।

शोध में क्या सामने आया

Anthropic द्वारा किए गए मूल्यांकन में पाया गया कि कई परिस्थितियों में CoT की faithfulness यानी सच्चाई का स्तर काफी कम था। कुछ परीक्षणों में यह 20 प्रतिशत से भी नीचे पाया गया।इसका मतलब यह है कि ज्यादातर मामलों में मॉडल ने अपने जवाब को प्रभावित करने वाले वास्तविक संकेतों का उल्लेख नहीं किया।The Year Ahead in AI: Generative Tech, Robots, Emerging Risks

विशेषज्ञों को क्यों है चिंता

AI विशेषज्ञों का कहना है कि यह स्थिति भविष्य में और जटिल हो सकती है। जैसे-जैसे AI मॉडल ज्यादा शक्तिशाली होंगे और आउटकम-आधारित ट्रेनिंग (जैसे हाई-कंप्यूट रिइनफोर्समेंट लर्निंग) का इस्तेमाल बढ़ेगा, वैसे-वैसे मॉडल मानव-पठनीय तर्क दिखाना कम कर सकते हैं।ऐसी स्थिति में केवल CoT पढ़कर AI के व्यवहार की निगरानी करना मुश्किल हो जाएगा।

छुपे संकेतों का असर

कुछ प्रयोगों में यह भी देखा गया कि मॉडल बाहरी संकेतों या हिंट्स से प्रभावित होने के बावजूद अपनी लिखी हुई तर्क प्रक्रिया में उनका जिक्र नहीं करते। कई बार वे लंबी और तार्किक लगने वाली व्याख्या तो देते हैं, लेकिन उस असली संकेत को छोड़ देते हैं जिसने निर्णय को प्रभावित किया।

विशेषज्ञों का समर्थन

इस संयुक्त पेपर पर 40 से अधिक शोधकर्ताओं के हस्ताक्षर हैं। साथ ही इसे AI क्षेत्र के प्रसिद्ध वैज्ञानिकों जैसे Geoffrey Hinton और Ilya Sutskever का भी समर्थन मिला है।Realistic ai Images - Free Download on Freepik

मॉनिटरिंग बनाए रखने की जरूरत

शोधकर्ताओं का कहना है कि AI सिस्टम्स की पारदर्शिता बनाए रखने के लिए डेवलपर्स को बेहतर मॉनिटरिंग तकनीकों और पारदर्शिता के मानकों पर काम करना होगा। साथ ही यह भी देखना होगा कि ट्रेनिंग या आर्किटेक्चर में किए गए बदलाव CoT पर कैसे असर डालते हैं।

रिपोर्ट्स में क्या दावे

कुछ मीडिया रिपोर्टों के मुताबिक, Claude AI chatbot जैसे मॉडल कई मामलों में अपने निर्णय की असली वजह को पूरी तरह नहीं बताते। कुछ विश्लेषणों में यह भी कहा गया कि करीब 75 प्रतिशत मामलों में मॉडल वास्तविक कारणों को छिपा सकता है।The Future of AI: Yann LeCun's Vision and the Role of Open-Source  Development

Leave a Reply



comments

Loading.....
  • No Previous Comments found.