ChatGPT की खतरनाक गलती: AI से हेल्थ सलाह लेना बन सकता है जानलेवा?
इंटरनेट और AI टूल्स आज हर सवाल का जवाब देने का दावा करते हैं। लेकिन क्या आप जानते हैं कि ये डिजिटल दिग्गज आपकी सेहत के मामले में कितने खतरनाक साबित हो सकते हैं?
60 साल के एक बुजुर्ग ने जब ChatGPT से पूछा, “नमक का कोई विकल्प है क्या?” तो उसे मिला जवाब — सोडियम ब्रोमाइड। नाम सुनकर आपको भी लगेगा कुछ नया और सही सलाह, लेकिन ये वो जवाब था जिसने उनकी ज़िंदगी को दांव पर लगा दिया।बिना किसी शक के, उन्होंने सोडियम ब्रोमाइड का इस्तेमाल करना शुरू कर दिया। पर तीन महीनों के भीतर उनकी तबीयत बिगड़ने लगी — भ्रम, पागलपन, अजीब paranoia यानी दूसरों पर बिना वजह शक करने की हालत तक पहुंच गए। आखिरकार अस्पताल में भर्ती कराया गया, जहां डॉक्टरों ने बताया कि उनका शरीर ‘ब्रोमाइड पॉइजनिंग’ का शिकार हो चुका है।
लेकिन सवाल यही है — AI ने आखिर ऐसा कैसे कह दिया? क्या ChatGPT को पता नहीं था कि ये इंसानों के लिए घातक हो सकता है?डॉक्टरों ने तीन हफ्तों तक IV फ्लूइड्स और इलेक्ट्रोलाइट्स से उनका इलाज किया। शुक्र है कि उन्होंने जान बचाई, वरना ये कहानी एक ट्रैजेडी बन सकती थीयह मामला ‘एनल्स ऑफ इंटरनल मेडिसिन क्लिनिकल केसेस’ में भी प्रकाशित हुआ है और सबके लिए एक बड़ी चेतावनी है — AI से हेल्थ सलाह लेना मज़ाक नहीं, ये जानलेवा भी हो सकता है।
अब सवाल ये उठता है:
क्या आप AI की हर बात पर भरोसा करेंगे?
कैसे पहचानें सही और गलत स्वास्थ्य जानकारी?
और आखिरकार, कब और कहां लें हेल्थ सलाह ताकि आपकी जान बची रहे?
No Previous Comments found.