ChatGPT की खतरनाक गलती: AI से हेल्थ सलाह लेना बन सकता है जानलेवा?

इंटरनेट और AI टूल्स आज हर सवाल का जवाब देने का दावा करते हैं। लेकिन क्या आप जानते हैं कि ये डिजिटल दिग्गज आपकी सेहत के मामले में कितने खतरनाक साबित हो सकते हैं?   

60 साल के एक बुजुर्ग ने जब ChatGPT से पूछा, “नमक का कोई विकल्प है क्या?” तो उसे मिला जवाब — सोडियम ब्रोमाइड। नाम सुनकर आपको भी लगेगा कुछ नया और सही सलाह, लेकिन ये वो जवाब था जिसने उनकी ज़िंदगी को दांव पर लगा दिया।बिना किसी शक के, उन्होंने सोडियम ब्रोमाइड का इस्तेमाल करना शुरू कर दिया। पर तीन महीनों के भीतर उनकी तबीयत बिगड़ने लगी — भ्रम, पागलपन, अजीब paranoia यानी दूसरों पर बिना वजह शक करने की हालत तक पहुंच गए। आखिरकार अस्पताल में भर्ती कराया गया, जहां डॉक्टरों ने बताया कि उनका शरीर ‘ब्रोमाइड पॉइजनिंग’ का शिकार हो चुका है।

लेकिन सवाल यही है — AI ने आखिर ऐसा कैसे कह दिया? क्या ChatGPT को पता नहीं था कि ये इंसानों के लिए घातक हो सकता है?डॉक्टरों ने तीन हफ्तों तक IV फ्लूइड्स और इलेक्ट्रोलाइट्स से उनका इलाज किया। शुक्र है कि उन्होंने जान बचाई, वरना ये कहानी एक ट्रैजेडी बन सकती थीयह मामला ‘एनल्स ऑफ इंटरनल मेडिसिन क्लिनिकल केसेस’ में भी प्रकाशित हुआ है और सबके लिए एक बड़ी चेतावनी है — AI से हेल्थ सलाह लेना मज़ाक नहीं, ये जानलेवा भी हो सकता है।

अब सवाल ये उठता है:

क्या आप AI की हर बात पर भरोसा करेंगे?

कैसे पहचानें सही और गलत स्वास्थ्य जानकारी?

और आखिरकार, कब और कहां लें हेल्थ सलाह ताकि आपकी जान बची रहे?

Leave a Reply



comments

Loading.....
  • No Previous Comments found.