फोटो खिंचवाते वक्त भूलकर भी न बनाएं Victory का निशान!

अगर आप सोशल मीडिया पर अक्सर Victory या Peace Sign के साथ सेल्फी पोस्ट करते हैं, तो अब अलर्ट हो जाइए। साइबर सुरक्षा विशेषज्ञों ने चेतावनी दी है कि आर्टिफिशियल इंटेलिजेंस (AI) की मदद से हैकर्स आपकी तस्वीरों से फिंगरप्रिंट जैसी संवेदनशील जानकारी निकाल सकते हैं। यह सिर्फ प्राइवेसी का मामला नहीं, बल्कि पहचान चोरी और ऑनलाइन फ्रॉड का भी बड़ा खतरा बनता जा रहा है।

आजकल लोग हर छोटी-बड़ी खुशी की तस्वीर इंटरनेट पर शेयर करते हैं। खासकर सेल्फी में Victory Sign बनाना ट्रेंड बन चुका है। लेकिन यही स्टाइल अब साइबर अपराधियों के लिए नया हथियार साबित हो सकता है।

साइबर एक्सपर्ट ली चांग ने एक टीवी कार्यक्रम में दिखाया कि आधुनिक AI टूल्स और हाई-रेजोल्यूशन इमेज तकनीक की मदद से तस्वीरों में दिखाई देने वाली उंगलियों से Fingerprint Pattern निकाला जा सकता है। उन्होंने एक सेलिब्रिटी की फोटो का उदाहरण देकर बताया कि कैमरे की तरफ साफ दिखाई दे रही उंगलियां हैकर्स के लिए डेटा का बड़ा स्रोत बन सकती हैं।

विशेषज्ञों के मुताबिक, अगर फोटो करीब 1.5 मीटर की दूरी से ली गई हो और उंगलियां साफ नजर आ रही हों, तो फिंगरप्रिंट का बड़ा हिस्सा कॉपी किया जा सकता है। यहां तक कि दूर से ली गई तस्वीरों में भी AI तकनीक धुंधले निशानों को साफ करके जरूरी डेटा तैयार कर सकती है।

सबसे बड़ी चिंता यह है कि पासवर्ड की तरह फिंगरप्रिंट बदले नहीं जा सकते। अगर किसी का बायोमेट्रिक डेटा लीक हो जाए, तो उसका इस्तेमाल बैंकिंग फ्रॉड, पहचान चोरी और सिक्योरिटी सिस्टम को तोड़ने में किया जा सकता है। यही वजह है कि एक्सपर्ट्स लोगों को सोशल मीडिया पर तस्वीरें साझा करते समय सतर्क रहने की सलाह दे रहे हैं।

रिपोर्ट्स के अनुसार, AI अब साइबर अपराधियों के लिए एक ताकतवर हथियार बन चुका है। कई अंतरराष्ट्रीय साइबर ग्रुप एडवांस AI मॉडल्स का इस्तेमाल कर तेजी से Malware और बड़े साइबर हमले तैयार कर रहे हैं। टेक कंपनियों और सुरक्षा एजेंसियों ने भी माना है कि AI की वजह से ऑनलाइन खतरों का स्तर पहले से कहीं ज्यादा बढ़ गया है।

इसी बढ़ते खतरे को देखते हुए कई AI कंपनियां अपनी कुछ अत्याधुनिक तकनीकों को सार्वजनिक करने से भी बच रही हैं, क्योंकि गलत इस्तेमाल वैश्विक सुरक्षा और वित्तीय सिस्टम के लिए गंभीर चुनौती बन सकता है।

Leave a Reply



comments

Loading.....
  • No Previous Comments found.