AI से बने साइबर हमले का बड़ा खुलासा, Google ने समय रहते रोका “Zero-Day Exploit” अटैक
New Delhi : दुनिया में साइबर सुरक्षा को लेकर खतरा लगातार बढ़ता जा रहा है और अब आर्टिफिशियल इंटेलिजेंस (Artificial Intelligence) इस खतरे को और भी जटिल बना रहा है। टेक कंपनी Google ने खुलासा किया है कि उसने एक बड़े साइबर अटैक को समय रहते रोक दिया, जिसमें पहली बार AI-जनरेटेड “Zero-Day Exploit” का इस्तेमाल होने वाला था।
क्या था AI-Generated Zero-Day Exploit?
Google की Threat Intelligence टीम के अनुसार, हैकर्स ने AI की मदद से एक ऐसी अज्ञात सुरक्षा खामी (vulnerability) खोजी थी, जिसके बारे में पहले किसी को जानकारी नहीं थी। इस खामी का फायदा उठाकर साइबर अपराधी टू-फैक्टर ऑथेंटिकेशन (2FA) जैसी सुरक्षा को भी बायपास कर सकते थे।
यह कमजोरी एक लोकप्रिय ओपन-सोर्स वेब सिस्टम एडमिनिस्ट्रेशन टूल में पाई गई थी, हालांकि सुरक्षा कारणों से उसका नाम सार्वजनिक नहीं किया गया। Google ने संबंधित सॉफ्टवेयर विक्रेता के साथ मिलकर इसे पहले ही ठीक करा दिया, जिससे बड़ा साइबर हमला टल गया।
कैसे पता चला कि AI का इस्तेमाल हुआ?
Google के अनुसार, इस एक्सप्लॉइट में कई ऐसे संकेत मिले जो आमतौर पर AI-जनरेटेड कोड में दिखाई देते हैं—जैसे विस्तृत टिप्पणियां, साफ-सुथरा कोड स्ट्रक्चर और गलत CVSS सिक्योरिटी स्कोर। कंपनी का मानना है कि यह किसी साधारण बग की नहीं, बल्कि “सेमांटिक लॉजिक फ्लॉ” की पहचान थी, जिसमें सिस्टम के व्यवहार को समझकर कमजोरी ढूंढी गई।
साइबर अपराधी भी कर रहे AI का इस्तेमाल
रिपोर्ट में कहा गया है कि चीन और उत्तर कोरिया से जुड़े साइबर ग्रुप अब AI का बड़े पैमाने पर इस्तेमाल कर रहे हैं। ये समूह कमजोरियां खोजने, एक्सप्लॉइट बनाने और ऑटोमेटेड टेस्टिंग जैसे कामों में AI का उपयोग कर रहे हैं।
कुछ मामलों में हैकर्स AI को इस तरह निर्देश दे रहे हैं जैसे वह कोई अनुभवी साइबर सिक्योरिटी एक्सपर्ट हो, जिससे राउटर फर्मवेयर और सिस्टम में रिमोट कोड एक्सेस जैसी गंभीर खामियां ढूंढी जा रही हैं।
GitHub डेटा से AI को किया जा रहा ट्रेन
रिपोर्ट में “wooyun-legacy” नाम के एक GitHub प्रोजेक्ट का भी उल्लेख किया गया है, जिसमें 85,000 से अधिक साइबर कमजोरियों का डेटा मौजूद है। माना जा रहा है कि इसी तरह के डेटासेट से AI मॉडल को ट्रेन किया जा रहा है ताकि वह नए सिस्टम में भी सुरक्षा खामियां पहचान सके।
बढ़ता खतरा, बढ़ती चिंता
Google का कहना है कि अब AI का उपयोग केवल रिसर्च तक सीमित नहीं है, बल्कि साइबर अपराधी इसे संगठित तरीके से हथियार की तरह इस्तेमाल कर रहे हैं। इसी कारण टेक कंपनियां AI सुरक्षा को लेकर अधिक सतर्क हो गई हैं। हाल ही में Anthropic ने भी अपने मॉडल के रिलीज में देरी की थी, ताकि संभावित गलत इस्तेमाल को रोका जा सके।
विशेषज्ञों का मानना है कि आने वाले समय में AI आधारित साइबर हमले डिजिटल सुरक्षा के लिए सबसे बड़ा खतरा बन सकते हैं।
