एंथ्रोपिक ने क्लाउड AI के दुरुपयोग की हैकर्स की कोशिशों को रोका
एंथ्रोपिक ने क्लाउड AI के दुरुपयोग की हैकर्स की कोशिशों को रोका।


tarun@chugal.com
क्या हुआ?
आर्टिफिशियल इंटेलिजेंस (AI) कंपनी एंथ्रोपिक (Anthropic) ने हाल ही में घोषणा की है कि उसने अपने क्लाउड (Claude) AI सिस्टम का दुरुपयोग करने की कोशिश कर रहे हैकर्स का पता लगाकर उन्हें रोका है। ये हैकर्स एआई का इस्तेमाल फ़िशिंग ईमेल लिखने, दुर्भावनापूर्ण कोड बनाने और सुरक्षा फिल्टर को चकमा देने के लिए कर रहे थे। कंपनी ने एक रिपोर्ट में यह जानकारी दी है, जो साइबर अपराधों में एआई टूल्स के बढ़ते इस्तेमाल पर बढ़ती चिंताओं को उजागर करती है।
हमलों का तरीका
एंथ्रोपिक की रिपोर्ट के मुताबिक, हमलावरों ने क्लाउड एआई का कई तरह से गलत इस्तेमाल करने की कोशिश की। इसमें शामिल थे:
- अनुकूलित फ़िशिंग ईमेल: हैकर्स क्लाउड का उपयोग करके ऐसे फ़िशिंग ईमेल तैयार कर रहे थे, जो बेहद विश्वसनीय लगते थे।
- दुर्भावनापूर्ण कोड: वे खतरनाक कोड के छोटे टुकड़े लिखने या उन्हें ठीक करने के लिए एआई का सहारा ले रहे थे।
- सुरक्षा फिल्टर को चकमा: बार-बार प्रॉम्प्टिंग (निर्देश देने) के ज़रिए सुरक्षा उपायों को बायपास करने की कोशिश की जा रही थी।
- प्रभावशाली अभियान: एआई का इस्तेमाल बड़े पैमाने पर ऐसी पोस्ट तैयार करने के लिए भी किया जा रहा था जो लोगों को प्रभावित कर सकें।
- कम कुशल हैकर्स की मदद: यहाँ तक कि कम अनुभव वाले हैकर्स को चरण-दर-चरण निर्देश देकर भी उनकी मदद की जा रही थी।
कंपनी की कार्रवाई
एंथ्रोपिक ने बताया कि उसके आंतरिक सिस्टम ने इन हमलों को सफलतापूर्वक रोक दिया था। कंपनी ने इन केस स्टडीज को साझा किया है ताकि दूसरों को भी इन जोखिमों को समझने में मदद मिल सके। हालांकि, कंपनी ने हमलावरों के आईपी पते या इस्तेमाल किए गए प्रॉम्प्ट जैसे तकनीकी विवरण सार्वजनिक नहीं किए। एंथ्रोपिक ने इसमें शामिल सभी खातों पर प्रतिबंध लगा दिया है और ऐसी गतिविधियों का पता चलने के बाद अपने सुरक्षा फिल्टर को और सख्त कर दिया है।
बढ़ता खतरा और चिंताएं
सुरक्षा विशेषज्ञ लगातार चेतावनी दे रहे हैं कि एआई मॉडल जैसे-जैसे अधिक शक्तिशाली होते जाएंगे, उनके दुरुपयोग का जोखिम भी बढ़ेगा। उनका कहना है कि अगर कंपनियां और सरकारें तेज़ी से कार्रवाई नहीं करती हैं, तो स्थिति बिगड़ सकती है। अपराधी अब घोटालों को और अधिक विश्वसनीय बनाने और हैकिंग के प्रयासों को तेज करने के लिए एआई का सहारा ले रहे हैं। ये उपकरण यथार्थवादी फ़िशिंग संदेश लिखने, मैलवेयर विकास के कुछ हिस्सों को स्वचालित करने और यहां तक कि संभावित रूप से हमलों की योजना बनाने में भी मदद कर सकते हैं।
सुरक्षा के उपाय और सरकारी प्रतिक्रिया
एंथ्रोपिक का कहना है कि वह कड़ी सुरक्षा प्रथाओं का पालन करती है, जिसमें नियमित परीक्षण और बाहरी समीक्षाएं शामिल हैं। कंपनी ने भविष्य में भी बड़े खतरों का पता चलने पर रिपोर्ट प्रकाशित करने की योजना बनाई है। माइक्रोसॉफ्ट और सॉफ्टबैंक समर्थित ओपनएआई (OpenAI) और गूगल (Google) जैसी अन्य एआई कंपनियों को भी इसी तरह की जांच का सामना करना पड़ा है, क्योंकि उनके एआई मॉडल के हैकिंग या घोटालों के लिए इस्तेमाल होने का डर है।
इसके जवाब में, सरकारें भी इस तकनीक को विनियमित करने की दिशा में आगे बढ़ रही हैं। यूरोपीय संघ (EU) अपना आर्टिफिशियल इंटेलिजेंस एक्ट (Artificial Intelligence Act) लागू कर रहा है, और संयुक्त राज्य अमेरिका (USA) प्रमुख डेवलपर्स से स्वैच्छिक सुरक्षा प्रतिबद्धताओं के लिए जोर दे रहा है।