आर्टिफिशियल इंटेलिजेंस की दुनिया में एक बड़ा विवाद सामने आया है, जहां Anthropic के एक कथित सीक्रेट मॉडल की सुरक्षा पर सवाल उठने लगे हैं।
रिपोर्ट्स के मुताबिक, कुछ Discord उपयोगकर्ताओं के एक समूह ने दावा किया है कि उन्होंने कंपनी के अप्रकाशित AI मॉडल “Claude Mythos Preview” तक अनधिकृत पहुंच बना ली है।
क्या है पूरा मामला?
बताया जा रहा है कि यह मॉडल अभी सार्वजनिक रूप से लॉन्च नहीं किया गया था और इसे सीमित पार्टनर्स के लिए ही उपलब्ध कराया गया था।
यह AI मॉडल खास तौर पर साइबर सिक्योरिटी के लिए तैयार किया गया था, जो बड़े स्तर पर सॉफ्टवेयर की कमजोरियों को पहचान सकता है।
लेकिन चौंकाने वाली बात यह है कि कथित तौर पर इस मॉडल तक पहुंच किसी जटिल हैकिंग से नहीं, बल्कि पुराने नामकरण पैटर्न (naming pattern) के आधार पर अनुमान लगाकर हासिल की गई।
कैसे हुई सेंध?
रिपोर्ट के अनुसार:
समूह ने मॉडल के संभावित ऑनलाइन लोकेशन का अनुमान लगाया
एक सदस्य को पहले से सीमित एक्सेस (external contractor) मिला हुआ था
उसी के जरिए एक्सेस हासिल करने में मदद मिली
यह घटना दिखाती है कि कभी-कभी सिस्टम की सबसे कमजोर कड़ी तकनीक नहीं, बल्कि एक्सेस मैनेजमेंट होती है।
क्यों अहम है यह मामला?
Anthropic का दावा था कि यह मॉडल भविष्य में साइबर सुरक्षा के क्षेत्र में बड़ा बदलाव ला सकता है।
ऐसे में:
एक हाई-सिक्योरिटी AI मॉडल तक अनधिकृत पहुंच
और वह भी बिना जटिल हैकिंग के
यह पूरी इंडस्ट्री के लिए चिंता का संकेत माना जा रहा है।
कंपनी का रुख
कंपनी ने इस मामले को गंभीरता से लेते हुए जांच शुरू कर दी है। फिलहाल यह स्पष्ट नहीं है कि:
कितने लोगों ने एक्सेस किया
या डेटा का दुरुपयोग हुआ या नहीं
AI Security पर बड़ा सवाल
यह घटना एक बड़े सवाल को जन्म देती है:
क्या तेजी से विकसित हो रही AI टेक्नोलॉजी के साथ उसकी सुरक्षा उतनी ही मजबूत है?
AI सिस्टम जितने पावरफुल होते जा रहे हैं, उतना ही जरूरी हो जाता है कि:
उनकी एक्सेस कंट्रोल सिस्टम मजबूत हो
और डेटा सुरक्षा के नए मानक बनाए जाएं
![]()

