11-12 जुलाई को सैन फ्रांसिस्को में शीर्ष अधिकारियों से जुड़ें, यह सुनने के लिए कि नेता सफलता के लिए एआई निवेश को कैसे एकीकृत और अनुकूलित कर रहे हैं. और अधिक जानें
इस हफ्ते की शुरुआत में, 1,800 से अधिक आर्टिफिशियल इंटेलिजेंस (एआई) के नेताओं और प्रौद्योगिकीविदों के एक समूह ने एलोन मस्क से लेकर स्टीव वोज्नियाक तक सभी एआई प्रयोगशालाओं को जीपीटी-4 से अधिक शक्तिशाली एआई सिस्टम पर छह महीने के लिए विकास को तुरंत रोकने के लिए एक खुला पत्र जारी किया था। “समाज और मानवता के लिए गहरा जोखिम” के कारण।
जबकि एक विराम जनरेटिव एआई द्वारा बनाए गए सामाजिक जोखिमों को बेहतर ढंग से समझने और विनियमित करने में मदद कर सकता है, कुछ का तर्क है कि यह ओपनएआई जैसे अंतरिक्ष में नेताओं के साथ एआई अनुसंधान पर पिछड़ने वाले प्रतियोगियों को पकड़ने का भी एक प्रयास है।
इस मुद्दे के बारे में वेंचरबीट से बात करने वाले गार्टनर के विशिष्ट वीपी विश्लेषक अविवाह लिटन के अनुसार, “छह महीने का ठहराव GPT-4 से अधिक शक्तिशाली मॉडलों के प्रशिक्षण को रोकने के लिए एक दलील है। GPT 4.5 का जल्द ही GPT-5 द्वारा पालन किया जाएगा, जिससे AGI (कृत्रिम सामान्य बुद्धि) हासिल करने की उम्मीद है। एक बार एजीआई आने के बाद, सुरक्षा नियंत्रण स्थापित करने में बहुत देर हो जाएगी जो इन प्रणालियों के मानव उपयोग को प्रभावी ढंग से सुरक्षित रखता है।
>>वेंचरबीट के चल रहे जनरेटिव एआई कवरेज का पालन करें<
आयोजन
परिवर्तन 2023
11-12 जुलाई को सैन फ्रांसिस्को में हमारे साथ जुड़ें, जहां शीर्ष अधिकारी साझा करेंगे कि कैसे उन्होंने सफलता के लिए एआई निवेश को एकीकृत और अनुकूलित किया है और आम नुकसान से बचा है।
अभी पंजीकरण करें
जनरेटिव एआई द्वारा उत्पन्न सामाजिक जोखिमों के बारे में चिंताओं के बावजूद, कई साइबर सुरक्षा विशेषज्ञों को संदेह है कि एआई के विकास में एक ठहराव से मदद मिलेगी। इसके बजाय, वे तर्क देते हैं कि इस तरह का ठहराव सुरक्षा टीमों को अपने बचाव को विकसित करने और सामाजिक इंजीनियरिंग, फ़िशिंग और दुर्भावनापूर्ण कोड जनरेशन में वृद्धि का जवाब देने के लिए केवल एक अस्थायी राहत प्रदान करेगा।
जनरेटिव AI विकास पर विराम क्यों संभव नहीं है
साइबर सुरक्षा के नजरिए से एआई शोध पर रोक के खिलाफ सबसे ठोस तर्कों में से एक यह है कि यह केवल विक्रेताओं को प्रभावित करता है, न कि दुर्भावनापूर्ण खतरे वाले अभिनेताओं को। साइबर अपराधियों के पास अभी भी नए हमले वैक्टर विकसित करने और उनकी आक्रामक तकनीकों को सुधारने की क्षमता होगी।
McAfee के सीटीओ स्टीव ग्रोबमैन ने वेंचरबीट को बताया, “AI की अगली पीढ़ी के विकास को रोकने से बेईमान अभिनेताओं को खतरनाक दिशाओं में प्रौद्योगिकी को जारी रखने से नहीं रोका जा सकेगा।” “जब आपके पास तकनीकी प्रगति होती है, तो नैतिकता और मानकों वाले संगठनों और कंपनियों का होना जो प्रौद्योगिकी को आगे बढ़ाना जारी रखते हैं, यह सुनिश्चित करने के लिए अनिवार्य है कि प्रौद्योगिकी का उपयोग सबसे अधिक जिम्मेदार तरीके से किया जाता है।”
इसी समय, AI सिस्टम के प्रशिक्षण पर प्रतिबंध लगाने को एक नियामक ओवररीच माना जा सकता है।
“एआई अनुप्रयुक्त गणित है, और हम कानून नहीं बना सकते, नियमन नहीं कर सकते या लोगों को गणित करने से नहीं रोक सकते। इसके बजाय, हमें इसे समझने की जरूरत है, हमारे नेताओं को इसे जिम्मेदारी से सही जगहों पर उपयोग करने के लिए शिक्षित करें और यह पहचानें कि हमारे विरोधी इसका फायदा उठाने की कोशिश करेंगे, ”ग्रोबमैन ने कहा।
तो क्या किया जायें?
यदि जनरेटिव एआई विकास पर पूर्ण विराम व्यावहारिक नहीं है, तो इसके बजाय, नियामकों और निजी संगठनों को एआई विकास के मापदंडों के आसपास एक आम सहमति विकसित करने पर ध्यान देना चाहिए, जीपीटी-4 जैसे उपकरणों के लिए आवश्यक इनबिल्ट सुरक्षा का स्तर और उपाय उद्यम संबंधित जोखिमों को कम करने के लिए उपयोग कर सकते हैं।
“एआई विनियमन एक महत्वपूर्ण और चल रही बातचीत है, और इन प्रौद्योगिकियों के नैतिक और सुरक्षित उपयोग पर कानून क्षेत्र-विशिष्ट ज्ञान वाले विधायकों के लिए एक तत्काल चुनौती बना हुआ है, क्योंकि उपयोग के मामले की सीमा स्वास्थ्य सेवा से लेकर एयरोस्पेस तक आंशिक रूप से असीम है,” जस्टिन फीयर रेड टीम ऑपरेशंस, डार्कट्रेस के एसवीपी ने वेंचरबीट को बताया।
“जनरल एआई ही नहीं, सभी प्रकार के एआई और ऑटोमेशन के गलत इस्तेमाल के लिए किसे जिम्मेदार ठहराया जाना चाहिए, इस पर एक राष्ट्रीय या अंतरराष्ट्रीय सहमति तक पहुंचना एक महत्वपूर्ण चुनौती है, जिसे विशेष रूप से जेन एआई मॉडल के विकास पर एक छोटे से ठहराव से हल होने की संभावना नहीं है,” फीयर कहा।
एक विराम के बजाय, जेनेरेटिव एआई के दुर्भावनापूर्ण उपयोग से जुड़े जोखिमों को प्रबंधित करने के तरीके पर चर्चा में तेजी लाने पर ध्यान केंद्रित करके और नए खतरों को रोकने के लिए लागू किए गए रेलिंग के बारे में एआई विक्रेताओं से अधिक पारदर्शी होने का आग्रह करके साइबर सुरक्षा समुदाय को बेहतर सेवा दी जाएगी।
एआई समाधानों में विश्वास वापस कैसे प्राप्त करें
गार्टनर के लिटन के लिए, वर्तमान बड़े भाषा मॉडल (एलएलएम) के विकास के लिए उपयोगकर्ताओं को एक विक्रेता की रेड-टीमिंग क्षमताओं पर भरोसा करने की आवश्यकता होती है। हालाँकि, OpenAI जैसे संगठन अपारदर्शी हैं कि वे आंतरिक रूप से जोखिमों का प्रबंधन कैसे करते हैं, और उपयोगकर्ताओं को उन अंतर्निहित सुरक्षा के प्रदर्शन की निगरानी करने की बहुत कम क्षमता प्रदान करते हैं।
परिणामस्वरूप, जेनेरेटिव एआई द्वारा पेश किए गए साइबर जोखिमों के प्रबंधन के लिए संगठनों को नए उपकरणों और रूपरेखाओं की आवश्यकता होती है।
“हमें एआई ट्रस्ट, जोखिम और सुरक्षा प्रबंधन की एक नई श्रेणी की जरूरत है [TRiSM] उपकरण जो एलएलएम फाउंडेशन मॉडल की मेजबानी करने वाले उपयोगकर्ताओं और कंपनियों के बीच डेटा और प्रक्रिया प्रवाह का प्रबंधन करते हैं। ये होंगे [cloud access security broker] सीएएसबी-जैसे उनके तकनीकी विन्यास लेकिन, सीएएसबी कार्यों के विपरीत, उन्हें जोखिमों को कम करने और क्लाउड-आधारित फाउंडेशन एआई मॉडल का उपयोग करने में विश्वास बढ़ाने के लिए प्रशिक्षित किया जाएगा,” लिटन ने कहा।
AI TRiSM आर्किटेक्चर के हिस्से के रूप में, उपयोगकर्ताओं को इन मॉडलों को होस्ट करने या प्रदान करने वाले विक्रेताओं से अतिरिक्त डेटा सुरक्षा और गोपनीयता आश्वासन क्षमताओं, जैसे मास्किंग के साथ डेटा और सामग्री विसंगतियों का पता लगाने के लिए उपकरण प्रदान करने की अपेक्षा करनी चाहिए।
ModelOps और प्रतिकूल हमले के प्रतिरोध जैसे मौजूदा उपकरणों के विपरीत, जिन्हें केवल एक मॉडल मालिक और ऑपरेटर द्वारा निष्पादित किया जा सकता है, AI TRiSM उपयोगकर्ताओं को GPT-4 जैसे टूल द्वारा प्रस्तुत जोखिम के स्तर को परिभाषित करने में बड़ी भूमिका निभाने में सक्षम बनाता है।
तैयारी प्रमुख है
अंतत:, जेनेरेटिव एआई के विकास को रोकने की कोशिश करने के बजाय, संगठनों को उन तरीकों की तलाश करनी चाहिए, जो वे जेनेरेटिव एआई द्वारा प्रदान किए गए जोखिमों का सामना करने के लिए तैयार कर सकते हैं।
ऐसा करने का एक तरीका एआई के साथ एआई से लड़ने के नए तरीके खोजना है, और माइक्रोसॉफ्ट, ओर्का सिक्योरिटी, एआरएमओ और सोफोस जैसे संगठनों के नेतृत्व का पालन करना है, जिन्होंने पहले से ही जनरेटिव एआई के लिए नए रक्षात्मक उपयोग के मामले विकसित किए हैं।
उदाहरण के लिए, Microsoft सुरक्षा सहपायलट सुरक्षा उपकरणों द्वारा बनाए गए अलर्ट को संसाधित करने के लिए GPT-4 और अपने स्वयं के स्वामित्व वाले डेटा के मिश्रण का उपयोग करता है, और सुरक्षा घटनाओं की प्राकृतिक भाषा व्याख्या में उनका अनुवाद करता है। यह मानव उपयोगकर्ताओं को उल्लंघनों का अधिक प्रभावी ढंग से जवाब देने के लिए संदर्भित करने के लिए एक कथा देता है।
यह सिर्फ एक उदाहरण है कि कैसे GPT-4 को रक्षात्मक रूप से इस्तेमाल किया जा सकता है। जनरेटिव एआई के आसानी से उपलब्ध होने और जंगली में बाहर होने के साथ, यह सुरक्षा टीमों पर है कि वे अपने संगठनों को सुरक्षित करने के लिए झूठे गुणक के रूप में इन उपकरणों का लाभ कैसे उठा सकते हैं।
फॉरेस्टर वीपी के प्रमुख विश्लेषक जेफ पोलार्ड ने वेंचरबीट को बताया, “यह तकनीक आ रही है … और जल्दी।” “साइबर सुरक्षा तैयार होने का एकमात्र तरीका अभी से निपटना शुरू करना है। यह दिखावा करना कि यह नहीं आ रहा है – या यह दिखावा करना कि एक ठहराव से मदद मिलेगी – लंबे समय में साइबर सुरक्षा टीमों को महंगा पड़ेगा। टीमों को अब शोध करना और सीखना शुरू करना होगा कि ये प्रौद्योगिकियां कैसे बदलेंगी कि वे अपना काम कैसे करते हैं।
वेंचरबीट का मिशन परिवर्तनकारी उद्यम प्रौद्योगिकी और लेन-देन के बारे में ज्ञान प्राप्त करने के लिए तकनीकी निर्णय लेने वालों के लिए एक डिजिटल टाउन स्क्वायर बनना है। हमारी ब्रीफिंग खोजें।