एआई सिस्टम के बारे में भी यही सच है जिसका उपयोग कंपनियां संभावित खतरनाक या अपमानजनक सामग्री को चिह्नित करने में मदद के लिए करती हैं। ट्रस्ट और सुरक्षा प्लेटफॉर्म ट्रेमाऊ के सह-संस्थापक लुइस-विक्टर डी फ्रांस्सु कहते हैं, प्लेटफ़ॉर्म अक्सर आंतरिक उपकरण बनाने के लिए डेटा के विशाल भंडार का उपयोग करते हैं जो उन्हें उस प्रक्रिया को सुव्यवस्थित करने में मदद करते हैं। लेकिन इनमें से कई कंपनियों को अपने सिस्टम बनाने के लिए व्यावसायिक रूप से उपलब्ध मॉडलों पर निर्भर रहना पड़ता है – जो नई समस्याएं पैदा कर सकता है।
फ्रांसू कहते हैं, “ऐसी कंपनियां हैं जो कहती हैं कि वे एआई बेचती हैं, लेकिन वास्तव में वे जो करती हैं वह अलग-अलग मॉडलों को एक साथ जोड़ना है।” इसका मतलब यह है कि एक कंपनी अलग-अलग मशीन लर्निंग मॉडल का एक समूह जोड़ सकती है – मान लीजिए, एक जो उपयोगकर्ता की उम्र का पता लगाता है और दूसरा जो संभावित बाल यौन शोषण सामग्री को चिह्नित करने के लिए नग्नता का पता लगाता है – एक सेवा में जो वे ग्राहकों को प्रदान करते हैं।
और जबकि यह सेवाओं को सस्ता बना सकता है, इसका मतलब यह भी है कि आउटसोर्सर द्वारा उपयोग किए जाने वाले मॉडल में कोई भी समस्या होगी दोहराया सेंटर फॉर डेमोक्रेसी एंड टेक्नोलॉजी के रिसर्च फेलो गेब निकोलस कहते हैं, “इसके सभी ग्राहक हैं।” “स्वतंत्र भाषण के नजरिए से, इसका मतलब है कि यदि एक मंच पर कोई त्रुटि है, तो आप अपना भाषण कहीं और नहीं ला सकते हैं – यदि कोई त्रुटि है, तो वह त्रुटि हर जगह फैल जाएगी।” यदि कई आउटसोर्सर एक ही मूलभूत मॉडल का उपयोग कर रहे हैं तो यह समस्या बढ़ सकती है।
महत्वपूर्ण कार्यों को तीसरे पक्ष को आउटसोर्स करने से, प्लेटफ़ॉर्म लोगों के लिए यह समझना कठिन बना सकते हैं कि मॉडरेशन निर्णय कहाँ किए जा रहे हैं, या नागरिक समाज के लिए – थिंक टैंक और गैर-लाभकारी संस्थाएँ जो प्रमुख प्लेटफ़ॉर्म पर बारीकी से नज़र रखते हैं – यह जानने के लिए कि विफलताओं के लिए जवाबदेही कहाँ रखी जाए।
“[Many watching] ऐसे बात करें जैसे कि ये बड़े मंच ही निर्णय ले रहे हों। निकोलस कहते हैं, ”शिक्षा जगत, नागरिक समाज और सरकार में बहुत से लोग इसी ओर अपनी आलोचना करते हैं।” “यह विचार कि हम इसे गलत जगह पर इंगित कर रहे हैं, एक डरावना विचार है।”
ऐतिहासिक रूप से, टेलस, टेलीपरफॉर्मेंस और एक्सेंचर जैसी बड़ी कंपनियों को आउटसोर्स किए गए विश्वास और सुरक्षा कार्य के एक महत्वपूर्ण हिस्से: सामग्री मॉडरेशन का प्रबंधन करने के लिए अनुबंधित किया जाएगा। अक्सर ऐसा दिखता था कॉल सेंटर, बड़ी संख्या में कम-भुगतान वाले कर्मचारी मैन्युअल रूप से पोस्ट के माध्यम से यह निर्णय लेते हैं कि क्या वे नफरत फैलाने वाले भाषण, स्पैम और नग्नता जैसी चीजों के खिलाफ मंच की नीतियों का उल्लंघन करते हैं। नए विश्वास और सुरक्षा स्टार्टअप स्वचालन और कृत्रिम बुद्धिमत्ता की ओर अधिक झुक रहे हैं, जो अक्सर कुछ प्रकार की सामग्री या विषय क्षेत्रों में विशेषज्ञता रखते हैं – जैसे आतंकवाद या बाल यौन शोषण – या किसी विशेष माध्यम पर ध्यान केंद्रित करते हैं, जैसे पाठ बनाम वीडियो। अन्य ऐसे उपकरण बना रहे हैं जो क्लाइंट को एक ही इंटरफ़ेस के माध्यम से विभिन्न विश्वास और सुरक्षा प्रक्रियाओं को चलाने की अनुमति देते हैं।
2023-11-06 19:29:56
#बग #टक #न #भरस #और #सरकष #ख #द #अब #सटरटअप #इस #एक #सव #क #रप #म #वपस #बच #रह #ह