कुछ स्वास्थ्य तकनीक नेताओं के बीच चिंता बढ़ रही है कि उन्हें कृत्रिम बुद्धिमत्ता – विशेष रूप से जेनरेटिव एआई – का उपयोग सुरक्षित, उचित, सुरक्षित और नैतिक रूप से सुनिश्चित करने के लिए शायद एक कदम पीछे हटना चाहिए।
मानव मार्गदर्शन के साथ संयोजन में उपयोग किए जाने पर इसके संभावित लाभ बहुत बड़े होते हैं, जिससे शीघ्र निदान, रोग की रोकथाम में सुधार और सही ढंग से “ट्यून किए गए” भविष्यवाणी एल्गोरिदम के साथ समग्र कल्याण होता है। लेकिन कुछ लोगों ने एआई के उपयोग के बारे में पहले से ही डिजिटल विभाजन को बढ़ावा देने, और अधिक पूर्वाग्रह पैदा करने और असमानता को बढ़ावा देने के बारे में चेतावनी दी है।
ग़रीब ग़रीबी, जिनके पास कंप्यूटर विज्ञान में पीएचडी है, एआई गोपनीयता प्रौद्योगिकी कंपनी ट्रिपलब्लाइंड में एप्लाइड रिसर्च के निदेशक और एआई और गोपनीयता के प्रमुख हैं। उनकी मजबूत राय है – अपने स्वयं के शोध और अनुभव प्रशिक्षण के आधार पर बड़े भाषा मॉडल – एआई को संवर्धित बुद्धिमत्ता के रूप में देखा जाना चाहिए, जो केवल मानवीय संपर्क और समर्थन से सफल हो। हेल्थकेयर आईटी समाचार इस और अन्य विषयों पर उनका दृष्टिकोण जानने के लिए उनसे बात की।
प्र. आप कहते हैं कि आज स्वास्थ्य देखभाल में जेनेरिक एआई के दुरुपयोग के कारण डिजिटल विभाजन और पूर्वाग्रह बढ़ रहा है। कृपया समझाएँ।
एक। जेनरेटिव एआई, और सामान्य तौर पर एआई एल्गोरिदम, ऐसे प्रोग्राम हैं जो डेटा से सामान्यीकरण करते हैं; और यदि पहले से उपयोग किया गया डेटा पक्षपातपूर्ण है, तो एआई एल्गोरिदम भी पक्षपातपूर्ण होगा।
उदाहरण के लिए, यदि एक जनरेटिव मॉडल को प्रमुख जातीय आबादी वाले भौगोलिक क्षेत्र में स्थित एकल स्रोत से एकत्र की गई चिकित्सा छवियों पर प्रशिक्षित किया जाता है, तो प्रशिक्षित एल्गोरिदम अन्य जातीय समूहों के लिए सटीक रूप से काम करने में विफल हो जाएगा (यह मानते हुए कि रोगी की जातीयता एक अच्छा पूर्वानुमान है) चर)।
जेनेरेटिव एआई में विशेष रूप से सिंथेटिक रोगी डेटा बनाने, रोग की प्रगति का अनुकरण करने और यहां तक कि अन्य एआई प्रणालियों के प्रशिक्षण के लिए यथार्थवादी चिकित्सा छवियां उत्पन्न करने की क्षमता है। ऐसी प्रणालियों को प्रशिक्षित करने के लिए एकल-स्रोत, पक्षपाती डेटा का उपयोग करना, अकादमिक अनुसंधान को गुमराह कर सकता है, बीमारियों का गलत निदान कर सकता है और अप्रभावी उपचार योजनाएं उत्पन्न कर सकता है।
हालाँकि, प्रशिक्षण और सत्यापन दोनों के लिए डेटा स्रोतों में विविधता लाने से पूर्वाग्रह को कम करने और अधिक सटीक मॉडल तैयार करने में मदद मिल सकती है, हमें मरीजों की गोपनीयता पर भी ध्यान देना चाहिए। स्वास्थ्य देखभाल डेटा साझा करने से महत्वपूर्ण गोपनीयता संबंधी चिंताएँ बढ़ सकती हैं, और डेटा साझाकरण की सुविधा और मरीजों की गोपनीयता की सुरक्षा के बीच सही संतुलन बनाने की तत्काल और महत्वपूर्ण आवश्यकता है।
अंत में, इस तकनीक के जानबूझकर और अनजाने दुरुपयोग को कम करने के लिए स्वास्थ्य देखभाल में एआई को विनियमित करने के बारे में बहस चल रही है। मरीजों की सुरक्षा और गोपनीयता की रक्षा के लिए कुछ विनियमन आवश्यक है, लेकिन हमें इसके साथ भी सावधान रहना होगा, क्योंकि बहुत अधिक विनियमन नवाचार में बाधा डालेगा और अधिक किफायती, जीवनरक्षक एआई-आधारित प्रौद्योगिकियों के निर्माण और अपनाने को धीमा कर देगा।
प्र. कृपया अपने अनुसंधान और बड़े भाषा मॉडलों के प्रशिक्षण के अनुभव के बारे में बात करें और उसमें से आपकी राय है कि एआई को संवर्धित बुद्धिमत्ता के रूप में देखा जाना चाहिए, जो केवल मानव संपर्क और समर्थन के साथ सफल है।
एक। मेरा अनुभव और अनुसंधान रुचियां एआई, सिस्टम और गोपनीयता के अंतरसंबंधों पर आधारित हैं। मुझे एआई सिस्टम बनाने का शौक है जो मानव जीवन को सुविधाजनक बना सके और हमारे कुछ मौलिक अधिकारों – सुरक्षा और गोपनीयता की रक्षा करते हुए हमारे कार्यों को सटीक और कुशलता से बढ़ा सके।
आज, AI मॉडल स्वयं मानव उपयोगकर्ताओं के साथ मिलकर काम करने के लिए डिज़ाइन किए गए हैं। जबकि एआई सिस्टम, जैसे कि चैटजीपीटी, विभिन्न प्रकार के संकेतों पर प्रतिक्रियाएँ उत्पन्न कर सकते हैं, फिर भी वे इन संकेतों को प्रदान करने के लिए मनुष्यों पर निर्भर रहते हैं। इसके अभी भी अपने कोई लक्ष्य या “इच्छाएँ” नहीं हैं।
आज इसका मुख्य लक्ष्य उपयोगकर्ताओं को उनके उद्देश्यों को प्राप्त करने में सहायता करना है। यह स्वास्थ्य सेवा क्षेत्र में विशेष रूप से प्रासंगिक है, जहां संवेदनशील डेटा को त्वरित, निजी और सटीक रूप से संसाधित करने की क्षमता निदान और उपचार में सुधार कर सकती है।
हालाँकि, जेनरेटिव एआई मॉडल की शक्तिशाली क्षमताओं के बावजूद, वे अभी भी गलत, अनुचित और पक्षपातपूर्ण प्रतिक्रियाएँ उत्पन्न करते हैं। यह गोपनीयता का उल्लंघन करते हुए प्रशिक्षण डेटा के बारे में महत्वपूर्ण जानकारी भी लीक कर सकता है; या गलत परिणाम उत्पन्न करने के लिए प्रतिकूल इनपुट उदाहरणों से आसानी से मूर्ख बन सकते हैं। इसलिए, मानवीय भागीदारी और पर्यवेक्षण अभी भी महत्वपूर्ण है।
आगे देखते हुए, हम पूरी तरह से स्वचालित एआई सिस्टम के उद्भव को देखेंगे, जो मानव हस्तक्षेप की आवश्यकता के बिना व्यापक, जटिल कार्यों से निपटने में सक्षम होंगे। इन परिष्कृत जेनरेटिव एआई मॉडल को जटिल कार्य सौंपे जा सकते हैं, जैसे कैंसर रोगी के लिए सभी संभावित व्यक्तिगत उपचार योजनाओं और परिणामों की भविष्यवाणी करना।
इसके बाद यह व्यापक समाधान उत्पन्न करने में सक्षम होगा जो अन्यथा मानव विशेषज्ञों के लिए हासिल करना असंभव होगा।
एआई सिस्टम की विशाल डेटा प्रबंधन क्षमताएं, जो मानव की संज्ञानात्मक सीमाओं से कहीं अधिक हैं, इस संदर्भ में महत्वपूर्ण हैं। ऐसे कार्यों के लिए भी गणनाओं की आवश्यकता होती है जिन्हें पूरा करने में मानव जीवनकाल या उससे अधिक समय लगेगा, जिससे वे मानव विशेषज्ञों के लिए अव्यावहारिक हो जाते हैं।
अंत में, ये एआई सिस्टम थकान के अधीन नहीं हैं और बीमार नहीं पड़ते हैं (यद्यपि वे अन्य प्रकार के मुद्दों का सामना करते हैं, जैसे अवधारणा बहाव, पूर्वाग्रह, गोपनीयता इत्यादि), और वे लगातार परिणाम प्रदान करते हुए चौबीसों घंटे काम कर सकते हैं। यह पहलू अकेले उन उद्योगों में क्रांति ला सकता है जहां निरंतर विश्लेषण और अनुसंधान महत्वपूर्ण है, जैसे स्वास्थ्य देखभाल।
प्र. स्वास्थ्य देखभाल में जेनरेटिव एआई के संबंध में आपके अनुसार कौन सी रेलिंग लगाई जानी चाहिए?
एक। जैसे-जैसे हम ऐसे भविष्य की ओर बढ़ रहे हैं, जहां जेनेरिक एआई स्वास्थ्य देखभाल में अधिक एकीकृत हो जाता है, इन प्रौद्योगिकियों के जिम्मेदार और नैतिक उपयोग को सुनिश्चित करने के लिए मजबूत रेलिंग का होना आवश्यक है। यहां कुछ प्रमुख क्षेत्र हैं जहां सुरक्षा उपायों पर विचार किया जाना चाहिए:
1. डेटा गोपनीयता और सुरक्षा. स्वास्थ्य देखभाल में एआई में अक्सर संवेदनशील रोगी डेटा शामिल होता है, और इसलिए मजबूत डेटा गोपनीयता और सुरक्षा उपाय महत्वपूर्ण हैं। इसमें ब्लाइंड लर्निंग, सुरक्षित मल्टीपार्टी कंप्यूटेशन (एसएमपीसी), फ़ेडरेटेड लर्निंग और अन्य जैसे मौजूदा गोपनीयता-बढ़ाने वाले तरीकों और टूल का उपयोग करना और सुधार करना शामिल है।
2. पारदर्शिता. स्वास्थ्य सेवा प्रदाताओं और रोगियों के लिए यह समझना महत्वपूर्ण है कि एआई मॉडल कैसे भविष्यवाणियां करते हैं। इसमें एआई कैसे काम करता है, इसकी सीमाएं और जिस डेटा पर इसे प्रशिक्षित किया गया था, उसकी स्पष्ट व्याख्या प्रदान करना शामिल हो सकता है।
3. पूर्वाग्रह शमन. एआई में पूर्वाग्रहों को रोकने और सही करने के उपाय होने चाहिए। इसमें मॉडल प्रशिक्षण के दौरान विविध और प्रतिनिधि डेटा संग्रह, पूर्वाग्रह का पता लगाना और शमन तकनीक और एआई भविष्यवाणियों में पूर्वाग्रह के लिए चल रही निगरानी शामिल है।
5. विनियमन और जवाबदेही. स्वास्थ्य देखभाल में एआई के उपयोग को नियंत्रित करने वाले स्पष्ट नियम होने चाहिए, और जब एआई सिस्टम त्रुटियां करते हैं या नुकसान पहुंचाते हैं तो स्पष्ट जवाबदेही होनी चाहिए। इसमें एआई को ध्यान में रखते हुए मौजूदा चिकित्सा नियमों को अद्यतन करना और स्वास्थ्य देखभाल में एआई प्रणालियों के लिए नए मानक और प्रमाणन बनाना शामिल हो सकता है।
6. न्यायसंगत पहुंच. चूंकि एआई स्वास्थ्य देखभाल में एक महत्वपूर्ण उपकरण बनता जा रहा है, इसलिए यह सुनिश्चित करना महत्वपूर्ण है कि एआई-संवर्धित देखभाल तक पहुंच न्यायसंगत हो और मौजूदा स्वास्थ्य असमानताओं को न बढ़ाए। इसमें वंचित क्षेत्रों में या वंचित आबादी के बीच एआई के उपयोग का समर्थन करने वाली नीतियां शामिल हो सकती हैं।
इन रेलिंगों को स्थापित करने के लिए एआई वैज्ञानिकों, स्वास्थ्य सेवा प्रदाताओं, नियामकों, नैतिकतावादियों और रोगियों के बीच सहयोग की आवश्यकता होगी। यह एक जटिल कार्य है, लेकिन स्वास्थ्य देखभाल में जेनरेटर एआई के सुरक्षित और लाभकारी उपयोग को सुनिश्चित करने के लिए यह आवश्यक है।
प्र. ऐसी कौन सी डेटा प्रबंधन तकनीकें हैं जिनके बारे में आपका मानना है कि प्रदाताओं को पक्षपाती परिणामों से बचने में मदद मिलेगी?
एक। गोपनीयता-संरक्षण, व्याख्या योग्य एआई सिस्टम में पूर्वाग्रह को कम करने के लिए संपूर्ण एआई सिस्टम पाइपलाइन के सावधानीपूर्वक और प्रभावी डेटा प्रबंधन, डिजाइन और मूल्यांकन की आवश्यकता होती है। जो मैंने पहले ही उल्लेख किया है उसके अलावा, यहां कई तकनीकें हैं जो स्वास्थ्य सेवा प्रदाताओं को पक्षपाती परिणामों से बचने में मदद कर सकती हैं:
1. विविध डेटा संग्रह। पूर्वाग्रह से बचने के लिए पहला कदम यह सुनिश्चित करना है कि एकत्र किया गया डेटा उन विविध आबादी का प्रतिनिधि है जो एआई सेवा प्रदान करेगा। इसमें विभिन्न आयु, नस्ल, लिंग, सामाजिक आर्थिक स्थिति और स्वास्थ्य स्थितियों के व्यक्तियों का डेटा शामिल है।
2. डेटा प्रीप्रोसेसिंग और सफाई। एआई मॉडल को प्रशिक्षित करने से पहले, पूर्वाग्रह के किसी भी संभावित स्रोत की पहचान करने और उसे ठीक करने के लिए डेटा को पूर्व-संसाधित और साफ किया जाना चाहिए। उदाहरण के लिए, यदि कुछ समूहों को डेटा में कम प्रतिनिधित्व किया गया है, तो इन समूहों से ओवरसैंपलिंग या अधिक प्रतिनिधित्व वाले समूहों से अंडरसैंपलिंग जैसी तकनीकें डेटा को संतुलित करने में मदद कर सकती हैं।
3. पूर्वाग्रह लेखापरीक्षा। नियमित ऑडिट डेटा और एआई मॉडल दोनों में पूर्वाग्रह की पहचान करने और उसे ठीक करने में मदद कर सकता है। इसमें डेटा संग्रह प्रक्रिया की समीक्षा करना, संभावित पूर्वाग्रहों के लिए डेटा की जांच करना और विभिन्न जनसांख्यिकीय समूहों में निष्पक्षता के लिए एआई मॉडल के आउटपुट का परीक्षण करना शामिल है।
4. फ़ीचर चयन. डब्ल्यूएआई मॉडल को प्रशिक्षित करते समय, यह विचार करना महत्वपूर्ण है कि मॉडल अपनी भविष्यवाणियां करने के लिए किन विशेषताओं या चर का उपयोग कर रहा है। यदि कोई मॉडल किसी ऐसी सुविधा पर बहुत अधिक निर्भर है जो पक्षपातपूर्ण या अप्रासंगिक है, तो उसे समायोजित करने या हटाने की आवश्यकता हो सकती है।
5. पारदर्शी और समझाने योग्य एआई। अपनी भविष्यवाणियों के लिए स्पष्ट स्पष्टीकरण प्रदान करने वाले एआई मॉडल का उपयोग यह पहचानने में मदद कर सकता है कि कोई मॉडल कब पक्षपातपूर्ण जानकारी पर भरोसा कर रहा है। यदि कोई मॉडल यह समझा सकता है कि उसने एक निश्चित भविष्यवाणी क्यों की, तो यह पता लगाना आसान हो जाता है कि वह अपने निर्णयों को पक्षपातपूर्ण या अप्रासंगिक कारकों पर आधारित कर रहा है।
अंततः, एआई में पूर्वाग्रह के प्रबंधन के लिए तकनीकी समाधान और मानवीय निर्णय के संयोजन की आवश्यकता होती है। यह एक सतत प्रक्रिया है जिसके लिए निरंतर निगरानी और समायोजन की आवश्यकता होती है। और यह एक ऐसा कार्य है जो प्रयास के लायक है, क्योंकि एआई सिस्टम के निर्माण के लिए पूर्वाग्रह को कम करना आवश्यक है जो निष्पक्ष, विश्वसनीय और सभी के लिए फायदेमंद हो।
लिंक्डइन पर बिल की हिट कवरेज का पालन करें: बिल सिविकी
उसे ईमेल करें: [email protected]
हेल्थकेयर आईटी न्यूज़ एक HIMSS मीडिया प्रकाशन है।
2023-09-01 14:31:48
#ठस #जनरटव #एआई #परणम #क #लए #रलग #डट #गवरनस #कज