आरोग्यविषयक निर्णय क्वचितच सरळ असतात.
ऑक्सफर्ड विद्यापीठाच्या नवीन संशोधनानुसार, वैद्यकीय सल्ला घेण्यासाठी कृत्रिम बुद्धिमत्ता चॅटबॉट्स वापरणे धोकादायक ठरू शकते, ज्यामुळे रुग्णांच्या सुरक्षिततेबद्दल चिंता निर्माण झाली आहे.
The अभ्यास वैद्यकीय निर्णय घेण्यासाठी एआयवर अवलंबून राहिल्याने स्पष्ट धोके निर्माण होतात असे आढळून आले, ज्याचे मुख्य कारण चॅटबॉट्सद्वारे शेअर केलेली चुकीची आणि विसंगत माहिती आहे.
संशोधकांनी असा इशारा दिला आहे की एआय टूल्स आत्मविश्वासू दिसत असले तरी, जेव्हा लोक वास्तविक आरोग्य लक्षणांसाठी मदत घेतात तेव्हा ते अनेकदा विश्वसनीय मार्गदर्शन देण्यात अपयशी ठरतात.
ऑक्सफर्ड इंटरनेट इन्स्टिट्यूट आणि ऑक्सफर्ड विद्यापीठातील नफिल्ड डिपार्टमेंट ऑफ प्रायमरी केअर हेल्थ सायन्सेसच्या तज्ज्ञांनी हे संशोधन केले.
या अभ्यासाच्या सह-लेखिका आणि जीपी डॉ. रेबेका पेन म्हणाल्या की, हे निष्कर्ष एआय-संचालित आरोग्य सल्ल्यावरील वाढत्या जनतेच्या विश्वासाला आव्हान देतात.
तिने स्पष्ट केले की, व्यापक प्रचार असूनही, कृत्रिम बुद्धिमत्ता क्लिनिकल निर्णय प्रक्रियेत प्रशिक्षित वैद्यकीय व्यावसायिकांची जागा घेण्यास तयार नाही.
डॉ. पेन यांनी इशारा दिला की रुग्ण मोठ्या भाषेच्या मॉडेल्सना लक्षणांबद्दल विचारतात चुकीचे निदान होण्याचा धोका आणि तातडीने वैद्यकीय मदतीची आवश्यकता असल्याचे संकेत देणारी लक्षणे नसणे.
आरोग्याशी संबंधित निर्णय घेताना लोक एआयशी कसा संवाद साधतात याची चाचणी या अभ्यासात करण्यात आली, ज्यामुळे सैद्धांतिक ज्ञान आणि वास्तविक जगातील काळजी यांच्यातील अंतर अधोरेखित झाले.
जवळजवळ १,३०० सहभागींना संभाव्य आरोग्य स्थिती ओळखण्यास आणि वेगवेगळ्या वैद्यकीय परिस्थितींमध्ये योग्य कृती करण्याचा निर्णय घेण्यास सांगितले गेले.
काही सहभागींनी संभाव्य निदान आणि सल्ला मिळविण्यासाठी मोठ्या भाषा मॉडेल चॅटबॉट्सचा वापर केला, तर काहींनी पारंपारिक मार्गांचा अवलंब केला, ज्यामध्ये जीपीचा सल्ला घेणे समाविष्ट होते.
त्यानंतर संशोधकांनी घेतलेल्या निर्णयांच्या गुणवत्तेचे मूल्यांकन केले, अचूकता, सुरक्षितता आणि वापरकर्त्यांनी तातडीची काळजी कधी आवश्यक आहे हे ओळखले की नाही यावर लक्ष केंद्रित केले.
निकालांवरून असे दिसून आले की एआय सिस्टम्सना अनेकदा उपयुक्त आणि हानिकारक माहितीचे मिश्रण मिळाले, जे अनेक वापरकर्त्यांना वेगळे करण्यासाठी किंवा प्रश्न विचारण्यासाठी संघर्ष करावा लागला.
योग्य तपशील समाविष्ट केले असले तरी, त्यांच्यासोबत वारंवार दिशाभूल करणाऱ्या सूचना येत राहिल्या, ज्यामुळे रुग्णांमध्ये स्पष्टतेऐवजी गोंधळ निर्माण झाला.
संशोधकांनी असे नमूद केले की एआय चॅटबॉट्स प्रमाणित वैद्यकीय ज्ञान चाचण्यांमध्ये चांगली कामगिरी करतात, परंतु वास्तविक वापर वेगळीच गोष्ट सांगतो.
त्यांनी असा इशारा दिला की, वैयक्तिक आरोग्यविषयक समस्यांवर थेट एआय लागू केल्याने आश्वासन किंवा मार्गदर्शन मिळवणाऱ्या व्यक्तींना गंभीर धोके निर्माण होऊ शकतात.
या अभ्यासात असे म्हटले आहे की वैद्यकीय सल्ल्यासाठी निर्णय, संदर्भ आणि मानवी संवाद आवश्यक आहे, अशा क्षेत्रांमध्ये जिथे एआय अजूनही कमी पडतो.
डॉ. पेन म्हणाले की, हे निष्कर्ष आरोग्यसेवा सारख्या संवेदनशील, उच्च-स्तरीय क्षेत्रात लोकांना खरोखर मदत करू शकतील अशा एआय प्रणाली तयार करण्याच्या अडचणीवर प्रकाश टाकतात.
तिने पुढे म्हटले की आरोग्यविषयक निर्णय क्वचितच सरळ असतात आणि बहुतेकदा ते सूक्ष्मता, निकड आणि भावनिक संकेत ओळखण्यावर अवलंबून असतात.
ऑक्सफर्ड इंटरनेट इन्स्टिट्यूटमधील अभ्यासाचे प्रमुख लेखक अँड्र्यू बीन म्हणाले की, उच्च कामगिरी करणारे एआय मॉडेल्स देखील मानवांशी संवाद साधताना संघर्ष करतात.
त्यांनी स्पष्ट केले की लोक लक्षणे, भावना आणि अनिश्चिततेचे वर्णन कसे करतात हे समजून घेणे हे सध्याच्या एआय प्रणालींसाठी एक मोठे आव्हान आहे.
बीन म्हणाले की, या संशोधनाचे उद्दिष्ट सुरक्षित आणि अधिक जबाबदार एआय साधनांच्या विकासाला प्रोत्साहन देणे आहे.
दक्षिण आशियाई समुदायांसाठी, जिथे प्रवेश अडथळे, भाषेतील फरक आणि सांस्कृतिक कलंक आधीच आरोग्यसेवेवर परिणाम होत असला तरी, हे धोके आणखी मोठे असू शकतात.
तज्ञांनी असा इशारा दिला आहे की एआयने व्यावसायिक वैद्यकीय सल्ल्याची जागा घेऊ नये, विशेषतः अशा समुदायांसाठी जे आधीच जटिल आरोग्य असमानतेचा सामना करत आहेत.
संशोधकांनी यावर भर दिला की एआय अजूनही आरोग्यसेवेत सहाय्यक भूमिका बजावू शकते, परंतु केवळ प्रशिक्षित व्यावसायिक आणि कडक सुरक्षा उपायांसह.
त्यांनी रुग्णांना चॅटबॉट सल्ल्याचा काळजीपूर्वक वापर करण्याचे आणि लक्षणे किंवा आरोग्यविषयक समस्या आढळल्यास पात्र डॉक्टरांची मदत घेण्याचे आवाहन केले.








