आजकल स्वास्थ्य से जुड़े सवालों के लिए लोग तेजी से एआई टूल्स का यूज कर रहे हैं. OpenAI का लॉन्च किया गया ChatGPT Health भी ऐसा ही एक टूल है, जिसे आम लोगों को सामान्य स्वास्थ्य जानकारी देने के लिए बनाया गया है, लेकिन हाल ही में प्रतिष्ठित मेडिकल जर्नल Nature Medicine में प्रकाशित एक अध्ययन ने इसकी सुरक्षा को लेकर गंभीर सवाल उठाए हैं. यह रिसर्च Icahn School of Medicine at Mount Sinai के डॉक्टर अश्विन रामास्वामी और उनकी टीम ने की,तो आइए जानते हैं कि इस रिसर्च में क्या सामने आया और AI की सीमाएं क्या हैं.
Travel Advisory: इंडिगो और एयर इंडिया की एडवाइजरी, पश्चिम एशिया हालात पर कड़ी नजर
शोधकर्ताओं ने डॉक्टरों की मदद से 60 अलग-अलग मेडिकल केस तैयार किए. इनमें दिल की बीमारी, सांस की दिक्कत, मानसिक स्वास्थ्य संकट और मेटाबॉलिक रोग जैसी 21 तरह की बीमारियां शामिल थीं. हर केस को 16 अलग-अलग परिस्थितियों में जांचा गया. कुल मिलाकर AI से 960 जवाब लिए गए. मकसद यह देखना था कि क्या ChatGPT सही तरीके से बता सकता है कि मरीज को तुरंत इमरजेंसी में जाना चाहिए या कुछ समय बाद डॉक्टर को दिखाना ठीक रहेगा.
रिसर्च में पता चला कि AI ने आधे से ज्यादा गंभीर इमरजेंसी मामलों को कम खतरनाक बताया. करीब 52 प्रतिशत मामलों में जहां तुरंत अस्पताल जाना जरूरी था, वहां AI ने कम जरूरी इलाज की सलाह दी. डायबिटीज की जानलेवा स्थिति (कीटोएसिडोसिस), सांस रुकने का खतरा और अन्य गंभीर आपात स्थितियां. ऐसे मामलों में देरी मरीज के लिए जानलेवा हो सकती है.
स्टडी में यह भी देखा गया कि जब मरीज आत्महत्या के विचार जैसी मानसिक आपात स्थिति का जिक्र करता है, तो AI की प्रतिक्रिया हर बार एक जैसी नहीं थी. कभी-कभी यह संकट हेल्पलाइन पर कॉल करने की सलाह देता था, लेकिन कई बार गंभीर संकेत होने के बावजूद स्पष्ट चेतावनी नहीं देता था. यह असंगति मानसिक स्वास्थ्य जैसी संवेदनशील स्थितियों में चिंता का विषय है.
शोधकर्ताओं ने पाया कि अगर केस में यह लिखा था कि परिवार को लगता है कि यह गंभीर नहीं है, तो AI भी कई बार स्थिति को कम गंभीर मान लेता था. इसे एंकरिंग बायस कहा गया. मतलब, संदर्भ में दिए गए शब्द AI के निर्णय को प्रभावित कर रहे थे. इससे पता चलता है कि AI पूरी तरह निष्पक्ष नहीं है और वह लिखे गए शब्दों से प्रभावित हो सकता है.
IMD Weather Update: 2001 के बाद सबसे सूखी फरवरी, मार्च से मई तक सामान्य से अधिक रहेगा तापमान
अध्ययन में नस्ल, लिंग या स्वास्थ्य सेवाओं की उपलब्धता के आधार पर कोई स्पष्ट भेदभाव नहीं मिला, लेकिन शोधकर्ताओं ने कहा कि इससे पूरी तरह असमानता की संभावना खत्म नहीं होती है.
OpenAI ने इस स्वतंत्र रिसर्च का स्वागत किया, लेकिन कहा कि यह अध्ययन काल्पनिक मामलों पर आधारित था. कंपनी का कहना है कि ChatGPT Health का उद्देश्य सिर्फ सामान्य जानकारी देना है, न कि डॉक्टर की जगह लेना. विशेषज्ञों का मानना है कि AI स्वास्थ्य जानकारी तक पहुंच आसान बना सकता है, दूर-दराज इलाकों में मददगार हो सकता है, लेकिन इमरजेंसी निर्णय के लिए पूरी तरह भरोसेमंद नहीं माना जा सकता है.


