Tags

AI Health Warning: सावधान! बीमारियों के लिए AI से सलाह लेना पड़ सकता है भारी, रिसर्च में हुआ ऐसा खुलासा कि उड़ जाएंगे आपके होश

आजकल लोग तेजी से AI चैटबॉट्स को “डॉक्टर जैसा सलाहकार” मानने लगे हैं, लेकिन वैज्ञानिक रिसर्च बताती हैं कि ऐसा करना स्वास्थ्य के लिहाज से खतरनाक हो सकता है। ब्रिटिश मेडिकल जर्नल और अन्य अध्ययनों में साफ दिखा है कि सेहत से जुड़े सवाल पूछने पर AI के लगभग आधे जवाब गलत या अधूरे होते हैं, जिनमें से कई बार दवा, खुराक या जांच से जुड़ी गलत सलाह भी शामिल होती है। विशेषज्ञ चेतावनी देते हैं कि AI अभी तक डॉक्टर नहीं बन सकता।

By Pinki Negi

AI Health Warning: सावधान! बीमारियों के लिए AI से सलाह लेना पड़ सकता है भारी, रिसर्च में हुआ ऐसा खुलासा कि उड़ जाएंगे आपके होश

आज के समय में आर्टिफिशियल इंटेलिजेंस (AI) का इस्तेमाल लगभग हर जगह हो रहा है। लोग छोटी‑बड़ी हर जानकारी के लिए सीधे AI चैटबॉट्स जैसे ChatGPT, Gemini, DeepSeek, Meta AI या Grok से सवाल करते हैं। लेकिन स्वास्थ्य‑संबंधी सलाह के मामले में यही भरोसा घातक भी हो सकता है। ब्रिटिश मेडिकल जर्नल और अन्य वैज्ञानिक अध्ययनों में यह साफ हो चुका है कि अगर इंसान AI से सेहत, दवा या

लक्षणों की व्याख्या के लिए सीधे “डॉक्टर‑स्टाइल” सलाह लेने लगे तो वह जानलेवा भी हो सकता है।
वैज्ञानिकों का कहना है कि एक स्टडी में AI से सेहत से जुड़े सवाल पूछे गए तो लगभग 50 फीसदी जवाब गलत या आंशिक‑गलत पाए गए। इनमें लगभग 20 फीसदी जवाब इतने भारी खामियों वाले थे कि वे दवा, खुराक, उपचार या जांच के मामले में यूजर को गलत रास्ते पर ले जा सकते थे।

सेहत से जुड़े सवालों पर AI कितना “कमजोर” है?

रिसर्चर्स ने शीर्ष‑स्तर के AI टूल्स जैसे Gemini, DeepSeek, Meta AI, ChatGPT और Grok पर विभिन्न स्वास्थ्य‑विषयों के कई सवाल डाले। कैंसर, वैक्सीन, जनरल फिजियोलॉजी जैसे विषयों पर AI ने अक्सर तुलनात्मक रूप से ठीक जवाब दिए, लेकिन जहां बात स्टेम‑सेल थेरेपी, जटिल पोषण (nutrition), न्यूट्रिशनल डाइट प्लान या उच्च‑जोखिम मेडिकल प्रोटोकॉल की आई, वहां AI के जवाब अधूरे, उलझे या गलत साबित हुए।

कई बार AI ने ऐसी जानकारी दी जो या तो वैज्ञानिक गलत थी, या जो निश्चित गाइडलाइन‑दस्तावेजों के उलट थी। इसके अलावा कुछ मामलों में AI ने दवाओं के अनावश्यक उपयोग, बिना जांच वाले सेल्फ‑मेडिकेशन या उन लक्षणों को “हल्का रूप” बताने की तरह की सलाह दी, जो वास्तविकता में तुरंत डॉक्टर या अस्पताल की जरूरत माने जाते हैं।

AI क्यों गलत, लेकिन आत्मविश्वास से देता है जवाब?

AI चैटबॉट्स की सबसे बड़ी समस्या यह है कि वे गलत जानकारी को भी ऐसे देते हैं जैसे वे 100 फीसदी सही हों। वे कई बार “डिस्क्लेमर” या चेतावनी को न्यून‑स्तरीय या स्वतः हटाकर भी जवाब देते हैं, जिससे आम यूजर के लिए सही और गलत में अंतर करना मुश्किल हो जाता है। कई रिसर्च में देखा गया है कि AI कभी‑कभी पूरी तरह काल्पनिक या जारी नहीं हुए स्रोतों का जिक्र करते हैं, जैसे झूठी रिसर्च पेपर्स या काल्पनिक जर्नल‑आर्टिकल्स, जिनका अस्तित्व होता ही नहीं है।

इससे न केवल गलत निदान या गलत दवा‑सुझाव बढ़ते हैं, बल्कि यूजर के विश्वास‑स्तर में भी एक खतरनाक भ्रम पैदा होता है। कई लोग ऐसे जवाबों को “अधिकारिक स्वास्थ्य निर्देश” मानकर उसी हिसाब से दवा लेने, खान‑पान बदलने या जांच करवाने से बचते देखे गए हैं, जो स्वास्थ्य‑जोखिम बढ़ाने वाला हो सकता है।

रिसर्च क्या‑क्या कह रही है?

British Medical Journal और अन्य वैज्ञानिक फोरम में प्रकाशित रिसर्च में स्पष्ट चेतावनी दी गई है कि AI अभी निदान, उपचार या दवा‑खुराक के मामले में “डॉक्टर रिप्लेसमेंट” की जगह नहीं ले सकता। एक अध्ययन में लार्ज लैंग्वेज मॉडल्स के उपयोगकर्ताओं को वास्तविक लक्षणों के आधार पर फैसला लेने के लिए कहा गया; नतीजा यह निकला कि AI से सलाह लेने वाले लोग ऑनलाइन सर्च या अपने स्वयं के विवेक पर भरोसा करने वालों से बेहतर या सुरक्षित निर्णय लेने में कामयाब नहीं हुए।

विशेषज्ञों का कहना है कि AI आज भी “सहायक टूल”, “सूचना‑संकलक” या “सामान्य जानकारी देने वाला असिस्टेंट” है, न कि “लाइसेंस्ड डॉक्टर” या “रेगुलेटेड क्लिनिकल सिस्टम”। जहां AI मेडिकल लिटरेचर डॉक्यूमेंट शोध, ट्रेनिंग आदि में मददगार हो सकता है, वहीं व्यक्तिगत रोगी के लिए निदान या इलाज का निर्णय लेने की जिम्मेदारी अभी भी डॉक्टर, स्वास्थ्य संस्थान और रेगुलेटरी बॉडी के पास होनी चाहिए।

आम लोगों के लिए सुरक्षित उपयोग कैसे?

विशेषज्ञ सुझाव देते हैं कि अगर आप AI से किसी बीमारी या दवा के बारे में जानकारी लेने वाले हैं तो उसे केवल जानकारी, न कि निर्णय के रूप में लें। किसी भी गंभीर लक्षण (जैसे तेज बुखार, लगातार दर्द, सांस लेने में तकलीफ, चक्कर, बेहोशी, या अनामोली रक्तस्राव) पर सीधे डॉक्टर, अस्पताल या एम्बुलेंस से संपर्क करना ही सही तरीका है, न कि AI चलाकर “स्वयं निदान” की कोशिश।

साथ ही अपनी व्यक्तिगत मेडिकल रिपोर्ट्स, टेस्ट रिजल्ट या दवा‑लिस्ट जैसी संवेदनशील जानकारियां बिना सोचे‑समझे AI प्लेटफॉर्म पर भरकर न डालें, क्योंकि डेटा‑प्राइवेसी और डिजिटल सिक्योरिटी की दृष्टि से यह जोखिम भरा हो सकता है। नतीजा यह है कि आज AI स्वास्थ्य‑सलाह के लिए उपयोगी हो सकता है, लेकिन जिम्मेदारियां व निर्णय अभी तक इंसानी डॉक्टर के कंधों पर ही रहने चाहिए, न कि AI के अल्गोरिदम पर।

Author
Pinki Negi
GyanOK में पिंकी नेगी बतौर न्यूज एडिटर कार्यरत हैं। पत्रकारिता में उन्हें 7 वर्षों से भी ज़्यादा का अनुभव है। उन्होंने अपने करियर की शुरुआत साल 2018 में NVSHQ से की थी, जहाँ उन्होंने शुरुआत में एजुकेशन डेस्क संभाला। इस दौरान पत्रकारिता के क्षेत्र में नए-नए अनुभव लेने के बाद अमर उजाला में अपनी सेवाएं दी। बाद में, वे नेशनल ब्यूरो से जुड़ गईं और संसद से लेकर राजनीति और डिफेंस जैसे कई महत्वपूर्ण विषयों पर रिपोर्टिंग की। पिंकी नेगी ने साल 2024 में GyanOK जॉइन किया और तब से GyanOK टीम का हिस्सा हैं।

अभी-अभी मोदी का ऐलान

हमारे Whatsaap ग्रुप से जुड़ें