
आज के समय में आर्टिफिशियल इंटेलिजेंस (AI) का इस्तेमाल लगभग हर जगह हो रहा है। लोग छोटी‑बड़ी हर जानकारी के लिए सीधे AI चैटबॉट्स जैसे ChatGPT, Gemini, DeepSeek, Meta AI या Grok से सवाल करते हैं। लेकिन स्वास्थ्य‑संबंधी सलाह के मामले में यही भरोसा घातक भी हो सकता है। ब्रिटिश मेडिकल जर्नल और अन्य वैज्ञानिक अध्ययनों में यह साफ हो चुका है कि अगर इंसान AI से सेहत, दवा या
लक्षणों की व्याख्या के लिए सीधे “डॉक्टर‑स्टाइल” सलाह लेने लगे तो वह जानलेवा भी हो सकता है।
वैज्ञानिकों का कहना है कि एक स्टडी में AI से सेहत से जुड़े सवाल पूछे गए तो लगभग 50 फीसदी जवाब गलत या आंशिक‑गलत पाए गए। इनमें लगभग 20 फीसदी जवाब इतने भारी खामियों वाले थे कि वे दवा, खुराक, उपचार या जांच के मामले में यूजर को गलत रास्ते पर ले जा सकते थे।
सेहत से जुड़े सवालों पर AI कितना “कमजोर” है?
रिसर्चर्स ने शीर्ष‑स्तर के AI टूल्स जैसे Gemini, DeepSeek, Meta AI, ChatGPT और Grok पर विभिन्न स्वास्थ्य‑विषयों के कई सवाल डाले। कैंसर, वैक्सीन, जनरल फिजियोलॉजी जैसे विषयों पर AI ने अक्सर तुलनात्मक रूप से ठीक जवाब दिए, लेकिन जहां बात स्टेम‑सेल थेरेपी, जटिल पोषण (nutrition), न्यूट्रिशनल डाइट प्लान या उच्च‑जोखिम मेडिकल प्रोटोकॉल की आई, वहां AI के जवाब अधूरे, उलझे या गलत साबित हुए।
कई बार AI ने ऐसी जानकारी दी जो या तो वैज्ञानिक गलत थी, या जो निश्चित गाइडलाइन‑दस्तावेजों के उलट थी। इसके अलावा कुछ मामलों में AI ने दवाओं के अनावश्यक उपयोग, बिना जांच वाले सेल्फ‑मेडिकेशन या उन लक्षणों को “हल्का रूप” बताने की तरह की सलाह दी, जो वास्तविकता में तुरंत डॉक्टर या अस्पताल की जरूरत माने जाते हैं।
AI क्यों गलत, लेकिन आत्मविश्वास से देता है जवाब?
AI चैटबॉट्स की सबसे बड़ी समस्या यह है कि वे गलत जानकारी को भी ऐसे देते हैं जैसे वे 100 फीसदी सही हों। वे कई बार “डिस्क्लेमर” या चेतावनी को न्यून‑स्तरीय या स्वतः हटाकर भी जवाब देते हैं, जिससे आम यूजर के लिए सही और गलत में अंतर करना मुश्किल हो जाता है। कई रिसर्च में देखा गया है कि AI कभी‑कभी पूरी तरह काल्पनिक या जारी नहीं हुए स्रोतों का जिक्र करते हैं, जैसे झूठी रिसर्च पेपर्स या काल्पनिक जर्नल‑आर्टिकल्स, जिनका अस्तित्व होता ही नहीं है।
इससे न केवल गलत निदान या गलत दवा‑सुझाव बढ़ते हैं, बल्कि यूजर के विश्वास‑स्तर में भी एक खतरनाक भ्रम पैदा होता है। कई लोग ऐसे जवाबों को “अधिकारिक स्वास्थ्य निर्देश” मानकर उसी हिसाब से दवा लेने, खान‑पान बदलने या जांच करवाने से बचते देखे गए हैं, जो स्वास्थ्य‑जोखिम बढ़ाने वाला हो सकता है।
रिसर्च क्या‑क्या कह रही है?
British Medical Journal और अन्य वैज्ञानिक फोरम में प्रकाशित रिसर्च में स्पष्ट चेतावनी दी गई है कि AI अभी निदान, उपचार या दवा‑खुराक के मामले में “डॉक्टर रिप्लेसमेंट” की जगह नहीं ले सकता। एक अध्ययन में लार्ज लैंग्वेज मॉडल्स के उपयोगकर्ताओं को वास्तविक लक्षणों के आधार पर फैसला लेने के लिए कहा गया; नतीजा यह निकला कि AI से सलाह लेने वाले लोग ऑनलाइन सर्च या अपने स्वयं के विवेक पर भरोसा करने वालों से बेहतर या सुरक्षित निर्णय लेने में कामयाब नहीं हुए।
विशेषज्ञों का कहना है कि AI आज भी “सहायक टूल”, “सूचना‑संकलक” या “सामान्य जानकारी देने वाला असिस्टेंट” है, न कि “लाइसेंस्ड डॉक्टर” या “रेगुलेटेड क्लिनिकल सिस्टम”। जहां AI मेडिकल लिटरेचर डॉक्यूमेंट शोध, ट्रेनिंग आदि में मददगार हो सकता है, वहीं व्यक्तिगत रोगी के लिए निदान या इलाज का निर्णय लेने की जिम्मेदारी अभी भी डॉक्टर, स्वास्थ्य संस्थान और रेगुलेटरी बॉडी के पास होनी चाहिए।
आम लोगों के लिए सुरक्षित उपयोग कैसे?
विशेषज्ञ सुझाव देते हैं कि अगर आप AI से किसी बीमारी या दवा के बारे में जानकारी लेने वाले हैं तो उसे केवल जानकारी, न कि निर्णय के रूप में लें। किसी भी गंभीर लक्षण (जैसे तेज बुखार, लगातार दर्द, सांस लेने में तकलीफ, चक्कर, बेहोशी, या अनामोली रक्तस्राव) पर सीधे डॉक्टर, अस्पताल या एम्बुलेंस से संपर्क करना ही सही तरीका है, न कि AI चलाकर “स्वयं निदान” की कोशिश।
साथ ही अपनी व्यक्तिगत मेडिकल रिपोर्ट्स, टेस्ट रिजल्ट या दवा‑लिस्ट जैसी संवेदनशील जानकारियां बिना सोचे‑समझे AI प्लेटफॉर्म पर भरकर न डालें, क्योंकि डेटा‑प्राइवेसी और डिजिटल सिक्योरिटी की दृष्टि से यह जोखिम भरा हो सकता है। नतीजा यह है कि आज AI स्वास्थ्य‑सलाह के लिए उपयोगी हो सकता है, लेकिन जिम्मेदारियां व निर्णय अभी तक इंसानी डॉक्टर के कंधों पर ही रहने चाहिए, न कि AI के अल्गोरिदम पर।









