कृत्रिम बुद्धिमत्ता (AI) आधारित चैटबॉट ChatGPT के डेवलपर OpenAI ने हाल ही में स्पष्ट किया है कि अब इसके उपयोगकर्ता प्लेटफ़ॉर्म से व्यक्तिगत कानूनी (Legal) या चिकित्सकीय (Medical) सलाह नहीं ले सकेंगे। कंपनी ने कहा है कि यह कदम गलत जानकारी और गैर-जिम्मेदार स लाह से बचाव के लिए उठाया गया है, क्योंकि कई उपयोगकर्ता एआई को डॉक्टर या वकील की तरह प्रयोग कर रहे थे।
ChatGPT की नई गाइडलाइन
कृत्रिम बुद्धिमत्ता (AI) के क्षेत्र में अग्रणी कंपनी OpenAI ने अपने चैटबॉट ChatGPT के लिए नई गाइडलाइन जारी की है। अब उपयोगकर्ता इससे व्यक्तिगत कानूनी या चिकित्सकीय परामर्श नहीं ले सकेंगे। कंपनी ने कहा कि कुछ लोग AI को डॉक्टर या वकील की तरह उपयोग कर रहे हैं, जिससे गलत जानकारी और गलत निर्णयों का खतरा बढ़ रहा है।OpenAI के अनुसार, ChatGPT को “सूचनात्मक और सहायक” भूमिका के लिए बनाया गया है, न कि किसी पेशेवर विशेषज्ञ के विकल्प के रूप में। कंपनी का कहना है कि कुछ उपयोगकर्ता प्लेटफ़ॉर्म से दवाओं की डोज़, मानसिक स्वास्थ्य उपचार, कानूनी दस्तावेज़ों की ड्राफ्टिंग या मुकदमों की रणनीति जैसी सलाह ले रहे थे, जो खतरनाक साबित हो सकती है।अब OpenAI की नई शर्तों में स्पष्ट किया गया है कि, ChatGPT उपयोगकर्ता किसी भी परिस्थिति में इसे डॉक्टर, वकील या वित्तीय सलाहकार के स्थान पर न अपनाएं। AI द्वारा दी गई जानकारी केवल सामान्य संदर्भ के लिए है, न कि पेशेवर परामर्श के रूप में।”
कानूनी सलाह के नाम पर बढ़ा भ्रम
पिछले कुछ महीनों में अमेरिका, ब्रिटेन और भारत में ऐसे कई मामले सामने आए जहां लोगों ने ChatGPT की मदद से कानूनी दस्तावेज़ तैयार किए जिनमें बाद में कई त्रुटियां पाई गईं।
एक अमेरिकी नागरिक ने ChatGPT से इमिग्रेशन एप्लिकेशन तैयार कराया, जिसके गलत संदर्भ के कारण उसका वीज़ा रद्द हो गया।
भारत में भी कुछ उपयोगकर्ताओं ने ChatGPT से “कोर्ट में पेश होने वाले हलफ़नामे” बनवाए, जिनमें कानूनी भाषा और वैधता को लेकर बड़ी ग़लतियां पाई गईं। कानूनी विशेषज्ञों का कहना है कि AI मॉडल जनरल डेटाऔर संभावनाओं पर आधारित होते हैं, जबकि कानूनी परामर्श हर केस की परिस्थितियों पर निर्भर करता है। इसलिए मशीन की सलाह कानूनी रूप से मान्य नहीं मानी जा सकती।
स्वास्थ्य क्षेत्र में गलत उपयोग से बढ़ी चिंता
स्वास्थ्य क्षेत्र में भी ChatGPT के उपयोग ने कई डॉक्टरों को चिंतित किया है। लोग अपनी बीमारी के लक्षण बताकर AI से इलाज या दवा की सलाह ले रहे हैं।
अमेरिका में एक किशोर ने ChatGPT की बताई सेल्फ-मेडिकेशन डोज़ अपनाई, जिससे उसे गंभीर दुष्प्रभाव हुए।
भारत में कई सोशल मीडिया प्लेटफ़ॉर्म पर “ChatGPT से पूछो, डॉक्टर मत जाओ” जैसी प्रवृत्तियां दिख रही हैं, जिन्हें विशेषज्ञ खतरनाक बता रहे हैं। एम्स दिल्ली के डॉक्टरों का कहना है कि एआई से मिली चिकित्सकीय जानकारी कभी भी वास्तविक जांच, रिपोर्ट और डॉक्टर की सलाह का विकल्प नहीं बन सकती।
OpenAI की चेतावनी और कदम
OpenAI ने अपने आधिकारिक ब्लॉग में लिखा है, “हम उपयोगकर्ताओं को अधिक ज़िम्मेदार AI उपयोग के लिए प्रोत्साहित करते हैं। ChatGPT एक सहायक है, निर्णयकर्ता नहीं।” कंपनी अब ChatGPT इंटरफ़ेस में ऐसे चेतावनी संदेश भी जोड़ रही है जो उपयोगकर्ताओं को याद दिलाएंगे कि वे कानूनी या चिकित्सकीय सलाह के लिए प्रमाणित पेशेवरों से ही संपर्क करें।
AI का दुरुपयोग- ज्ञान और भ्रम के बीच की रेखा
AI तकनीक जितनी उपयोगी है, उतनी ही संवेदनशील भी। सोशल मीडिया पर कई बार लोग ChatGPT की “असली डॉक्टर” या “एडवोकेट बॉट” जैसी झूठी पहचानें बना रहे हैं। कुछ फ्रीलांसर तो AI से तैयार दस्तावेज़ बेचकर लोगों को ठग भी चुके हैं। तकनीकी विशेषज्ञों का कहना है कि AI के बढ़ते प्रभाव के साथ डिजिटलएथिक्स और जवाबदेही की ज़रूरत और भी बढ़ गई है।
भविष्य की दिशा: ‘सहायक’ बने, ‘निर्णायक’ नहीं
ChatGPT और अन्य AI मॉडल ज्ञान के प्रसार में क्रांतिकारी भूमिका निभा रहे हैं, लेकिन इनका प्रयोग मानवविशेषज्ञता की जगह नहीं किया जा सकता। OpenAI के नए दिशानिर्देश यह याद दिलाते हैं कि तकनीक तभी उपयोगी है जब वह मानव विवेक के साथ संतुलन में रहे। तकनीकी क्रांति के इस दौर में कृत्रिम बुद्धिमत्ता (AI) हमारे जीवन का अभिन्न हिस्सा बन चुकी है। ChatGPT जैसे टूल अब हमारी भाषा समझते हैं, जवाब देते हैं, और कई बार तो इंसान से भी बेहतर सुझाव पेश करते हैं। पर यही सुविधा अब एक नई चिंता भी बनती जा रही है, जब लोग मशीनों को ‘अंतिम निर्णयकर्ता’मानने लगते हैं।
AI से सलाह लें, निर्णय अपना हो!
AI का उद्देश्य मानव को सक्षम बनाना था, उसका विकल्प बनना नहीं। परंतु आज आम उपभोक्ता AI से कानूनीविवादों, स्वास्थ्य समस् याओं, विवाह परामर्श तक के समाधान मांग रहा है। यह न केवल गलत दिशा है, बल्कि खतरनाक भरोसे की शुरुआत भी है। जब कोई व्यक्ति अपनी बीमारी या कोर्ट केस के लिए AI पर निर्भर होता है, तो वह उस संवेदनशीलता और अनुभव से दूर चला जाता है जो केवल एक प्रशिक्षित पेशेवर में होती है। मशीनें तथ्यों को जोड़ सकती हैं, पर वे मानवीय परिस्थितियों, भावनाओं और नैतिक संदर्भ को नहीं समझ सकतीं।इसलिए OpenAI का यह कदम, उपयोगकर्ताओं को कानूनी और चिकित्सकीय सलाह न देने की सीमा तय करना वास्तव में एक जिम्मेदार चेतावनी है। यह याद दिलाता है कि तकनीक तभी सुरक्षित है, जब वह मानव विवेक के नियंत्रण में रहे।
AI ज्ञान का विशाल सागर है, लेकिन दिशा की पतवार अभी भी इंसान के हाथ में रहनी चाहिए। क्योंकि जब निर्णय मशीनों से होंगे, तब गलती भी मानवता की होगी।
Long or Short, get news the way you like. No ads. No redirections. Download Newspin and Stay Alert, The CSR Journal Mobile app, for fast, crisp, clean updates!

