दुनिया भर में आर्टिफिशियल इंटेलिजेंस (AI) को भविष्य की तकनीक के रूप में देखा जा रहा है, लेकिन अब इसी तकनीक को लेकर वैज्ञानिकों ने गंभीर चिंताएं जताई हैं। गूगल, ओपनएआई, मेटा और डीपमाइंड जैसी शीर्ष टेक कंपनियों से जुड़े विशेषज्ञों ने चेतावनी दी है कि अत्याधुनिक एआई मॉडल अब इतने जटिल और आत्मनिर्भर होते जा रहे हैं कि आने वाले वर्षों में इन्हें समझना लगभग असंभव हो जाएगा।
‘ब्लैक बॉक्स‘ बनते जा रहे हैं एआई मॉडल
‘नेचर’ जर्नल में प्रकाशित एक शोध पत्र में वैज्ञानिकों ने लिखा है कि वर्तमान एआई मॉडल की “चेन ऑफ थॉट” — यानी सोचने की प्रक्रिया — अब इतनी जटिल हो गई है कि उसके प्रत्येक चरण को ट्रैक करना लगभग नामुमकिन होता जा रहा है। इससे एआई की कार्यप्रणाली एक ‘ब्लैक बॉक्स’ में तब्दील हो रही है, जिसकी आंतरिक प्रक्रिया मानव विशेषज्ञों के लिए भी समझना मुश्किल होता जा रहा है।
जवाबदेही और नियंत्रण पर उठे सवाल
वैज्ञानिकों ने तर्क दिया है कि यदि यह स्पष्ट ही न हो कि एआई किसी नतीजे पर कैसे पहुंचा, तो उस पर नियंत्रण और जवाबदेही सुनिश्चित करना अत्यंत कठिन होगा। इससे न केवल पारदर्शिता में कमी आएगी, बल्कि एआई गलत दिशा में भी जा सकता है — विशेषकर तब, जब यह मॉडल हेल्थकेयर, शिक्षा, न्याय प्रणाली और रक्षा जैसे संवेदनशील क्षेत्रों में इस्तेमाल किए जाएं।
गलती कहाँ हुई, जानना अब कठिन
रिपोर्ट में यह भी कहा गया है कि जब एआई कोई भूल करता है — जैसे गलत दवा सुझाना या गलत सूचना देना — तो यह जानना आवश्यक होता है कि गलती किस स्तर पर हुई। लेकिन अब नए एआई मॉडल में इन गलतियों की पहचान करना भी अत्यंत चुनौतीपूर्ण हो गया है।
वैज्ञानिकों ने दिए सुधार के सुझाव
वैज्ञानिकों ने सुझाव दिया है कि:
- नए एआई मॉडल को इस तरह डिज़ाइन किया जाए कि उसकी सोच की प्रक्रिया को समझा जा सके।
- हर निर्णय की टाइमलाइन या लॉजिक हिस्ट्री होनी चाहिए, जैसे बैंकिंग ट्रांजैक्शन रिकॉर्ड होता है।
- एआई पर सख्त नियामक तंत्र लागू किया जाए।
- एआई मॉडल्स की कोडिंग, ट्रेनिंग डेटा और टेस्टिंग परिणाम सार्वजनिक किए जाएं, जिससे स्वतंत्र जांच संभव हो सके।