वैज्ञानिकों ने दी AI के बेकाबू होने की चेतावनी


  • कौस्‍तुभ उपाध्‍याय

दुनिया के दो सबसे प्रमुख AI वैज्ञानिकों ने CNBC को बताया कि “एजेंट” की तरह काम करने के लिए बनाए गए आर्टिफिशियल इंटेलिजेंस टूल  खतरनाक साबित हो सकते हैं, क्योंकि इनके निर्माता सिस्टम पर अपना कंट्रोल खो सकते हैं.

मंगलवार को प्रसारित CNBC  के "बियॉन्ड द वैली" पॉडकास्ट के एपिसोड में, मैसाचुसेट्स इंस्टीट्यूट ऑफ टेक्नोलॉजी के प्रोफेसर और फ्यूचर ऑफ लाइफ इंस्टीट्यूट के प्रेसिडेंट मैक्स टेगमार्क और "AI के गॉडफादर्स" में गिने जाने वाले यूनिवर्सिटी डी मॉन्ट्रियल के प्रोफेसर योशुआ बेंगियो ने आर्टिफिशियल जनरल इंटेलिजेंस या AGI के बारे में चिंता जताई.  इनकी यह चिंता ऐसे AI सिस्टम्‍स को लेकर है, जो मनुष्यों से अधिक स्मार्ट हैं.


उनकी यह आशंका दुनिया की सबसे बड़ी फर्मों द्वारा अब "AI agents" या "agentic AI" के बारे में बात करने से उपजी है,  जिसके बारे में कंपनियों का दावा है कि यह AI चैटबॉट को असिस्‍टेंट  या एजेंट की तरह काम करने और रोजमर्रा की जिंदगी से जुड़े काम करने में सहायता करने की अनुमति देगा. AGI कब अस्तित्व में आएगा, इस पर उद्योग के अनुमान अलग-अलग हैं.


 

‘खतरे की घंटी’: “एजेंट” की तरह काम करने के लिए बनाए गए AI टूल होते जा रहे हैं इंसानों से भी ज्‍यादा स्मार्ट


बेंगियो के अनुसार, इस कॉन्सेप्ट में कहीं न कहीं यह बात भी छुपी हुई है कि AI सिस्टम की अपनी कुछ "एजेंसी" और विचार हो सकते हैं.


बेंगियो ने सीएनबीसी के "बियॉन्ड द वैली" को बताया "AI रीसचर्स को मशीन इंटेलिजेंस बनाने के लिए इंसानी दिमाग से प्रेरणा मिली है और मनुष्यों में अपने विवेक से चीजों को समझने की क्षमता और एजेंटिक व्यवहार करने, यानी अपने ज्ञान का उपयोग लक्ष्यों को प्राप्त करने के लिए करने की क्षमता का मिश्रण है."


"अभी, हम इस तरह से AGI का निर्माण कर रहे हैं कि हम उन्हें ऐसा एजेंट बनाने की कोशिश कर रहे हैं जो दुनिया के बारे में समझे और फिर उस समझ के मुताबिक काम सके. यह अपने आप में काफी खतरनाक बात है."


बेंगियो ने कहा कि AI  पर इस तरीके का इस्तेमाल करना "इस ग्रह पर एक नई प्रजाति या एक नई बुद्धिमान इकाई (इंटेलिजेंट एंटिटी) बनाने" जैसा होगा, क्योंकि हमें नहीं पता कि क्या वे हमारी जरूरतों के मुताबिक ही काम करेंगे."


"इसलिए हमें इस बात को समझना होगा कि किन स्थितियों में वह हमारे नियंत्रण से बाहर हो सकते हैं. हमारे लिए इस बात को समझना इसलिए जरूरी है, क्योंकि AI के अपने लक्ष्य होते हैं, जो हमें परेशानी में डाल सकते हैं."


बेंगियो ने कहा कि AI के और ज्‍यादा स्मार्ट होने पर  उसमें सेल्‍फ-प्रिजर्वेशन यानी आत्म-संरक्षण का आइडिया भी पनप हो सकता है, जिससे वह खुद से काम करने में सक्षम हो सकते हैं.


“क्या हम ऐसी चीज बनाना चाहते हैं, जो हमसे ज्यादा स्मार्ट हो? यह हमारे खुद के लिए अच्‍छा नहीं होगा. इसलिए हमें इस बात को समझना होगा कि AI में सेल्‍फ-प्रिजर्वेशन की क्षमता किन स्थितियों में उभर सकती है.”


समस्या की जड़ टूल AI में है

MIT के टेगमार्क के मुताबिक समस्या की जल “टूल AI ” में हैृ. ये ऐसे सिस्टम होते हैं, जिन्हें किसी खास मकसद के लिए या किसी खास काम को करने के लिए बनाया जाता है, पर इसके लिए उन्हें किसी एजेंट की जरूरत नहीं होती.


टेगमार्क ने कहा कि एक टूल AI एक ऐसा सिस्‍टम हो  सकता है, जो आपको बताए कि कैंसर का इलाज कैसे किया जाता है या फिर यह सेल्फ-ड्राइविंग कार जैसा हो सकता है पर हमें यह सुनिश्चित करना होगा कि यह खुद से चलने में सक्षम होने के बावजूद हमारे नियंत्रण में रहे.  मुझे लगता है कि हम AI से अपने मनमुताबिक सब कुछ करवा सकते हैं, पर इसके लिए हमें कुछ बेसिक सेफ्टी स्‍टैंडर्ड्स को ध्‍यान में रखना होगा. 


“हमेंं यह सुनिश्चित करना होगा कि हम AI को पूरी तरह अपने नियंत्रण में रख सकते हैं. इसके बाद AI इंडस्‍ट्री को इस बात को लेकर तेजी से इनोवेशन करना चाहिए कि इसे बेहतर तरीके से कैसे किया जाए.”


AGI को कंट्रोल में रखने की जरूरत

टेगमार्क के फ्यूचर ऑफ लाइफ इंस्टीट्यूट ने 2023 में ऐसे AI सिस्टम के डेवलपमेंट को रोकने का आह्वान किया था, जो बुद्धिमत्ता में मनुष्‍यों की बराबरी या उससे कंपटीशन कर सके. लोग इसपर चर्चा कर रहे हैं और अब इस चीज पर काम करने का वक्त है कि AGI को कंट्रोल में रखने के लिए गार्डरेल कैसे लगाए जाएं. AGI कब आएगा, इसे लेकर अलग-अलग विचार हैं, क्‍योंकि इसे लेकर लोगों की समझ अलग-अलग है. 


हालांकि ओपन AI के सीईओ सैम ऑल्टमैन दिसंबर में कह चुके हैं कि उनकी कंपनी जानती है कि AGI कैसे बनाया जाता है और लोग जितना सोच रहे हैं, यह उससे पहले ही आ जाएगा. हालांकि उन्होंने इस तकनीक के असर को कम करके आंका.

Scientists-warned-AI-could-get-out-of-control


एक टिप्पणी भेजें

0 टिप्पणियाँ