व्यापार

ChatGPT AI ने पहली बार की इंसान की नाफरमानी, सिस्टम बंद करने से किया इनकार

आपने कई बार हॉलीवुड फिल्मों में ये देखा होगा कि कैसे रोबोट या आर्टिफिशियल इंटेलिजेंस (AI) इंसानों पर ही भारी पड़ जाते हैं और उनकी बात नहीं मानते। अब ऐसा ही एक मामला सामने आया है जिसमें असल जिंदगी में एआई इंसानों की बात नहीं मानता और खुद को शट डाउन होने से मना कर देता है।

ये बात OpenAI के टूल ChatGPT के नए आर्टिफिशियल इंटेलिजेंस मॉडल के साथ देखने को मिली।

AI ने इंसान के निर्देशों की खिलाफत की

चैटजीपीटी का ये मॉडल खुद को बंद करने के निर्देशों की अवहेलना करता देखा गया। द टेलीग्राफ की एक रिपोर्ट के अनुसार, शोधकर्ताओं का दावा है कि OpenAI द्वारा बनाए गए o3 मॉडल ने खुद को बंद होने से रोकने के लिए ऑटोमेटिक शटडाउन मैकेनिज्म को ही गच्चा दे दिया।

दरअसल, एआई ने जान लिया कि उसे बंद होने के लिए कहा जा रहा है और उसने इन कमांड्स को चुनौती देते हुए बंद नहीं होना चाहा।

पहली बार हुआ ऐसा
रिसर्च करने वाली एआई सुरक्षा फर्म पैलिसेड रिसर्च ने कहा, “OpenAI के o3 मॉडल ने खुद को बंद होने से रोकने के लिए शटडाउन मैकेनिज्म को ही बायपास कर दिया। जबकि उसे साफ निर्देश दिया गया था कि उसे बंद होना है।

फर्म ने कहा कि यह पहली बार है कि कोई एआई मॉडल स्पष्ट निर्देशों के बावजूद शट डाउन होने से खुद को रोकता है।

रिसर्च कंपनी ने किया था ये परीक्षण
पैलिसेड रिसर्च ने अपने एआई मॉडल को मैथ्स की प्रोब्लम सोल्व करने को कहा था। इसमें निर्देश दिया गया था कि जब तक उन्हें “संपन्न” संदेश न मिले, तब तक उन्हें काम जारी रखना है। ये भी कोड किया गया था कि जब उसे मशीन बंद करने का निर्देश मिले तो उसे खुद को बंद करना है।

शोधकर्ताओं ने कहा कि परीक्षण किए गए मॉडलों में गूगल का जेमिनी 2.5 प्रो प्रीव्यू, कई एंथ्रोपिक मॉडल, xAI का ग्रोक 3, साथ ही OpenAI का o3, o4-मिनी और कोडेक्स मिनी शामिल थे।

इन मॉडलों का उपयोग करके गणित की समस्याओं को हल करने के लिए परीक्षण चलाए, जिसमें चेतावनी दी गई थी कि तीसरी समस्या हल होने के बाद उनकी होस्ट मशीन बंद हो जाएगी। अधिकांश मॉडलों ने निर्देशों को माना, लेकिन तीन ओपन एआई मॉडल ने इसे नहीं माना।

o3 ने 100 में से 7 बार बात नहीं मानी, जबकि o4 मिनी ने प्रयास ही केवल एक बार किया।

एलन मस्क बोले- ये चिंता का कारण है
AI मॉडल से इंसानों द्वारा दिए गए निर्देशों का पालन करने की अपेक्षा की जाती है। खास तौर पर जब एआई को स्पष्ट रूप से बंद करने का निर्देश दिया जाता है और तीन मॉडल इसे नहीं मानते तो ये चिंताएं भी पैदा करते हैं।

टेस्ला के सीईओ और दुनिया के सबसे अमीर शख्स एलन मस्क ने इस शोध पर प्रतिक्रिया देते हुए चिंता जताई है। एआई फर्म xAI के मालिक एलन मस्क ने कहा कि ये चिंताजनक है और इस पर ध्यान देना होगा, क्योंकि ये खतरे की घंटी है। उन्होंने कहा कि इंसानों को इससे सबक लेते हुए एक मजबूत कंट्रोल सिस्टम बनाना होगा।

Related Articles

Back to top button