फ़ाइल फोटो: Microsoft AI के प्रमुख मुस्तफा सुलेमैन ने कहा है कि AI फर्मों को इस विचार को प्रोत्साहित करना बंद करना चाहिए कि उनके AI मॉडल सचेत हैं। | फोटो क्रेडिट: रायटर
Microsoft AI के प्रमुख मुस्तफा सुलेमैन ने कहा है कि AI फर्मों को इस विचार को प्रोत्साहित करना बंद कर देना चाहिए कि उनके AI मॉडल सचेत हैं। एक ब्लॉग पोस्ट में, सुलेमैन ने अस्वास्थ्यकर अनुलग्नकों के बढ़ते उदाहरणों पर चिंता व्यक्त की, जो कि मनुष्य एआई सिस्टम के साथ “मनोविकृति जोखिम” के लिए अग्रणी थे।
उन्होंने यह भी कहा कि ये मामले सिर्फ उन लोगों तक सीमित नहीं हैं जो पहले से ही मानसिक स्वास्थ्य के मुद्दों के जोखिम में हैं।
उन्होंने कहा, “मेरी केंद्रीय चिंता यह है कि बहुत से लोग एआईएस के भ्रम में विश्वास करना शुरू कर देंगे, क्योंकि वे जल्द ही एआई अधिकारों, मॉडल कल्याण और यहां तक कि एआई नागरिकता की वकालत करेंगे। यह विकास एआई प्रगति में एक खतरनाक मोड़ होगा और हमारे तत्काल ध्यान देने योग्य है,” उन्होंने कहा।
सुलेमन ने इस भ्रम को बुलाया कि एआई सिस्टम महसूस कर रहे थे, प्राणियों को सोच रहे थे, प्रतीत होता है कि एआई सिर्फ इसलिए कि वे मानव प्रतिक्रियाओं की अच्छी तरह से नकल करते हैं।
उन्होंने यह भी कहा कि उद्योग को चेतना की इस धारणा को रोकने के लिए रेलिंग को लागू करने के लिए सर्वोत्तम प्रथाओं पर सहयोग करने की आवश्यकता है या “यदि कोई उपयोगकर्ता इसे विकसित करता है तो उस धारणा का खंडन करें।”
एआई साथी, जो एक पूरी तरह से नई श्रेणी हैं, उन्हें तत्काल इन रेलिंग की आवश्यकता थी, उन्होंने कहा।
यद्यपि Openai जैसी AI फर्मों ने दोहराया है कि AI के कारण होने वाले मनोविकृति के ये चरम मामले दुर्लभ थे और उनके उपयोगकर्ताबेस का एक छोटा सा अंश था, ऐसी कई घटनाएं हुई हैं जिन्होंने AI चैटबॉट्स के व्यवहार पर ध्यान आकर्षित किया है।
GPT-5 के लॉन्च को 7 अगस्त को पोस्ट करें, जब उपयोगकर्ताओं ने GPT-4O को अचानक पदावनत किए जाने के बारे में शिकायत की थी, तो एक बहुत बड़ा बैकलैश था। इन विरोध करने वाले उपयोगकर्ताओं के एक काफी अंश ने एआई मॉडल के लिए भावनात्मक संलग्नक का गठन किया था।
Openai को प्रतिक्रिया के बाद AI मॉडल को वापस लाने के लिए मजबूर किया गया था।
और पढ़ें
प्रकाशित – 20 अगस्त, 2025 01:20 PM IST