टेक वर्कर्स ने Google और Microsoft के AI प्रोजेक्ट्स का किया विरोध
दुनिया भर के टेक कर्मचारियों ने Google और Microsoft जैसी बड़ी कंपनियों के AI प्रोजेक्ट्स के विरोध में आवाज़ उठाई है। यह विरोध मुख्य रूप से AI टेक्नोलॉजी के सैन्य उपयोग और नैतिक चिंताओं पर केंद्रित है।
टेक वर्कर्स AI के नैतिक उपयोग पर सवाल उठा रहे हैं।
शॉर्टकट में पूरी खबर
कही अनकही बातें
हम ऐसी टेक्नोलॉजी बनाने के पक्ष में नहीं हैं जिसका इस्तेमाल निगरानी या युद्ध के लिए किया जा सके।
समाचार विस्तार में पूरी खबर
Intro: हाल के वर्षों में आर्टिफिशियल इंटेलिजेंस (AI) टेक्नोलॉजी तेज़ी से विकसित हुई है, लेकिन इसके नैतिक उपयोग को लेकर चिंताएं भी बढ़ रही हैं। भारत और दुनिया भर के टेक उद्योग में काम करने वाले कर्मचारियों ने अब Google और Microsoft जैसी दिग्गज कंपनियों के AI प्रोजेक्ट्स के खिलाफ आवाज़ उठाई है। यह विरोध मुख्य रूप से उन AI सिस्टम्स पर केंद्रित है जिनका उपयोग सैन्य या निगरानी उद्देश्यों के लिए किया जा सकता है। टेक वर्कर्स का मानना है कि उनकी बनाई गई टेक्नोलॉजी का इस्तेमाल मानवता के खिलाफ नहीं होना चाहिए।
मुख्य जानकारी (Key Details)
यह विरोध प्रदर्शन विशेष रूप से Google के 'Project Maven' के बाद शुरू हुआ, जिसमें AI का उपयोग ड्रोन फुटेज का विश्लेषण करने के लिए किया जाना था। कर्मचारियों ने इस प्रोजेक्ट पर आपत्ति जताई थी और कंपनी ने बाद में इसमें अपनी भागीदारी कम कर दी थी। हालांकि, Microsoft के साथ भी सरकारी कॉन्ट्रैक्ट्स को लेकर विवाद जारी है, खासकर उनके क्लाउड और AI सेवाओं के सैन्य उपयोग को लेकर। हजारों कर्मचारियों ने सार्वजनिक रूप से इन कंपनियों से नैतिक AI डेवलपमेंट की मांग की है। उनका तर्क है कि AI का विकास पारदर्शिता और मज़बूत नैतिक दिशा-निर्देशों के साथ होना चाहिए, ताकि यह सुनिश्चित हो सके कि इसका उपयोग केवल मानव कल्याण के लिए हो।
तकनीकी विवरण (Technical Insight)
यह विवाद मुख्य रूप से AI के 'ऑटोनॉमस वेपन सिस्टम्स' (Autonomous Weapon Systems) से जुड़ा है। इस सिस्टम में AI एल्गोरिदम को निर्णय लेने की शक्ति दी जाती है, जिसमें टारगेट की पहचान करना और हमला करना भी शामिल हो सकता है। टेक वर्कर्स का कहना है कि ऐसे सिस्टम्स में 'ह्यूमन-इन-द-लूप' (Human-in-the-loop) यानी मानवीय हस्तक्षेप अनिवार्य होना चाहिए। वे चाहते हैं कि कंपनियों के पास ऐसे प्रोजेक्ट्स के लिए एक कठोर 'एथिक्स बोर्ड' हो जो किसी भी सैन्य या निगरानी प्रोजेक्ट को मंजूरी देने से पहले उसकी गहन समीक्षा करे।
भारत और यूजर्स पर असर (Impact on India)
भले ही ये विरोध प्रदर्शन मुख्य रूप से अमेरिका में हो रहे हों, लेकिन इसका असर भारत पर भी पड़ता है। भारत AI रिसर्च और डेवलपमेंट का एक बड़ा केंद्र है। यदि वैश्विक स्तर पर नैतिक AI मानकों को अपनाया जाता है, तो भारत की टेक कंपनियों और स्टार्टअप्स को भी अपने AI प्रोडक्ट्स के लिए सख्त नियम बनाने पड़ सकते हैं। यह भारतीय यूज़र्स के लिए डेटा प्राइवेसी और AI के जिम्मेदार उपयोग को सुनिश्चित करने में मदद करेगा।
🔄 क्या बदला है?
पहले क्या था और अब क्या अपडेट हुआ — तुलना एक नज़र में।
समझिए पूरा मामला
टेक वर्कर्स AI टेक्नोलॉजी के सैन्य उपयोग और नैतिक मानकों की कमी के कारण विरोध कर रहे हैं।
Project Maven Google का एक प्रोजेक्ट था जिसका उद्देश्य पेंटागन के लिए इमेज प्रोसेसिंग में AI का उपयोग करना था।
Microsoft के भी अमेरिकी सरकार और सेना के साथ कई AI और क्लाउड कॉन्ट्रैक्ट्स हैं, जिन पर सवाल उठाए जा रहे हैं।