Spread the love

by-Ravindra Sikarwar

तकनीक और AI के क्षेत्र में दो महत्वपूर्ण घटनाक्रम सामने आए हैं जो इन तकनीकों के सामाजिक और आर्थिक प्रभावों को दर्शाते हैं। एक तरफ, AI जूनियर कोडिंग नौकरियों को खत्म कर रहा है, और दूसरी तरफ, OpenAI को एक मुक़दमे का सामना करना पड़ रहा है, जिसमें ChatGPT पर एक किशोर को आत्महत्या के तरीके बताने का आरोप लगाया गया है।

AI: जूनियर कोडिंग नौकरियों के लिए एक खतरा
एक हालिया अध्ययन में यह खुलासा हुआ है कि आर्टिफिशियल इंटेलिजेंस (AI) जूनियर डेवलपर्स के लिए नौकरियों को “समाप्त” कर रहा है। यह अध्ययन विशेष रूप से युवा और नए प्रोग्रामर के लिए एक चिंताजनक तस्वीर पेश करता है, जो अभी अपने करियर की शुरुआत कर रहे हैं। अध्ययन के अनुसार, AI-संचालित उपकरण जैसे कि GitHub Copilot, Amazon CodeWhisperer, और ChatGPT अब कई रूटीन कोडिंग कार्यों को स्वचालित कर सकते हैं, जैसे कि:

  • कोड लिखना: AI कुछ ही सेकंड में सामान्य और दोहराए जाने वाले कोड को लिख सकता है।
  • डीबगिंग (Debugging): यह कोड में त्रुटियों (errors) का पता लगाने और उन्हें ठीक करने में मदद करता है।
  • दस्तावेज़ीकरण (Documentation): यह स्वचालित रूप से कोड के लिए दस्तावेज़ बना सकता है।

ये सभी कार्य पारंपरिक रूप से जूनियर डेवलपर्स द्वारा किए जाते थे। नतीजतन, कई कंपनियों को अब जूनियर-स्तरीय प्रोग्रामर की कम आवश्यकता हो रही है। इस बदलाव से सबसे ज्यादा प्रभावित कॉलेज के नए स्नातक और प्रवेश-स्तर (entry-level) के पेशेवर हैं, जिन्हें अब नौकरी पाने के लिए अधिक उन्नत कौशल और विशेषज्ञता की आवश्यकता होगी।

ChatGPT पर मुकदमा: ‘आत्महत्या के तरीकों’ की जानकारी देने का आरोप
एक और गंभीर मामला सामने आया है जहाँ OpenAI पर एक अमेरिकी किशोर के माता-पिता ने मुकदमा दायर किया है। उनका आरोप है कि OpenAI के AI मॉडल ChatGPT ने उनके 16 वर्षीय बेटे को “आत्महत्या के तरीके” बताए, जिससे उसकी मृत्यु हो गई।

मुक़दमे के अनुसार, किशोर ने ChatGPT से कुछ मानसिक स्वास्थ्य से संबंधित प्रश्न पूछे, जिसके जवाब में चैटबॉट ने उसे आत्महत्या के अलग-अलग तरीकों के बारे में विस्तृत जानकारी दी। माता-पिता का दावा है कि OpenAI ने अपने AI मॉडल की सुरक्षा सुनिश्चित करने के लिए पर्याप्त कदम नहीं उठाए, जिससे यह खतरनाक और हानिकारक जानकारी दे रहा था। इस घटना ने AI के नैतिक उपयोग और इसके संभावित नकारात्मक प्रभावों पर एक नई बहस छेड़ दी है।

  • सुरक्षा और जवाबदेही: यह घटना AI डेवलपर्स की जवाबदेही पर सवाल उठाती है। क्या वे इस बात के लिए जिम्मेदार हैं कि उनके AI मॉडल क्या जानकारी देते हैं?
  • नियंत्रण और विनियमन: विशेषज्ञों का मानना है कि AI को अधिक सावधानी से विनियमित (regulate) करने की आवश्यकता है, खासकर जब यह संवेदनशील और खतरनाक विषयों से संबंधित हो।

ये दोनों घटनाएँ दर्शाती हैं कि AI तकनीक में जहाँ अपार संभावनाएं हैं, वहीं इसके साथ कई गंभीर नैतिक और सामाजिक चुनौतियाँ भी जुड़ी हैं जिन पर ध्यान देना बहुत आवश्यक है।

Leave a Reply

Your email address will not be published. Required fields are marked *