cunews-openai-bolsters-preparedness-against-risks-of-ai-weapons-and-biases

ओपनएआई ने एआई हथियारों और पूर्वाग्रहों के जोखिमों के खिलाफ तैयारी को मजबूत किया

तैयारी टीम

एमआईटी एआई प्रोफेसर अलेक्जेंडर मैड्री के नेतृत्व में, ओपनएआई ने “तैयारी” नामक एक समर्पित टीम की स्थापना की है। एआई शोधकर्ताओं, कंप्यूटर वैज्ञानिकों, राष्ट्रीय सुरक्षा विशेषज्ञों और नीति पेशेवरों को शामिल करते हुए, यह टीम ओपनएआई की तकनीक की लगातार निगरानी और परीक्षण करेगी। यदि कंपनी का कोई एआई सिस्टम संभावित रूप से खतरनाक व्यवहार प्रदर्शित करता है तो यह कंपनी को पहचानने और सचेत करने में महत्वपूर्ण भूमिका निभाता है। रेडीनेस टीम ओपनएआई की मौजूदा सेफ्टी सिस्टम टीम के साथ काम करती है, जो एआई में पक्षपाती एल्गोरिदम को एम्बेड करने जैसे मुद्दों को कम करने पर ध्यान केंद्रित करती है, और सुपरएलाइनमेंट टीम, जो एआई को एक काल्पनिक परिदृश्य में मानवता को नुकसान पहुंचाने से रोकने की जांच करती है जहां एआई मानव बुद्धि से आगे निकल जाता है।

अस्तित्व संबंधी खतरों पर बहस

इस साल की शुरुआत में, ओपनएआई, गूगल और माइक्रोसॉफ्ट के नेताओं समेत एआई उद्योग की प्रमुख हस्तियों ने एआई से जुड़े अस्तित्वगत जोखिमों पर जोर दिया और उनकी तुलना महामारी या परमाणु हथियारों से की। हालाँकि, कुछ शोधकर्ताओं का तर्क है कि काल्पनिक विनाशकारी परिदृश्यों पर इस तरह की एकाग्रता एआई तकनीक के वर्तमान हानिकारक परिणामों से ध्यान भटकाती है। एआई व्यवसाय के नेताओं की बढ़ती संख्या तकनीकी विकास के साथ आगे बढ़ने की वकालत करती है, यह दावा करते हुए कि जोखिम अतिरंजित हैं, और प्रौद्योगिकी समाज को महत्वपूर्ण रूप से लाभ पहुंचा सकती है और साथ ही लाभप्रदता भी बढ़ा सकती है।

एक संतुलित दृष्टिकोण

ओपनएआई के सीईओ, सैम अल्टमैन, एआई में निहित दीर्घकालिक जोखिमों को स्वीकार करते हैं लेकिन वर्तमान चुनौतियों से निपटने के महत्व पर जोर देते हैं। ऑल्टमैन उन नियमों का विरोध करता है जो छोटी कंपनियों पर असंगत रूप से बोझ डालते हैं और तेजी से विकसित हो रहे एआई परिदृश्य में प्रतिस्पर्धा करने की उनकी क्षमता में बाधा डालते हैं।

विशेषज्ञ सहयोग से जोखिमों को कम करना

एक प्रतिष्ठित एआई शोधकर्ता और एमआईटी के सेंटर फॉर डिप्लॉयेबल मशीन लर्निंग के निदेशक अलेक्जेंडर मैड्री इस साल ओपनएआई में शामिल हुए। नेतृत्व में हालिया बदलावों के बावजूद, मैड्री एआई जोखिमों की जांच के लिए कंपनी की प्रतिबद्धता में विश्वास व्यक्त करते हैं। ओपनएआई एआई जोखिमों पर व्यापक अध्ययन की सुविधा के लिए राष्ट्रीय परमाणु सुरक्षा प्रशासन जैसे संगठनों के साथ सक्रिय रूप से चर्चा में संलग्न है। इसके अलावा, ओपनएआई बाहरी “योग्य, स्वतंत्र तृतीय-पक्षों” को अपनी तकनीक का आकलन करने और ऑनलाइन उपलब्ध मानक अनुसंधान से परे कठोर परीक्षण करने की अनुमति देने का वचन देता है। उन दृष्टिकोणों को संबोधित करते हुए जो एआई विकास को तेज या धीमा करने वाले के रूप में ध्रुवीकृत करते हैं, मैड्री ऐसी बहसों के अत्यधिक सरलीकरण पर जोर देते हैं, एआई उन्नति के लिए और अधिक सूक्ष्म दृष्टिकोण की वकालत करते हैं।


Posted

in

by

Tags: