cunews-openai-bolsters-preparedness-against-risks-of-ai-weapons-and-biases

OpenAI, Yapay Zeka Silahlarının ve Önyargılarının Risklerine Karşı Hazırlığı Artırıyor

Hazırlık Ekibi

MIT AI profesörü Aleksander Madry’nin liderliğinde OpenAI, “Hazırlık” adında özel bir ekip kurdu. Yapay zeka araştırmacıları, bilgisayar bilimcileri, ulusal güvenlik uzmanları ve politika profesyonellerinden oluşan bu ekip, OpenAI teknolojisini sürekli olarak izleyecek ve test edecek. Yapay zeka sistemlerinden herhangi birinin potansiyel olarak tehlikeli davranışlar sergilemesi durumunda şirketin belirlenmesinde ve uyarılmasında çok önemli bir rol oynuyor. Hazırlık Ekibi, OpenAI’nin yapay zekaya önyargılı algoritmalar yerleştirme gibi sorunları hafifletmeye odaklanan mevcut Güvenlik Sistemleri ekibiyle ve yapay zekanın insan zekasını aştığı varsayımsal bir senaryoda yapay zekanın insanlığa zarar vermesini önlemeyi araştıran Süper Hizalama ekibiyle birlikte çalışır.

Varoluşsal Tehditler Tartışması

Bu yılın başlarında aralarında OpenAI, Google ve Microsoft’un liderlerinin de bulunduğu yapay zeka sektörünün önde gelen isimleri, yapay zekayla ilişkili varoluşsal riskleri vurgulayarak bunları pandemilere veya nükleer silahlara benzettiler. Ancak bazı araştırmacılar, varsayımsal felaket senaryolarına bu kadar yoğunlaşmanın, dikkatleri yapay zeka teknolojisinin mevcut zararlı sonuçlarından uzaklaştırdığını ileri sürüyor. Giderek artan sayıda yapay zeka iş lideri, risklerin abartıldığını ve teknolojinin hem topluma önemli faydalar sağlayabileceğini hem de kârlılığı artırabileceğini öne sürerek teknoloji geliştirmede ilerlemeyi savunuyor.

Dengeli Bir Yaklaşım

OpenAI CEO’su Sam Altman, yapay zekanın doğasında bulunan uzun vadeli riskleri kabul ediyor ancak mevcut zorluklarla mücadele etmenin önemini vurguluyor. Altman, küçük şirketlere orantısız bir yük getiren ve hızla gelişen yapay zeka ortamında rekabet etme yeteneklerini engelleyen düzenlemelere karşı çıkıyor.

Uzman İşbirliğiyle Riskleri Azaltma

Değerli bir yapay zeka araştırmacısı ve MIT’nin Konuşlandırılabilir Makine Öğrenimi Merkezi’nin yöneticisi Aleksander Madry, bu yıl OpenAI’ye katıldı. Liderlikteki son değişikliklere rağmen Madry, şirketin yapay zeka risklerini araştırma konusundaki kararlılığına güvendiğini ifade ediyor. OpenAI, yapay zeka risklerine ilişkin kapsamlı çalışmaları kolaylaştırmak için Ulusal Nükleer Güvenlik İdaresi gibi kuruluşlarla aktif olarak görüşmelerde bulunuyor. Ayrıca OpenAI, harici “nitelikli, bağımsız üçüncü tarafların” teknolojisini değerlendirmesine ve çevrimiçi olarak mevcut standart araştırmaların ötesinde titiz testler yapmasına izin vereceğini taahhüt eder. Madry, yapay zeka gelişimini hızlandıran veya yavaşlatan şeklinde kutuplaştıran bakış açılarına değinirken, bu tür tartışmaların aşırı basitleştirilmesine vurgu yapıyor ve yapay zekanın ilerlemesine yönelik daha incelikli bir yaklaşımı savunuyor.


Yayımlandı

kategorisi

yazarı:

Etiketler: