cunews-openai-bolsters-preparedness-against-risks-of-ai-weapons-and-biases

OpenAI Mendukung Kesiapsiagaan Melawan Risiko Senjata dan Bias AI

Tim Kesiapsiagaan

Di bawah kepemimpinan profesor MIT AI Aleksander Madry, OpenAI telah membentuk tim khusus yang disebut “Kesiapsiagaan”. Terdiri dari peneliti AI, ilmuwan komputer, pakar keamanan nasional, dan profesional kebijakan, tim ini akan terus memantau dan menguji teknologi OpenAI. Teknologi ini memainkan peran penting dalam mengidentifikasi dan memperingatkan perusahaan jika ada sistem AI yang menunjukkan potensi perilaku berbahaya. Tim Kesiapsiagaan beroperasi bersama tim Sistem Keamanan OpenAI yang sudah ada, yang berfokus pada mitigasi masalah seperti menyematkan algoritme yang bias ke dalam AI, dan tim Superalignment, yang menyelidiki pencegahan AI yang merugikan umat manusia dalam skenario hipotetis di mana AI melampaui kecerdasan manusia.

Debat Ancaman Eksistensial

Awal tahun ini, tokoh-tokoh terkemuka di industri AI, termasuk para pemimpin dari OpenAI, Google, dan Microsoft, menekankan risiko nyata yang terkait dengan AI, dan menyamakannya dengan pandemi atau senjata nuklir. Namun, beberapa peneliti berpendapat bahwa konsentrasi pada skenario bencana hipotetis mengalihkan perhatian dari konsekuensi berbahaya dari teknologi AI saat ini. Semakin banyak pemimpin bisnis AI yang mendukung pengembangan teknologi, dengan menyatakan bahwa risikonya terlalu dibesar-besarkan, dan teknologi tersebut dapat memberikan manfaat yang signifikan bagi masyarakat serta mendorong profitabilitas.

Pendekatan yang Seimbang

CEO OpenAI, Sam Altman, mengakui risiko jangka panjang yang melekat pada AI namun menekankan pentingnya mengatasi tantangan saat ini. Altman menentang peraturan yang secara tidak proporsional membebani perusahaan kecil dan menghambat kemampuan mereka untuk bersaing dalam lanskap AI yang berkembang pesat.

Memitigasi Risiko dengan Kolaborasi Para Ahli

Aleksander Madry, peneliti AI terkemuka dan direktur Center for Deployable Machine Learning MIT, bergabung dengan OpenAI tahun ini. Meskipun terjadi perubahan kepemimpinan baru-baru ini, Madry menyatakan keyakinannya terhadap komitmen perusahaan dalam menyelidiki risiko AI. OpenAI secara aktif terlibat dalam diskusi dengan organisasi seperti Administrasi Keamanan Nuklir Nasional untuk memfasilitasi studi komprehensif mengenai risiko AI. Lebih jauh lagi, OpenAI berjanji untuk mengizinkan “pihak ketiga yang berkualifikasi dan independen” untuk menilai teknologinya dan melakukan pengujian ketat di luar penelitian standar yang tersedia secara online. Dalam menyikapi sudut pandang yang mempolarisasikan perkembangan AI sebagai percepatan atau perlambatan, Madry menekankan penyederhanaan perdebatan tersebut, dan menganjurkan pendekatan yang lebih bernuansa terhadap kemajuan AI.


Posted

in

by

Tags: