cunews-openai-bolsters-preparedness-against-risks-of-ai-weapons-and-biases

OpenAI Meningkatkan Kesediaan Menentang Risiko Senjata AI dan Bias

Pasukan Persediaan

Di bawah kepimpinan profesor MIT AI Aleksander Madry, OpenAI telah menubuhkan pasukan khusus yang dipanggil “Kesediaan.” Terdiri daripada penyelidik AI, saintis komputer, pakar keselamatan negara dan profesional dasar, pasukan ini akan memantau dan menguji teknologi OpenAI secara berterusan. Ia memainkan peranan penting dalam mengenal pasti dan memaklumkan syarikat jika mana-mana sistem AInya menunjukkan tingkah laku yang berpotensi berbahaya. Pasukan Kesediaan beroperasi bersama pasukan Sistem Keselamatan OpenAI yang sedia ada, yang memfokuskan pada mengurangkan isu seperti membenamkan algoritma berat sebelah ke dalam AI, dan pasukan Superalignment, yang menyiasat menghalang AI daripada membahayakan manusia dalam senario hipotesis di mana AI mengatasi kecerdasan manusia.

Perbahasan Ancaman Wujud

Awal tahun ini, tokoh terkemuka dalam industri AI, termasuk pemimpin dari OpenAI, Google dan Microsoft, menekankan risiko kewujudan yang dikaitkan dengan AI, menyamakannya dengan wabak atau senjata nuklear. Walau bagaimanapun, sesetengah penyelidik berpendapat bahawa penumpuan sedemikian pada senario bencana hipotesis mengalihkan perhatian daripada akibat berbahaya semasa teknologi AI. Bilangan pemimpin perniagaan AI yang semakin meningkat menyokong untuk bergerak ke hadapan dengan pembangunan teknologi, menegaskan bahawa risiko dilebih-lebihkan, dan teknologi itu boleh memberi manfaat dengan ketara kepada masyarakat serta memacu keuntungan.

Pendekatan Seimbang

Ketua Pegawai Eksekutif OpenAI, Sam Altman, mengakui risiko jangka panjang yang wujud kepada AI tetapi menekankan kepentingan menangani cabaran semasa. Altman menentang peraturan yang membebankan syarikat yang lebih kecil secara tidak seimbang dan menghalang keupayaan mereka untuk bersaing dalam landskap AI yang berkembang pesat.

Mengurangkan Risiko dengan Kerjasama Pakar

Aleksander Madry, penyelidik AI yang dihormati dan pengarah MIT’s Center for Deployable Machine Learning, menyertai OpenAI tahun ini. Walaupun terdapat perubahan baru dalam kepimpinan, Madry menyatakan keyakinan terhadap komitmen syarikat untuk menyiasat risiko AI. OpenAI secara aktif terlibat dalam perbincangan dengan organisasi seperti Pentadbiran Keselamatan Nuklear Kebangsaan untuk memudahkan kajian komprehensif tentang risiko AI. Tambahan pula, OpenAI berjanji untuk membenarkan “pihak ketiga bebas yang layak” untuk menilai teknologinya dan menjalankan ujian yang ketat di luar penyelidikan standard yang tersedia dalam talian. Dalam menangani sudut pandangan yang mempolarisasi pembangunan AI sebagai sama ada mempercepatkan atau melambatkan, Madry menekankan penyederhanaan perbahasan sedemikian, menyokong pendekatan yang lebih bernuansa untuk kemajuan AI.


Posted

in

by

Tags: