cunews-openai-bolsters-preparedness-against-risks-of-ai-weapons-and-biases

OpenAI tăng cường sự chuẩn bị trước những rủi ro về vũ khí và thành kiến ​​AI

Đội chuẩn bị

Dưới sự lãnh đạo của giáo sư AI của MIT, Aleksander Madry, OpenAI đã thành lập một nhóm chuyên trách mang tên “Sự chuẩn bị”. Bao gồm các nhà nghiên cứu AI, nhà khoa học máy tính, chuyên gia an ninh quốc gia và chuyên gia chính sách, nhóm này sẽ liên tục theo dõi và thử nghiệm công nghệ của OpenAI. Nó đóng một vai trò quan trọng trong việc xác định và cảnh báo cho công ty nếu bất kỳ hệ thống AI nào của nó thể hiện hành vi nguy hiểm tiềm tàng. Nhóm Chuẩn bị sẵn sàng hoạt động cùng với nhóm Hệ thống An toàn hiện có của OpenAI, tập trung vào việc giảm thiểu các vấn đề như nhúng các thuật toán sai lệch vào AI và nhóm Superalignment, điều tra việc ngăn chặn AI gây hại cho nhân loại trong một tình huống giả định khi AI vượt qua trí thông minh của con người.

Cuộc tranh luận về các mối đe dọa hiện sinh

Đầu năm nay, những nhân vật nổi bật trong ngành AI, bao gồm cả các nhà lãnh đạo của OpenAI, Google và Microsoft, đã nhấn mạnh những rủi ro hiện hữu liên quan đến AI, ví chúng như đại dịch hoặc vũ khí hạt nhân. Tuy nhiên, một số nhà nghiên cứu cho rằng việc tập trung vào các kịch bản thảm họa giả định như vậy sẽ làm chuyển hướng sự chú ý khỏi những hậu quả tai hại hiện tại của công nghệ AI. Ngày càng có nhiều lãnh đạo doanh nghiệp AI ủng hộ việc tiếp tục phát triển công nghệ, khẳng định rằng rủi ro đã bị phóng đại và công nghệ có thể mang lại lợi ích đáng kể cho xã hội cũng như thúc đẩy lợi nhuận.

Phương pháp tiếp cận cân bằng

Giám đốc điều hành của OpenAI, Sam Altman, thừa nhận những rủi ro lâu dài vốn có của AI nhưng nhấn mạnh tầm quan trọng của việc giải quyết những thách thức hiện tại. Altman phản đối các quy định tạo gánh nặng không tương xứng cho các công ty nhỏ hơn và cản trở khả năng cạnh tranh của họ trong bối cảnh AI đang phát triển nhanh chóng.

Giảm thiểu rủi ro nhờ sự hợp tác của chuyên gia

Aleksander Madry, một nhà nghiên cứu AI đáng kính và là giám đốc Trung tâm Học máy có thể triển khai của MIT, đã tham gia OpenAI trong năm nay. Bất chấp những thay đổi gần đây về lãnh đạo, Madry bày tỏ sự tin tưởng vào cam kết của công ty trong việc điều tra các rủi ro về AI. OpenAI đang tích cực tham gia thảo luận với các tổ chức như Cơ quan An ninh Hạt nhân Quốc gia để tạo điều kiện cho các nghiên cứu toàn diện về rủi ro AI. Hơn nữa, OpenAI cam kết cho phép “các bên thứ ba độc lập, đủ điều kiện” bên ngoài đánh giá công nghệ của mình và tiến hành kiểm tra nghiêm ngặt ngoài nghiên cứu tiêu chuẩn có sẵn trực tuyến. Khi giải quyết các quan điểm phân cực việc phát triển AI là tăng tốc hoặc giảm tốc, Madry nhấn mạnh việc đơn giản hóa quá mức các cuộc tranh luận như vậy, ủng hộ một cách tiếp cận đa sắc thái hơn để phát triển AI.


Posted

in

by

Tags: