cunews-openai-bolsters-preparedness-against-risks-of-ai-weapons-and-biases

OpenAI, AI 무기 및 편견의 위험에 대한 대비 강화

대비팀

OpenAI는 MIT AI 교수 알렉산더 매드리(Aleksander Madry)의 지휘 아래 ‘준비'(Preparedness)라는 전담팀을 구성했습니다. AI 연구자, 컴퓨터 과학자, 국가 안보 전문가, 정책 전문가로 구성된 이 팀은 OpenAI의 기술을 지속적으로 모니터링하고 테스트할 것입니다. 이는 AI 시스템 중 하나라도 잠재적으로 위험한 행동을 보이는 경우 회사를 식별하고 경고하는 데 중요한 역할을 합니다. 대비팀은 AI에 편향된 알고리즘을 삽입하는 등의 문제를 완화하는 데 중점을 두는 OpenAI의 기존 안전 시스템 팀, AI가 인간 지능을 능가하는 가상 시나리오에서 AI가 인류에게 해를 끼치는 것을 방지하는 방법을 조사하는 Superalignment 팀과 함께 운영됩니다.

실존적 위협 논쟁

올해 초 OpenAI, Google, Microsoft의 리더를 포함한 AI 업계의 저명한 인사들은 AI를 전염병이나 핵무기에 비유하며 AI와 관련된 실존적 위험을 강조했습니다. 그러나 일부 연구자들은 가상의 재앙적 시나리오에 그렇게 집중하는 것은 현재 AI 기술의 해로운 결과로부터 주의를 돌리게 한다고 주장합니다. 점점 더 많은 수의 AI 비즈니스 리더들이 위험이 과장되어 있으며 기술이 수익성을 높일 뿐만 아니라 사회에 큰 이익을 줄 수 있다고 주장하면서 기술 개발을 추진해야 한다고 주장하고 있습니다.

균형 잡힌 접근 방식

OpenAI의 CEO인 Sam Altman은 AI에 내재된 장기적인 위험을 인정하지만 현재의 과제를 해결하는 것이 중요하다고 강조합니다. 알트만은 소규모 기업에 과도한 부담을 주고 빠르게 진화하는 AI 환경에서 경쟁할 수 있는 능력을 저해하는 규제에 반대합니다.

전문가 협업으로 위험 완화

존경받는 AI 연구원이자 MIT 배치형 머신러닝 센터 소장인 Aleksander Madry가 올해 OpenAI에 합류했습니다. 최근 리더십의 변화에도 불구하고 Madry는 AI 위험 조사에 대한 회사의 노력에 자신감을 표명했습니다. OpenAI는 AI 위험에 대한 포괄적인 연구를 촉진하기 위해 국가핵안보국(National Nuclear Security Administration)과 같은 조직과 적극적으로 논의하고 있습니다. 또한 OpenAI는 외부의 “자격을 갖춘 독립적인 제3자”가 기술을 평가하고 온라인에서 제공되는 표준 연구 이상의 엄격한 테스트를 수행할 수 있도록 허용할 것을 약속합니다. AI 개발을 가속 또는 감속으로 양극화하는 관점을 다루면서 Madry는 그러한 논쟁이 지나치게 단순화되었음을 강조하고 AI 발전에 대한 보다 미묘한 접근 방식을 옹호합니다.


게시됨

카테고리

작성자

태그: