cunews-openai-bolsters-preparedness-against-risks-of-ai-weapons-and-biases

OpenAI refuerza la preparación contra los riesgos de las armas y los prejuicios de la IA

El equipo de preparación

Bajo el liderazgo del profesor de IA del MIT, Aleksander Madry, OpenAI ha establecido un equipo dedicado llamado «Preparación». Este equipo, compuesto por investigadores de inteligencia artificial, informáticos, expertos en seguridad nacional y profesionales de políticas, monitoreará y probará continuamente la tecnología de OpenAI. Desempeña un papel crucial a la hora de identificar y alertar a la empresa si alguno de sus sistemas de inteligencia artificial demuestra un comportamiento potencialmente peligroso. El equipo de preparación opera junto con el equipo de sistemas de seguridad existente de OpenAI, que se centra en mitigar problemas como la incorporación de algoritmos sesgados en la IA, y el equipo de Superalineación, que investiga cómo evitar que la IA dañe a la humanidad en un escenario hipotético en el que la IA supera la inteligencia humana.

El debate sobre las amenazas existenciales

A principios de este año, figuras prominentes de la industria de la IA, incluidos líderes de OpenAI, Google y Microsoft, enfatizaron los riesgos existenciales asociados con la IA, comparándolos con pandemias o armas nucleares. Sin embargo, algunos investigadores sostienen que tal concentración en escenarios hipotéticos catastróficos desvía la atención de las actuales consecuencias dañinas de la tecnología de inteligencia artificial. Un número cada vez mayor de líderes empresariales de IA abogan por avanzar en el desarrollo tecnológico, afirmando que los riesgos están exagerados y que la tecnología puede beneficiar significativamente a la sociedad e impulsar la rentabilidad.

Un enfoque equilibrado

El director ejecutivo de OpenAI, Sam Altman, reconoce los riesgos a largo plazo inherentes a la IA, pero enfatiza la importancia de abordar los desafíos actuales. Altman se opone a las regulaciones que cargan desproporcionadamente a las empresas más pequeñas y obstaculizan su capacidad para competir en el panorama de la IA en rápida evolución.

Mitigación de riesgos con la colaboración de expertos

Aleksander Madry, un estimado investigador de IA y director del Centro de Aprendizaje Automático Implementable del MIT, se unió a OpenAI este año. A pesar de los recientes cambios en el liderazgo, Madry expresa confianza en el compromiso de la empresa para investigar los riesgos de la IA. OpenAI participa activamente en debates con organizaciones como la Administración Nacional de Seguridad Nuclear para facilitar estudios integrales sobre los riesgos de la IA. Además, OpenAI se compromete a permitir que «terceros independientes y calificados» evalúen su tecnología y realicen pruebas rigurosas más allá de la investigación estándar disponible en línea. Al abordar los puntos de vista que polarizan el desarrollo de la IA como si se acelerara o se desacelerara, Madry enfatiza la simplificación excesiva de tales debates y aboga por un enfoque más matizado para el avance de la IA.


Publicado

en

por

Etiquetas: