cunews-openai-bolsters-preparedness-against-risks-of-ai-weapons-and-biases

OpenAI reforça preparação contra riscos de armas e preconceitos de IA

A Equipe de Preparação

Sob a liderança do professor de IA do MIT, Aleksander Madry, a OpenAI estabeleceu uma equipe dedicada chamada “Preparedness”. Composta por pesquisadores de IA, cientistas da computação, especialistas em segurança nacional e profissionais de política, esta equipe monitorará e testará continuamente a tecnologia da OpenAI. Desempenha um papel crucial na identificação e alerta da empresa caso algum dos seus sistemas de IA demonstre comportamento potencialmente perigoso. A Equipe de Preparação opera junto com a equipe de Sistemas de Segurança existente da OpenAI, que se concentra na mitigação de problemas como a incorporação de algoritmos tendenciosos na IA, e a equipe de Superalinhamento, que investiga como evitar que a IA prejudique a humanidade em um cenário hipotético em que a IA supere a inteligência humana.

O debate sobre ameaças existenciais

No início deste ano, figuras proeminentes da indústria da IA, incluindo líderes da OpenAI, Google e Microsoft, enfatizaram os riscos existenciais associados à IA, comparando-os a pandemias ou armas nucleares. No entanto, alguns investigadores argumentam que tal concentração em hipotéticos cenários catastróficos desvia a atenção das actuais consequências prejudiciais da tecnologia de IA. Um número crescente de líderes empresariais de IA defende o avanço no desenvolvimento tecnológico, afirmando que os riscos são exagerados e que a tecnologia pode beneficiar significativamente a sociedade, bem como impulsionar a rentabilidade.

Uma abordagem equilibrada

O CEO da OpenAI, Sam Altman, reconhece os riscos de longo prazo inerentes à IA, mas salienta a importância de enfrentar os desafios atuais. Altman se opõe a regulamentações que sobrecarregam desproporcionalmente as empresas menores e prejudicam sua capacidade de competir no cenário de IA em rápida evolução.

Mitigando riscos com colaboração de especialistas

Aleksander Madry, um renomado pesquisador de IA e diretor do Centro de Aprendizado de Máquina Implantável do MIT, ingressou na OpenAI este ano. Apesar das recentes mudanças na liderança, Madry expressa confiança no compromisso da empresa em investigar os riscos da IA. A OpenAI está ativamente envolvida em discussões com organizações como a Administração Nacional de Segurança Nuclear para facilitar estudos abrangentes sobre os riscos da IA. Além disso, a OpenAI compromete-se a permitir que “terceiros independentes e qualificados” avaliem a sua tecnologia e realizem testes rigorosos além da pesquisa padrão disponível online. Ao abordar pontos de vista que polarizam o desenvolvimento da IA ​​como aceleração ou desaceleração, Madry enfatiza a simplificação excessiva de tais debates, defendendo uma abordagem mais matizada ao avanço da IA.


Publicado

em

por

Tags: