cunews-openai-bolsters-preparedness-against-risks-of-ai-weapons-and-biases

OpenAI renforce la préparation contre les risques liés aux armes et aux préjugés de l’IA

L’équipe de préparation

Sous la direction d’Aleksander Madry, professeur d’IA au MIT, OpenAI a créé une équipe dédiée appelée « Preparedness ». Composée de chercheurs en IA, d’informaticiens, d’experts en sécurité nationale et de professionnels des politiques, cette équipe surveillera et testera en permanence la technologie OpenAI. Il joue un rôle crucial en identifiant et en alertant l’entreprise si l’un de ses systèmes d’IA démontre un comportement potentiellement dangereux. L’équipe de préparation travaille aux côtés de l’équipe existante des systèmes de sécurité d’OpenAI, qui se concentre sur l’atténuation des problèmes tels que l’intégration d’algorithmes biaisés dans l’IA, et de l’équipe Superalignment, qui étudie la possibilité d’empêcher l’IA de nuire à l’humanité dans un scénario hypothétique où l’IA surpasse l’intelligence humaine.

Le débat sur les menaces existentielles

Plus tôt cette année, des personnalités éminentes du secteur de l’IA, notamment des dirigeants d’OpenAI, de Google et de Microsoft, ont souligné les risques existentiels associés à l’IA, les comparant à des pandémies ou à des armes nucléaires. Cependant, certains chercheurs affirment qu’une telle concentration sur des scénarios catastrophiques hypothétiques détourne l’attention des conséquences néfastes actuelles de la technologie de l’IA. Un nombre croissant de dirigeants d’entreprises d’IA plaident en faveur du développement technologique, affirmant que les risques sont surestimés et que la technologie peut bénéficier de manière significative à la société tout en augmentant la rentabilité.

Une approche équilibrée

Le PDG d’OpenAI, Sam Altman, reconnaît les risques à long terme inhérents à l’IA, mais souligne l’importance de relever les défis actuels. Altman s’oppose aux réglementations qui pèsent de manière disproportionnée sur les petites entreprises et entravent leur capacité à être compétitives dans le paysage de l’IA en évolution rapide.

Atténuer les risques grâce à la collaboration d’experts

Aleksander Madry, chercheur réputé en IA et directeur du Center for Deployable Machine Learning du MIT, a rejoint OpenAI cette année. Malgré les récents changements de direction, Madry exprime sa confiance dans l’engagement de l’entreprise à enquêter sur les risques liés à l’IA. OpenAI participe activement à des discussions avec des organisations telles que la National Nuclear Security Administration pour faciliter des études approfondies sur les risques liés à l’IA. En outre, OpenAI s’engage à permettre à des « tiers tiers qualifiés et indépendants » d’évaluer sa technologie et d’effectuer des tests rigoureux au-delà des recherches standard disponibles en ligne. En abordant les points de vue qui polarisent le développement de l’IA comme étant soit une accélération, soit un ralentissement, Madry souligne la simplification excessive de tels débats, plaidant pour une approche plus nuancée du progrès de l’IA.


Publié

dans

par

Étiquettes :