cunews-openai-bolsters-preparedness-against-risks-of-ai-weapons-and-biases

OpenAI rafforza la preparazione contro i rischi delle armi e dei pregiudizi dell’intelligenza artificiale

Il team di preparazione

Sotto la guida del professore di intelligenza artificiale del MIT Aleksander Madry, OpenAI ha creato un team dedicato chiamato “Preparedness”. Composto da ricercatori di intelligenza artificiale, scienziati informatici, esperti di sicurezza nazionale e professionisti delle politiche, questo team monitorerà e testerà continuamente la tecnologia di OpenAI. Svolge un ruolo cruciale nell’identificare e allertare l’azienda se uno qualsiasi dei suoi sistemi di intelligenza artificiale dimostra un comportamento potenzialmente pericoloso. Il team di preparazione opera a fianco dell’attuale team dei sistemi di sicurezza di OpenAI, che si concentra sulla mitigazione di problemi come l’integrazione di algoritmi distorti nell’intelligenza artificiale, e del team di Superalignment, che indaga su come impedire all’intelligenza artificiale di danneggiare l’umanità in uno scenario ipotetico in cui l’intelligenza artificiale supera l’intelligenza umana.

Il dibattito sulle minacce esistenziali

All’inizio di quest’anno, figure di spicco del settore dell’intelligenza artificiale, tra cui i leader di OpenAI, Google e Microsoft, hanno sottolineato i rischi esistenziali associati all’intelligenza artificiale, paragonandoli alle pandemie o alle armi nucleari. Tuttavia, alcuni ricercatori sostengono che una tale concentrazione su ipotetici scenari catastrofici distoglie l’attenzione dalle attuali conseguenze dannose della tecnologia dell’intelligenza artificiale. Un numero crescente di leader aziendali legati all’intelligenza artificiale sostiene la necessità di andare avanti con lo sviluppo tecnologico, affermando che i rischi sono sopravvalutati e che la tecnologia può apportare benefici significativi alla società, oltre a favorire la redditività.

Un approccio equilibrato

Il CEO di OpenAI, Sam Altman, riconosce i rischi a lungo termine inerenti all’intelligenza artificiale, ma sottolinea l’importanza di affrontare le sfide attuali. Altman si oppone alle normative che gravano in modo sproporzionato sulle aziende più piccole e ostacolano la loro capacità di competere nel panorama dell’intelligenza artificiale in rapida evoluzione.

Mitigare i rischi con la collaborazione di esperti

Aleksander Madry, stimato ricercatore di intelligenza artificiale e direttore del Center for Deployable Machine Learning del MIT, si è unito a OpenAI quest’anno. Nonostante i recenti cambiamenti alla leadership, Madry esprime fiducia nell’impegno dell’azienda nell’investigare i rischi dell’IA. OpenAI è attivamente impegnata in discussioni con organizzazioni come la National Nuclear Security Administration per facilitare studi completi sui rischi dell’IA. Inoltre, OpenAI si impegna a consentire a “terze parti esterne qualificate e indipendenti” di valutare la sua tecnologia e condurre test rigorosi oltre la ricerca standard disponibile online. Nell’affrontare i punti di vista che polarizzano lo sviluppo dell’IA in accelerazione o in decelerazione, Madry sottolinea l’eccessiva semplificazione di tali dibattiti, sostenendo un approccio più sfumato al progresso dell’IA.


Pubblicato

in

da

Tag: