cunews-openai-bolsters-preparedness-against-risks-of-ai-weapons-and-biases

OpenAI versterkt de paraatheid tegen de risico’s van AI-wapens en vooroordelen

Het paraatheidsteam

Onder leiding van MIT AI-professor Aleksander Madry heeft OpenAI een speciaal team opgericht met de naam ‘Preparedness’. Dit team bestaat uit AI-onderzoekers, computerwetenschappers, nationale veiligheidsexperts en beleidsprofessionals en zal de technologie van OpenAI voortdurend monitoren en testen. Het speelt een cruciale rol bij het identificeren en waarschuwen van het bedrijf als een van zijn AI-systemen potentieel gevaarlijk gedrag vertoont. Het Preparedness Team werkt samen met het bestaande Safety Systems-team van OpenAI, dat zich richt op het verzachten van problemen zoals het inbedden van bevooroordeelde algoritmen in AI, en het Superalignment-team, dat onderzoekt hoe wordt voorkomen dat AI de mensheid schaadt in een hypothetisch scenario waarin AI de menselijke intelligentie overtreft.

Het debat over existentiële bedreigingen

Eerder dit jaar benadrukten prominente figuren uit de AI-industrie, waaronder leiders van OpenAI, Google en Microsoft, de existentiële risico’s die aan AI verbonden zijn, door deze te vergelijken met pandemieën of kernwapens. Sommige onderzoekers beweren echter dat een dergelijke concentratie op hypothetische catastrofale scenario’s de aandacht afleidt van de huidige schadelijke gevolgen van AI-technologie. Een groeiend aantal AI-bedrijfsleiders pleit voor vooruitgang met de technologische ontwikkeling, waarbij ze beweren dat de risico’s worden overdreven en dat de technologie de samenleving aanzienlijk ten goede kan komen en de winstgevendheid kan stimuleren.

Een evenwichtige aanpak

De CEO van OpenAI, Sam Altman, erkent de langetermijnrisico’s die inherent zijn aan AI, maar benadrukt het belang van het aanpakken van de huidige uitdagingen. Altman is tegen regelgeving die kleinere bedrijven onevenredig zwaar belast en hun vermogen om te concurreren in het snel evoluerende AI-landschap belemmert.

Risico’s beperken met deskundige samenwerking

Aleksander Madry, een gewaardeerd AI-onderzoeker en directeur van MIT’s Center for Deployable Machine Learning, sloot zich dit jaar aan bij OpenAI. Ondanks recente veranderingen in het leiderschap spreekt Madry zijn vertrouwen uit in de inzet van het bedrijf om AI-risico’s te onderzoeken. OpenAI is actief betrokken bij discussies met organisaties als de National Nuclear Security Administration om uitgebreide onderzoeken naar AI-risico’s mogelijk te maken. Bovendien belooft OpenAI externe “gekwalificeerde, onafhankelijke derde partijen” toe te staan ​​zijn technologie te beoordelen en rigoureuze tests uit te voeren die verder gaan dan het standaardonderzoek dat online beschikbaar is. Bij het aankaarten van standpunten die de ontwikkeling van AI polariseren als versnellend of vertragend, benadrukt Madry de oversimplificatie van dergelijke debatten, waarbij hij pleit voor een meer genuanceerde benadering van de vooruitgang van AI.


Geplaatst

in

door

Tags: