cunews-openai-bolsters-preparedness-against-risks-of-ai-weapons-and-biases

OpenAI stärkt die Abwehrbereitschaft gegenüber den Risiken von KI-Waffen und Vorurteilen

Das Vorbereitungsteam

Unter der Leitung von MIT-KI-Professor Aleksander Madry hat OpenAI ein engagiertes Team namens „Preparedness“ gegründet. Dieses Team besteht aus KI-Forschern, Informatikern, nationalen Sicherheitsexperten und Politikexperten und wird die Technologie von OpenAI kontinuierlich überwachen und testen. Es spielt eine entscheidende Rolle bei der Identifizierung und Alarmierung des Unternehmens, wenn eines seiner KI-Systeme potenziell gefährliches Verhalten zeigt. Das Preparedness-Team arbeitet mit dem bestehenden Safety Systems-Team von OpenAI zusammen, das sich auf die Behebung von Problemen wie der Einbettung voreingenommener Algorithmen in die KI konzentriert, und mit dem Superalignment-Team, das untersucht, wie verhindert werden kann, dass KI der Menschheit in einem hypothetischen Szenario schadet, in dem KI die menschliche Intelligenz übertrifft.

Die Debatte über existenzielle Bedrohungen

Anfang des Jahres betonten prominente Persönlichkeiten der KI-Branche, darunter Führungskräfte von OpenAI, Google und Microsoft, die mit KI verbundenen existenziellen Risiken und verglichen sie mit Pandemien oder Atomwaffen. Einige Forscher argumentieren jedoch, dass eine solche Konzentration auf hypothetische Katastrophenszenarien die Aufmerksamkeit von den aktuellen schädlichen Folgen der KI-Technologie ablenkt. Eine wachsende Zahl von KI-Unternehmensführern plädiert dafür, die Technologieentwicklung voranzutreiben, und behauptet, dass die Risiken überbewertet werden und die Technologie der Gesellschaft erheblichen Nutzen bringen und die Rentabilität steigern kann.

Ein ausgewogener Ansatz

Der CEO von OpenAI, Sam Altman, erkennt die mit KI verbundenen langfristigen Risiken an, betont jedoch, wie wichtig es ist, die aktuellen Herausforderungen anzugehen. Altman lehnt Vorschriften ab, die kleinere Unternehmen unverhältnismäßig belasten und ihre Wettbewerbsfähigkeit in der sich schnell entwickelnden KI-Landschaft beeinträchtigen.

Risikominderung durch Expertenzusammenarbeit

Aleksander Madry, ein angesehener KI-Forscher und Direktor des Center for Deployable Machine Learning des MIT, ist dieses Jahr OpenAI beigetreten. Trotz der jüngsten Veränderungen in der Führung zeigt sich Madry zuversichtlich in das Engagement des Unternehmens bei der Untersuchung von KI-Risiken. OpenAI führt aktiv Gespräche mit Organisationen wie der National Nuclear Security Administration, um umfassende Studien zu KI-Risiken zu ermöglichen. Darüber hinaus verpflichtet sich OpenAI, externen „qualifizierten, unabhängigen Dritten“ die Bewertung seiner Technologie und die Durchführung strenger Tests zu ermöglichen, die über die online verfügbare Standardforschung hinausgehen. Bei der Auseinandersetzung mit Standpunkten, die die KI-Entwicklung als entweder beschleunigend oder verlangsamend polarisieren, betont Madry die übermäßige Vereinfachung solcher Debatten und plädiert für einen differenzierteren Ansatz für den KI-Fortschritt.


Beitrag veröffentlicht

in

von

Schlagwörter: