cunews-openai-bolsters-preparedness-against-risks-of-ai-weapons-and-biases

OpenAI підвищує готовність проти ризиків зброї штучного інтелекту та упереджень

Команда підготовки

Під керівництвом професора ШІ Массачусетського технологічного інституту Олександра Мадрі OpenAI створив спеціальну команду під назвою «Готовність». Ця команда, до складу якої входять дослідники штучного інтелекту, комп’ютерники, експерти з національної безпеки та професіонали з питань політики, буде постійно контролювати та тестувати технологію OpenAI. Він відіграє вирішальну роль у ідентифікації та попередженні компанії, якщо будь-яка з її систем ШІ демонструє потенційно небезпечну поведінку. Команда підготовки працює разом із існуючою командою систем безпеки OpenAI, яка зосереджується на пом’якшенні проблем, як-от вбудовування упереджених алгоритмів у штучний інтелект, і групою супервирівнювання, яка досліджує, як запобігти штучному інтелекту від заподіяння шкоди людству в гіпотетичному сценарії, коли штучний інтелект перевершує людський інтелект.

Дебати про екзистенціальні загрози

На початку цього року видатні діячі індустрії штучного інтелекту, зокрема лідери OpenAI, Google і Microsoft, наголошували на ризиках існування, пов’язаних із штучним інтелектом, порівнюючи їх із пандеміями чи ядерною зброєю. Однак деякі дослідники стверджують, що така концентрація на гіпотетичних катастрофічних сценаріях відволікає увагу від поточних шкідливих наслідків технології ШІ. Дедалі більше бізнес-лідерів штучного інтелекту виступає за просування вперед у розвитку технологій, стверджуючи, що ризики перебільшені, а технологія може значно принести користь суспільству, а також підвищити прибутковість.

Збалансований підхід

Генеральний директор OpenAI Сем Альтман визнає довгострокові ризики, притаманні штучному інтелекту, але наголошує на важливості вирішення сучасних проблем. Альтман виступає проти нормативних актів, які непропорційно обтяжують невеликі компанії та перешкоджають їхній конкурентоспроможності в умовах штучного інтелекту, що швидко розвивається.

Зменшення ризиків за допомогою експертної співпраці

Олександер Мадрі, шановний дослідник ШІ та директор Центру розгортання машинного навчання Массачусетського технологічного інституту, приєднався до OpenAI цього року. Незважаючи на нещодавні зміни в керівництві, Мадрі висловлює впевненість у відданості компанії розслідуванню ризиків ШІ. OpenAI активно бере участь у дискусіях з такими організаціями, як Національне управління ядерної безпеки, щоб сприяти комплексним дослідженням ризиків ШІ. Крім того, OpenAI зобов’язується дозволити зовнішнім «кваліфікованим, незалежним третім сторонам» оцінювати її технологію та проводити ретельне тестування, окрім стандартних досліджень, доступних в Інтернеті. Розповідаючи про точки зору, які поляризують розробку штучного інтелекту як прискорення або сповільнення, Мадрі наголошує на надмірному спрощенні таких дебатів, виступаючи за більш тонкий підхід до розвитку штучного інтелекту.


Posted

in

by

Tags: