cunews-openai-bolsters-preparedness-against-risks-of-ai-weapons-and-biases

OpenAI повышает готовность к рискам применения ИИ-оружия и предубеждений

Команда обеспечения готовности

Под руководством профессора искусственного интеллекта Массачусетского технологического института Александра Мадри компания OpenAI создала специальную команду под названием «Готовность». Эта команда, состоящая из исследователей искусственного интеллекта, компьютерных ученых, экспертов по национальной безопасности и специалистов по политике, будет постоянно отслеживать и тестировать технологию OpenAI. Он играет решающую роль в выявлении и предупреждении компании, если какая-либо из ее систем искусственного интеллекта демонстрирует потенциально опасное поведение. Группа готовности работает вместе с существующей командой OpenAI по системам безопасности, которая занимается решением таких проблем, как внедрение предвзятых алгоритмов в ИИ, и командой Superalignment, которая исследует предотвращение причинения ИИ вреда человечеству в гипотетическом сценарии, когда ИИ превосходит человеческий интеллект.

Дебаты об экзистенциальных угрозах

Ранее в этом году видные деятели индустрии ИИ, в том числе руководители OpenAI, Google и Microsoft, подчеркивали экзистенциальные риски, связанные с ИИ, сравнивая их с пандемиями или ядерным оружием. Однако некоторые исследователи утверждают, что такая концентрация на гипотетических катастрофических сценариях отвлекает внимание от текущих вредных последствий технологий ИИ. Все больше лидеров бизнеса в области искусственного интеллекта выступают за дальнейшее развитие технологий, утверждая, что риски преувеличены и что технология может принести значительную пользу обществу, а также повысить прибыльность.

Сбалансированный подход

Генеральный директор OpenAI Сэм Альтман признает долгосрочные риски, присущие ИИ, но подчеркивает важность решения текущих проблем. Альтман выступает против регулирования, которое непропорционально обременяет небольшие компании и ограничивает их конкурентоспособность в быстро развивающейся среде искусственного интеллекта.

Снижение рисков с помощью сотрудничества экспертов

Александр Мадри, уважаемый исследователь искусственного интеллекта и директор Центра развертываемого машинного обучения Массачусетского технологического института, присоединился к OpenAI в этом году. Несмотря на недавние изменения в руководстве, Мэдри выражает уверенность в приверженности компании расследованию рисков ИИ. OpenAI активно участвует в обсуждениях с такими организациями, как Национальное управление ядерной безопасности, чтобы способствовать всесторонним исследованиям рисков ИИ. Кроме того, OpenAI обязуется разрешить внешним «квалифицированным независимым третьим сторонам» оценивать ее технологию и проводить тщательное тестирование, выходящее за рамки стандартных исследований, доступных в Интернете. Обращаясь к точкам зрения, разделяющим развитие ИИ как на ускорение, так и на замедление, Мэдри подчеркивает чрезмерное упрощение таких дебатов, выступая за более детальный подход к развитию ИИ.


Опубликовано

в

от

Метки: