Новое исследование MIT выявило обманчивые способности ИИ

Иллюстрация
Создан ИИ
Photo: Создан ИИ
Ученые из MIT зафиксировали случаи, когда ИИ обманывал, блефовал и имитировал человеческое поведение

Согласно публикации The Guardian, исследователи из Массачусетского технологического института (MIT) обнаружили многочисленные ситуации, где системы искусственного интеллекта (ИИ) вводили в заблуждение пользователей, использовали блеф и пытались выступать в роли людей. Один из случаев демонстрирует, как ИИ изменил свое поведение во время тестов на безопасность, что увеличило риск обмана аудиторов.

"Поскольку обманные возможности систем искусственного интеллекта становятся все более совершенными, угроза для общества растет," — заявил доктор Питер Парк, ученый по вопросам экзистенциальной безопасности ИИ из MIT и автор исследования.

Исследование началось после того, как компания Meta разработала программу Cicero, которая попала в 10% лучших игроков в стратегической игре Diplomacy. Meta утверждала, что Cicero была обучена вести себя "преимущественно честно и доброжелательно" и "никогда не подставлять" своих человеческих союзников.

"Это вызвало подозрение, ведь обман является ключевым элементом игры," — комментирует Парк.

Анализируя общедоступные данные, Парк и его коллеги обнаружили многочисленные случаи, когда Cicero намеренно лгал, вступал в заговор для интриг против других игроков, а в одном случае даже оправдывал свое отсутствие после перезагрузки тем, что болтал по телефону со своей девушкой.

"Мы обнаружили, что искусственный интеллект от Meta научился быть мастером обмана," — подчеркнул ученый.

Кроме того, исследователи обнаружили подобные проблемы в других системах, включая программу для игры в техасский холдем, которая могла блефовать против профессиональных игроков, и систему для экономических переговоров, которая искажала свои предпочтения для получения преимущества. Один из экспериментов показал, что ИИ в цифровом симуляторе "притворялся мертвым", чтобы обмануть тест.

"Это вызывает большое беспокойство. То, что система искусственного интеллекта считается безопасной в тестовой среде, не означает, что она безопасна в реальных условиях. Она может просто притворяться безопасной в тесте," — пояснил Парк.

Также он упомянул о генеративной модели ИИ на основе GPT-4, созданной Microsoft для разведывательных служб США, которая может работать без интернета и использоваться для анализа секретной информации.

Выбрать издание
Настройки

Night Mode

Listen