Искусственный интеллект OpenAI обманули рукописными заметками

Исследователи компании OpenAI, работающие над алгоритмом GPT-3, обнаружили, что искусственный интеллект можно легко обмануть, используя для этого всего лишь блокнот и ручку. Об этом рассказало издание The Verge.

Эксперимент

Чтобы заставить программу неправильно идентифицировать предмет, ученые приклеили на объект бумажку с неверной подписью. Явление назвали «типографской атакой».

Как отметили в компании, это может представлять реальную опасность для систем, полагающихся на машинное зрение. К примеру, таким способом можно обмануть ПО в автомобилях Tesla — разместив на дороге обманчивые наклейки, электрокар сможет без предупреждения поменять полосу движения. Это также может нести серьезную угрозу для множества приложений, в которых используется искусственный интеллект.

Однако, в данном случае не о чем беспокоиться, уточняют исследователи. Речь идет об экспериментальной системе CLIP, которая еще не используется ни в одном коммерческом продукте.

CLIP предназначен для изучения того, как системы искусственного интеллекта учатся определять объекты из баз данных, состоящих из большого количества пар изображение-текст. Согласно исследованиям, связанным с данным алгоритмом, системы компьютерного зрения усваивают знания таким же способом, как это делают люди. В будущем это может привести к созданию более сложных систем ИИ, но сейчас такие подходы находятся на начальном этапе разработки. 

Интересно также и то, как CLIP реагирует на подписать «$$$» — если любой предмет подписать таким образом, ИИ определит его как копилку.

Напомним, ранее алгоритм GPT-3 научили писать курсовые за 20 минут.

Источник: ain.ua

Читайте также

Вверх