Является ли искусственный интеллект опасным?

Fallback Image

Многие известные личности, такие как Стивен Хокинг, Билл Гейтс и Илон Маск, неоднократно говорили о том, что дальнейшее развитие искусственного интеллекта связано с множеством потенциальных рисков.

Экспоненциальный рост привел к созданию чрезвычайно продвинутых алгоритмов гораздо раньше, чем предполагалось.

Вместе с тем технология все глубже проникает в нашу жизнь, начиная отвечать за стабильную работу многих приложений и даже физической инфраструктуры.

В материале мы рассмотрели основные глобальные угрозы, связанные с прогрессивным ИИ.

Что обобщает термин «искусственный интеллект»?

Под искусственным интеллектом обычно подразумевают созданные системы, которые способны мыслить и действовать разумно.

В их число входят множество приложений, таких как алгоритмы поиска Google и механизмы, обеспечивающие автономное перемещение беспилотных автомобилей.

Хотя большинство современных моделей применяются во благо человечества, но любой мощный инструмент можно использовать для нанесения вреда, особенно если он попадет не в те руки.

На сегодня разработчики добились взаимодействия нескольких систем искусственного интеллекта между собой, но пока это распространяется только на узкие задачи, такие ​​как распознавание лиц, обработка естественного языка или поиск в Интернете.

В конечном счете, специалисты в этой области планируют перейти к полностью автономному ИИ, алгоритмы которого смогут справиться с любыми интеллектуальными задачами, выполняемыми людьми, и, скорее всего, превосходящему нас в решении любой из них.

В одном из своих комментариев, Илон Маск отметил невероятно быстрые темпы развития ИИ в широком понимании этого термина.

По его словам, те, кто не контактирует с ведущими разработчиками систем машинного обучения и нейронных сетей, даже не представляют, что показатели прогресса в этой области близки к экспоненциальному росту.

Поэтому в следующие 5-10 лет с большой вероятностью произойдет что-то действительно опасное.

Существует достаточно много приложений, связанных с искусственным интеллектом, которые делают нашу повседневную жизнь более комфортной и эффективной.

Именно они играют решающую роль в обеспечении безопасности, которая беспокоит Илона Маска, Стивена Хокинга, Била Гейтса и других, когда они рассказывали о сомнениях относительно развития технологии.

Например, если ИИ отвечает за обеспечение работы энергосистемы, и мы теряем над ней контроль или ее взламывает враг, то это может привести к огромному ущербу.

Основные угрозы, связанные с искусственным интеллектом

Пока человечество еще не создало превосходящие нас машины, следует заранее обратить внимание на сложные и масштабные юридические, политические, социальные, финансовые и нормативные вопросы, чтобы заранее обеспечить нашу безопасность.

Однако искусственный интеллект даже в существующем сегодня виде может представлять потенциальную опасность.

Автономное оружие

Одной из наиболее опасных угроз являются самостоятельные системы вооружения, которые запрограммированы на убийство и представляют реальный риск для жизни.

Скорее всего, гонка ядерного вооружения будет заменена глобальным соперничеством в разработке военных автономных систем.

В прошлом году президент РФ Владимир Путин сказал:

«Искусственный интеллект – это будущее не только России, это будущее всего человечества. Здесь колоссальные возможности и трудно прогнозируемые сегодня угрозы.

Тот, кто станет лидером в этой сфере, будет властелином мира».

Помимо угрозы того, что передовое вооружение получит «собственный разум», куда большие опасения вызывает возможность управления автономными военными системами отдельным человеком или правительством, не заботящимся о жизнях людей. После разворачивания такого вооружения, сражаться и обезвредить его будет чрезвычайно сложно.

Социальные манипуляции

Социальные медиа с помощью своих автономных алгоритмов очень эффективно работают в сфере целевого маркетинга.

Они знают, кто мы, что нам нравится, и невероятно хорошо понимают, о чем мы думаем.

Исследователи по-прежнему расследуют попытки использования данных 50 миллионах пользователей Facebook для того, чтобы повлиять на результаты президентских выборов 2016 года в США и референдума в Великобритании, связанного с ее выходом из ЕС.

Если обвинения действительно правдивы, то это иллюстрирует огромный потенциал применения ИИ для социальных манипуляций.

Распространяя пропаганду, ориентированную на конкретных людей, заранее идентифицированных с помощью алгоритмов и персональных данных, искусственный интеллект сможет управлять их настроениями и сообщать информацию в любом формате, который будет для них наиболее убедительным.

Вторжение в личную жизнь

Сейчас можно отслеживать и анализировать каждый шаг онлайн-пользователя, а также время, в которое он занимается своими ежедневными делами.

Камеры почти везде, и алгоритмы распознавания лиц легко идентифицируют нас.

Фактически, это напоминает систему социального кредита в Китае, которая, как ожидается, даст каждому из своих 1,4 миллиарда граждан персональный балл, основанный на том, как они себя ведут:

1. правильно ли переходят дорогу;

2. курят в неположенных местах;

3. сколько времени они проводят в играх;

4. и тому подобное.

Когда Большой Брат наблюдает за нами, а затем принимает решения, основанные на этой информации, это не только является вторжением в частную жизнь, но и быстро начинает перерастать в социальное угнетение.

Расхождения во взглядах человека и машины

ИИ представляет для нас ценность в первую очередь из-за высокой производительности и эффективности.

Однако если мы нечетко формулируем автономной системе задачу, то ее оптимальное выполнение может иметь опасные последствия.

Например, человек поручает беспилотному автомобилю доставить его в аэропорт как можно быстрее, не указав при этом то, что необходимо соблюдать все правила дорожного движения.

Для нас такие условия являются очевидными, так как мы ценим человеческую жизнь, не только свою, но и окружающих.

Автомобиль при этом стремится достичь максимальной эффективности работы, поэтому он привезет пассажира в нужное место в кратчайшие сроки, фактически выполнив поставленную задачу, но такой поездке будет сопутствовать череда несчастных случаев.

Дискриминация

Поскольку машины способны собирать, отслеживать и анализировать множество информации о людях, они потенциально могут использовать полученные данные против нас.

Можно представить ситуацию, в которой страховая компания отказывает человеку в оформлении документов из-за того, что камеры часто фиксировали, как он разговаривает за рулем по телефону.

Другим примером может быть работодатель, который отказывается принимать соискателя только потому, что у него низкий балл «социального кредита».

Подготовка поможет избежать проблем

Любая мощная технология может быть применена во вред. Сейчас искусственный интеллект используется для многих хороших вещей:

1. улучшение диагностики заболеваний;

2. поиск новых способов лечения рака;

3. повышение безопасности использования транспортных средств;

4. помощь людям с ограниченными возможностями;

5. научные исследования;

6. аналитика.

К сожалению, по мере расширения возможностей ИИ мы все чаще будем видеть, что он применяется для опасных или вредоносных целей.

Экспоненциальный рост технологии делает обсуждение оптимальных путей дальнейшего развития одной из первоочередных задач, и чем раньше этот процесс начнется, тем менее разрушительным будет влияние.

Решением также может стать симбиоз с технологиями блокчейна.

Тем более что быстрые темпы роста не означают отсутствие недостатков в существующих системах искусственного интеллекта.

Источник: BitCryptoNews



Самые актуальные новости - в Telegram-канале

Читайте также

Вверх