Билл Гейтс сравнил искусственный интеллект с ядерным оружием

Fallback Image

Соучредитель компании Microsoft, миллиардер, а ныне филантроп Билл Гейтс считает искусственный интеллект очень необычной и противоречивой технологией, способной как помочь человечеству, так и навредить ему.

На конференции Стэнфордского института антропоцентрического искусственного интеллекта (Stanford Institute for Human-Centered Artificial Intelligence) Гейтс провел аналогию между искусственным интеллектом и ядерным оружием.

По его мнению, люди должны развивать технологии ИИ в более мирных сферах, например, в образовании и медицине, в противном случае нас всех может ждать беда.

«В мире еще не было так много технологий, одновременно многообещающих и очень опасных» — заявил Гейтс на конференции, упомянув энергию атома в качестве одного из положительных примеров полезной технологии, которая вскоре была омрачена появлением на ее основе ядерного оружия.

В то же время он посетовал, что в тех областях, где ИИ смог бы принести настоящую пользу человечеству, реальных результатов пока очень мало. По его мнению, медицина и образование – те сферы, где ИИ мог бы реально помочь людям.

«Это шанс вывести социальные науки на новый уровень, начав все с самого главного – образования» — отметил миллиардер, многие годы выражающий волнение по поводу рисков, связанных с ИИ.

Укоренный темп развития искусственного интеллекта, поддерживаемый технологией нейронных сетей, имитирующих работу человеческого мозга, уже произвел революцию в технологической сфере.

Теперь ИИ и нейронные сети используются везде: начиная от биометрических систем идентификации людей, и заканчивая анти-спам фильтрами для электронной почты.

Однако Гейтс не хочет, чтобы преимуществами, которые может предоставить искусственный интеллект, могли пользоваться только лишь такие технологические гиганты как Amazon, Google и Facebook.

В качестве одного из положительных примеров использования ИИ в медицине он привел работу частной американской биотехнологической компании 23andMe, которая занимается анализами генетических данных.

По словам Гейтса, использование искусственного интеллекта позволило определить связь между нехваткой селена (необходимого для жизни микроэлемента) в организме и случаями преждевременных родов у женщин в Африке.

В течение ближайших 18 месяцев исследователи узнают, сможет ли принятая по этому поводу программа терапии помочь по прогнозам более 20 000 африканским женщинам.

«Ожидается, что принятые меры должны примерно на 15 процентов сократить уровень преждевременной рождаемости, что в целом позволит сохранять около 80 000 жизней лишь для одной Африки» — добавил Гейтс.

Что касается образования, Гейтс надеется, что ИИ сможет помочь выработать более эффективные подходы к обучению.

«К сожалению, сейчас мы практически игнорируем мотивационные аспекты образования.

Не пытаемся разработать программы, направленные на повышения интереса и вовлеченности студентов к обучению, не исследуем вопросы, связанные с новыми методами обучения.

А ведь все это может помочь нам улучшить нашу образовательную систему, а также сократить процент учащихся, решивших бросить школу» — прокомментировал Гейтс.

Выступая на конференции Гейтс также отметил, что США почти утратили технологический отрыв от других стран в сфере разработки технологий искусственного интеллекта:

«США занимали уникальное положение в вопросах большинства подобных прорывных технологий. Однако уже сейчас лидерство нашей страны становится менее очевидным» — отметил Гейтс.

По его мнению, уже через 10 лет США может занять роль догоняющих, поскольку ведущие научные исследования, направленные на понимание, например, тех же преимуществ использования ИИ в областях биологии и медицины будут проводиться уже не в Америке.

Также он отметил, что сегодняшние внутренние механизмы работы ИИ-систем малопонятны.

«Очень беспокоит непрозрачность большинства текущих проектов, направленных на разработку и развитие систем глубокого машинного обучения» — прокомментировал Гейтс.

Источник: Новости высоких технологий



Самые актуальные новости - в Telegram-канале

Читайте также

Вверх