Опровергая мифы и реальность искусственного интеллекта

Fallback Image

Вступление

Несколько лет назад было трудно найти кого-то, кто мог бы серьезно поговорить об искусственном интеллекте (ИИ) за пределами академических учреждений.

Сегодня почти все говорят об ИИ. Как и любая новая крупная технологическая тенденция, новая волна превращения ИИ и интеллектуальных систем в реальность вызывает любопытство и энтузиазм.

Люди прыгают на его подножке, добавляя не только отличные идеи, но и во многих случаях множество ложных обещаний и иногда вводящих в заблуждение мнений.

Созданный гигантскими мыслителями и научными исследователями, внедрение ИИ в отрасли и дальнейшее развитие в академических кругах по всему миру продвигается быстрее, чем кто-либо ожидал.

Ускоряется твердое убеждение, что наши биологические ограничения становятся все более серьезным препятствием на пути создания интеллектуальных систем и машин, которые работают с нами, чтобы лучше использовать наши биологические когнитивные возможности для достижения более высоких целей.

Это приводит к огромной волне требований и инвестиций в различных отраслях промышленности для применения технологий искусственного интеллекта для решения реальных проблем и создания более совершенных машин и новых предприятий.

За последние десятилетия ИИ преодолел множество препятствий, главным образом в академической сфере.

Тем не менее, в настоящее время он сталкивается с одной из своих основных проблем, которая заключается в принятии в реальных промышленных сценариях и в мифах и недоразумениях, связанных с ним.

К сожалению, из-за запутанных и противоречивых сообщений о том, что ИИ может и не может сделать, лидерам отрасли сложно отличить факты от вымысла в быстро переполненной и шумной экосистеме энтузиастов, поставщиков платформ и поставщиков услуг.

Однако, как только пыль осядет и все проясняется, истина ИИ будет существовать, в конечном итоге будут объявлены проигравшие и победители.

Задача состоит в том, чтобы лидеры отрасли могли иметь реалистичное мнение о том, что ИИ может и не может сделать для своего бизнеса, и постоянно обновлять его, чтобы они могли убедить свои организации правильно применять ИИ для решения реальных проблем и трансформировать свои проблемы. бизнес.

Кроме того, ученые и практики ИИ обязаны вырваться из своего пузыря и взаимодействовать с отраслевыми экспертами, чтобы иметь возможность дополнительно развивать академические основы ИИ таким образом, чтобы сделать его принятие в реальном мире более быстрым, более полезным и ответственным.

Текущее «грязное» состояние внедрения ИИ в промышленности

В течение последних нескольких лет бизнес-лидеры практически всех отраслей пытались понять новую магическую технологию, называемую искусственный интеллект (ИИ), и узнать, как ее бизнес может извлечь из этого пользу.

К сожалению, до настоящего времени большинство реализаций решений на базе AI не выходили за рамки Proof of Concepts (PoC) в виде алгоритмов рассеянного машинного обучения (ML) с ограниченной областью действия.

Хотя этот уровень и подход к внедрению ИИ тратят много возможностей и ресурсов для компаний, он помог убедить лидеров бизнеса и ИТ-специалистов в том, что искусственный интеллект может стимулировать преобразование и соответствующие инновации.

Многие проекты PoC сегодня используют в основном простые статистические методы, чтобы добавить некоторые простые возможности прогнозирования или классификации в свои аналитические решения и называть это решениями AI.

Это по-прежнему определяется как аналитика или, возможно, продвинутая аналитика, которая все еще нуждается во всестороннем вмешательстве человека в понимание результата и принятия решения или действия.

Поскольку бизнес-процессы и условия работы постоянно меняются, вновь созданные данные и постоянные изменения в различных бизнес-факторах снижают уровень точности и ценность, которую такие алгоритмы могут предложить, делая их со временем бесполезными или даже приводя к опасным решениям.

Такой подход и его результаты являются еще одной частью разочаровывающей реальности, которая вводит в заблуждение бизнес-лидеров и мешает правильному внедрению сложных технологий ИИ надлежащим образом для получения ценных результатов.

Нынешний подход к попыткам втиснуть несколько алгоритмов машинного обучения (ML) в некоторых сферах бизнеса для быстрой выгоды сам по себе является риском и может вызвать неудачу в принятии ИИ во всех отраслях, что вызовет еще одну «зиму ИИ» на этот раз на стороне отрасли, а не на академическая сторона.

Применение даже зрелых технологий ИИ таким способом может добавить некоторые ценности, но может добавить новую опасную «искусственную глупость» для организации с катастрофическими последствиями.

В течение следующих лет компании не могут позволить себе по-прежнему принимать замешательство и нерешительность в отношении того, что ИИ может и не может делать, как его можно интегрировать с другими технологиями для создания интеллектуальных решений или машин и где его можно применять соответствующим образом.

В следующих нескольких разделах я остановлюсь на некоторых из существующих мифов и недоразумений, которые омрачают реальность ИИ и препятствуют его правильному принятию.

Я также поделюсь некоторыми идеями о том, как их преодолеть, чтобы ускорить внедрение ИИ в реальном мире и снизить риски для бизнеса и общества.

Проклятие рассеянных алгоритмов ML

За последние несколько лет некоторые мотивированные бизнес-лидеры начали инициативы ИИ самостоятельно и в рамках своих бизнес-областей, используя библиотеки ML с открытым исходным кодом, сосредоточенные на нескольких ключевых решениях для оптимизации.

Эти усилия обычно не были частью организованного плана всей компании.

В то время как такие усилия добавили некоторые ценности и помогли различным командам получить первый опыт использования возможностей ИИ для решения некоторых бизнес-задач, это привело к разбросу алгоритмов ML во всех организациях.

К сожалению, такие разрозненные алгоритмы ML не полностью раскрывают ценности, скрытые в данных, и не используют ценные бизнес-знания, которыми обладают организации. Кроме того, они добавляют потенциальные риски для компаний.

Некоторые из основных рисков, которые несут рассеянные алгоритмы ML:

1. Алгоритмы могут быть обучены с использованием ограниченного набора функций и данных, что приводит к неправильным или иногда опасным бизнес-решениям как внутри, так и вне бизнес-сферы.

2. Оптимизируя локальные операционные решения, такие алгоритмы могут непреднамеренно негативно повлиять на другие сферы бизнеса или даже глобальные операции.

3. Такие отдельные алгоритмы могут легко манипулироваться и вводить в заблуждение при принятии неправильных решений внутренними или внешними субъектами, добавляя новую большую категорию рисков кибербезопасности.

4. Обучение некоторым алгоритмам машинного обучения может потребовать дорогой вычислительной мощности, что увеличивает расходы малых предприятий.

Во многих случаях это приводило к тому, что бизнес-единицы полностью отказывались от ИИ, основываясь на ложном представлении о высоких затратах на усыновление.

Обычно большинство, если не все бизнес-функциональные и операционные подразделения напрямую связаны между собой. Данные, которые они генерируют, знания, которые они создают, и роли, которых они придерживаются, являются общими и взаимозависимыми.

ИИ может видеть некоторые взаимозависимости и отношения в огромных объемах данных и функций, которые люди обычно не видят.

Это можно использовать для создания надежной платформы данных и знаний, позволяющей межорганизационным распределенным системам искусственного интеллекта преобразовывать рассеянный характер данных, знаний и принятия решений из слабости в основную силу.

Организации должны действовать быстро, чтобы консолидировать все инициативы ИИ и алгоритмы ML на свободе и перевести их на стандартную безопасную платформу ИИ корпоративного уровня в рамках общей стратегии принятия ИИ.

Это позволило бы использовать распределенные, но взаимосвязанные решения ИИ, обеспечивающие интеллектуальность, где решение должно приниматься с максимальной выгодой и преобразующей силой для бизнеса.

Этот шаг также ускорит успешное внедрение ИИ, сократит затраты на усыновление, увеличит рентабельность инвестиций, а также снизит внутренние и внешние риски для компании.

Принятие искусственного интеллекта или создание интеллектуального предприятия?

До тех пор, пока системы ИИ не смогут принимать за нас такие решения, компании должны решить, хотят ли они просто принять ИИ или, в конечном счете, создать интеллектуальное предприятие, для достижения которого потребуется больше, чем просто для принятия ИИ.

Текущие дискуссии о Robotic Process Automation (RPA) и о том, являются ли они частью ИИ, сводят на нет дискуссии о принятии ИИ.

Да, RPA не является частью ИИ, по крайней мере, на основе академического определения ИИ, и не может быть, несмотря на все вводящие в заблуждение громкие маркетинговые голоса.

Нынешняя технология RPA – это не что иное, как простые сценарии, которые, к сожалению, во многих случаях просто автоматизируют текущие бизнес-процессы, накопленные за эти годы, и были разработаны в основном только для людей.

Если все сделано правильно, RPA и Intelligent Process Automation (IPA) будут возможностью изменить дизайн и автоматизировать базовые процессы для новой рабочей силы, где люди и машины будут интеллектуально и более тесно сотрудничать.

Лидеры бизнеса должны иметь планы по созданию интеллектуального предприятия, которое предлагает интеллектуальные продукты и услуги, объединенные с интеллектуальными процессами, предназначенными для совместного использования биологического интеллекта людей и возможностей искусственного интеллекта машин, а не только для автоматизации повторяющихся процессов с целью снижения затрат и принятия некоторых решений, которые они могли бы обойтись без новых технологий.

Некоторые из основных возможностей интеллектуального предприятия заключаются в том, что его продукты, решения и услуги могут разумно использовать коллективные знания, которые они и люди создали, могут постоянно учиться делать что-то лучше и делать что-то новое, а также разумно реагировать постоянно меняющимся условиям и требованиям.

Учитывая артефакты интеллектуального предприятия и быстро растущую сложность внутренней и внешней бизнес-среды, слишком большое количество традиционных вмешательств со стороны человека будет все более серьезным препятствием для достижения цели интеллектуального предприятия.

Это связано с нашими ограниченными биологическими возможностями, такими как даже простые задачи, такие как движение пальцев и глаз.

Поэтому организации должны прекратить тратить время на обсуждение RPA и иметь стратегию и план развития интеллектуального предприятия, который должен включать, среди прочего:

1. Общее видение, а также определение и план для их интеллектуального предприятия, включая продукты, решения и услуги, которые динамически решают, почему, что, как и когда.

2. Дорожная карта для новых Интеллектуальных Процессов, разработанных для Человека + Машины, работающие ближе друг к другу.

3. Стратегия, которая выходит за рамки алгоритмов AI и ML для определения других технологий, которые необходимы для создания комплексных интеллектуальных решений и продуктов, таких как новые технологии обнаружения, интеллектуальные шлюзы IoT, периферийные вычислительные устройства, а также HPC, включая квантовые вычисления.

4. План по созданию необходимой культуры и организационных изменений в способах создания, использования, эксплуатации и обслуживания таких интеллектуальных систем и решений.

5. План по созданию инновационной экосистемы, которая должна стать неотъемлемой частью нового бизнеса, чтобы представлять и предоставлять новые интеллектуальные услуги новым предприятиям и совместным клиентам.

6. Новое определение человеко-машинных интерфейсов (HMI) с учетом нового UI / UX, поддерживаемого технологиями искусственного интеллекта, такими как обработка естественного языка и понимание (NLP / NLU), и усовершенствованным компьютерным зрением, ускоренным технологиями дополненной реальности / расширенной реальности.

Технологии искусственного интеллекта еще не готовы к промышленному внедрению. Это миф?

Нынешний ИИ извлек выгоду из десятилетий серьезных высококачественных научных исследований.

Тем не менее, очевидно, что одним из основных недостатков современных систем искусственного интеллекта является отсутствие опыта реальной жизни, который необходим для того, чтобы сделать его надежно полезным для всех нас.

Когда системы ИИ не дают правильного ответа в начале использования, это обычно не означает, что лежащие в основе алгоритмы ИИ или математические модели недостаточно развиты.

Как и людям, алгоритмы ИИ нуждаются в большем опыте реального мира, который может включать больше данных, созданных в ходе собственных испытаний и ошибок алгоритмов в реальном мире.

Поэтому было бы несправедливо и технически неправильно судить о решениях ИИ на ранних стадиях, пока у них еще нет или мало опыта.

Это одна из самых распространенных ошибок, которые совершаются сегодня, и обычно приводят к разочарованию и недопониманию по поводу зрелости основополагающих моделей ИИ.

Мы должны дать решениям на базе AI время для изучения и тщательной оценки перед их развертыванием на предприятии.

Например, возможности машинного обучения, получившие достаточный практический опыт, такие как компьютерное зрение (CV) и обработка естественного языка (NLP), являются наиболее зрелыми и широко распространенными компонентами ИИ на сегодняшний день.

Они являются когнитивными двигателями многих промышленных и потребительских приложений и продуктов, которые оказывают самое позитивное влияние на бизнес и нашу личную жизнь.

В этом ключевое отличие традиционной аналитики от решений ИИ. В аналитике поставщики программного обеспечения создают программные решения без фактических данных.

Напротив, в решениях ИИ мы используем описание проблемы, фактические данные, знание предметной области и ряд конкретных целей, чтобы иметь возможность создавать, обучать и проверять алгоритмы ОД.

Нет данных, нет алгоритмов! в AI нет готового решения.

Это ключевой сдвиг мышления, который должен произойти немедленно, чтобы избежать этого недоразумения.

Такой сдвиг в мышлении в сочетании с новыми принципами проектирования распределенных интеллектуальных систем, таких как мультиагентные распределенные и взаимосвязанные когнитивные системы, сыграет важную роль в принятии решения, будут ли усилия организации по использованию возможностей ИИ успешными или просто добавят больше разочарования, упущенных возможностей и новых риски.

Кроме того, одна из ключевых возможностей, которые должны иметь AI-системы для каждого проекта, заключается в том, что она должна иметь возможность непрерывного обучения, а также динамически использовать эффективный подход (-ы) обучения с течением времени.

Выбор правильной исходной архитектуры, а также подходов непрерывного обучения, таких как контролируемое, неконтролируемое, усиленное обучение или их комбинация, очень важны для успешного принятия ИИ.

«Обучение на протяжении всей жизни» (LLCL) является сегодня одним из основных и наиболее перспективных направлений исследований ИИ.

Тем не менее, это продолжает оставаться проблемой для современных моделей машинного обучения и нейронных сетей, поскольку постоянное получение новой информации из нестационарных источников данных обычно приводит к катастрофическому забвению ранее полученных знаний или резкому снижению точности.

Несмотря на то, что многое предстоит сделать, чтобы системы ИИ могли постоянно учиться и развиваться в своей среде, большинство современных платформ ИИ от стартапов и известных поставщиков предоставляют мощные инструменты для этого.

Что делает или мешает внедрению ИИ в бизнесе, это не академические методы и алгоритмы ИИ или технологические платформы, построенные на их основе, а то, как мы применяем, проектируем и интегрируем их в бизнес-решения и промышленные продукты.

Слишком многообещающее обещание данных

На сегодняшний день задача состоит в том, чтобы обучать, тестировать и проверять текущие алгоритмы машинного обучения, особенно глубокое машинное обучение, поскольку они требуют много хороших данных.

Более того, последние несколько лет показали, что во многих случаях предприятиям не хватает исторических данных в необходимом качестве и количестве, необходимом для современных подходов к ОД.

Кроме того, данные, которые мы имеем сегодня, были сгенерированы и собраны с учетом людей, их биологических сильных и слабых сторон.

Даже в тех случаях, когда у нас достаточно данных, мы должны приложить огромные усилия в различных областях, таких как разработка данных, анализ данных, разработка функций, выбор функций, прогнозное моделирование, выбор моделей и проверка, прежде чем иметь начальные алгоритмы.

Кроме того, ручная адаптация дизайна и постоянное уточнение внутренней архитектуры алгоритмов первого поколения требует много утомительной и повторяющейся работы и требует огромных вычислительных мощностей, особенно если мы хотим решать серьезные проблемы с постоянной или возрастающей точностью.

Текущие решения «прогнозирующей аналитики» используют простые статистические модели для прогнозирования чего-либо на основе имеющихся исторических данных.

Предполагается, что будущее будет следовать за прошлым в простой и прямой форме.

Предположение, которое во многих случаях оказалось неверным. Например, история отказов промышленного оборудования с точки зрения причин, характера и последствий варьируется, поскольку работники лучше подготовлены, имеют доступ к большему количеству информации и даже имеют лучшие инструменты для тестирования, ремонта и технического обслуживания.

Это вводит в заблуждение части «дорогих» исторических данных.

Наше ограниченное или случайное предвзятое понимание и интерпретация прошлых событий и контекста, в котором эти события произошли, снижают точность решений ИИ для точного прогнозирования сложных событий, которые обычно происходят в реальности, которую мы не можем полностью понять.

Кроме того, среди ученых усиливается предостережение относительно статистического вывода и неправильного использования статистической значимости и «значений P – значения вероятности», которые в некоторых случаях могут привести к катастрофическим последствиям.

Некоторые ученые даже призывают отказаться от концепции статистической значимости, особенно в случае, когда требуется высокоточное прогнозирование.

В конце концов, как видно во многих случаях, мы находим результат не более чем подтверждение заранее определенных решений.

Человеческий мозг изначально был обучен с меньшим количеством данных, но расширен, проверен и постоянно обучался с большим количеством данных, собранных за годы жизненного опыта.

Сегодня алгоритмы ML обучаются с большими объемами данных и тестируются с меньшим количеством данных (~ 70% до 30%).

Следовательно, вместо того, чтобы просто собирать и анализировать огромные объемы данных, системы ИИ должны начинать с простых задач и иметь возможность непрерывно учиться, добавлять больше возможностей, расширять свои знания, расширять свои способности к рассуждению и адаптироваться к своей новой среде с помощью собранных ими данных или синтетически сгенерированный.

Один из ключевых уроков использования ИИ для решения сложных проблем за последние годы заключается в том, что нам нужна новая архитектура систем ИИ, которая опирается на меньшее количество данных и меньший контроль со стороны людей.

Поэтому специалисты по искусственному интеллекту, а также ученые-исследователи выходят за рамки традиционных архитектур машинного обучения и пытаются создать новые алгоритмы ML, которые могут создавать и понимать свои собственные или полученные данные.

Мы видим большой прогресс в некоторых областях ИИ / МЛ, таких как новые биологически вдохновленные математические подходы, более эффективные архитектуры нейронных сетей, генеративные состязательные сети (GAN), многоагентное глубокое усиленное обучение (MADRL) и генетические и эволюционные алгоритмы.

Одна общая цель – уменьшить зависимость ИИ от огромных объемов данных и знаний, созданных людьми.

Кроме того, огромный прогресс в разработке специализированного аппаратного обеспечения AI, такого как GPU, TPU и FPGA, делает возможными такие новые подходы.

Кроме того, включение более эффективных методов представления знаний, таких как эволюционные и коэволюционные модульные многозадачные методы представления знаний, даже с текущими алгоритмами ML, поможет организациям раскрыть больше знаний из тех же или меньшего количества данных.

Внедряются новые мозговые подходы, основанные на человеческом мозге, которые позволяют нам создавать системы, которые со временем могут рассуждать как люди, но без наших биологических ограничений, повышая точность и скорость решений, принимаемых машинами, и избегая катастрофических решений, которые при отсутствии машинного мышления очень возможно.

Хотя созданные человеком данные будут и впредь играть важную роль, особенно на этой ранней стадии внедрения ИИ в промышленности, использование правильного сочетания методов и архитектур ИИ со временем потребует меньше данных и будет использовать больше коллективных знаний компаний для экономии времени и усилия по созданию более безопасных и эффективных бизнес-систем на базе ИИ.

Решения ИИ безопасны по замыслу, правда?

Мы все надеялись, что интеллектуальные решения смогут защитить себя не так, как традиционные программные решения.

Технически возможно, что системы, работающие на AI, могут обнаруживать враждебное поведение и, в некоторых случаях, активно принимать упреждающие меры, чтобы защитить себя.

Сегодня ИИ эффективно используется для улучшения традиционных решений в области кибербезопасности, позволяющих им заблаговременно выявлять или прогнозировать атаки и рекомендовать примитивные удары по конкурирующим системам.

Учитывая сильную зависимость от созданных человеком данных, алгоритмы ML с архитектурой даже глубоких нейронных сетей также могут быть легко введены в заблуждение, чтобы принимать неправильные или даже опасные решения.

Обычно хакеры получают доступ к традиционным программным системам для кражи данных.

Они взламывают промышленные системы управления и вводят их в заблуждение, делая неправильные действия.

Однако ядро ​​систем искусственного интеллекта имеет в основном алгоритмы и не так много данных.

Это создало иллюзию абсолютной безопасности от природы среди некоторых людей, поскольку внутри нечего было воровать.

Однако вместо кражи данных злоумышленники могут снабжать системы искусственного интеллекта неправильными данными, чтобы манипулировать их способностью принимать правильные решения.

Например, злоумышленники могут получить доступ к электронным медицинским записям (EMR), чтобы добавить или удалить медицинские состояния при сканировании МРТ, которые по алгоритму ML приведут к неправильному диагнозу.

То же самое может случиться с финансовыми данными или эксплуатационными данными критического оборудования на АЭС или интеллектуальной сети.

Одной из наиболее продвинутых и многообещающих функций некоторых решений на базе ИИ является способность к непрерывному обучению на основе их собственного поведения, способа, которым мы их используем для решения проблем или принятия решений, а также внешних источников данных, к которым мы предоставляем им доступ.

Даже эта уникальная особенность делает решения для ИИ более уязвимыми для новых типов кибератак, таких как влияние на их поведение того, что они генерируют неправильные учебные данные (опыт), которые приведут к неправильным или необъективным решениям в будущем.

Это все равно что подвергать людей определенному опыту с целью ввести их в заблуждение в определенном направлении.

Так называемые «состязательные примеры» – это наборы данных, предоставляемых системам ИИ с целью ввести их в заблуждение и привести к неправильной классификации и неправильным решениям.

Такой новый тип взлома интеллектуальных цифровых систем создает серьезную уязвимость для безопасности даже самых современных систем глубокого обучения.

Все дело в том, чтобы ввести в заблуждение мозг или отключить костяк коллективного разума организации и даже ее критически важных физических активов.

Это может быть более катастрофическим и может нанести непоправимый ущерб и в некоторых случаях угрожать даже существованию компаний.

Организации должны быть осведомлены об этой новой киберугрозе и рассмотреть новые подходы и инструменты для проектирования, внедрения и защиты цифровых и физических систем на базе AI, а также систем, с которыми они взаимодействуют внутри и снаружи.

Системы ИИ не могут быть предвзятыми. Огромное недоразумение!

В настоящее время одной из наиболее часто обсуждаемых тем является этика и предубеждения ИИ.

Поскольку мы используем данные, сгенерированные людьми на основе правил, которые мы создали, для обучения алгоритмам машинного обучения сегодня, эти данные будут напрямую отражать то, как мы думаем и подходим к вещам.

Эти данные будут определять поведение каждого алгоритма.

Во многих случаях, таких как диагностика медицинских изображений, прогнозирование отказа оборудования или оптимизация производительности, этика и социальная предвзятость могут не являться частью проблемы, которую необходимо решить.

Это создает еще одно недопонимание того, что проблема предвзятости ИИ в таких случаях неактуальна, поэтому многие ошибочно полагают, что алгоритмы не являются предвзятыми.

В таких случаях многие компании не знают, что алгоритмы ОД могут представлять высокий риск и даже юридическое бремя для организаций.

Хотя очень важно устранить социальную предвзятость в данных, которые мы используем для обучения алгоритмов ML, и проверить их поведение, компании должны понимать, что существуют разные типы предубеждений в отношении ИИ, и знать о них.

Например, мы обычно используем технические данные конкретного оборудования в сочетании с другими эксплуатационными данными и данными об окружающей среде для обучения алгоритмам ML, которые могут заранее прогнозировать отказ оборудования или направлять нас к тому, как повысить его производительность.

В некоторых ситуациях из-за многих известных и неизвестных переменных алгоритмы смещены в сторону прогнозирования большего количества сбоев или меньшего количества сбоев, приводящих к серьезным сбоям в бизнесе.

Предвзятость ИИ должна определяться и определяться на основе проблем, которые мы пытаемся решить, или решений, которые мы пытаемся принять.

Мы должны разработать новые методы и инструменты, которые позволят нам выявить предвзятости, используя адекватные рассуждения людей и машин, основываясь на соответствующих деловых и технических знаниях.

Этика, подотчетность и управление системами ИИ являются одной из важнейших ролей лидерства в эпоху ИИ, и они должны активно участвовать в информировании, обеспечении руководства и повышении осведомленности в рамках всей организации.

До тех пор, пока у нас не будут правила AI или назначенные правительством регулирующие органы, компании должны обеспечивать, чтобы их системы AI работали, по крайней мере, с использованием тех же стандартов и правил, которые они используют для ведения своего бизнеса каждый день.

Это особенно важно в серьезных приложениях ИИ, которые охватывают цифровые и физические системы.

Заключение

Компании должны тщательно разработать всеобъемлющую и динамичную стратегию ИИ и немедленно начать адекватные инициативы по выполнению, чтобы подготовиться к новой эре многих интеллектуальных вещей, основанных на ИИ.

Эта стратегия, направленная на интеллектуальное предпринимательство, поможет в создании новой рабочей силы Man + Machine будущего и переосмыслении их общего бизнеса.

Это срочно необходимо, прежде чем новые интеллектуальные продукты, решения или услуги от гораздо меньших новых разрушителей станут реальной угрозой не только для их бизнеса, но и для самого их существования.

Это потребует от руководства бизнеса и ИТ-специалистов реалистичного и точного представления о том, что ИИ может и не может делать сейчас и в ближайшем будущем.

Кроме того, наличие у кого-либо значительного академического и практического опыта в области ИИ, ведущего такие инициативы, поможет организациям преодолеть ажиотаж и избежать дорогостоящих недоразумений и вводящих в заблуждение мифов.

Интеллект не может быть централизованным, он должен быть распределен и не ограничиваться несколькими функциональными областями.

Гибридный и сбалансированный подход встроенного, периферийного и централизованного интеллекта должен рассматриваться заранее, чтобы гарантировать хорошо организованный рост коллективного интеллекта организации во всех командах, функциональных областях, продуктах и ​​услугах.

Самое важное, что внедрение ИИ и других связанных с этим технологий в интеллектуальное предприятие приблизит более производительные и расширенные человеческие и интеллектуальные машины к созданию мощной рабочей силы будущего.

Компании должны понимать, что люди и машины будут оставаться двумя столпами новой рабочей силы, и разумно планируют использовать свои объединенные силы и понимать свои ограничения биологического и искусственного характера.

 

Подписывайтесь на наш Telegram канал

Читайте также

Вверх