Топ-7 ошибок при внедрении систем ИИ и машинного обучения
News | 01.07.2021
Согласно отчету IDC, организации потратят 327,5 миллиарда долларов в 2021 году на системы искусственного интеллекта (ИИ), но не все инвестиции в ИИ и машинное обучение принесут желаемые результаты.
Узнайте, какие практические ошибки допускают организации при приобретении, проектировании или внедрении систем искусственного интеллекта и машинного обучения.
1) Незнание аспектов безопасности и конфиденциальности ИИ на этапе проектирования.
Для правильного внедрения системы искусственного интеллекта требуется, по крайней мере, такой же уровень моделирования киберугроз и превентивного контроля безопасности, что и для любой корпоративной системы. Как правило, киберпреступники быстро находят самое слабое звено корпоративной защиты и наносят удар по нему. Более того, особое внимание следует уделять аспектам соответствия и нормативным требованиям, когда система ИИ использует регулируемые данные при обучении или предназначена для обработки или иного обращения с корпоративной коммерческой тайной. Оценка воздействия на конфиденциальность на этапе проектирования всегда рекомендуется, чтобы гарантировать, что система искусственного интеллекта не нарушит существующие законы о конфиденциальности, которые могут ограничивать или запрещать автоматическое принятие решений.
Официальный документ Huawei по безопасности искусственного интеллекта указывает на то, что одним из ключевых различий между уязвимостями безопасности в традиционном программном обеспечении и решениями, основанными на искусственном интеллекте, является плохая объяснимость последних. Недостаток объяснимости может быть успешно использован для того, чтобы повлиять на исходную систему ИИ и ввести ее в заблуждение.
Так, когда данные обучения ИИ поступают из внешних источников, злоумышленники могут незаметно внедрить вредоносные данные в данные обучения и манипулировать системой ИИ.
Например, злоумышленники могут обучить WAF принимать определенные вредоносные HTTP-запросы как легитимные и, наоборот, блокировать легитимных пользователей.
Или же, злоумышленники могут внедрять бэкдоры в модели и запускать целевые атаки или извлекать параметры модели или данные обучения из результатов запроса.
Таким образом, безопасность системы искусственного интеллекта следует рассматривать и планировать на этапе проектирования, а не на этапе предпроизводственного тестирования, когда уже слишком поздно.
2) Недостаточные, неструктурированные или ненадежные данные обучения.
Распространено заблуждение, что успех ИИ в основном связан с экспертами с докторской степенью, мощным оборудованием и современными алгоритмами машинного обучения.
Но ни один ИИ не может существовать без соответствующих и достаточно больших объемов высококачественных данных: нет эксперта или набора алгоритмов, которые могли бы построить надежную модель машинного обучения без необходимых данных. Во многих отраслях данные по обучению также должны постоянно обновляться и иным образом улучшаться при обнаружении недостатка в системе принятия решений.
Например, в сфере кибербезопасности наборы данных с векторами угроз или атак должны обновляться почти каждый день, чтобы опережать киберпреступников.
Компании часто недооценивают важность данных в своих проектах ИИ и в конечном итоге тратят свое время и ресурсы на непригодные для использования, неточные или предвзятые системы, что наносит ущерб их деловой репутации и приводит к длительным финансовым потерям.
3) Отсутствие скоординированной бизнес-стратегии ИИ.
Конечная бизнес-цель - это основополагающий и решающий элемент любой системы искусственного интеллекта. Перед внедрением системы ИИ необходимо определить, обсудить и утвердить ее цели внутри компании. Правовые и нормативные вопросы также должны быть рассмотрены и оценены. Это поможет избежать ситуации, когда ИИ вмешивается в интересы внешних заинтересованных сторон или нарушает закон.
Например, у Facebook есть команда ведущих экспертов по искусственному интеллекту, которые разрабатывают мощные алгоритмы искусственного интеллекта для выявления суицидальных наклонностей своих пользователей. Первоначальная цель этой похвальной функции заключалась в том, чтобы уменьшить количество самоубийств в Facebook и предотвратить суицидальное поведение на ранней стадии. К сожалению, проект вызвал волну обеспокоенности по поводу конфиденциальности и защиты данных, что поставило под вопрос использование данных Facebook. В конечном итоге идея Facebook создавать и хранить конфиденциальные данные о психическом здоровье без явного согласия пользователя заставила экспертов по конфиденциальности беспокоиться о том, можно ли доверять Facebook делать и хранить заключения о самых сокровенных деталях нашего разума.
4) Отсутствие объяснимости результатов, генерируемых ИИ.
Системы машинного обучения «черный ящик» и «белый ящик» имеют свои преимущества и недостатки. Оба подхода используются для решения практических и сложных проблем, но организации необходимо понимать входные данные, проблему, которую они в конечном итоге пытаются решить, и лучший способ структурировать и представить выходные данные в простой и понятной форме.
Важно отметить, что большинство современных моделей глубокого обучения неясны по конструкции, однако это можно частично компенсировать регулярным тестированием, обзором и анализом. Чем прозрачнее система искусственного интеллекта, тем понятнее людям ее выводы. Чем понятнее вывод, тем больше у нас уверенности в их надежности, беспристрастности и пригодности для использования в бизнесе.Важно отметить, что большинство современных моделей глубокого обучения неясны по конструкции, однако это можно частично компенсировать регулярным тестированием, обзором и анализом. Чем прозрачнее система искусственного интеллекта, тем понятнее людям ее выводы. Чем понятнее вывод, тем больше у нас уверенности в их надежности, беспристрастности и пригодности для использования в бизнесе.
5)Попытка заменить квалифицированный человеческий труд «сильным» ИИ.
По состоянию на 2021 год так называемого сильного ИИ не существует.
ИИ, безусловно, является многообещающим решением для автоматизации и ускорения множества трудоемких задач, однако у ИИ есть определенные ограничения. Он не может заменить квалифицированную команду по кибербезопасности, а просто повысить ее эффективность, позаботившись о дублирующих процессах, чтобы специалисты-люди могли выполнять очень сложные и изощренные задачи, которые действительно заслуживают их драгоценного времени.
Системы искусственного интеллекта можно использовать как дополнительный инструмент или умного помощника, но не как замену опытным специалистам по кибербезопасности, которые, помимо прочего, также понимают основной бизнес-контекст своей повседневной работы.
Не стоит переоценивать технические возможности современного ИИ. Несмотря на огромный прогресс, достигнутый за последнее десятилетие, мы все еще далеки от создания сильного ИИ. Если поставщик сообщает вам, что он полностью заменяет обученных специалистов по кибербезопасности своим решением на основе ИИ, остается только одно - бежать.
6) Несогласованное внедрение ИИ.
Стратегия внедрения ИИ должна разрабатываться в тесной координации с существующими процессами и технологиями, используемыми организацией.
Часто руководство организации решает инвестировать в решения ИИ, не разговаривая со своими командами, чтобы понять, где ИИ больше всего необходим, а где он, вероятно, будет бесполезен - независимо от того, что говорят внешние эксперты о продаже своего решения. Такие бездумные действия, скорее всего, приведут к чрезмерным затратам, внутренним конфликтам и могут даже усугубить существующие проблемы вместо их решения.
В первую очередь, стратегия внедрения ИИ должна быть согласована с существующими решениями и процессами.
Искусственный интеллект не должен быть предназначен для замены квалифицированных сотрудников по кибербезопасности, а скорее для расширения их возможностей и оптимизации их эффективности за счет сосредоточения внимания на важных и нетривиальных задачах с учетом рисков. Получение информации от сотрудников на всех уровнях организации может иметь неоценимое значение для лучшего понимания основных причин текущих узких мест и эффективного внедрения систем искусственного интеллекта в будущем.
7) Внедрение ИИ при недостаточном бюджете.
Действующая система искусственного интеллекта ничем не отличается от любых других современных технологий: для них требуется адекватный бюджет, который необходимо выделить до приобретения или разработки.
Затраты на постоянное улучшение, обучение и обслуживание - также должны быть тщательно включены в финансовое планирование проекта ИИ.
43% организаций завершили проекты ИИ, которые значительно превысили их первоначальный бюджет. Эти цифры недвусмысленно указывают на то, что организации в значительной степени недооценивают финансовую составляющую ИИ.
Например, после внедрения ИИ в решение для кибербезопасности основным фактором, который повлияет на текущую эффективность ИИ, является количество квалифицированных данных, доступных для обучения модели. Чем более разнообразные и репрезентативные данные используются для обучения модели, тем лучше и надежнее результаты. Проблема в том, что сбор и обработка данных - это длительный и дорогостоящий процесс, требующий последовательного, постоянного и систематического подхода, который, вероятно, приведет к планированию значительных затрат на этапе разработки проекта.
Идеальный вариант – объединить лучшее из двух миров: мощь машинного обучения и гениальность человеческого интеллекта. Рекомендуем обратить внимание на отмеченную наградами платформу искусственного интеллекта ImmuniWeb.
Эта платформа ImmuniWeb интеллектуально автоматизирует весь спектр задач и процессов, которые можно эффективно автоматизировать без ущерба для их качества или надежности, в то время как все остальное передается аналитикам безопасности и тестерам на проникновение, которые тесно сотрудничают со специалистами по обработке данных, чтобы постоянно улучшать модели машинного обучения.
Обращайтесь за персональной консультацией по решениям ImmuniWeb к сертифицированным специалистам Softprom.
Softprom - Value Added Distributor компании ImmuniWeb.