Директор департамента обеспечения и развития компании «ГИГАНТ — Компьютерные системы» дал комментарий изданию TAdviser о том, какая самая распространенная стратегическая ошибка российских компаний при реализации проектов по разработке или внедрению ИИ
В своём комментарии он, в частности, отметил: “Главная стратегическая ошибка при внедрении ИИ — неверная постановка задач и отсутствие понимания, где именно технология действительно способна принести бизнес-эффект. Часто компании воспринимают искусственный интеллект как универсальное решение, тогда как он эффективен только при четко сформулированных целях и корректно подготовленных данных. Например, при создании интеллектуальных систем видеонаблюдения мы нередко сталкиваемся с тем, что заказчик не может сформулировать критерии «аномального поведения», ожидая, что алгоритм «сам поймет». В результате проект теряет фокус, а ресурсы расходуются впустую.
Вторая ключевая проблема — качество и полнота данных. Модели машинного обучения требуют объемных и репрезентативных выборок, а на практике компании часто ограничиваются фрагментарными наборами, собранными «для галочки». Без инженерной дисциплины в подготовке данных — разметке, нормализации, верификации — ИИ-система не выйдет за рамки пилотного проекта. Мы видим это, например, в проектах по промышленной аналитике: если датчики дают неполные или некорректные значения, никакой алгоритм не компенсирует искажённый источник.
Отдельно стоит отметить неверные ожидания по срокам и бюджету. Многие компании рассматривают внедрение ИИ как разовый проект, аналог автоматизации — «поставили систему, обучили модель, и она работает». На практике все иначе. Алгоритмы требуют постоянного сопровождения, обновления данных, регулярного переобучения и контроля качества результатов. В противном случае точность моделей начинает снижаться уже через несколько месяцев после запуска. Особенно это критично в динамичных предметных областях — например, в промышленности, логистике или системах безопасности, где исходные условия постоянно меняются.
Мы видим, что устойчивость решений достигается только при наличии долгосрочной стратегии поддержки: мониторинга метрик, переразметки данных, переобучения моделей и адаптации инфраструктуры под возросшие вычислительные нагрузки. Это требует не только финансовых, но и организационных ресурсов. Затраты на эксплуатацию и развитие ИИ-систем часто превышают первоначальные инвестиции, и если это не заложено в план проекта — система быстро теряет актуальность и доверие пользователей.
Не менее важен человеческий фактор. Любое внедрение ИИ затрагивает внутренние роли и процессы, а иногда — привычную зону ответственности сотрудников. Если проект воспринимается как попытка заменить человека машиной, это неизбежно вызывает сопротивление. На практике это проявляется не в открытом протесте, а в пассивном саботаже — задержках с предоставлением данных, формальном отношении к обучению моделей, игнорировании новых инструментов.
Чтобы избежать этого, критично выстраивать коммуникацию с командой: объяснять цели, показывать пользу ИИ для сотрудников, а не против них. Например, в наших проектах мы стараемся демонстрировать, как интеллектуальные системы снимают рутину, повышают точность анализа и сокращают человеческие ошибки, освобождая специалистов для более сложных задач. Такой подход формирует доверие и обеспечивает реальное принятие технологий в корпоративной среде”.
Комментариев пока нет.