Баланс алгоритмов и разума

Как компании превращают искусственный интеллект в рабочий инструмент

Статья опубликована на сайте издания «Новый компаньон».

ИИ в деле
Внедрение искусственного интеллекта в деловую практику всё чаще переходит из разряда экспериментов в операционную деятельность. Компании начинают воспринимать ИИ не как модную новинку, а как реальный инструмент повышения эффективности, снижения издержек и ускорения принятия решений.

Как отмечает бизнес-партнёр компании «Компьютерные технологии» Павел Карасев, наибольшую отдачу бизнес получает в тех функциях, где действия повторяются и есть доступ к большим массивам данных. В числе таких направлений он называет маркетинг, клиентскую поддержку, финансы, HR и логистику. По его словам, ИИ помогает точнее сегментировать аудиторию, персонализировать предложения, прогнозировать спрос и оптимизировать рекламные бюджеты — в результате растёт конверсия и снижаются затраты на привлечение клиентов.

Однако для того, чтобы ИИ стал действительно рабочим инструментом, компания должна обладать определённой технологической зрелостью. Как подчёркивает руководитель направления Data Science RAMAX Group Александр Борисов, для внедрения технологий ИИ необходимы качественные данные в достаточном объё­ме, доступ к программному обеспечению и вычислительным ресурсам, а также внутренняя проектная культура, учитывающая особенности таких инициатив, включая необходимость обоснования пилотных проектов, организацию хранения данных и переход к управлению на основе данных (Data-Driven Decision Making).

Некоторые из этих условий можно обеспечить за счёт внешних подрядчиков, однако фундаментальные предпосылки чаще формируются внутри бизнеса — в процессе цифровой трансформации.

Именно поэтому проекты по унификации и цифровизации бизнес-процессов становятся естественным шагом на пути к ИИ. Они создают необходимую инфраструктуру, упорядочивают данные и стандартизируют процессы, на которые затем можно надстраивать интеллектуальные решения.
Экономический эффект уже подтверждается исследовательскими данными. Директор технопарка Morion Digital Оскар Ягафаров ссылается на доклад Microsoft Business Opportunity of AI, в котором говорится, что каждая инвестиция в один доллар в генеративный ИИ возвращает бизнесу в среднем 3,70 доллара. Эксперт приводит примеры решений резидентов Morion Digital. ИИ используется в мониторинге и управлении интернет-трафиком операторов связи для обнаружения атак на устройства в компьютерной сети и позволяет это делать эффективнее людей. Другой пример — решения нескольких резидентов технопарка (TrafficData, Macroscop, «ВИПАКС»), использующих ИИ для обработки и анализа видеопотока с камер наблюдения.

Область подбора персонала — ещё одна зона, где ИИ уже даёт ощутимую отдачу. Как рассказывает заведующий лабораторией НИУ ВШЭ — Пермь, профессор Пётр Паршаков, в компании Unilever первичный скрининг выпускников передали видеосистеме HireVue с анализом мимики и речи. Это позволило сократить около 100 тыс. человеко-часов и сэкономить миллион долларов.

Компания TrafficData (резидент Morion Digital) использует искусственный интеллект в HR-направлении, где ИИ помогает выстраи­вать систему мотивации на основе корпоративной валюты и анализировать культуру признания внутри команд. Это позволяет не только укреплять вовлечённость сотрудников и снижать нагрузку на HR, но и внедрять предиктивные инструменты для предотвращения выгорания.

Маркетинг тоже трансформируется. По словам Паршакова, Альфа-Банк вместе с командой SPDE внедрил модель, которая позволяет «вычленить» аудиторию с высоким уровнем спроса. Это дало двукратный рост кликабельности объявлений и увеличение конверсии с 0,3 до 8% при одновременном снижении стоимости лида.

В российской практике, как отмечает Игорь Гуняшов, сооснователь Plevako.ai (развивает технологию применения ИИ в адвокатуре), наиболее активно ИИ внедряется в банковском секторе, телекоммуникациях и ретейле. Сбербанк применяет систему «Салют» для автоматизации call-центров, МегаФон — для прогнозирования поведения клиентов и персонализации предложений. X5 Group использует компьютерное зрение и мобильных роботов в залах магазинов.

Как отмечает Александр Борисов со ссылкой на исследование «Эффективные отечественные практики применения технологий искусственного интеллекта в промышленности» от АНО «Цифровая экономика», проведённое в конце 2024 года, 26% промпредприятий России уже используют технологии на базе ИИ, а 31% планируют завершить их внедрение в течение трёх лет. При этом локомотивом таких интеграций являются именно крупные предприятия, где эффект от масштабирования наиболее заметен. ИИ-технологии среди них внедрили уже 36%.

При этом, как подчёркивает доцент кафедры ИТАС ПНИПУ Даниил Курушин, несмотря на большое количество кейсов и заявлений о росте эффективности, пока не хватает репрезентативных научных исследований, которые позволили бы объективно оценить влияние ИИ на производительность. «Есть рекламные заявления авторов систем об ускорении работы программиста на определённое число процентов, — говорит он. — Но подтверждения в виде хронометрированных сравнений пока нет».

Эмпатия вне алгоритма
Тем не менее пока ИИ не обладает универсальностью: он не мыслит, не принимает решений в человеческом смысле и не несёт ответственности за последствия. Как подчёркивает Оскар Ягафаров, даже самые продвинутые решения пока не приближаются к уровню сильного искусственного интеллекта (AGI) и потому не могут заменить человека в задачах, где необходимы эмпатия, креативность или понимание контекста. По его словам, пока ИИ остаётся именно инструментом, а не субъектом. Человек продолжает играть ключевую роль: формулирует задачу и принимает решение о применении результатов.

В этом сотрудничестве между человеком и ИИ не всегда наблюдается синергия. Ягафаров ссылается на исследование Массачусетского технологического института, в котором сравнивались результаты работы человека, ИИ и их комбинации. Оказалось, что смешанные команды не всегда превосходят лучшие однородные решения: в задачах принятия решений они отставали, но демонстрировали лучшие результаты в творческих процессах. Эта закономерность хорошо иллюстрирует то, как бизнес использует ИИ в генерации контента — текста, изображений, музыки. Машина даёт быстрые черновики, человек — смысловую доработку и финальное суждение.


В то же время граница между «человеческими» и «машинными» задачами продолжает сдвигаться. Современные языковые модели уже сопоставимы по качеству с профессионалами в ряде сфер. По словам Петра Паршакова, эксперименты с GitHub Copilot показали, что при помощи ИИ-инструмента программисты выполняют задачи в два раза быстрее. Более того, исследование в медицинской сфере продемонстрировало, что ответы ChatGPT были оценены пациентами как более вежливые, подробные и даже более эмпатичные, чем ответы врачей.

Однако, как подчёркивает эксперт, именно в таких областях, где цена ошибки высока, — финансовые решения, юридические заключения, медицинские назначения — необходим обязательный человеческий надзор. Даже убедительная модель может выдать ошибку или «галлюцинацию», и за последствия в любом случае отвечает человек.

Вопросы этики, неопределённости и стратегических рисков обостряют проблему. Как замечает Павел Карасев: ИИ пока не справляется с задачами, где невозможно опереться на большие массивы данных или где нет чётких правил. Это касается стратегического планирования, управления корпоративной культурой, разработки новых продуктов. В этих контекстах ИИ остаётся аналитическим помощником, но не автором решений.

Позицию о вспомогательной роли ИИ в сложных системах подтверждает практика высокотехнологичных отраслей. В частности, Игорь Гуняшов приводит пример Росатома, где ИИ помогает прогнозировать технические неисправности, но все ключевые решения, касающие­ся безопасности и модернизации АЭС, остаются за специалистами. Это не вопрос недоверия к алгоритмам — это признание ограничений технологий в условиях, где критически важны профессиональная интуиция, многолетний опыт и готовность нести ответственность.

Не стоит, впрочем, считать, что участие человека обязательно во всех аспектах. В некоторых случаях — например, при мониторинге безопасности на производстве или отслеживании аномалий в видеопотоке — ИИ справляется лучше человека именно за счёт отсутствия усталости и высокой скорости обработки информации. Даниил Курушин отмечает, что такие задачи являются обработкой паттернов — областью, где алгоритмы безошибочно выполняют однотипную работу. В то же время он подчёркивает: система не проявляет инициативу и не принимает решения, если её специально не настроили на это. Контур с участием человека возникает везде, где появляются неоднозначность, ценностные выборы и долгосрочные последствия.

Интеллект без этики
Повсеместное распространение ИИ в бизнес-практиках привело к росту как его возможностей, так и связанных с ним рисков. Если вначале компании воспринимали ИИ как инструмент для ускорения процессов и снижения издержек, то теперь всё острее встаёт вопрос: насколько безопасно и разумно передавать алгоритмам принятие даже частично автономных решений?


С расширением охвата технологий появляется всё больше ситуаций, когда ИИ выходит за пределы операционной зоны и начинает влиять на кадровые, юридические или стратегические решения. По наблюдению Петра Паршакова, именно здесь начинаются основные проблемы. Один из известных примеров — экспериментальная система подбора персонала Amazon, которая начала занижать рейтинг женщин-кандидатов из-за перекоса в исторических данных. Этот случай подчёркивает ключевую проблему: если обучающие выборки отражают предвзятость прошлого, ИИ может её не просто воспроизвести, но и масштабировать. Кроме того, добавляются риски, связанные с информационной безопасностью. Так, в Samsung временно запретили сотрудникам использование ChatGPT после утечки служебного кода. А юридические прецеденты вроде штрафа американским юристам за использование вымышленных кейсов, сгенерированных ИИ, показывают, насколько уязвимы компании для репутационных и правовых последствий, если не выстроена система контроля.

В то же время технологическая зрелость компаний и выстроенные процессы минимизации рисков могут существенно снижать уровень уязвимости. Игорь Гуняшов отмечает, что в российских корпорациях, в том числе в «Сбере», уже формируются многоуровневые системы контроля, усиливаются меры безопасности и ведётся работа по цифровой грамотности сотрудников.

В свою очередь Даниил Курушин указывает на три ключевые угрозы: утечку данных при передаче во внешние сервисы, склонность ИИ к ошибкам в специализированных темах и ложную вовлечённость пользователя в процесс, где активность имитируется, но не приводит к продуктивному результату. Эти угрозы не всегда очевидны, особенно для пользователей без технической подготовки, но именно они могут нанести наибольший вред в долгосрочной перспективе.

Не стоит забывать и о внутренних организационных угрозах. Павел Карасев подчёркивает, что опасности кроются не только в самих алгоритмах, но и в управленческих решениях: чрезмерная автоматизация без ручной коррекции, непрозрачность логики моделей, некорректные данные — всё это может подорвать доверие к системам и привести к неэффективным или ошибочным действиям. Он делает акцент на необходимости совмещать машинный анализ с экспертным надзором, регулярно верифицировать данные и развивать внутренние компетенции. Именно зрелость подходов, а не просто наличие технологии, определяет успешность и безопасность её применения.


Источник: «Новый компаньон»
Название статьи: “Баланс алгоритмов и разума”
Автор: Полина Путякова
Фото: freepik.com

Ссылка: https://www.newsko.ru/articles/nk-8750097.html

To other news

Подкаст «Техпреды.Пермь» с Андреем Дьяковым

18 July 2025

Сервис «Техприс» для связи юрлиц и ресурсоснабжающих организаций

17 July 2025

Встреча IT HR клуба в технопарке Morion Digital

16 July 2025

Планетарий под ключ от резидента Morion Digital

15 July 2025