Об этом говорится в докладе ЦБ о применение ИИ на финансовом рынке.
Под ИИ регулятор понимает комплекс технологических решений, позволяющий имитировать когнитивные функции человека и при выполнении конкретных задач получать результаты, сопоставимые с результатами его интеллектуальной деятельности. Сам комплекс технологических решений включает в себя программное обеспечение, информационно-коммуникационную инфраструктуру, процессы и сервисы по обработке данных и поиску решений.
ЦБ выделяет три категории рисков по необходимости их регулирования: не требующие вмешательства вообще, которые могут быть ограничены за счет саморегулирования и рекомендаций, а также требующие внимания регуляторов.
В докладе четко не указывается, какие конкретно риски к какой категории относятся. Оговаривается лишь, например, что с помощью механизма рекомендаций возможно договориться с участниками финансового рынка об этических принципах внедрения ИИ. В этой связи ЦБ предлагает подготовить кодекс этики применения ИИ на финансовом рынке, который будет учитывать специфику применения технологии при оказании финансовых услуг.
В документе также говорится, что действующее регулирование финрынка в некоторых случаях уже устанавливает требования к применению различных моделей, в том числе основанных на технологиях традиционного ИИ. Например, в банковской сфере есть требования к валидации моделей оценки рисков и к управлению операционными рисками. В инвестиционной сфере предусмотрена специальная процедура аккредитации программ для ЭВМ, посредством которых осуществляется предоставление индивидуальных инвестиционных рекомендаций.
Какие риски видит регулятор
Внедрение ИИ может оказывать влияние как на бизнес-процессы отдельных участников рынка, так и на финансовую систему в целом, отмечается в докладе. Одной из основных групп угроз для финансового сектора Банк России называет риски, связанные с ошибками при разработке и неверным интерпретированием результатов работы ИИ. Это может произойти, если при обучении модели разработчики допустили ошибки в программном коде, использовали неточные или неполные данные, а также применяли алгоритм для решения задач, для которых модель не была приспособлена.
Другой важной группой являются риски информационной безопасности, например вероятность утечки персональных данных или сведений, содержащих банковскую, страховую, налоговую или иной вид тайн, хакерские атаки и подмена данных для обучения моделей ИИ.
Также ЦБ выделяет этические риски, в том числе связанные с предвзятостью, дискриминацией, выявлением ложных корреляций и непрозрачными решениями ИИ. Это происходит из-за неверных настроек моделей или ограничения данных для обучения и анализа, например, когда при ценообразовании финансовых продуктов и оценке рисков отдельных клиентов система будет использовать такие дискриминационные факторы, как вероисповедание, этническая принадлежность и проч. Кроме того, интересы владельцев компаний владельцев могут быть как явно, так и неявно встроены в оптимизационные механизмы систем ИИ, обучающихся на основе примеров поведения пользователей.
Реализация всех этих рисков может привести к финансовым потерям, ошибочным решениям, репутационным последствиям, а также к паническому поведению значительного количества субъектов экономики и нарушению нормального функционирования финансового рынка. Кроме того, граждане могут относиться с недоверием к ИИ и финансовой системе в целом, что затем отразится на проникновении технологий в различные сферы жизни.
К рискам конкуренции в докладе относится использование крупными компаниями своего доминирующего положения на рынке. Так как разработка ИИ требует значительных инвестиций в инфраструктуру и квалифицированного персонала, это может стать барьером для небольших компаний, а также привести к существенным ограничениям для распространения технологий.
Польза ИИ
Искусственный интеллект уже широко используется участниками российского финансового рынка в различных бизнес-процессах. Среди основных направлений можно выделить скоринг, андеррайтинг, торговлю, инвестиционное консультирование, управление рисками, маркетинг, взаимодействие с клиентами, противодействие мошенничеству и т.д.
С учетом экспансии ИИ, роста глубины интеграции данной технологии в бизнес-процессы финансовых организаций он может оказать существенное влияние на развитие российского финансового рынка, полагает ЦБ. При этом основным трендом развития искусственного интеллекта на ближайшие годы регулятор называет широкое распространение генеративного ИИ (может создавать новый контент – текст, изображение, аудио и видео – в ответ на запросы пользователя), в том числе больших языковых моделей.
Внедрение данной технологии может способствовать росту эффективности бизнеса, в том числе за счет снижения издержек, ускорения процессов, ресурсной оптимизации, обработки больших массивов данных, а также повышения лояльности клиентов благодаря более качественным и таргетированным предложениям продуктов и сервисов.
По оценкам McKinsey, экономический эффект от внедрения продуктов генеративного ИИ в разных секторах мировой экономики составит $2,6-4,4 трлн в год. При этом финансовый сектор находится в числе отраслей, которые получат наибольшую экономическую выгоду от его внедрения, отмечают эксперты. Он позволит увеличить выручку банков на $200-340 млрд в год, а страховых компаний – на $50-70 млрд в год, оценивают в McKinsey.
Банк России выступает за точечное регулирование ИИ
Банк России придерживается риск-ориентированного принципа регулирования искусственного интеллекта (ИИ) в финансовой сфере – это означает зависимость формата регуляторных требований от объема и вероятности реализации риска использования технологии в сравнении с потенциальным положительным эффектом от ее внедрения.