МОСКВА, 20 мар - . Главная опасность искусственного интеллекта (ИИ) заключается в высокой вероятности утечки в открытый доступ данных, загруженных в публичные нейросети, рассказал вице-президент по информационной безопасности "МТС банка" Илья Зуев.
МОСКВА, 20 мар - . Главная опасность искусственного интеллекта (ИИ) заключается в высокой вероятности утечки в открытый доступ данных, загруженных в публичные нейросети, рассказал вице-президент по информационной безопасности "МТС банка" Илья Зуев.
"У самого ИИ много уязвимостей, и о них пока мало говорят. Первое и самое простое: если вы загружаете данные в публичную нейросеть (вроде ChatGPT), считайте, что они уже не ваши. Рано или поздно они всплывут в публичном доступе", - сказал он.
"Для банков это неприемлемо, поэтому мы используем внутренние, закрытые модели", - добавил Зуев.
В сентябре прошлого года Банк России отмечал, что что искусственный интеллект становится важным инструментом, который помогает аналитикам и экономистам более эффективно обрабатывать и анализировать данные. ЦБ применяет ИИ, например, при работе с жалобами. Однако, по данным регулятора, для эффективного использования ИИ требуется большой объем исторической информации, которой пока недостаточно.
Также Банк России в июле прошлого года выпустил кодекс этики по работе с ИИ для финансовых организаций. Такие принципы, как человекоцентричность, справедливость, прозрачность, безопасность и ответственное управление рисками являются основой кодекса.