Тимур Аитов: «С помощью ИИ можно заняться переформатированием сознания любого индивидуума»
Российские компаний входят в десятку мировых лидеров по применению искусственного интеллекта (ИИ). Ещё в 2023 году почти треть (29%) предприятий в нашей стране использовали эту технологию. Это уже выше, чем в Европе, где о внедрении ИИ заявили только 22% компаний, но меньше, чем в США (33%), Сингапуре (53%) и Индии (59%), свидетельствуют данные опубликованного в октябре исследования НИУ ВШЭ. В чем преимущества этой технологии и какие риски она несет для россиян, «МК» рассказал председатель комиссии по безопасности финансовых рынков Совета Торгово-промышленной палаты (ТПП) РФ Тимур Аитов.

Фото: ru.freepik
тестовый баннер под заглавное изображение
— Как вы относитесь ко всё более массовому внедрению ИИ в России, причем как в бизнесе, так и государственной сфере?
— Искусственный интеллект — это хорошо, но и он имеет набор непредсказуемых угроз и для граждан, и для человечества в целом. И во что выльется весь проект его развития, мне пока не ясно.
— Что вы имеете в виду?
— Если цифровая валюта в кармане — это что-то вроде метки для собаки, то искусственный интеллект — это гораздо серьёзнее. С его помощью можно заняться переформатированием сознания любого индивидуума, тем более, если до этого у него в голове было достаточно пусто.
— Это совсем уже фантастическая тема: пока люди силами ИИ больше рисуют безобидные картинки с котиками или готовят студенческие рефераты средствами ChatGPT и других нейросетей. Какие риски вы видите?
— В проекты типа ChatGPT с массивами огромного количества загруженных в них статей западных СМИ изначально заложены оценки и даже модели ненависти к определенным личностям или явлениям. Уже к настоящему моменту многие пользователи столкнулись, к примеру, с отказом этой нейросети шутить или «сочинить анекдот» на тему «зеленого энергетического перехода». Или, к примеру, когда нейросеть просишь сочинить анекдот в отношении Байдена, то в ответ возникает отписка, что «нельзя шутить на политические темы». Определенная пристрастность выражается в отношении к людям с определенным цветом кожи, к некоторым концепциям, политическим системам и т.д. Причем очевидно, что это искусственная настройка. Нейросети действительно можно сделать предвзятыми в отношении расы, пола, политических пристрастий или же, к примеру, создать модель ИИ, которая поддерживает ценности нетрадиционной ориентации, да ещё и предоставить к этой модели бесплатный доступ в молодёжной среде. Подобные средства становятся действенным инструментом пропаганды и, скажу прямо, даже воспитания молодого поколения.
— Нейросетей сейчас много, в России есть и свои успешные примеры, где таких перекосов нет. Но если брать зарубежные, то, согласно некоторым исследованиям, китайский DeepSeek в данное время является максимально нейтральным проектом, учитывая то, что в него заложено китайскими разработчиками. Получается, что главное здесь — иметь выбор и можно построить будущую жизнь по-другому?
— Да, можно, но это открытый проект и любой желающий может скачать «опенсорсный» пакет его исходников, а потом «научить» конкретный экземпляр этого ИИ определенным ценностям и идеям, настроив его под любые полезные или же враждебные для общества и бизнеса задачи.
— Пока мы чаще на форумах самого высокого ранга слышим возгласы восхищения возможностями искусственного интеллекта. Постоянно идет разговор о том, как эту технологию эффективно используют банки: они с помощью ИИ и мошенникам противостоят, и с клиентами общаются, и подбор предложений для потребителей услуг осуществляют… Почему практически никто не говорит о рисках?
— Пока вся технология ИИ, как говорят в молодежной среде, хайповая — деньги текут туда рекой и никто из создателей систем искусственного интеллекта даже не представил внятные дорожные карты его развития. Есть такая кривая Гартнера, через которую проходят все инновации — это графическое отображение цикла зрелости технологий. Она описывает поэтапный процесс, через который проходит любое инновационное решение, бизнес-модель или новое открытие, и всегда движение идет от стадии хайпа до продуктивного использования. Так вот на этой кривой есть характерный «горб», называемый пиком чрезмерных ожиданий. Мы сегодня как цивилизация находимся как раз на нем, на этом «горбе». Внешне это так и выглядит: в технологию вкладываются огромные суммы, но мало кто говорит об изъянах и уязвимостях ИИ. Скажем о том, что сама технология таких нейросетей «дырявая» с точки зрения информационной безопасности.
— Что это значит?
— Я имею в виду возможность атак на ИИ класса prompt injection, то есть «промт-инъекции», которые уже используют злоумышленники. Так называется особый вид атаки, при котором внешние запросы или инструкции изменяют вывод модели непредусмотренным образом. В некоторых случаях эти «инъекции» могут оставаться незаметными для пользователя, однако они все равно влияют на общее функционирование и результат. Главная опасность prompt injection кроется в том, как именно модель обрабатывает поступающие данные. Неправильная передача и использование входной информации может привести к нарушению правил, созданию вредоносного контента, несанкционированному доступу к ресурсам, а также к негативному воздействию на важные решения.
В целом, технология ИИ пока развивается достаточно хаотично. Регулирования особого нет, стандартов тоже, зато есть рекомендации от нашего Центробанка использовать так называемую «этику искусственного интеллекта», что уже хорошо. Куда нас выведет нынешняя кривая Гартнера, неясно, поэтому весьма возможно, что в итоге ИИ станет всеобщим, практически «первичным» мозгом человечества, а наши мозги, как и мозги наших детей, будут с младенчества «форматироваться» под мнение этого ИИ. Почему нет? Фантастически звучит, конечно, но только пока.
Источник: www.mk.ru








Отправляя сообщение, Вы разрешаете сбор и обработку персональных данных. Политика конфиденциальности.