Сможет ли искусственный интеллект справиться с коррупцией и заменить законодателей? Интервью с депутатом Смышляевой

В среду депутаты Мажилиса рассмотрят законопроект, касающийся искусственного интеллекта, в первом чтении, а также сопутствующие поправки к нему. Как будет функционировать закон об ИИ в Казахстане и стоит ли ожидать опасностей от развития нейросетей? Об этом в интервью корреспонденту рассказала депутат Мажилиса Екатерина Смышляева.
- Екатерина Васильевна, почему важно разработать отдельный закон, регулирующий использование искусственного интеллекта в нашей стране? Может ли Казахстан стать мировым центром ИИ?
- Нам необходимо соответствовать быстро меняющимся условиям. Технологии искусственного интеллекта активно внедряются в повседневную жизнь, но правовое регулирование для них еще не сформировано. Казахстан, как и другие страны, сталкивается с этой проблемой. Когда закон будет принят, мы станем одной из немногих юрисдикций в мире, которая примет отдельный законодательный акт по ИИ, что даст нам преимущество. Необходимость создания такой правовой основы была подчеркнута на высоком уровне на недавнем заседании, где Президент указал на важность развития ИИ для страны.
Екатерина Смышляева. Фото: пресс-служба Мажилиса
Чтобы определить, сможет ли Казахстан стать хабом для ИИ, нужно понять основы цифрового развития. Дата-центрам необходимы климатические условия, стабильное энергоснабжение и связь. Мы обладаем благоприятным климатом, что может снизить затраты на охлаждение оборудования. Кроме того, наше географическое положение удобно для создания международных хранилищ. Однако проблемы с ценами на электроэнергию и перегрузками в критические часы требуют внимания; уже принимаются меры для их решения, включая повышение эффективности существующих генераторов и строительство новых.
Для успешных разработчиков, создающих ИИ-продукты, важны экономические условия, налоговые льготы и правила экспорта. В этом контексте сейчас расширяется цифровой технопарк AstanaHub.
Для начинающих разработчиков ключевым станет Национальная платформа искусственного интеллекта, которая обеспечит безопасную среду для создания и тестирования ИИ-решений, предоставляя доступ к вычислительным мощностям и необходимым данным для обучения. Эта инициатива будет поддерживать стартапы на начальных этапах их развития.
Наше общество демонстрирует высокий уровень цифрового оптимизма, что положительно сказывается на внутреннем спросе. Этот процесс инициируется как сверху, так и со стороны общества. Президент уделяет особое внимание внедрению технологий ИИ в государственное управление и в различные отрасли экономики, что является частью государственной политики.
- Технологии развиваются быстро. Как можно будет бороться с растущим числом фейков и дипфейков, созданных с помощью ИИ, в условиях закона?
- Проект закона о искусственном интеллекте предполагает защиту граждан от фейков и дипфейков на трех уровнях. Во-первых, необходима прозрачность и обязательная маркировка синтетического контента, чтобы пользователи могли видеть, что контент создан ИИ. Во-вторых, будет запрещено создавать системы, манипулирующие пользователями, включая автоматическую генерацию дипфейков. И в-третьих, предусмотрена ответственность операторов ИИ за распространение недостоверного контента.
Кроме того, изучается возможность криминализации использования дипфейков. Однако важно понимать, что это всего лишь один из инструментов, который может быть использован преступниками для обычных преступлений. В Уголовном кодексе уже есть нормы, касающиеся использования информационных технологий как отягчающего обстоятельства. В свете этого мы будем формировать более взвешенные подходы к этому вопросу.
Тем не менее, стоит помнить, что мошенники всегда найдут способы обойти законы, а цифровая среда сложна для администрирования. Поэтому критический подход к контенту и тщательная проверка информации очень важны.
- Какие страны были проанализированы при разработке законопроекта? Что было взято за основу?
- Мы анализировали подходы Европейского союза, США, Китая, Сингапура, Канады и Японии, так как они демонстрируют разные модели регулирования, от жесткого контроля до гибкой поддержки инноваций. Эти страны играют разные роли в этой области – одни являются разработчиками, другие – пользователями.
В Европейском союзе принят закон об искусственном интеллекте (AI Act), откуда заимствован принцип классификации систем ИИ по уровню риска: минимального, среднего и высокого, что позволяет выделить системы, требующие особого контроля. Также ориентировались на европейскую модель прозрачности, которая обеспечивает знание пользователями, как работают системы.
Опыт США особенно полезен в поддержке инноваций.
Китай активно интегрирует ИИ в государственное управление и эффективно работает с данными, а опыт Китая в ограничении использования ИИ в социальной сфере также интересен.
Сингапур успешно внедряет маркировку для контента, созданного с помощью ИИ.
Япония демонстрирует успехи в подготовке кадров в области ИИ, и в нашем законопроекте также предусмотрены меры поддержки образовательных программ в этой сфере.
В процессе обсуждения законопроекта мы следим за международными тенденциями в регулировании ИИ и за актуальными международными актами в этой области.
- Будут ли установлены авторские права на контент, созданный ИИ? Если да, то кому он будет принадлежать?
- Это один из самых сложных вопросов для законодателей всего мира. В разных странах уже ведутся судебные разбирательства касательно защиты произведений, созданных с помощью генеративных моделей ИИ.
Как правило, такие продукты не считаются объектами авторских прав, что объясняется тем, что авторские права относятся только к результатам творческого труда человека. Если человек использует алгоритм как инструмент, важно определить степень участия человека.
Мы придерживаемся позиции, что право на продукты, созданные ИИ, остается за владельцем системы, который должен учесть это в пользовательском соглашении.
Изображение сгенерировано с помощью нейросети Midjourney
- Как система образования будет реагировать на использование ИИ, учитывая, что дети перестали писать рефераты и дипломные работы?
- Недавно состоялось обсуждение, на котором было представлено намерение Министерства просвещения разработать Этический кодекс по использованию ИИ в образовании. Этот документ создается совместно с международными экспертами. Однако вызывает сомнения тот факт, что такие эксперты часто представляют крупные компании, не заинтересованные в ограничениях. Тем не менее работа идет.
Что касается регулирования, в будущем такие аспекты могут быть отражены в законодательстве об образовании. На данный момент четких регуляторных решений нет. Запретить использование ИИ можно, но это будет неэффективно в условиях цифровой среды, где запреты часто не работают. Запретный плод всегда привлекает больше внимания.
Технологии ИИ вызывают интерес как у детей, так и у взрослых, что подчеркивает, что подходы к образованию нужно пересматривать. Мы должны изменять требования к образовательным компетенциям, чтобы они отражали реалии времени.
Если нейросеть выполняет механические задачи, то ученик должен уметь самостоятельно анализировать информацию, проверять ее достоверность и формулировать задачи. Эти навыки становятся ключевыми в условиях современных условий.
- Вы сами пользуетесь нейросетями? Для каких целей?
- Да, использую, но больше из любопытства, поскольку текущие модели не решают серьезные профессиональные задачи. Интересно сравнивать различные подходы.
Поиск с нейросетями становится полезным, хотя необходимо задавать правильные критерии. Неправильная формулировка задачи приведет к простому ответу. При сложных запросах нужно знать тему, так как современные модели иногда не проверяют достоверность источников.
Современные системы могут хорошо выполнять краткий пересказ больших текстов, что полезно в условиях нехватки времени. Но важно, чтобы использованные материалы были проверенными, иначе можно столкнуться с недостоверными данными. На этом пока все примеры из профессиональной сферы.
Что касается быта, ИИ уже активно используется, начиная от мобильных приложений для заказа такси и заканчивая умными городами.
- Как закон повлияет на государственные системы, использующие ИИ, например, камеры наблюдения и системы анализа данных?
- Так же, как и на частные системы.
Во-первых, регулирование биометрической информации и подходы к анализу данных будут касаться как государственных, так и частных систем, что значит, что они должны будут придерживаться единых стандартов безопасности и конфиденциальности.
Во-вторых, закон закрепляет основные принципы, включая право человека оспаривать автоматизированные решения. Это правило будет распространяться и на государственные системы, гарантируя гражданам защиту их прав в случае неверного автоматического решения.
В-третьих, ограничения на поведенческий скоринг и другие методы анализа данных также будут касаться государственных систем. Для использования таких технологий необходимо четкое правовое основание, закрепленное в законодательстве.
Что касается управления данными, то уже сейчас они регулируются правилами, установленными правительством.
Кроме того, использование биометрических данных в государственных системах требует согласия пользователей, и госорганы обязаны обеспечивать соответствие сбора и обработки данных установленным требованиям.
- Будет ли закон регулировать использование ИИ в медицине?
- Общие правила и законодательство в области искусственного интеллекта также будут применять в медицине. Здесь работа идет с чувствительными системами ИИ и масштабом их применения. Например, многие медицинские устройства уже являются носителями алгоритмов ИИ, помогающих врачам в анализе различных ситуаций.
Медицинские данные, даже обезличенные, имеют большую ценность для обучения ИИ. Нужно учитывать возможные последствия использования данных помощников в работе врачей. Поэтому в медицине необходимы дополнительные регуляторные акты для учета экономики внедрения ИИ и сопутствующих вопросов.
В проекте закона предусмотрены лишь общие нормы, отнесение ИИ в медицине к высокорисковым системам, которые подлежат более строгому регулированию.
Изображение сгенерировано с помощью нейросети Midjourney
- В случае ошибки ИИ, кто будет нести ответственность: разработчик, государство или алгоритм?
- Алгоритм не может нести ответственность, так как на данный момент ИИ не является правосубъектом. Это инструмент, а не лицо, которое может нести юридическую ответственность. В этом вопросе могут возникнуть только фантастические сценарии.
Если владельцем ИИ является государственный орган и происходит ошибка, то ответственность несет именно он. Например, если система используется в государственном сервисе и приводит к убыткам, ответственность будет лежать на государственном органе.
Разработчик может нести ответственность, если он продолжает контролировать систему или его роль четко прописана в контракте. Если же разработчик передал систему владельцу, который провел необходимые тесты, ответственность будет лежать на владельце.
Принципы ответственности для ИИ соответствуют общепринятым принципам распределения ответственности для сложных систем, таких как лифты или автомобили.
При инциденте прежде всего проверяют, была ли система использована правильно. Если все правила были соблюдены, то дальше возникает вопрос к владельцу и обслуживающей компании. Только если указывается на конструктивный дефект, ответственность может перейти к разработчику. Все эти аспекты подробно описаны в проекте закона.
- Как вы относитесь к мысли, что половина вашей работы может быть заменена ИИ через 10-15 лет?
- Некоторые функции можно автоматизировать, и я считаю это положительным шагом. Это даст возможность сосредоточиться на более интеллектуальных задачах, которые не смогут быть заменены ИИ в ближайшем будущем. Человеческое общение на встречах с избирателями и экспертами уникально и не может быть заменено технологиями, так как ИИ не обладает эмоциональным интеллектом.
Однако нужно будет проделать серьезную работу, чтобы ИИ мог участвовать в законотворчестве, даже в рамках механических задач. Минюст и Минцифры уже изучают, как обучить модели, используя базу данных нормативных актов. В будущем это может стать полноценным инструментом для работы с законодательством.
Для полноценного участия ИИ необходимо, чтобы законодательные акты были машиночитаемыми. На данный момент такая структура документов не является стандартом, и это требует времени для реализации. Закон о ИИ проходит тест на соответствие.
Изображение сгенерировано с помощью нейросети Midjourney
- Сможет ли ИИ в будущем сократить уровень коррупции? Как именно?
- ИИ способен значительно снизить уровень коррупции, обеспечивая прозрачность государственных процессов через автоматизацию. Например, алгоритмы могут проверять тендерные заявки и выявлять аномалии, которые могут указывать на коррупционные схемы, снижая человеческий фактор и риск манипуляций.
Кроме того, ИИ может анализировать большие объемы данных, что позволяет определять потенциальные риски и конфликты интересов. Это помогает автоматизированным системам фиксировать случаи незаконного обогащения и мониторить финансовые потоки.
Тем не менее, ИИ не является универсальным решением. Для эффективной борьбы с коррупцией важно, чтобы алгоритмы были прозрачными и надежными, а используемые данные — актуальными и достоверными. Иначе системы могут принимать неверные решения.
- Какие неожиданные профессии могут возникнуть в Казахстане с распространением ИИ?
- Число таких профессий будет увеличиваться в зависимости от применения ИИ. Например, потребуются специалисты для контроля соблюдения этических норм использования ИИ.
Также будут востребованы аудиторы, которые будут проверять алгоритмы на дискриминацию и предвзятость, оценивать справедливость решений.
Могут появиться специалисты по созданию цифровых двойников людей и объектов, а также профессионалы, занимающиеся обучением моделей ИИ.
Цифровые юристы также станут необходимыми, поскольку все больше юридических отношений переходят в цифровую сферу. Психологи и психотерапевты могут стать важными в свете новых реалий, таких как цифровая зависимость.
Хотя это пока лишь предположения, они не лишены оснований. В целом ИИ будет интегрироваться в различные профессии, освобождая людей от рутинных задач и позволяя сосредоточиться на творческой деятельности. Будущие специалисты должны будут уметь применять технологии ИИ в своей работе.
Законопроект по вопросам искусственного интеллекта еще не принят. Его планируют рассмотреть в Мажилисе, и если он будет одобрен в первом чтении, начнется подготовка ко второму чтению, где будут учтены все предложения и замечания. После второго чтения проект поступит на рассмотрение в Сенат и затем на подпись Президенту.
*Дипфейк – это контент, созданный с использованием искусственного интеллекта, чтобы вводить в заблуждение, выдавая его за настоящий. Он может быть использован как в развлекательных целях, так и для обмана.
**Поведенческий скоринг – это метод оценки поведения человека с целью определения его надежности. Он применяется в разных отраслях, включая банки и страхование.
Читайте также: Когда ИИ - главное оружие. Казахстан включает в мировое сообщество.
-
Судья в клетке: правосудие обернулось замком3-06-2025, 18:06 14
-
Уральская медсестра: ангел-хранитель на высоте 10 тысяч метров над землей9-06-2025, 16:13 8