Юрист Екатерина Нечаева предупредила о возможной уголовной ответственности за использование искусственного интеллекта (ИИ) в профессиональной деятельности. Поиск экстремистских материалов через чат-боты или обработка персональных данных с помощью нейросетей могут привести к возбуждению уголовных дел против сотрудников, отметила специалист в интервью интернет-изданию «Абзац».
Эксперт пояснила, что статья 30 УК РФ квалифицирует изучение запрещенной информации как приготовление к преступлению, особенно если будет доказан сговор или подготовка к противоправным действиям. Для случаев незаконной работы с персональными данными через системы типа ChatGPT существует статья 272.1 УК РФ, предусматривающая штрафы до ₽300 тыс. или лишение свободы до четырех лет, а за распространение биометрических данных — до пяти лет.
Особую осторожность Нечаева рекомендует проявлять при обработке конфиденциальной информации через нейросети, поскольку даже непреднамеренная утечка может быть расценена как незаконное использование. Административная ответственность предусмотрена за сам поиск экстремистских материалов, но если полученные сведения будут использоваться для подготовки преступлений, это станет основанием для уголовного преследования, резюмировала юрист.
Ранее REGIONS сообщал жителям Подмосковья, в каких случаях переписка с нейросетями имеет юридическую силу и правовые последствия.