
Но алгоритмам не знакомы этика и мораль, и они совершают ошибки: от клеветы до оправдания насилия. Почему это не только техническая, но, прежде всего, этическая и правовая проблема, и как она касается бизнеса — в статье расскажет евангелист IT-компании KODE Сергей Спиренков.
Искусственный интеллект всё глубже проникает в жизнь современных пользователей, но не всегда «ведёт» себя корректно.
Пользователи по всему миру сталкиваются с тем, что ChatGPT придумывает им альтернативные биографии. Он перемешивает реальные и вымышленные факты. Например, норвежец и отец троих детей Арве Хьялмар Хольмен обнаружил, будто он убил двоих детей и был приговорён к 21 году тюрьмы. В Австралии мэр города Хепберн узнал, что в начале нулевых участвовал в крупном коррупционном скандале и отбыл срок в тюрьме за взяточничество. По сути информация похожа на дипфейки, но, в отличие от них, её сгенерировал не злоумышленник, а сам искусственный интеллект. Пострадавшим пришлось идти в суд и добиваться удаления вымышленных событий с их участием из ИИ-системы.

Дети из двух семей в Техасе общались с персонажами, которых сгенерировал для них чат-бот на основе искусственного интеллекта Character. AI. Спустя время один персонаж выдал ребёнку идею о том, что родители «крадут его детство», а другой оправдал идею убийства родителей в качестве мести за ограничение использование смартфона. Родители подали в суд иск о компенсации морального ущерба и потребовали запретить Character. AI на территории США.
Это был не первый судебный процесс в истории Character. AI: ранее жительница Флориды обвинила чат-бот в провоцировании самоубийства её сына. После этого компания добавила в Character. AI меры безопасности: если пользователь общался с ботом на подобные темы, всплывало окно, по которому можно было перейти на Национальную горячую линию по предотвращению самоубийств. Помимо этого, штат компании пополнился инженерами по безопасности, а также специалистами по вопросам доверия и контентной политики.
В марте 2023 года компания OpenAI сообщила о крупной утечке данных. Личные данные аккаунтов пользователей ChatGPT — последние четыре цифры и сроки действия банковских карт, имена и фамилии, адреса почты, — стали видны другим пользователям. OpenAI на сутки отключила чат-бот, чтобы исправить ситуацию, но всё равно понесла репутационные риски. В долгосрочной перспективе это снизило доверие пользователей к ChatGPT: многие привыкли воспринимать его, как друга по переписке, и не были готовы к тому, что их данные окажутся в общем доступе.
Самый известный кейс — ещё в 2016 году компания Microsoft запустила экспериментального чат-бота Tay в Twitter. Он должен был научиться общению на одном языке с пользователями, но не понял разницу между адекватными и аморальными высказываниями, и в течение суток начал публиковать расистские и оскорбительные твиты. Microsoft пришлось отключить Тау во избежание постинга неприемлемого контента.
В середине десятых годов корпорация Amazon разработала искусственный интеллект для отбора резюме, чтобы упростить найм. Вскоре оказалось, что система занижает рейтинг кандидатов-женщин. Алгоритм обучался на данных всех резюме, которые корпорация получила в течение 10 лет, и большинство из них принадлежали мужчинам. Система сделала выводы о предпочтительности кандидатов-мужчин и при скоринге выдавала меньший балл женским резюме.

Таким образом, интеграция ИИ в реальность может приносить неожиданные последствия: портить репутацию, создавать угрозу для безопасности, предлагать детям недетский контент. У ИИ нет морального компаса: он обучается на основе информации, которая уже существует в сети, и не всегда может отличить плохое от хорошего. Поэтому для защиты граждан государства и надгосударственные институты вводят правовые нормы, направленные на контроль генеративного ИИ.
В Евросоюзе формируется общая нормативная база для ИИ. Акт об искусственном интеллекте (AI Act) вводит риск-ориентированный подход к регулированию. Он делит ИИ-системы на несколько категорий риска:
Последние поправки Европарламента для провайдеров генеративного ИИ направлены на прозрачность и безопасность. Например, разработчики крупных моделей обязаны предотвращать генерацию вредоносного контента и раскрывать информацию о датасетах, использованных для обучения. Штрафы за несоблюдение AI Act обсуждаются — до 30 млн евро или 6% от глобального оборота компании.
Кроме того, в ЕС действует Общий регламент по защите данных (GDPR). Поскольку ИИ-модели обучаются на больших массивах данных, среди которых могут быть персональные данные пользователей, GDPR обязывает компании получать согласие на их обработку либо обеспечивать право человека на удаление или исправление.
Например, в 2023 году в Италии регулятор по защите данных временно запретил работу ChatGPT из-за подозрения в нарушении GDPR. Для восстановления работы OpenAI пришлось оперативно внедрить меры комплаенса: добавить уведомления о сборе данных, возможность отказа от использования персональных данных в обучении и проверить возраст пользователей. Штрафы по GDPR также высоки: до 20 млн евро или 4% глобального оборота.
В Соединенных Штатах нет федерального закона, комплексно регулирующего ИИ, но есть рекомендации:
Также на ИИ распространяются общие законы: о защите потребителей, против дискриминации, о конфиденциальности.
В Китае правительство стремится контролировать содержание сгенерированного контента и обеспечивать идеологическую лояльность ИИ-инструментов. Ключевые меры:
Нарушение правил в Китае ведёт к серьёзным последствиям: от крупных штрафов и требований доработать систему до блокировки сервиса и уголовной ответственности руководителей.
В настоящий момент можно говорить о ряде документов, которые были приняты в России в связи с внедрением, развитием и использованием искусственного интеллекта. В 2019 году был издан указ Президента о развитии ИИ — он регулирует специфику внедрения в разрезе экономики. Затем был принят ФЗ № 123 — о проведении технологического эксперимента с использованием ИИ в Москве. Он установил на территории Москвы пятилетний режим, согласно которому участники эксперимента получают мягкие условия регулирования: например, при обработке персональных данных или внедрении технических решений. Недавно, в июле 2025 года, ЦБ РФ выпустил информационное письмо о кодексе этики в сфере разработки и применения ИИ. Оно носит рекомендательный характер и адресовано участникам рынка финансовых услуг.
Поэтому нельзя говорить, что ИИ в России обделен вниманием законодательства. Со стороны государства к нему действует мягкий подход, позволяющий компаниям-новаторам развивать ИИ-технологии в разных отраслях. Однако, им по-прежнему необходимо соблюдать уже существующие законы: об охране персональных данных, о защите прав пользователей и безопасности.
В Великобритании власти выпустили «Проиновационный подход к регулированию ИИ». А также поручили отраслевым регуляторам — например, по финансам, здравоохранению и транспорту, контролировать применение ИИ в своих сферах. Сейчас в Великобритании обсуждается введение обязательного кодекса для разработчиков ИИ, но пока он добровольный.
Канада включила регулирование ИИ в законопроект о цифровой приватности. Он предлагает обязать компании оценивать последствия деятельности своих ИИ-систем и регистрировать высокорисковые системы в госреестре.
Во Франции действуют законы, косвенно касающиеся ИИ — например, обязанность раскрывать использование алгоритмов в госуслугах. Германия создала этический совет по ИИ. В странах Азии (Сингапур, Южная Корея, Япония) выпущены этические руководства для индустрии ИИ и запущены пилотные программы для тестирования.
Международные организации тоже стремятся установить общие правила:
Персональные данные — отдельная зона риска при разработке ИИ. Ключевые требования законов о защите персональных данных, принятых во многих странах:

Несоблюдение требований законодательства несёт для компаний риски: штрафные санкции, блокировку или приостановку деятельности, уголовную или административную ответственность, гражданские иски и компенсацию ущерба, репутационные потери.
Если компания предоставляет услуги на основе генеративного ИИ, ей нужно внедрить меры комплаенса: Следить за законодательством. Передать юристам обязанности по соблюдению требований в законах и консультироваться с ними в рамках аудита проектов. Проходить проверки источников данных для обучения на качество и соответствие законодательству — например, очищать датасеты от незаконного контента или заведомо дискриминационных сведений.
Не использовать персональные данные незаконно. Датасеты для обучения ИИ-модели должны быть собраны с согласия пользователей, не содержать личной или запрещённой информации. Это значит, что компании нужны фильтры для валидации данных.
Соблюдать прозрачность по отношению к пользователям. Размечать сгенерированный контент и предупреждать пользователя, если с ним общается виртуальный ассистент.
Разработать внутреннюю политику по этике ИИ. Прописать принципы, которых придерживается компания — например, недопустимость предвзятости, уважение к приватности, приоритет безопасности. Создать процедуры по оценке новых функций на соответствие ценностям компании и общества. Наличие подобного кодекса демонстрирует ответственность в отношении ИИ для регуляторов и клиентов, а также может учитываться при расследовании инцидентов как фактор, смягчающий ответственность компании.
Оценивать риски и управлять ими. Заранее ввести ограничения: например, запрет на генерацию конкретных категорий контента, контент-фильтры для нецензурных запросов, ограничение на принятие самостоятельных решений без участия человека.
Документировать разработки. Компании нужно вести документацию по ИИ-системе: описание алгоритма, используемые данные, метрики точности, ограничения модели, результаты тестирования на качество и цели использования. Регуляторы или пользователи могут запросить такую информацию.
Продумать план Б. В случае, если продукт на основе ИИ «нарушит» законодательство, понадобятся технические возможности: например, удаление личных данных пользователя из датасета или предотвращение неэтичного контента в следующей версии продукта. Наличие плана сократит убытки и время простоя, если что-то пойдёт не так.
Принимать меры кибербезопасности. ИИ-продукт должен быть максимально защищён от взлома и несанкционированного доступа. Если в систему попадёт злоумышленник, это может привести к нарушению закона. Поэтому компании нужно регулярно оценивать уязвимости.
Оставить возможности для человеческого контроля и аудита. Например, если ИИ решает, выдать ли пользователю кредит, у оператора должна быть возможность вмешаться и проверить обоснованность его решения. Периодически можно привлекать экспертов для внешнего аудита алгоритмов.
Предотвращать утечки данных. Например, обучать персонал компании, для которой разработан продукт на основе ИИ, тому, что никакие чувствительные данные нельзя вводить в открытые ИИ-сервисы — иначе злоумышленники смогут «достать» их оттуда.
Искусственный интеллект ещё совсем новая технология. Риски, которые она несёт, уже понятны для общества, но как исключить их в реальности, неясно. Поэтому законодательство не до конца регулирует область ИИ, а регуляторы принимают скорее точечные решения.