ИИ стал неотъемлемой частью цифрового маркетинга: он помогает создавать тексты, анализировать поведение аудитории, оптимизировать рекламные кампании и даже подбирать изображения. Но вместе с ростом популярности технологий растёт и число этических вопросов. В 2025 году в центре внимания оказались случаи дискриминации, нарушения конфиденциальности и использование предвзятых алгоритмов.
В условиях ужесточающихся регулирований в ЕС и США брендам всё важнее понимать, какие риски таит использование ИИ, и как их избежать.
Почему ИИ может быть предвзятым
ИИ обучается на больших объёмах данных, часто собранных из открытых источников. Эти данные могут содержать системные предвзятости:
Даже если разработчики ИИ не закладывали предвзятость сознательно, она появляется на уровне обучающих датасетов. В рекламе это проявляется особенно остро — ведь ИИ напрямую влияет на то, кто и что увидит.

Скандал года: дискриминация в кампании модного бренда
В начале 2025 года американский fashion-бренд NOVA Frame запустил масштабную рекламную кампанию, созданную полностью с помощью ИИ-моделей изображений (Midjourney и собственных генеративных систем). В кампанию входили визуалы с "моделями будущего" — стильными, глянцевыми персонажами, предназначенными для digital-first рекламы в соцсетях.
Через несколько дней пользователи обратили внимание, что все модели имели светлый цвет кожи, европейские черты лица и "стандартизированную" внешность. В ленте Instagram и X практически не было разнообразия, а большинство "образов" оказались стереотипно белыми и стройными.
После публикации расследования в американском издании Wired, компания столкнулась с волной критики:
Позже выяснилось, что обучающий датасет, использованный для генерации визуалов, в основном состоял из изображений европейских и американских fashion-журналов за 2000–2020 годы. ИИ просто "отзеркалил" доминирующий образ, заложенный в датасет.
Законодательная реакция
ЕС: AI Act и ответственность брендов
С 2025 года в Евросоюзе начал действовать AI Act — первый системный закон об ИИ. Согласно ему:
США: усиление роли FTC и обсуждение "AI Bill of Rights"
В США в 2025 году FTC получила расширенные полномочия по надзору за ИИ в рекламе. Также в Конгрессе обсуждается введение “AI Bill of Rights”, согласно которому:
ИИ способен радикально повысить эффективность рекламы — но только если он используется ответственно. В 2025 году уже очевидно: технологическая гонка за внимание потребителя не должна происходить за счёт этики, инклюзивности и прозрачности. Брендам стоит внедрять этичные практики, ещё до того как их заставят регуляторы.
| Риск | Что делать |
|---|---|
| Предвзятые выводы ИИ | Использовать проверенные и разнообразные датасеты, тестировать модели на дискриминацию и искажения. |
| Нарушение этики в визуалах | Применять инклюзивный подход к дизайну, избегать узких стандартов красоты в ИИ-контенте. |
| Конфликт с законодательством (ЕС/США) | Следить за новыми регуляциями, маркировать контент как «создано ИИ», вести документацию по кампаниям. |
| Потеря доверия из-за «скрытого ИИ» | Открыто сообщать об использовании ИИ, обучать команду принципам этичного маркетинга. |
| Репутационные и финансовые убытки в случае скандала | Проводить превентивные аудиты, запускать кампании на тестовую аудиторию, использовать человеческий контроль. |