"Будьте осторожны и готовьтесь к изменениям" — это звучит не так захватывающе, как "идите вперед и ломайте все преграды". Однако три эксперта в области безопасности ИИ ясно предупредили стартап-основателей, что чрезмерная спешка может привести к этическим проблемам в будущем.
«Мы находимся на переломном моменте, когда в эту сферу направляются огромные средства», — заявила Сара Майерс Уэст, соисполнительный директор AI Now Institute, на сцене TechCrunch Disrupt 2024. «Меня очень беспокоит тот факт, что сейчас наблюдается поспешность в выпуске продуктов без должного учета того, каким мир мы хотим построить, и как технологии будут ему служить или вредить».
Этот разговор становится особенно актуальным на фоне того, что безопасность ИИ никогда не была столь важной. В октябре семья ребенка, покончившего с собой, подала в суд на компанию Character.AI, утверждая, что чат-боты этой компании сыграли роль в трагедии.
«Этот случай подчеркивает высокие риски быстрого внедрения ИИ-технологий», — отметила Майерс Уэст. «Многие из этих проблем — это старые, почти нерешаемые задачи, такие как модерация контента и защита от онлайн-злоупотреблений».
Но помимо вопросов жизни и смерти, проблемы в области ИИ остаются острыми, включая дезинформацию и нарушения авторских прав.
«Мы создаем мощные инструменты, которые могут существенно повлиять на жизни людей», — отметил Джингна Чжан, основатель социальной платформы Cara для художников. «Когда продукт вроде Character.AI настолько эмоционально вовлекает, важно установить ограничения на его создание».
Платформа Чжан Cara стала популярной после того, как Meta заявила о праве использовать публичные посты пользователей для обучения ИИ. Для художников, как сама Чжан, это стало большой проблемой. Им приходится делиться своими работами для привлечения подписчиков и клиентов, но это означает, что их произведения могут быть использованы для создания моделей ИИ, которые однажды могут угрожать их карьере.
«Авторское право защищает нас и позволяет зарабатывать на жизнь», — сказала Чжан. «Если что-то доступно в сети, это не означает, что оно бесплатно. Например, новостные издания должны лицензировать фотографии, чтобы использовать их». «С ростом популярности генеративного ИИ мы видим, что это не соответствует привычным законам, и если хотят использовать нашу работу, должны ее лицензировать».
Также артисты могут столкнуться с рисками из-за таких компаний, как ElevenLabs, которая разрабатывает технологии клонирования голоса с помощью ИИ. Александра Педрашевска, руководитель службы безопасности компании, следит за тем, чтобы технологии не использовались для создания неподобающих дипфейков.
«Модели red-teaming и учет возможных негативных последствий запуска нового продукта становятся важнейшим приоритетом», — подчеркнула она. «У ElevenLabs 33 миллиона пользователей, и любые изменения, которые мы вносим в продукт, влияют на их опыт».
Педрашевска отметила, что важным шагом для обеспечения безопасности платформ является более тесное взаимодействие с сообществом пользователей.
«Мы не можем просто быть на двух крайностях — либо полностью против ИИ, либо за отсутствие регулирования», — сказала она. «Необходим золотой середины, когда речь идет о регулировании».