ЗАТЕЛЕФОНУВАТИ
  • Новини
  • Актуальне
  • Прихильники безпеки ШІ закликають до обережності у розробці технологій

Прихильники безпеки ШІ закликають до обережності у розробці технологій

«Будьте обережними та готовими до змін» — це звучить не так захоплююче, як «ідіть уперед і ламаєте всі перешкоди». Однак троє експертів у галузі безпеки ШІ чітко попередили засновників стартапів, що надмірна поспішність може призвести до етичних проблем у майбутньому.

«Ми перебуваємо на переломному моменті, коли в цю сферу спрямовуються величезні ресурси», — сказала Сара Майерс Уест, співвиконавчий директор AI Now Institute, на сцені TechCrunch Disrupt 2024. «Мене дуже турбує те, що зараз спостерігається поспіх з випуском продуктів без належного врахування того, яким світ ми хочемо побудувати, і як технології служать цьому світу або шкодять йому».

Ця розмова стає особливо актуальною на тлі того, що безпека ШІ ніколи не була такою важливою. В жовтні сім’я дитини, яка покінчила з собою, подала в суд на компанію Character.AI, стверджуючи, що чат-боти цієї компанії стали частиною трагедії.

«Ця історія підкреслює високі ризики швидкого впровадження технологій ШІ», — зазначила Майерс Уест. «Багато з цих проблем — це старі, майже невирішувані питання, такі як модерація контенту та боротьба з онлайн-зловживаннями».

Але окрім питань життя і смерті, проблеми в галузі ШІ залишаються гострими, включаючи дезінформацію та порушення авторських прав.

«Ми створюємо потужні інструменти, які можуть справді змінити життя людей», — зазначив Джингна Чжан, засновник соціальної платформи Cara для художників. «Коли продукт, такий як Character.AI, настільки емоційно залучає, важливо встановити обмеження на його створення».

Платформа Чжан Cara стала популярною після того, як Meta заявила про право використовувати публічні пости користувачів для навчання ШІ. Для художників, як сама Чжан, це стало великою проблемою. Їм доводиться ділитися своїми роботами, щоб залучати підписників і клієнтів, але це означає, що їхні твори можуть бути використані для створення моделей ШІ, які одного разу можуть загрожувати їхній кар'єрі.

«Авторське право захищає нас і дозволяє заробляти на життя», — сказала Чжан. «Якщо щось доступне в мережі, це не означає, що воно безкоштовне. Наприклад, новинні видання повинні ліцензувати фотографії, щоб використовувати їх». «З ростом популярності генеративного ШІ ми бачимо, що це не відповідає звичним законам, і якщо хочуть використовувати нашу роботу, повинні її ліцензувати».

Також художники можуть стикнутися з ризиками через такі компанії, як ElevenLabs, що розробляє технології клонування голосу за допомогою ШІ. Олександра Педрашевська, керівник служби безпеки компанії, стежить за тим, щоб технології не використовувалися для створення неприпустимих дипфейків.

«Моделі red-teaming і розуміння можливих негативних наслідків запуску нового продукту стають головними пріоритетами», — підкреслила вона. «У ElevenLabs 33 мільйони користувачів, і будь-які зміни, які ми вносимо в продукт, впливають на їхній досвід».

Педрашевська зазначила, що важливим кроком для забезпечення безпеки платформ є тісніша взаємодія з користувацьким співтовариством.

«Ми не можемо просто перебувати на двох крайнощах — або повністю проти ШІ, або за відсутність регулювання», — сказала вона. «Необхідна золота середина, коли йдеться про регулювання».
Прихильники безпеки ШІ закликають до обережності у розробці технологій

Автор: Анна
 

ЗАЛИШАЙТЕ ЗАЯВКУ БЕЗКОШТОВНО