Медіа-платформа YouTube заявила про розробку інструментів з виявлення фейкових голосів та образів для захисту артистів та правовласників творів від незаконного використання їхнього іміджу.
Що відомо про розробку YouTube інструментів проти дипфейківУ компанії зазначили, що розробляють інструменти, які виявлятимуть створений за допомогою ШІ контент, з використанням фейкових голосів та образів реальних людей.Підкреслюється, що перші тестові програми мають з’явитись вже на початку наступного року. Зокрема, одним з інструментів буде технологія розпізнавання облич, що має допомогти людям, пов’язаним із різними індустріями, знаходити та керувати контентом, що використовує їхню оброблену штучним інтелектом зовнішність.Створення дипфейків Мова йде про захист таким чином іміджу та авторських прав творців контенту, акторів, музикантів та спортсменів. YouTube планує надати можливість вирішувати, що робити з відео, в яких використовуються їхні дипфейки, хоча точна дата запуску ще не оголошена.Крім того, технологія виявлення штучно згенерованого співу стане частиною системи захисту інтелектуальної власності YouTube Content ID.Вона дозволить партнерам знаходити й керувати контентом, де використовується їхній штучно відтворений голос.Що відомо про загрозу дипфейків в ІнтернетіЄвропейський парламент у середу, 13 березня, ухвалив закон про штучний інтелект (ШІ), який має гарантувати безпеку і дотримання основних прав громадян.Мета закону — захист фундаментальних прав, демократії, верховенства права та сталості довкілля від високоризикованого ШІ з одночасним стимулюванням інновацій.Положення закону встановлюють зобов’язання щодо ШІ на основі його потенційних ризиків і рівня впливу.Нові правила передбачають заборону на певні застосунки ШІ, які загрожують правам громадян. Серед них, зокрема, системи біометричної категоризації, що ґрунтуються на чутливих характеристиках, а також нецільове збирання зображень облич з інтернету або записів камер відеоспостереження для створення баз даних розпізнавання облич.Крім того, штучно згенеровані зображення, аудіо- чи відеоконтент («дипфейки») мають бути чітко позначені як такі.Керівники MI5 і ФБР попереджають, що терористи можуть спробувати використати штучний інтелект для створення бомб або зриву виборів.
Категорія
Світ
05 грудня 2023
Категорія
Технології
06 лютого 04:30
Категорія
Україна
23 квітня 04:43