
Такие действия, даже при отсутствии злого умысла, могут иметь юридические последствия.
После выхода обновленной версии нейросети Sora 2, способной создавать реалистичные видеосцены по простому текстовому запросу, в казахстанском сегменте Интернета многократно увеличилось количество противоправного контента, передает Arnapress.kz со ссылкой на Telegram-канал Центр по борьбе с дезинформацией.
Анонимные пользователи массово публикуют видеоролики с поддельным изображением известных политиков, деятелей культуры и госслужащих, где им приписываются слова и действия, которых не было.
Несмотря на наличие водяного знака нейросети Sora на подобных видео, многие пользователи воспринимают их как реальные и продолжают пересылать, тем самым участвуя в распространении ложной информации. Такие действия, даже при отсутствии злого умысла, могут иметь юридические последствия.
Центр по борьбе с дезинформацией напоминает: ответственность несут не только создатели, но и распространители противоправного контента.
Пересылка дипфейков, оскорбительных или клеветнических видео, может квалифицироваться как соучастие в нарушении закона.
В частности, при создании и распространении подобных материалов могут нарушаться:
- Закон "О персональных данных и их защите" - использование изображения человека без его согласия.
- Уголовный кодекс Республики Казахстан – статьи о клевете, распространении заведомо ложной информации, разжигании социальной, национальной или иной розни, вмешательстве в частную жизнь, нарушении авторских и смежных прав.
- Гражданский кодекс – нормы, защищающие честь, достоинство и деловую репутацию граждан.
Создание и пересылка подобных материалов – это не просто элемент цифрового развлечения, а потенциальное нарушение закона, за которое может наступить административная или уголовная ответственность.
"Призываем пользователей ответственно подходить к использованию нейросетей и созданию контента. Будьте внимательны и критичны: не доверяйте роликам, вызывающим сильные эмоции, проверяйте источники и не становитесь частью манипуляций с использованием технологий дипфейков", – говорится в сообщении Центра.
Фото: pixabay.com/estradaonze