Добавить новость
Декабрь 2010
Январь 2011
Февраль 2011
Март 2011
Апрель 2011
Май 2011
Июнь 2011
Июль 2011
Август 2011
Сентябрь 2011
Октябрь 2011
Ноябрь 2011
Декабрь 2011
Январь 2012
Февраль 2012
Март 2012
Апрель 2012
Май 2012
Июнь 2012
Июль 2012
Август 2012
Сентябрь 2012
Октябрь 2012
Ноябрь 2012
Декабрь 2012
Январь 2013
Февраль 2013
Март 2013
Апрель 2013
Май 2013
Июнь 2013
Июль 2013
Август 2013
Сентябрь 2013
Октябрь 2013
Ноябрь 2013
Декабрь 2013
Январь 2014
Февраль 2014
Март 2014
Апрель 2014
Май 2014
Июнь 2014
Июль 2014
Август 2014
Сентябрь 2014
Октябрь 2014
Ноябрь 2014
Декабрь 2014
Январь 2015
Февраль 2015
Март 2015
Апрель 2015
Май 2015
Июнь 2015
Июль 2015
Август 2015
Сентябрь 2015
Октябрь 2015
Ноябрь 2015
Декабрь 2015
Январь 2016
Февраль 2016
Март 2016
Апрель 2016
Май 2016
Июнь 2016
Июль 2016
Август 2016
Сентябрь 2016
Октябрь 2016
Ноябрь 2016
Декабрь 2016
Январь 2017
Февраль 2017
Март 2017
Апрель 2017
Май 2017
Июнь 2017
Июль 2017
Август 2017
Сентябрь 2017
Октябрь 2017
Ноябрь 2017
Декабрь 2017
Январь 2018
Февраль 2018
Март 2018
Апрель 2018
Май 2018
Июнь 2018
Июль 2018
Август 2018
Сентябрь 2018
Октябрь 2018
Ноябрь 2018
Декабрь 2018
Январь 2019
Февраль 2019
Март 2019 Апрель 2019 Май 2019 Июнь 2019 Июль 2019 Август 2019 Сентябрь 2019 Октябрь 2019 Ноябрь 2019 Декабрь 2019 Январь 2020 Февраль 2020 Март 2020 Апрель 2020 Май 2020 Июнь 2020 Июль 2020 Август 2020 Сентябрь 2020 Октябрь 2020 Ноябрь 2020
Декабрь 2020
Январь 2021 Февраль 2021 Март 2021
Апрель 2021
Май 2021 Июнь 2021
Июль 2021
Август 2021
Сентябрь 2021 Октябрь 2021 Ноябрь 2021 Декабрь 2021 Январь 2022 Февраль 2022 Март 2022 Апрель 2022 Май 2022 Июнь 2022 Июль 2022 Август 2022 Сентябрь 2022 Октябрь 2022 Ноябрь 2022 Декабрь 2022 Январь 2023 Февраль 2023 Март 2023 Апрель 2023 Май 2023 Июнь 2023 Июль 2023 Август 2023 Сентябрь 2023 Октябрь 2023 Ноябрь 2023 Декабрь 2023 Январь 2024 Февраль 2024 Март 2024 Апрель 2024 Май 2024 Июнь 2024 Июль 2024 Август 2024 Сентябрь 2024 Октябрь 2024 Ноябрь 2024 Декабрь 2024 Январь 2025 Февраль 2025 Март 2025 Апрель 2025 Май 2025 Июнь 2025 Июль 2025 Август 2025 Сентябрь 2025 Октябрь 2025 Ноябрь 2025 Декабрь 2025
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31

Поиск города

Ничего не найдено

Знак отличия: в России предложили маркировать ИИ-контент

0 398

В российские онлайн-сервисы необходимо внедрить механизм пользовательской маркировки контента, созданного при помощи искусственного интеллекта (ИИ). Об этом заявил зампредседателя комитета Госдумы по информационной политике, информационным технологиям и связи Антон Горелкин. Подробности о том, как маркировка контента способна помочь в борьбе с дипфейками и как ее могут реализовать в России, читайте в материале «Известий».

Средство от дипфейков

Механизм пользовательской маркировки ИИ-контента необходимо внедрять в российские онлайн-сервисы по аналогии с видеохостингом YouTube. Об этом зампредседателя комитета Госдумы по информационной политике, информационным технологиям и связи Антон Горелкин написал в своем Telegram-канале.

«При публикации видео автор должен указывать, что к его созданию причастны генеративные технологии. На мой взгляд, это правильно и честно по отношению к своей аудитории», — сообщил Горелкин.

По мнению депутата, дополнительная проверка материалов может быть реализована на основе единой платформы по выявлению недостоверного контента — об этой новой разработке в Минцифры сообщали ранее. Точные сроки ее создания пока не разглашаются, однако ведомство уже получило предложение по проведению научно-исследовательских работ в этой сфере.

Горелкин также подчеркнул, что после того, как платформа будет создана, к ней обязательно должны подключиться все российские онлайн-сервисы, работающие с пользовательским контентом. Депутат отметил, что такие системы призваны помешать злоумышленникам использовать фейковые изображения и видео для манипулирования общественным мнением россиян. Подобные действия он назвал «вопросом времени».

«Учитывая, что ИИ-инструменты с каждым днем становятся всё доступнее, не сомневаюсь, что уже на следующих выборах мы можем столкнуться с их злонамеренным использованием», — заключил Горелкин.

Инструмент мошенников

Вопрос маркировки контента, созданного при помощи искусственного интеллекта, сегодня становится всё актуальнее из-за его широкого распространения. Так, в рунете ИИ используется для создания легального контента от пользователей и бизнеса. В частности, нейросети помогают делать контент-планы для соцсетей, рекламные фото- и видеоматериалы, дизайн презентаций, иллюстрации и другие материалы.

— Нейросети позволяют сильно сократить затраты и время на производство такого контента, который нужен для разовых или краткосрочных задач, — говорит в беседе с «Известиями» специалист по реагированию на инциденты Angara Security Алина Андрух.

Как отмечает эксперт, в 2023 году число видеодипфейк-контента в Сети выросло на 550% по сравнению с 2019-м. Такой показатель говорит о доступности создания и распространения подобных материалов интернет-пользователями. В то же время возможности нейросетей оценили и киберпреступники, которые стали использовать методы на основе ИИ для проведения различных кибератак и интернет-мошенничества.

По словам Алины Андрух, в результате сбора голосовых данных киберпреступники получили возможность усовершенствовать тактики фишинговых атак на частных лиц и бизнес, для которых используются аудио- и видеофейки. Так, с начала 2024 года в России стали фиксироваться случаи мошеннических схем, в которых применяются в совокупности техники социальной инженерии и deepfake.

— Цель таких атак — получение денежных средств от сотрудников компаний, которым поступают сообщения от фейкового аккаунта их руководителя в Telegram, — объясняет специалист.

Впрочем, другой сценарий использования дипфейков — это введение пользователей в заблуждение и создание большого общественного резонанса. В качестве примера начальник отдела по информационной безопасности компании «Код безопасности» Алексей Коробченко приводит фальшивые фотографии задержания экс-президента США Дональда Трампа или папы римского Франциска в пуховике, которые были созданы ИИ. При этом дипфейки могут использоваться и в обратную сторону: например, совершив какой-либо антиобщественный поступок, знаменитость может сказать, что видео- или фотоданные о нем были фальшивкой.

Правила для нейросетей

Появление генерируемого контента и отсутствие какой-либо маркировки приводят к тому, что пользователи теряют доверие к различным источникам, отмечает Алексей Коробченко. С другой стороны, те, кто не сильно искушен в возможностях ИИ, могут поддаться негативному эффекту, например страху, если ИИ-видео демонстрирует какие-либо ужасы.

— В связи с этим вопрос о регулировании контента, созданного при помощи ИИ, стал широко обсуждаться еще в прошлом году, — говорит собеседник «Известий». — Законодатели ЕС, США и других стран рассматривали проекты по обязательной маркировке ИИ-контента, однако единого подхода пока так и не выработали.

Управляющий партнер, руководитель практики публичного права юридического бюро «Правовые стратегии» Олег Николаев напоминает, что 13 марта 2024 года в ЕС был принят первый в мире профильный нормативный акт — «Закон об искусственном интеллекте». В то же время некоторые сервисы ввели собственные правила по маркировке — к примеру, YouTube обязал пользователей помечать контент, созданный нейросетями. Но пока подобные инициативы носят единичный характер.

Между тем шаги в области регулирования контента, создаваемого при помощи ИИ, предпринимаются и в России: в частности, по словам Алины Андрух, правительство РФ поручило разработать способы регулирования применения технологии искусственного интеллекта до 19 марта 2024 года.

— Ранее, в 2023 году, в России уже предлагали разграничивать реальный контент и тот, что создан при помощи ИИ, путем размещения специального штампа-отметки, — рассказывает эксперт. — Однако такой способ является достаточно трудным для реализации и контроля.

Более того, если будет введена подобная обязательная отметка, то злоумышленники смогут целенаправленно распространять материалы без указания на использование ИИ, еще больше вводя людей в заблуждение, отмечает Алина Андрух. Именно поэтому в вопросах контроля контента от ИИ очень важен взвешенный подход.

Законодательный аспект

Сегодня в России для выявления следов работы ИИ, в том числе аудио- и видеофейков, разрабатываются новые инструменты — например, российский проект «Зефир», представленный летом прошлого года. Как говорит Алина Андрух, «Зефир» способен обнаруживать искусственно созданный контент с высокой вероятностью.

— Создание новых инструментов и наработок позволит в ближайшем будущем упростить выявление таких материалов, — считает собеседница «Известий».

В то же время, по словам Олега Николаева, для внедрения механизма пользовательской маркировки ИИ-контента потребуется либо дополнить соответствующими нормами Федеральный закон «Об информации, информационных технологиях и о защите информации», либо разработать и ввести в действие абсолютно новый нормативный акт, регулирующий все вопросы, связанные с ИИ, в том числе и вопросы маркировки.

Как отмечает эксперт, второй вариант представляется более предпочтительным, поскольку технологии искусственного интеллекта всё глубже проникают в общественные отношения и увеличивают свое влияние на повседневную деятельность граждан и организаций.

— В то же время возложение на пользователей или владельцев соцсетей обязанности маркировать контент, сгенерированный с использованием ИИ, представляется излишним, — считает собеседник «Известий».

Олег Николаев напоминает, что действующее законодательство устанавливает обязанность администраторов сайтов (в том числе соцсетей) мониторить производимый пользователями контент и ограничивать доступ к запрещенной информации. За неисполнение такой обязанности предусмотрена ответственность в виде штрафа до 8 млн рублей.

Таким образом, сегодня уже существуют правовые механизмы, позволяющие бороться с распространением запрещенной информации, при этом не имеет значения, сгенерирована она с использованием ИИ или без него. Маркировка же всех подряд материалов, произведенных с использованием технологий ИИ, вряд ли имеет смысл, заключает специалист.


Читайте также

В тренде на этой неделе

Оптимизация: в Ульяновской области станет меньше пригородных поездов

График ремонтных работ энергетиков на период с 16 по 30 декабря

Золотые горы, погодные качели и танк в парке: о чем писали главы городов и районов Коми

За убийство пенсионерки женщину из Барыша приговорили к 8,5 годам колонии

Загрузка...

Загрузка...
Новости последнего часа со всей страны в непрерывном режиме 24/7 — здесь и сейчас с возможностью самостоятельной быстрой публикации интересных "живых" материалов из Вашего города и региона. Все новости, как они есть — честно, оперативно, без купюр.



News-Life — паблик новостей в календарном формате на основе технологичной новостной информационно-поисковой системы с элементами искусственного интеллекта, тематического отбора и возможностью мгновенной публикации авторского контента в режиме Free Public. News-Life — ваши новости сегодня и сейчас. Опубликовать свою новость в любом городе и регионе можно мгновенно — здесь.
© News-Life — оперативные новости с мест событий по всей Украине (ежеминутное обновление, авторский контент, мгновенная публикация) с архивом и поиском по городам и регионам при помощи современных инженерных решений и алгоритмов от NL, с использованием технологических элементов самообучающегося "искусственного интеллекта" при информационной ресурсной поддержке международной веб-группы 123ru.net в партнёрстве с сайтом SportsWeek.org и проектом News24.


Светские новости



Сегодня в Украине


Другие новости дня



Все города России от А до Я