Прямой эфир: +7 495 728 77 01

SMS, WhatsApp, Viber, Telegram: +7 926 0000 920*

Обратная связь

Прямой эфир

секундочку...

Далее в эфире

Власти объявили конкурс на разработку алгоритма против фейков

26.07.2022 16:55

Фото: unsplash/Ilya Pavlov

Власти объявили конкурс на создание специальной системы модерации для борьбы с фейками. Об этом пишут "Известия". Предполагается, что искусственный интеллект поможет специалистам находить в интернете негатив, оскорбления и дезинформацию, а также оценит степень влияния таких сообщений на россиян. Начальная цена за разработку – 60 миллионов рублей. При это условное название нового IT-помощника уже придумано – "Вепрь".

Специалисты отмечают, что сейчас есть алгоритмы, которые находят в сети примитивную ложную информацию. Однако без участия человека им все равно не обойтись, говорит независимый эксперт по коммуникациям Ярослав Федосеев.

Ярослав Федосеев
независимый эксперт по коммуникациям
Такой искусственный интеллект существует, тем не менее вероятность результата никогда не будет составлять 90-100 процентов, она варьируется где-то в районе 70-80 процентов. Во-первых, для проверки определенного рода новостей требуется, действительно, участие человека. То есть, условно говоря, мы получаем какой-то факт, этот факт можно проверить на основе данных, энциклопедических данных. Бывают ситуации, когда, например, нужно опровергнуть или подтвердить заявление какого-то ведомства, без прямого звонка подтвердить не удастся. Очень часто, к сожалению, фейки распространяются не только как обычный факт, что британские ученые заявили, а, к примеру, бывают вбросы от каких-то ведомств, министерств. Для того, чтобы опровергнуть или подтвердить это, требуется участие человека.


Русский язык слишком сложный для машинных алгоритмов, считает судебный эксперт Игорь Иванишко.

Игорь Иванишко
судебный эксперт
Когда эксперт работает с каким-то высказыванием, если он вырван из контекста, невозможно в суде обосновать позицию, что данная фраза, словосочетание направлено на разжигание религиозной, национальной и другой вражды. Если просматривать весь контекст данного контента, оказывается, что не все так однозначно. Нет интенсивности, явной цели, мотивации лица, который написал данный текст, больше вопросительных предложений, чем утвердительных и так далее. То есть всегда важен еще контекст, а не просто вырванные какие-то словосочетания, какие-то отдельные слова. Машина не может сейчас эффективно решать вопросы по выявлению общего контекста, здесь нужен человек.


Кроме того, пока не существует программ, которые могли бы определить смысл текста, добавляет Игорь Иванишко.

Игорь Иванишко
судебный эксперт
На уровне системы МВД, гарантий безопасности мы проводим такие исследования параллельно с аналогичными ведомствами зарубежных стран. Мы видим, какие есть минусы у этих систем. По сути, нужно вручную учить машину. Кроме того, часто такие системы, которые сейчас используют наши правоохранительные органы, замечают те сайты, которые ведут эксперты. В том числе я как судебный эксперт комментирую некоторые процессы, так вот эта автоматическая система иногда помечает это как опасный контент, а потом нужно вручную разбираться.


Ранее подведомственный Роскомнадзору Главный радиочастотный центр объявил конкурс на создание системы "Окулус". По задумке чиновников, искусственный интеллект будет изучать фото- и видеоконтент и выявлять нарушение законов. В частности, алгоритмы должны вычислять материалы с признаками терроризма и экстремизма, призывы к массовым беспорядкам, а также оскорбления в адрес государственных символов и органов власти.

Подкасты

Все подкасты

закрыть
закрыть
Обратная связь
Форма обратной связи

Отправить