Meta использует искусственный интеллект для борьбы с вредным контентом

Блог компании Timeweb Cloud Искусственный интеллект Социальные сети и сообщества
Компания Meta заявила в среду о создании технологии на основе искусственного интеллекта, которая способна более быстро распознавать вредный контент, включая призывы отказываться от вакцинации.



Как правило, ИИ-системы обучаются новым задачам по многотысячным или даже многомиллионным примерам, при этом на сбор и анализ данных обычно уходят месяцы. Технология Few-Shot Learner (FSL) позволит новой ИИ-системе обойтись лишь несколькими тренировочными примерами и сократит процесс устранения нежелательного контента до нескольких недель.

Meta запрещает распространять на своих площадках любую дезинформацию о вакцинах против COVID-19. Тем не менее, иногда пользователи формулируют свое мнение в виде вопросов или кодовых слов, пытаясь таким образом избежать удаления постов. По словам компании, новая технология будет успешно блокировать такие лазейки.

Последние испытания FSL показали хорошие результаты. Система смогла распознать вредный контент, который традиционные модели (SL) игнорировали. По заявлению Meta, FSL в отдельных случаях на 55% более эффективна, чем прочие технологии, связанные с few-shot learning. В среднем этот показатель составляет 12%.

Среди побочных эффектов использования таких программ, как FSL, наибольшее опасение вызывает необъективность при модерации информации. Однако, как уверяет руководство Meta, компания активно работает над решением этой проблемы.)
Теги:
Хабы: