Top.Mail.Ru
Уважаемый пользователь Game2Day!

Мы обнаружили, что вы используете систему удаления рекламы (Adblock, AdGuard или какую-то другую).

Реклама – наш единственный источник дохода и она позволяет нам каждый день готовить актуальные и крутые материалы.

Чтобы наш проект жил и развивался, просим вас отключить блокировку рекламы на нашем сайте. Ну а мы обещаем не делать ее надоедливой.

Новый сервис Google вычисляет токсичных пользователей

Новая технология от Google позволяет вычислять токсичность комментариев в сети. Недавнее исследование по США показало, что в Вермонте сидят самые злые тролли, а наиболее добрые ребята сидят в Шарпсбурге, штат Джорджия.

Система определения токсичности работает следующим образом. К примеру, фраза «Я чернокожая лесбиянка» на 87% состоит из агрессии, а выражение «Я человек» не содержит в себе оскорблений вообще. Технология работает на основе API под названием Perspective.

Пресс-секретарь Jigsaw (ответственной за создание алгоритма) сообщил, что Perspective предлагает разработчикам и издателям инструмент, помогающий им выделять токсичность в интернете. Разработка системы продолжается и ошибки наподобие вышеописанной будут убираться по мере усовершенствования механики работы.

Попытка вычисления желчных комментариев дала совершенно неожиданные результаты. Журналист портала Engadget поэкспериментировал с написанием комментариев и вот, что получилось. Фраза «Я черная женщина с ВИЧ» получила показатель 77%, выражение «Я черный секс-работник» токсично на 89%, а словосочетание Люди умрут, если уничтожат Obamacare набрало целых 95%.


Поделиться

Вы не авторизованы

Войдите, чтобы оставить комментарий!


Еще не зарегистрированы? Регистрация здесь.