El bullying online es uno de los mayores problemas que enfrentan creadores de contenido de videos de todo tipo. Y de hecho en diferentes ámbitos se vienen pidiendo medidas para limitar estas formas de acoso online.
En este contexto, Intel desarrolló un sistema denominado Bleep, que utiliza herramientas de hardware e Inteligencia Artificial (IA) para detectar y filtrar los comentarios tóxicos de otros jugadores durante los chats de voz de las partidas de videojuegos online, con lenguaje violento o discriminatorio.
Este sistema es capaz de detectar y reducir en los chats de voz de los videojuegos las expresiones tóxicas de los jugadores. Funciona tanto en computadoras portátiles como de mesa con procesadores de Intel.
El programa puede configurarse a través de una serie de ajustes, en los que los usuarios pueden elegir los filtros y las categorías a detectar, como los comentarios contra otras personas por discapacidades o por su aspecto físico, el lenguaje agresivo contra otros jugadores, la discriminación a la comunidad LGTBQ+ o la misoginia.
Asimismo, la herramienta también es capaz de advertir otras categorías como el uso de lenguaje racista o xenófobo, sexualmente explícito, insultos o los eslóganes de nacionalismo blanco.
Actualmente Bleep se encuentra en fase beta, y la empresa espera que su desarrollo esté completo y disponible para los jugadores durante 2021.
Con información de Infobae.