Physical Address
304 North Cardinal St.
Dorchester Center, MA 02124
Physical Address
304 North Cardinal St.
Dorchester Center, MA 02124
Xbox ha informado que el 87% de las acciones de moderación realizadas en la primera mitad del año fueron llevadas a cabo por sistemas automáticos de inteligencia artificial (IA). La plataforma ha reforzado su moderación con nuevos modelos de IA y moderadores humanos para detectar y eliminar contenidos tóxicos, con el objetivo de garantizar la seguridad y diversión de los usuarios en su videoconsola Xbox. Las nuevas herramientas utilizadas incluyen Community Sift, que realiza más de 3 millones de acciones humanas al año, y Turing Bletchley v3, un modelo multilingüe que mejora la detección de contenido tóxico.
Según el informe de transparencia de Xbox, durante los primeros seis meses de 2023 se realizaron un total de 156.000 acciones de moderación, lo que supone un aumento del 39% en comparación con el periodo anterior. Además, se ha implementado una nueva función de informes de voz para capturar y denunciar el acoso por voz en el juego. Estas medidas demuestran el compromiso de Xbox en mantenerse al día con los cambios en la industria y garantizar una experiencia segura para los jugadores.
La moderación en Xbox es fundamental para promover un entorno seguro y divertido para los usuarios. Con el aumento del contenido tóxico en línea, es necesario contar con herramientas automáticas y moderadores humanos que puedan detectar y eliminar este tipo de contenido. Xbox ha dado un paso adelante al reforzar su moderación con nuevos modelos de IA y ha logrado que el 87% de las acciones de moderación sean realizadas por sistemas automáticos. Además, la implementación de la función de informes de voz para denunciar el acoso por voz en el juego demuestra el compromiso de Xbox en abordar todas las formas de comportamiento tóxico en su plataforma.
Con el continuo avance de la tecnología, es probable que Xbox siga mejorando sus herramientas de moderación en el futuro. La inteligencia artificial juega un papel crucial en la detección de contenido tóxico, y es probable que se sigan desarrollando modelos más avanzados para una detección más precisa. Asimismo, es posible que se implementen nuevas funciones y características para abordar otras formas de comportamiento tóxico, como el acoso por voz. En definitiva, Xbox está comprometido en garantizar una experiencia segura y divertida para sus usuarios, y seguirá trabajando en la mejora de su moderación para lograr este objetivo.