Physical Address
304 North Cardinal St.
Dorchester Center, MA 02124
Physical Address
304 North Cardinal St.
Dorchester Center, MA 02124
Xbox ha reforzado su sistema de moderación con inteligencia artificial (IA) para garantizar una experiencia segura y divertida para los usuarios. En los primeros seis meses de 2023, el 87% de las acciones de moderación fueron realizadas por sistemas automáticos. La compañía ha implementado nuevos modelos de IA, como Community Sift y Turing Bletchley v3, para detectar contenidos tóxicos en la plataforma online de Xbox.
Además, Xbox ha destacado una nueva función de informes de voz para capturar y denunciar el acoso por voz en los juegos. Durante este periodo, se realizaron 135,000 acciones de moderación por imágenes tóxicas y 84,000 por mensajes tóxicos, lo que representa un aumento del 39% en comparación con el periodo anterior.
En un esfuerzo por mantener una experiencia segura y divertida para los usuarios, Xbox ha reforzado su sistema de moderación con inteligencia artificial (IA). Los sistemas automáticos de la plataforma fueron responsables del 87% de las acciones de moderación realizadas en los primeros seis meses de 2023. Para detectar contenidos tóxicos, Xbox ha implementado nuevos modelos de IA, como Community Sift y Turing Bletchley v3.
Además, Xbox ha introducido una nueva función de informes de voz para combatir el acoso por voz en los juegos. Durante este periodo, se llevaron a cabo 135,000 acciones de moderación por imágenes tóxicas y 84,000 por mensajes tóxicos. Estos números representan un aumento del 39% en comparación con el periodo anterior, lo que demuestra la importancia de la moderación en la plataforma.
Con el objetivo de garantizar una experiencia segura y promover la diversión de los usuarios, Xbox ha reforzado su sistema de moderación con inteligencia artificial (IA). Durante los primeros seis meses de 2023, el 87% de las acciones de moderación fueron realizadas por sistemas automáticos. Para detectar contenidos tóxicos, Xbox ha utilizado nuevos modelos de IA, como Community Sift y Turing Bletchley v3.
En este periodo, se llevaron a cabo 135,000 acciones de moderación por imágenes tóxicas y 84,000 por mensajes tóxicos. Estas cifras representan un aumento del 39% en comparación con el periodo anterior. Además, Xbox ha introducido una nueva función de informes de voz para capturar y denunciar el acoso por voz en los juegos, demostrando su compromiso con la seguridad de los usuarios.
Xbox ha fortalecido su sistema de moderación con inteligencia artificial (IA) para garantizar una experiencia segura en su plataforma. Durante los primeros seis meses de 2023, el 87% de las acciones de moderación fueron realizadas por sistemas automáticos. Para detectar contenidos tóxicos, Xbox ha implementado nuevos modelos de IA, como Community Sift y Turing Bletchley v3.
En este periodo, se llevaron a cabo 135,000 acciones de moderación por imágenes tóxicas y 84,000 por mensajes tóxicos. Estas cifras representan un aumento del 39% en comparación con el periodo anterior. Xbox también ha introducido una nueva función de informes de voz para capturar y denunciar el acoso por voz en los juegos, reafirmando su compromiso con la seguridad de los usuarios.