Physical Address

304 North Cardinal St.
Dorchester Center, MA 02124

Descubre cómo Xbox utiliza la IA para brindarte una experiencia segura y sin preocupaciones

  • El 87% de las acciones de moderación en Xbox son realizadas por sistemas automáticos.
  • Se han implementado nuevos modelos de IA para detectar contenidos tóxicos.
  • Las nuevas herramientas incluyen Community Sift y Turing Bletchley v3.
  • En los primeros seis meses de 2023 se realizaron 135,000 acciones de moderación por imágenes tóxicas y 84,000 por mensajes tóxicos.

Xbox refuerza su moderación para una experiencia segura

Xbox ha reforzado su sistema de moderación con inteligencia artificial (IA) para garantizar una experiencia segura y divertida para los usuarios. En los primeros seis meses de 2023, el 87% de las acciones de moderación fueron realizadas por sistemas automáticos. La compañía ha implementado nuevos modelos de IA, como Community Sift y Turing Bletchley v3, para detectar contenidos tóxicos en la plataforma online de Xbox.

Además, Xbox ha destacado una nueva función de informes de voz para capturar y denunciar el acoso por voz en los juegos. Durante este periodo, se realizaron 135,000 acciones de moderación por imágenes tóxicas y 84,000 por mensajes tóxicos, lo que representa un aumento del 39% en comparación con el periodo anterior.

Xbox utiliza IA para garantizar una experiencia segura

En un esfuerzo por mantener una experiencia segura y divertida para los usuarios, Xbox ha reforzado su sistema de moderación con inteligencia artificial (IA). Los sistemas automáticos de la plataforma fueron responsables del 87% de las acciones de moderación realizadas en los primeros seis meses de 2023. Para detectar contenidos tóxicos, Xbox ha implementado nuevos modelos de IA, como Community Sift y Turing Bletchley v3.

Además, Xbox ha introducido una nueva función de informes de voz para combatir el acoso por voz en los juegos. Durante este periodo, se llevaron a cabo 135,000 acciones de moderación por imágenes tóxicas y 84,000 por mensajes tóxicos. Estos números representan un aumento del 39% en comparación con el periodo anterior, lo que demuestra la importancia de la moderación en la plataforma.

Xbox implementa IA para detectar contenidos tóxicos

Con el objetivo de garantizar una experiencia segura y promover la diversión de los usuarios, Xbox ha reforzado su sistema de moderación con inteligencia artificial (IA). Durante los primeros seis meses de 2023, el 87% de las acciones de moderación fueron realizadas por sistemas automáticos. Para detectar contenidos tóxicos, Xbox ha utilizado nuevos modelos de IA, como Community Sift y Turing Bletchley v3.

En este periodo, se llevaron a cabo 135,000 acciones de moderación por imágenes tóxicas y 84,000 por mensajes tóxicos. Estas cifras representan un aumento del 39% en comparación con el periodo anterior. Además, Xbox ha introducido una nueva función de informes de voz para capturar y denunciar el acoso por voz en los juegos, demostrando su compromiso con la seguridad de los usuarios.

Xbox refuerza su sistema de moderación con IA

Xbox ha fortalecido su sistema de moderación con inteligencia artificial (IA) para garantizar una experiencia segura en su plataforma. Durante los primeros seis meses de 2023, el 87% de las acciones de moderación fueron realizadas por sistemas automáticos. Para detectar contenidos tóxicos, Xbox ha implementado nuevos modelos de IA, como Community Sift y Turing Bletchley v3.

En este periodo, se llevaron a cabo 135,000 acciones de moderación por imágenes tóxicas y 84,000 por mensajes tóxicos. Estas cifras representan un aumento del 39% en comparación con el periodo anterior. Xbox también ha introducido una nueva función de informes de voz para capturar y denunciar el acoso por voz en los juegos, reafirmando su compromiso con la seguridad de los usuarios.