Physical Address

304 North Cardinal St.
Dorchester Center, MA 02124

Descubre cómo Xbox utiliza la IA para brindarte una experiencia segura y sin preocupaciones

  • El 87% de las acciones de moderación en Xbox fueron realizadas por sistemas automáticos de IA en la primera mitad del año.
  • Xbox ha reforzado su moderación con nuevos modelos de IA y moderadores humanos para detectar contenidos tóxicos.
  • Las nuevas herramientas utilizadas incluyen Community Sift y Turing Bletchley v3.
  • En los primeros seis meses de 2023, se realizaron un total de 156.000 acciones de moderación, un aumento del 39% en comparación con el periodo anterior.
  • Se ha implementado una nueva función de informes de voz para capturar y denunciar el acoso por voz en el juego.

Xbox refuerza su moderación para una experiencia segura

Xbox ha informado que el 87% de las acciones de moderación realizadas en la primera mitad del año fueron llevadas a cabo por sistemas automáticos de inteligencia artificial (IA). La plataforma ha reforzado su moderación con nuevos modelos de IA y moderadores humanos para detectar y eliminar contenidos tóxicos, con el objetivo de garantizar la seguridad y diversión de los usuarios en su videoconsola Xbox. Las nuevas herramientas utilizadas incluyen Community Sift, que realiza más de 3 millones de acciones humanas al año, y Turing Bletchley v3, un modelo multilingüe que mejora la detección de contenido tóxico.

Aumento en acciones de moderación y nuevas funciones

Según el informe de transparencia de Xbox, durante los primeros seis meses de 2023 se realizaron un total de 156.000 acciones de moderación, lo que supone un aumento del 39% en comparación con el periodo anterior. Además, se ha implementado una nueva función de informes de voz para capturar y denunciar el acoso por voz en el juego. Estas medidas demuestran el compromiso de Xbox en mantenerse al día con los cambios en la industria y garantizar una experiencia segura para los jugadores.

Importancia de la moderación en Xbox

La moderación en Xbox es fundamental para promover un entorno seguro y divertido para los usuarios. Con el aumento del contenido tóxico en línea, es necesario contar con herramientas automáticas y moderadores humanos que puedan detectar y eliminar este tipo de contenido. Xbox ha dado un paso adelante al reforzar su moderación con nuevos modelos de IA y ha logrado que el 87% de las acciones de moderación sean realizadas por sistemas automáticos. Además, la implementación de la función de informes de voz para denunciar el acoso por voz en el juego demuestra el compromiso de Xbox en abordar todas las formas de comportamiento tóxico en su plataforma.

El futuro de la moderación en Xbox

Con el continuo avance de la tecnología, es probable que Xbox siga mejorando sus herramientas de moderación en el futuro. La inteligencia artificial juega un papel crucial en la detección de contenido tóxico, y es probable que se sigan desarrollando modelos más avanzados para una detección más precisa. Asimismo, es posible que se implementen nuevas funciones y características para abordar otras formas de comportamiento tóxico, como el acoso por voz. En definitiva, Xbox está comprometido en garantizar una experiencia segura y divertida para sus usuarios, y seguirá trabajando en la mejora de su moderación para lograr este objetivo.