Eventbrite

Centro de Ayuda

Cómo personaliza y modera contenido Eventbrite

Última actualización: 17 de febrero de 2024. La misión de Eventbrite es conectar a las personas a través experiencias en vivo. Estamos completamente comprometidos a crear un mercado en el que organizadores y consumidores confíen para facilitar experiencias seguras e incluyentes. En este artículo compartimos más acerca de cómo mantenemos seguro nuestro mercado en línea, incluyendo cómo personalizamos y moderamos contenido en nuestra plataforma.

En este artículo

  • Cómo personalizamos contenido
  • Cómo moderamos contenido
  • Cómo detectamos infracciones de contenido
  • Cómo revisamos el contenido

Cómo personalizamos contenido

Para ayudarte a encontrar las experiencias de mayor interés en el mercado de Eventbrite, usamos los datos que tenemos sobre ti para priorizar los eventos que te mostramos. Para personalizar tu experiencia en la vista de páginas de eventos y de anuncios, usamos algunas señales como el contenido que has visto, en el que has hecho clic, al que has dado "me gusta", que sigues o que has buscado, así como información que proporcionas cuando respondes a alguna de nuestras encuestas, registros o procesos de compra de boletos para un evento. En nuestra Política de privacidad, puedes encontrar más información acerca de cómo usamos y protegemos tus datos. 

Cómo moderamos contenido

La moderación de contenido es el proceso mediante el cual una plataforma revisa y toma medidas respecto al contenido que es ilegal, inapropiado o dañino. Nuestras Directrices de comunidad proporcionan transparencia sobre cómo mantenemos segura nuestra comunidad. También sirven como barreras de seguridad para determinar qué tipos de contenido se fomentan y qué tipos de contenido amenazan la integridad de nuestra plataforma y no son permitidos. Para combatir el abuso en nuestra plataforma contamos con una combinación de herramientas y procesos, entre ellos la detección proactiva a través de tecnología de aprendizaje automático y sistemas normativos, la detección reactiva a través de reportes de nuestra comunidad y revisiones humanas.

Cómo detectamos infracciones de contenido

Detección proactiva

Detectamos una porción significativa de infracciones de contenido a través de dos métodos principales: (1) sistemas normativos (por ejemplo, normas diseñadas especialmente para identificar contenido que reúne criterios específicos) y (2) tecnología de aprendizaje automático (por ejemplo, un proceso estadístico en el cual entrenamos un modelo para reconocer ciertos tipos de patrones basados en ejemplos anteriores y hacer predicciones sobre nuevos datos). 

Los sistemas normativos son efectivos cuando hay criterios simples que indican un riesgo elevado. La tecnología de aprendizaje automático hace uso de varias señales y, por lo tanto, es más efectiva cuando hay patrones complejos que indican un riesgo elevado. Ambas estrategias de detección se validan con análisis fuera de línea y se supervisan para encontrar oportunidades de mejora continua.

Detección reactiva

Además de los métodos proactivos descritos anteriormente, los miembros de nuestra comunidad juegan un papel importante en el reporte de contenido que consideran dañino, ya sea Poniéndose en contacto con nosotros o haciendo uso del enlace Reportar este evento que se encuentra en la parte inferior de cada evento publicado. Aunque tenemos el objetivo de eliminar el contenido dañino antes de que sea visto, esta línea de comunicación abierta con nuestra comunidad es una parte crucial de nuestro programa de moderación de contenido. 

Cómo revisamos el contenido

A pesar de que la automatización es fundamental en la ampliación de nuestro programa de moderación de contenido, aún existen áreas en las que la revisión humana es, y es probable que siempre sea, necesaria. Por ejemplo, el determinar si alguien es víctima de acoso implica matices y contextos. 

Cuando nuestro equipo revisa contenido, esto es lo que sucede:

  • Revisión: nuestro equipo revisa el contenido y decide si este infringe nuestras políticas o es ilegal. Según los detalles del caso, nuestro equipo puede revisar solamente el contenido que se reportó o la cuenta de manera más completa. 

  • Obtención de información (de ser necesaria): en caso de que el equipo no pueda determinar si el contenido infringe nuestras políticas, es posible que solicite información de las partes concernientes (por ejemplo, el titular de la cuenta o la persona que reportó el contenido).

  • Medidas: si se determina que el contenido infringe nuestras políticas, el equipo tomará las medidas pertinentes, entre ellas quitar contenido de los resultados de búsqueda, eliminar contenido de páginas de eventos, despublicar páginas de eventos y/o restringir el acceso a cuentas.

  • Comunicado: cuando se llegue a una resolución, el equipo informará a las partes concernientes sobre las medidas que se tomaron y por qué se tomaron. Los usuarios afectados pueden responder al comunicado para solicitar una apelación de lo decidido. 

Nuestra prioridad es retirar contenido dañino de forma rápida y sin perturbar a nuestra comunidad. Al combinar la detección proactiva y reactiva y, de ser pertinente, rematar con la revisión humana de contenido que ha sido escalado, podemos detectar contenido y tomar medidas rápidamente.

Las formas en las que moderamos contenido deben evolucionar conforme lo hace el mundo que nos rodea. Actualizamos nuestro programa constantemente anticipando o respondiendo a nuevos comportamientos, tendencias y amenazas perceptibles a la integridad del mercado de Eventbrite.

¿Aún tienes dudas?