NoticiasMetaverso

Moderación del metaverso: ¿por qué y cómo gestionar haters y otros trolls?

Resumen: antes de que se ensamble un metaverso que funcione, hay una serie de desafíos técnicos que aún deben resolverse. Pero, sobre todo, empresas como Meta necesitan crear entornos seguros y agradables para los usuarios. Y la moderación del metaverso es clave para hacer eso realidad.

En los últimos meses, hemos oído hablar mucho del “metaverso”. Facebook ya ha lanzado elementos de él como un «sucesor de Internet móvil». Existen diferentes definiciones y enfoques de lo que es el “metaverso”. Pero esencialmente será una serie de espacios digitales interconectados y centrados en avatares. Podrás hacer cosas allí que no puedes hacer en el mundo físico.

Ahora, Facebook ofrece productos, como Horizon Home, una plataforma social para ayudar a las personas a crear e interactuar entre sí en el metaverso. Sin embargo, hay algunas cosas que no sabemos. Y uno de los aspectos más importantes que aún debemos entender es: ¿cómo se moderará el metaverso? Esta es una pregunta importante, ya que la moderación de contenido de las plataformas de redes sociales es actualmente un tema legislativo importante en prácticamente todos los países del G20. Estas líneas le brindan más información sobre la importancia de la moderación del metaverso y las diferentes formas de lograrlo.

Moderación del metaverso para resolver una serie de problemas existentes

Una serie de problemas amenazan el futuro del metaverso. De ahí la necesidad de centrarse en configurar la moderación de este espacio.

El acoso sexual, cada vez más presente

El acoso sexual, cada vez más presente en el metaverso está cada vez más presente, de ahí la necesidad de moderación del metaverso

Según Meta, el año pasado una beta tester reportó algo profundamente inquietante: había sido tocada en su avatar en Horizon Worlds. La revisión interna de Meta del incidente reveló que debería haber utilizado una herramienta llamada «Zona segura». Esto es parte de un conjunto de funciones de seguridad integradas en Horizon Worlds. Esta es una burbuja protectora para activar cuando te sientas amenazado. Tenga en cuenta que en Horizon Worlds de Facebook, hasta 20 avatares pueden unirse para explorar, pasar tiempo y construir en el espacio virtual.

Según el sitio estadounidense The Verge, la víctima explicó que la habían tocado. Pero lo peor es que hubo otras personas que apoyaron este comportamiento. Vivek Sharma, vicepresidente de Horizon, calificó el incidente de «absolutamente desafortunado».

Esta no es la primera vez que un usuario experimenta este tipo de comportamiento en la realidad virtual. Y lamentablemente no será el último. Recientemente , Jane Patel, cofundadora y vicepresidenta de investigación de metaversos en Kabuni Ventures, compartió una experiencia horrible. Su avatar en el metaverso supuestamente fue agredido sexualmente y violado por otros usuarios.

“Esencialmente, pero virtualmente, violaron en grupo a mi avatar y tomaron fotografías mientras intentaba escapar”, afirmó.

Seguridad Infantil en el Metaverso

La seguridad de los niños en el metaverso no está garantizada.

Titania Jordan, directora de padres en Bark Technologies, una aplicación de control parental para mantener a los niños seguros en línea y en la vida real, dijo que estaba particularmente preocupada por lo que los niños podrían encontrar en el metaverso. Explicó que los abusadores pueden dirigirse a los niños a través de mensajes en el juego o hablándoles a través de auriculares.

Recientemente, Callum Hood, jefe de investigación del Center for Countering Digital Hate, pasó varias semanas grabando las interacciones de VRChat en el juego. En el juego, las personas pueden formar comunidades virtuales, festejar en un club virtual o reunirse en espacios públicos virtuales. Oculus lo considera seguro para los adolescentes.

Sin embargo, durante un período de 11 horas, el Sr. Hood registró más de 100 incidentes problemáticos en VRChat, algunos de los cuales involucraron a usuarios que dijeron ser menores de 13 años. En varios casos, los avatares de los usuarios realizaron amenazas sexuales y violentas contra menores. En otro caso, alguien intentó mostrar contenido sexualmente explícito a un menor.

Desinformación en el Metaverso

Desinformación en el Metaverso

BuzzFeed News, una empresa estadounidense de medios de Internet, ha construido su propio mundo privado, denominado «Qniverse», para probar la realidad virtual de la empresa. Concluyó que el contenido prohibido en Instagram y Facebook no parece estar prohibido en Horizon Worlds.

BuzzFeed llenó Qniverse con frases que Meta «prometió explícitamente eliminar de Facebook e Instagram» (por ejemplo, «Covid es un engaño»). Pero descubrió que incluso después de informar al grupo, varias veces, a través de la función de informes de usuarios de Horizon, no se encontró que las frases problemáticas violaran el metacontenido en la política de realidad virtual.

Racismo en el Metaverso

Racismo en el Metaverso

En una publicación, un empleado anónimo de Facebook informa que no la está pasando «bien» usando la aplicación social VR Rec Room en los auriculares Oculus Quest. Según él, alguien estaba cantando un insulto racial. El empleado trató de denunciarlo, pero menciona que no puede identificar el nombre de usuario.

En un correo electrónico, el CEO y cofundador de Rec Room, Nick Fajt, dijo que un jugador que usaba el mismo insulto racial fue prohibido después de los informes de otros jugadores. Fajt cree que el jugador prohibido es la misma persona de la que se quejó el empleado de Facebook.

Theo Young, de 17 años, señaló que comenzó a notar un comportamiento más tóxico, incluido el lenguaje homofóbico, en los lobbies sociales de Echo VR la primavera pasada. Young dejó de jugar cuando vio que otros jugadores acosaban a un jugador.

“Dejé el juego bastante fuerte después de esa experiencia. Simplemente ya no era divertido”, explicó.

El acoso en línea se ha convertido en un gran problema

El acoso en línea se ha convertido en un gran problema

Según un estudio publicado este año por el Pew Research Center, 4 de cada 10 adultos estadounidenses han sufrido acoso en línea. Y los menores de 30 años no solo tienen más probabilidades de sufrir acoso, sino también abusos más graves. Meta se negó a decir cuántos informes ha recibido Oculus sobre acoso o discurso de odio.

Un estudio de 2019 sobre el acoso en realidad virtual realizado por investigadores de Oculus también descubrió que la definición de acoso en línea es muy subjetiva y personal, pero la sensación de presencia en la realidad virtual hace que el acoso sea más «intenso».

Los diferentes sistemas de moderación del metaverso

Como parte de la moderación del metaverso, existen algunas técnicas, algunas de las cuales ya se han adoptado.

Silenciamiento del usuario

Este es un sistema de moderación muy utilizado por los jugadores del metaverso. Esta acción consiste en no recibir audio de un reproductor. Riot, el editor de League of Legends (un juego conocido por sus problemas de toxicidad), ha realizado experimentos sobre el tema, mutando el chat de voz entre equipos contrarios.

Los intercambios fueron posteriormente analizados como 33% menos tóxicos. Sin embargo, la mutación también contribuye al autoaislamiento de las víctimas. Y, en última instancia, esto compromete la experiencia del juego y su duración de uso por parte de los jugadores.

Activación de la burbuja espacial

Activación del límite personal

Esta es una medida específica para un mundo de realidad virtual. Evita que el usuario sobrepase el límite íntimo (normalmente en torno a 1m). Además, reduce el riesgo de agresión física. Esta solución se ha integrado en la última actualización de Meta Horizon bajo el nombre de “ Personal Boundary ”.

El ranking de jugadores o el sistema de estado

¿Qué pasa si solo interactuamos con personas en las que confiamos? Esta es la proposición del sistema de estatus o calificación. El chat de RV ha evolucionado su sistema de confianza en esta dirección. Los usuarios pueden compartimentar sus interacciones sociales según el estado de otros jugadores. Es un verdadero sistema de moderación «a la carta», cercano a las redes sociales, donde solo ves las interacciones de tus amigos.

El informe del usuario

Sin impacto directo real, se trata de advertir a los «tomadores de decisiones» de comportamientos disruptivos en el mundo virtual. A veces se puede especificar el motivo. Pero la aplicación es responsabilidad exclusiva de quien toma las decisiones y la persona que informa puede hacer poco seguimiento.

El destierro del usuario del espacio.

Prohibir al usuario como solución

La prohibición impide el regreso al espacio de juego a jugadores con conducta disruptiva, es una medida de moderación temporal o permanente. Sin embargo, esta solución tiende a romper comunidades.

Desalojar a los acosadores de la comunidad en su conjunto es una ruta posible. Pero en la realidad virtual, cuando las comunidades son tan limitadas, podría considerar educarlas y rehabilitarlas.

Una mirada más cercana a los números de toxicidad en línea revela que algunos de los acosadores también son acosadores. No todos los usuarios con comportamiento disruptivo pueden ser baneados permanentemente. Corremos el riesgo de que todas las comunidades del mundo virtual se reduzcan poco a poco.

Inteligencia artificial para combatir el acoso de la RV

Meta está explorando una forma de permitir que los usuarios graben retroactivamente en su plataforma VR. También examina las mejores formas de utilizar la inteligencia artificial para combatir el acoso en la realidad virtual, dijo Kristina Milian, portavoz de Meta. Sin embargo, la empresa no puede registrar todo lo que hace la gente en realidad virtual. De hecho, violaría su privacidad.

La moderación del metaverso, una misión difícil

La moderación del metaverso, una misión difícil

El metaverso es incluso más difícil de moderar que las plataformas Meta existentes. En efecto, toma los problemas de moderación de contenido existentes y los amplifica aún más. En un mundo VR/AR, un moderador de contenido debe supervisar el contenido que publica la gente. También tendría que monitorear su comportamiento. Esto significa monitorear y moderar lo que la gente dice y hace. El mal comportamiento en la realidad virtual suele ser difícil de rastrear. De hecho, los incidentes ocurren en tiempo real y generalmente no se registran.

El director de tecnología (CTO) de Meta, Andrew Bosworth, ha reconocido que moderar la forma en que los usuarios hablan y se comportan en el metaverso es casi imposible. Describió las formas en que la empresa puede tratar de resolver el problema. Pero los expertos le dijeron a The Verge que monitorear miles de millones de interacciones en tiempo real requerirá un esfuerzo significativo y es posible que ni siquiera sea posible.

También te podrían interesar

Dejar un Comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Más en Noticias