Twitter anuncia cambios en su algoritmo destinados a limitar la visibilidad de mensajes considerados ofensivos y de cuentas calificadas como trolls, un movimiento basado en miles de señales de comportamiento que intentarán deducir qué mensajes o cuentas merecen un tratamiento excluyente y los confinarán a espacios de acceso más limitado y de acceso menos habitual dentro de la red social. Facebook, por su parte, afirma haber eliminado 583 millones de cuentas falsas y 865 millones de actualizaciones, la mayor parte spam, en los primeros tres meses de 2018.
Según las aseguradoras de automóvil, hasta un 90% de las reclamaciones que reciben son fraudulentas, pero son generadas por alrededor de un 3% de los conductores. En todas las industrias existen patrones de este tipo: usuarios que incurren en un comportamiento claramente abusivo, y que generan perjuicios de diversos tipos para otro usuarios que se comportan de acuerdo con las reglas. En las redes sociales pasa exactamente lo mismo: un pequeño porcentaje de usuarios no solo no se comportan de la manera esperada, sino que además, pretenden abusar del sistema utilizándolo para fines que, en caso de ser llevados a cabo de manera habitual o masiva, convertirían la actividad en esa red en completamente insostenible. Los spammers, los trolls o los comportamientos abusivos generan perjuicios de muchos tipos, pero las redes sociales, tradicionalmente, han tratado de balancear cuestiones como la libertad de expresión de una manera tan garantista, que este tipo de comportamientos no han sido nunca adecuadamente desincentivados. Además, existen otros factores, como la dificultad de control: en muchos casos, los que incurren en este tipo de comportamientos y son sancionados con la expulsión o el cierre de la cuenta por ello, simplemente se dan la vuelta y abren otra cuenta sin ningún tipo de impedimento con la que continuar esa misma actividad, y así sucesivamente.
En la práctica, las medidas acometidas por Twitter pueden tener las mejores intenciones, pero son una solución muy limitada que oculta la realidad: lo que hay que hacer con el usuario que abusa del sistema y lo utiliza para insultar, hacer spam o acosar a un tercero no es limitar su visibilidad, sino lisa y llanamente, expulsarlo, y además, utilizar todos los medios tecnológicos al alcance de la compañía para evitar que vuelva a abrir otra cuenta. La expulsión sumaria es la única manera real de desincentivar determinados comportamientos que, de hecho, deberíamos calificar como de antisociales, y que por tanto, no deberían tener cabida en una red social. Diariamente denuncio a Twitter cuentas que violan claramente sus políticas de uso, unas políticas claramente expresadas en sus términos de servicio, para llevar a cabo spam: la compañía no hace ABSOLUTAMENTE NADA con esas cuentas. No toma acción de ningún tipo más que permitirme que las bloquee, lo que, obviamente, puede ser una solución limitada para mi problema, pero en modo alguno funciona como solución general. Toda la historia de Twitter responde al mismo problema: un camino alfombrado de buenas intenciones, de medias tintas, y de ausencia real de medidas efectivas.
Dentro de la responsabilidad de administrar una red social está el deber de poner en práctica sus términos de servicio. De nada sirve poner en esos términos de servicio que se sancionará con la expulsión a un usuario que incurra en spam o que utilice la red para acosar o insultar a un tercero, si en la práctica no vamos a hacer absolutamente nada cuando esos casos se producen. Nada hace más daño a un sistema que las reglas que no se cumplen, o que se convierten en auténticas parodias. La paradoja de las redes sociales es clarísima: es perfectamente probable que su experiencia de uso y su propuesta de valor mejorase de manera muy clara simplemente excluyendo al 3% de usuarios que incurre en prácticas abusivas y antisociales, que las utiliza para hacer spam, que abre múltiples cuentas o que se dedica a insultar en ellas. Una política de expulsión efectiva, que de verdad cerrase esas cuentas y generase dificultades a quienes intentasen volver a abrir una cuenta desde el mismo dispositivo caracterizado mediante técnicas de digital fingerprinting o mediante otro tipo de análisis sería susceptible de generar un gran efecto positivo. Sin embargo, llevadas en muchos casos por la codicia de poder presentar un crecimiento o unas métricas de actividad más elevadas, las redes sociales tienden a retrasar o ignorar ese tipo de políticas, provocando un efecto nocivo que reduce la propuesta de valor para el resto de usuarios.
¿Es realmente tan difícil plantear unas reglas y cumplirlas? Hace mucho tiempo que soy de la opinión de que la inmensa mayoría de los problemas derivados de las redes sociales se solucionarían con una aplicación fehaciente de sus términos de uso y, básicamente, con mano dura. En entornos sociales, las reglas deben ser aplicadas de manera estricta si se quiere ofrecer una experiencia libre de abusos, y el pequeño porcentaje de usuarios dispuestos a abusar de esas reglas son, en la práctica, responsables del 90% de los problemas que se generan. Fuera de la red, la mayoría de las normas lógicas de convivencia se aplican de manera inmediata y sin temblarle el pulso a nadie, algo que vemos como completamente natural. ¿A qué estamos esperando para aplicar en la red reglas que cualquiera vería completamente natural que se aplicasen fuera de la red?
Vía: Enrique Dans
No hay comentarios:
Publicar un comentario