Esta es una iniciativa bienvenida, pero es probable que se informen algunos problemas que una investigación rápida debería mostrar que no tienen fundamento. Los procedimientos estándar de la comunidad incluyen el uso de WP:HERE como punto de referencia. Sería maravilloso si todos los usuarios pudieran ser bienvenidos y mimados, sin embargo, la experiencia muestra que alentar a algunos usuarios es muy perjudicial para la salud de la comunidad, ya que a menudo implica perder una gran cantidad de tiempo y energía para editores útiles. He visto varios casos en los que se informa al editor X por lenguaje abusivo dirigido contra el editor Y, y un vistazo superficial confirma que X fue abusivo e Y fue educado. Sin embargo, observar los problemas subyacentes puede mostrar que Y debería ser bloqueado indefinidamente por agotar la paciencia de muchos editores con intentos despistados de subvertir el propósito de Wikipedia, y fue lamentable pero bastante comprensible que X explotara de frustración porque la comunidad a menudo no puede manejar adecuadamente la presión civilizada del punto de vista . Johnuniq ( discusión ) 00:28, 3 de mayo de 2017 (UTC)
Algunas preguntas sobre el alcance previsto S Philbrick (discusión) 16:15 3 may 2017 (UTC)
La iniciativa se lee como si las personas en cuestión fueran editores, tanto registrados como no registrados, tanto instigadores como destinatarios. Parece que los sujetos de las biografías no están en el ámbito de aplicación. En OTRS, a menudo recibimos correos electrónicos en los que la queja principal es el acoso al sujeto de un artículo. ¿Está esto en el ámbito de aplicación? S Philbrick (Discusión) 16:15 3 may 2017 (UTC)
La iniciativa habla de "Wikipedia y otros proyectos Wikimedia". Si bien es obvio que cualquier acoso dentro de los muros de los proyectos Wikimedia está dentro de este ámbito, y hay ejemplos de acoso que claramente no están dentro de este ámbito (el jugador de béisbol que fue objeto de burlas por parte de los fanáticos), existen algunas zonas grises. Podría ser útil aclarar los límites. Por ejemplo:
S Philbrick (discusión) 16:15 3 may 2017 (UTC)
Es comprensible que el alcance inicial pueda ser limitado, pero ¿se prevé que sea un "paseo antes de correr", con la posibilidad de que el alcance pueda ampliarse eventualmente o se pretende que las respuestas a la pregunta del alcance sean semipermanentes (lo que significa, por supuesto, que las cosas pueden cambiar con el tiempo, pero ¿es esto parte de la planificación o no? - S Philbrick (discusión) 16:15, 3 de mayo de 2017 (UTC)
Como parte de la sección de detección, tenemos "Mejoras de fiabilidad y precisión en ProcseeBot". Me gustaría comentar esto como administrador que trabaja con muchos servidores proxy en enwiki. ProcseeBot es realmente increíblemente fiable y preciso. Siempre habrá lugar para mejorar en relación con las fuentes de entrada que se deben comprobar, pero su precisión y fiabilidad a la hora de realizar esas comprobaciones no se pueden cuestionar. El único momento en el que realmente llama la atención de los administradores es en las solicitudes de desbloqueo, donde normalmente el bloqueo ha durado demasiado tiempo.
ProcseeBot es invaluable, pero se limita a detectar proxies HTTP, y realmente su principal valor es bloquear proxies zombis. Estos suelen ser utilizados especialmente por spambots, pero no son los principales tipos de proxies utilizados para el abuso. Existe una gama cada vez más amplia de VPN, servicios en la nube, servicios web y otros servicios de anonimato que a menudo son casi imposibles de detectar automáticamente. Quizás debido a la efectividad de ProcseeBot, pero quizás no, estos son los tipos de proxies que vemos que causan el mayor abuso del anonimato.
En enwiki, así como en meta a nivel global, tendemos a bloquear rangos completos de ellos cuando se hacen evidentes. Esto se puede hacer con bastante facilidad usando whois y DNS inverso para algunas direcciones. Para otros, como Amazon, The Planet, Leaseweb, OVH, Proxad, esto no es tan sencillo ya que a menudo afectará a una gran cantidad de material complementario. Más preocupante es el reciente aumento de los proxies VPN dinámicos organizados centralmente, como vpngate, que funcionan de manera similar a Tor pero sin la transparencia.
El equipo siempre podría echar un vistazo a nl:Gebruiker:RonaldB/Open proxyfighting, que (la última vez que miré) está activo en múltiples wikis y es proactivo en el bloqueo (y desbloqueo) de varios tipos de servidores proxy que no son detectados por ProcseeBot. Su resultado en WP:OPD es una buena fuente para encontrar trolls.
Por ahora voy a ignorar la pregunta de si enwiki quiere prohibir totalmente la edición de todos los servidores web y proxies anónimos: la política dice que no. Y gran parte del acoso proviene de rangos enormemente dinámicos y no de proxies, cuando lo que realmente se necesita es presión de WMF sobre los ISP. De todos modos, buena suerte pensando en esto, pero no te concentres demasiado en ProcseeBot y en la comprobación de proxies HTTP. -- zzuuzz (discusión) 19:26, 3 de mayo de 2017 (UTC)
La página M:Community_health_initiative/User_Interaction_History_tool fue escrita exclusivamente para administradores, pero tenga en cuenta que las herramientas tienen varios usos valiosos para los no administradores. Uno de esos usos es recopilar evidencia para presentar a los administradores. Otro uso es revisar los supuestos títeres de calcetín, que pueden o no estar relacionados con el acoso. Alsee ( discusión ) 08:55, 16 de mayo de 2017 (UTC)
La página principal aquí menciona que está evaluando un sistema de panel de control para administradores o funcionarios de wiki para ayudarlos a administrar investigaciones actuales y acciones disciplinarias , y hay un enlace sobre algunos de nuestros paneles de control existentes.
¿Estabas considerando programar algún tipo de panel de control? Herramientas como Interaction Analyzer nos permiten extraer información y la ponemos en wikitexto para que la comunidad la procese. Hemos creado un ecosistema wiki integrado completo en el que creamos, modificamos y abandonamos flujos de trabajo sobre la marcha. Si observas todos los ejemplos de "panel de control" existentes, todos son simplemente páginas wiki. Si estás creando herramientas de recuperación de datos como InteractionAnalizer y estás tratando de desarrollar innovaciones políticas y sociales, genial. Pero, por favor, avísame si estabas pensando en codificar algún tipo de panel de control o "aplicación" para gestionar el flujo de trabajo. Eso es algo muy diferente. Me gustaría mucho escuchar lo que tenías en mente y discutir por qué (probablemente) no es una buena idea. Algún día podremos desarrollar un gran sistema M:Workflows, pero tratar de crear una serie de aplicaciones únicas para varias tareas es el enfoque equivocado. Alsee ( discusión ) 10:42, 16 de mayo de 2017 (UTC)
Hola,
Para responder a una solicitud de la Lista de deseos de la comunidad de 2016 para que los usuarios tengan más control sobre las notificaciones, el equipo de herramientas contra el acoso está explorando cambios que permitan agregar una lista negra por usuario a las notificaciones de Echo. Esta función permite un control más preciso sobre las notificaciones y podría frenar las notificaciones de acoso. Te invitamos a probar la nueva función en versión beta y luego a hablar sobre ella con nosotros. Para el equipo de herramientas contra el acoso SPoore (WMF) (discusión) , Defensor de la comunidad, Iniciativa de salud comunitaria ( discusión ) 15:18, 2 de junio de 2017 (UTC)
¡Buen martes, Wikipedia!
Le debemos una actualización de lo que el equipo de Iniciativa de Salud Comunitaria y Herramientas Antiacoso han estado trabajando durante el último mes:
David Barratt se unió a nosotros el 30 de mayo como desarrollador full stack. Ya está realizando todas las tareas de incorporación y está ansioso por crear herramientas para que las uses.
Ya hemos publicado esto en algunos lugares, pero nuevamente queríamos compartir una nueva característica que se puso en práctica en la Lista de deseos de la comunidad de 2016 y en el hackathon de Viena del mes pasado: la lista negra de notificaciones de Echo . ¡Pruébela en nuestro entorno beta y comparta sus opiniones!
Lo principal de lo que me gustaría hablar hoy es cómo el equipo de Herramientas Antiacoso priorizará nuestro trabajo.
Ahora que David está a bordo, estamos casi listos para comenzar a poner la pluma digital en el papel digital y crear algunas herramientas para ayudar a la comunidad de Wikipedia a lidiar mejor con el acoso.
Hay muchas oportunidades para explorar, problemas para resolver y proyectos para abordar. Parte de mi trabajo como gerente de producto es priorizar nuestra lista de tareas pendientes de oportunidades, problemas y proyectos de una manera lógica y eficiente. Estamos usando Phabricator para hacer un seguimiento de nuestro trabajo en el tablero de trabajo Anti-Harassment en la columna “Prioritized Project/Oportunidad/Problem Backlog”. Se prioriza de arriba hacia abajo y es natural que los elementos cerca de la parte superior estén más desarrollados, mientras que los elementos más abajo pueden ser solo algunas palabras o pensamientos dispersos.
Durante este proceso de priorización, tengo en cuenta muchas cosas: ¿qué está diseñado, definido y listo para el desarrollo? ¿Qué proporcionará el mayor valor a nuestros usuarios? ¿Qué tiene impulso y un fuerte apoyo? ¿Qué podemos lograr con nuestro marco de tiempo y la capacidad de los desarrolladores? He elaborado una lista completa de todas las consideraciones de priorización en Wikipedia:Iniciativa_de_salud_comunitaria#Priorización .
La contribución de la comunidad de Wikipedia en inglés será extremadamente importante en este proceso. Necesitamos saber si existe un orden más lógico para nuestra priorización. Necesitamos saber si nos estamos olvidando de algo. Necesitamos saber si la comunidad está lista para lo que planeamos crear.
Así es como te invitamos a participar:
Actualmente, los primeros elementos en nuestra lista de tareas pendientes incluyen algunas herramientas para el equipo de soporte y seguridad de WMF (T167184), la lista negra de notificaciones (T159419) y AbuseFilter (T166802, T166804 y T166805). Es probable que esto sea suficiente trabajo hasta octubre, pero si el tiempo lo permite, analizaremos la creación de bloques de páginas y temas (T2674) y la herramienta Historial de interacción del usuario (T166807).
Así que, por favor, echa un vistazo a nuestra lista de tareas pendientes y dinos qué piensas. ¿Es lógica la secuencia? ¿Hay consideraciones que hemos pasado por alto? ¿Hay más oportunidades que deberíamos explorar?
¡Gracias!
— TBolliger (WMF) ( discusión ) 20:44 13 jun 2017 (UTC) en nombre del equipo de herramientas antiacoso
@ TBolliger (WMF) : Con respecto a "proponer una nueva característica", no sé si estás familiarizado con algunos de los acosos a largo plazo de las LTA . He tenido una comunicación extensa con un par de editores que han recibido amenazas flagrantes a través de correo electrónico de Wikipedia y de la edición de usuarios o páginas de discusión de usuarios por parte de una LTA con una identidad conocida por la WMF. Se acaba de hacer otra solicitud aquí para encontrar una manera de tener páginas de usuarios protegidas en todos los sitios de WMF. Hay muchos más detalles disponibles. Según WP:DENY, podría ser mejor minimizar la discusión en esa charla. Johnuniq ( discusión ) 01:24, 15 de junio de 2017 (UTC)
El filtro de edición (también conocido como AbuseFilter) es una función que evalúa cada edición enviada, junto con otras acciones de registro, y las compara con las reglas definidas por la comunidad. Si se activa un filtro, la edición puede rechazarse, etiquetarse, registrarse, generar un mensaje de advertencia y/o revocar el estado de confirmación automática del usuario.
Actualmente hay 166 filtros activos en la Wikipedia en inglés. Un ejemplo sería el filtro n.° 80, “Enlaces spam”, que identifica a los usuarios no confirmados automáticamente que han añadido enlaces externos a tres o más páginas del espacio principal en un período de 20 minutos. Cuando se activa, muestra esta advertencia al usuario, pero le permite guardar los cambios. También etiqueta la edición con “posible enlace spam” para su posterior revisión. Se activa una docena de veces al día y parece que la mayoría de los usuarios infractores son finalmente bloqueados por spam.
AbuseFilter es una herramienta poderosa para manejar problemas de contenido y creemos que se puede ampliar para manejar más problemas de conducta de los usuarios. El equipo de desarrollo de software de herramientas antiacoso está estudiando tres áreas principales:
Queremos que la extensión AbuseFilter sea más rápida para que se puedan habilitar más filtros sin tener que deshabilitar ningún otro filtro útil. Actualmente estamos investigando el rendimiento actual de T161059. Una vez que comprendamos mejor cómo funciona actualmente, crearemos un plan para que sea más rápida.
Hay un filtro ( el n.° 50, “Gritos” ) que advierte cuando un usuario no confirmado realiza una edición en artículos del espacio principal que constan únicamente de letras mayúsculas. (Puede ver el registro si tiene curiosidad sobre qué tipos de ediciones activan con éxito este filtro). Cuando se activa la edición, se muestra un mensaje de advertencia al usuario sobre la ventana de edición:
Estos mensajes ayudan a disuadir a los usuarios de realizar modificaciones perjudiciales. A veces, pedirle al usuario que haga una breve pausa es suficiente para evitar un incidente incívico.
Creemos que la función de advertencia es increíblemente importante, pero nos interesa saber si la presentación podría ser más eficaz. Nos gustaría trabajar con los usuarios interesados para diseñar algunas variaciones de modo que podamos determinar qué ubicación (encima del área de edición, debajo, como una ventana emergente, etc.), elementos visuales (iconos, colores, grosores de fuente, etc.) y texto transmiten de manera más eficaz el mensaje deseado para cada advertencia. ¡Cuéntanos si tienes alguna idea o si te gustaría participar!
Ya hemos recibido docenas de sugerencias de funciones para agregar a AbuseFilter, pero necesitamos su ayuda para reducir esta lista para que podamos crear filtros efectivos que ayuden a combatir el acoso.
El primer filtro que propongo advertiría a los usuarios cuando publiquen mensajes abiertamente agresivos en las páginas de discusión. El usuario aún podría publicar el mensaje que desea, pero el mensaje de advertencia le daría una segunda oportunidad para considerar que sus palabras descorteses pueden tener consecuencias. Muchos sitios web de discusión en línea tienen esta funcionalidad, con un efecto positivo. La versión simple estaría diseñada para detectar palabras de una lista predefinida, pero si la integráramos con el aprendizaje automático de ORES podríamos detectar automáticamente ediciones de mala fe en las páginas de discusión. (Y como efecto secundario adicional, ORES también podría aplicarse a los filtros de edición de contenido).
Otro filtro que propongo sería registrar, advertir o prevenir violaciones de 3RR . Este filtro se ha propuesto dos veces antes ([1], [2]), pero se rechazó debido a la falta de discusión y porque AbuseFilter no puede detectar reversiones. El equipo de herramientas contra el acoso desarrollaría esta funcionalidad, ya que creemos que este filtro proporcionaría una utilidad inmensa para evitar que los incidentes de acoso a pequeña escala se descontrolen.
Hay una infinidad de otros filtros que se podrían crear. Si quisieras crear un filtro que registrara, advirtiera o impidiera los comentarios acosadores, ¿cuál sería? ¿Y qué funcionalidad agregarías a AbuseFilter? Únete a nuestra discusión en Wikipedia talk:Iniciativa de salud comunitaria en Wikipedia en inglés/Edit filter .
¡Gracias y nos vemos en la discusión!
— El equipo de herramientas contra el acoso (publicado por TBolliger (WMF) ( discusión ) 23:15, 21 de junio de 2017 (UTC))
Así que esta es una idea que consideré recientemente y es bastante simple:
La idea sería que esto le permita al colaborador comprender su propio comportamiento y la percepción que tiene la comunidad de dicho comportamiento. Con suerte, esto fomentará la autodirección/corrección, sin introducir bloqueos, humillaciones públicas, etc. También agregaría algo de material de "curso" en la puntuación presentada, para aquellos que necesiten ayuda para interpretar su puntuación y para ayudarlos a ser "mejores" miembros de la comunidad. — The DJ ( discusión • contribuciones ) 11:50, 22 de junio de 2017 (UTC)
Los videos y comentarios de YouTube obtienen este tipo de calificación, pero para determinar qué contenido se promociona. ¿La sugerencia es que podemos calificar a los editores en todo el comportamiento solo una vez? Eso parece problemático ya que el comportamiento cambia con el tiempo y nadie tiene una idea completa de las contribuciones de ningún usuario. Tal vez veamos cómo se podría ajustar el sistema de agradecimientos para llegar a un objetivo similar. Si pudiéramos agradecer y no me gusta las ediciones y eso se tradujera en una puntuación que brindaría una gran cantidad de comentarios a los usuarios que hacen ediciones impopulares o publican opiniones estúpidas. Tal vez haga que los no me gusta sean anónimos y establezca un filtro para atrapar a los usuarios a los que simplemente no les gusta todo lo que alguien hace para eliminar su puntuación. O asigne no me gusta igual a la cantidad de agradecimientos otorgados, pero no más. Algo parecido a esto sucede en geocaching.com, donde solo puede marcar como favorito 1 de cada 10 cachés que encuentre. Legacypac ( discusión ) 20:14, 23 de junio de 2017 (UTC)
Hola;
He publicado #Cambios que estamos haciendo en la lista negra antes del lanzamiento y #Estrategia de lanzamiento y análisis posterior al lanzamiento para aquellos interesados en la función de lista negra de notificaciones de Echo . ¡Agradecemos sus comentarios! — TBolliger (WMF) ( discusión ) 18:41, 23 de junio de 2017 (UTC)
Actualmente hay una discusión en WP:Bomba de pueblo (propuestas)#Solicitud de nueva herramienta que es de interés aquí.
Resumen del problema: Las guerras de edición pueden ser estresantes para todos los involucrados. En muchos casos, las personas involucradas pueden no saber cómo solicitar una intervención, o pueden estar tan absortas en el conflicto que no lo hagan. La discusión es para crear una herramienta o un bot que encuentre posibles guerras de edición en curso y las informe automáticamente para que sean investigadas por un humano. Alsee ( discusión ) 21:53, 1 julio 2017 (UTC)
Tengo dos novedades que compartir sobre el equipo de herramientas antiacoso de WMF. La primera (¡y sin duda la más emocionante!) es que nuestro equipo está compuesto por cinco personas. Nuestros desarrolladores, David y Dayllan, se unieron el mes pasado. Puedes leer sobre nuestros antecedentes aquí .
Estamos todos entusiasmados por comenzar a desarrollar software que lo ayude a facilitar la resolución de disputas. Nuestra segunda actualización es que hemos establecido nuestros objetivos trimestrales para los meses de julio a septiembre de 2017 en mw:Wikimedia Audiences/2017-18 Q1 Goals#Community Tech. Los puntos destacados incluyen:
Te invito a leer nuestros objetivos y a participar en las discusiones que ocurren aquí o en las páginas de discusión pertinentes.
Mejor,
- Trevor Bolliger, gerente de productos de WMF 🗨 20:29, 24 de julio de 2017 (UTC)
Veo en las noticias tecnológicas de esta semana en el cartel lo siguiente:
Eso se discutió aquí, esto surge de esta iniciativa, ¿no? Jytdog ( discusión ) 18:20 5 ago 2017 (UTC)
Historia de usuario: quiero examinar y comprender las ediciones de secuencia de otro usuario. Tal vez esté acechando a otro usuario, tal vez esté impulsando un conflicto en varias páginas, tal vez sea un editor pago no revelado.
Cuando veo el historial de una página, cada comparación tiene enlaces muy útiles en la parte superior para la próxima edición y la edición anterior. Eso es genial para recorrer el historial de esa página.
Cuando veo el historial de contribuciones de un usuario, al abrir uno de los enlaces de edición se abrirá una página de comparación de la página de destino. Como se indicó anteriormente, esa página de comparación tiene enlaces para la próxima edición de esa página y la edición anterior de esa página. En la mayoría de los casos, eso es exactamente lo que queremos. Sin embargo, esos enlaces siguiente y anterior son inútiles cuando intento recorrer las ediciones de un usuario en particular. En ese caso, lo que realmente quiero son enlaces siguiente y anterior para las ediciones de ese usuario.
Es posible trabajar desde la página del historial de contribuciones de un usuario, pero es muy complicado. O bien tengo que recorrer la lista abriendo cada edición en una nueva pestaña, o bien tengo que usar el botón Atrás del navegador para recargar continuamente la página del historial de contribuciones.
Me resulta difícil imaginar una buena solución de interfaz de usuario para este caso de uso. Todas las opciones que se me ocurren serían incorrectas para el caso más común o saturarían excesivamente la interfaz de usuario. Sería genial si pudieras encontrar una buena solución para esto. Alsee ( discusión ) 13:43 9 ago 2017 (UTC)
Fue genial conocer a algunos de los miembros del equipo antiacoso en Wikimania 2017. Después de mi presentación allí, me vendría bien algún aporte sobre cómo crear nuevas plantillas de advertencia para editores anónimos y nuevos que intentan dejar ataques personales en las páginas de otros usuarios. Funcrunch ( discusión ) 15:51 16 ago 2017 (UTC)
Hola wikipedistas,
El equipo de la herramienta antiacoso lo invita a revisar las nuevas funciones de silenciamiento de usuarios que se encuentran en desarrollo y a brindarnos su opinión.
El equipo está desarrollando un software que permite a los colaboradores y administradores tomar decisiones informadas y oportunas cuando se produce acoso.
Con el aporte de la comunidad, el equipo presentará varias funciones de silenciamiento de usuarios que permitirán a un usuario prohibir que otro usuario específico interactúe con él. Estas funciones brindan a los usuarios individuales herramientas para frenar el acoso que puedan estar experimentando.
Las preferencias actuales de notificaciones y correo electrónico son de todo o nada. Estas funciones de silenciamiento permitirán a los usuarios recibir comunicaciones útiles e ignorar las comunicaciones no constructivas o acosadoras.
Con la función de silenciamiento de notificaciones, las notificaciones de eco en la wiki pueden ser controladas por un usuario individual para detener las notificaciones no deseadas de otro usuario. En la parte inferior de la pestaña "Notificaciones" de las preferencias del usuario, un usuario puede silenciar las notificaciones de eco en el sitio de usuarios individuales, ingresando su nombre de usuario en el cuadro.
La función para silenciar las notificaciones de Echo está actualmente activa en Meta Wiki y se lanzará en todos los wikis con Echo habilitado el 28 de agosto de 2017.
Pruebe la función y cuéntenos qué tan bien funciona para usted y su comunidad wiki. Sugiera mejoras a la función o a la documentación. Háganos saber si tiene preguntas sobre cómo usarla. Wikipedia discusión:Iniciativa de salud comunitaria en Wikipedia en inglés/Funciones de silenciamiento de usuarios
Pronto, el equipo de herramientas antiacoso comenzará a trabajar en una función que permita a un usuario impedir que un usuario específico le envíe correos electrónicos a través de Wikimedia special:email. La lista de silenciamiento de correos electrónicos se ubicará en la sección "Opciones de correo electrónico" de la pestaña "Perfil de usuario" de las preferencias del usuario. No estará conectada a la lista de silenciamiento de notificaciones, será una lista completamente independiente.
Está previsto que esta función se lance en todos los wikis de Wikimedia a finales de septiembre de 2017.
Para obtener más información, consulte Iniciativa de salud comunitaria/Especial:EmailUser Mute
Cuéntanos tus ideas sobre esta función.
Consulte Wikipedia:Iniciativa de salud comunitaria en Wikipedia en inglés/Funciones de silenciamiento de usuario para obtener más detalles sobre las herramientas de silenciamiento de usuario.
Se necesita el aporte de la comunidad para que estas funciones de silenciamiento de usuarios sean útiles para las personas y sus comunidades wiki.
Únase a la discusión en Wikipedia talk:Iniciativa de salud comunitaria en Wikipedia en inglés/Funciones de silenciamiento de usuarios o la discusión en Meta. O si desea compartir sus ideas de forma privada, comuníquese con el equipo de herramientas contra el acoso por correo electrónico.
Para el equipo de herramientas contra el acoso, SPoore (WMF), Defensor de la comunidad, Iniciativa de salud comunitaria ( discusión ) 20:17, 28 de agosto de 2017 (UTC)
Hola, el equipo de herramientas contra el acoso de la Fundación Wikimedia está realizando una encuesta para evaluar la eficacia de las herramientas, la capacitación y la información que existen para ayudar a los administradores de Wikipedia en inglés a reconocer y mitigar problemas como el vandalismo, el acoso y el uso indebido de recursos. Esta encuesta será fundamental para que nuestro equipo determine cómo brindar un mejor apoyo a los administradores.
La encuesta solo debería llevar 5 minutos y su respuesta individual no se hará pública. La política de privacidad de la encuesta describe cómo y cuándo Wikimedia recopila, utiliza y comparte la información que recibimos de los participantes de la encuesta y se puede encontrar aquí: https://wikimediafoundation.org/wiki/Wikipedia_talk:Community_health_initiative_on_English_Wikipedia/Semi-Annual_Admin_Survey_Privacy_Statement
Para participar en la encuesta, regístrese aquí y le enviaremos un formulario. El plazo para enviar la encuesta finalizará el 24 de septiembre de 2017 a las 23:59 UTC. Los resultados se publicarán en la wiki en unas semanas.
Si tiene preguntas o desea compartir sus opiniones sobre la encuesta, puede comunicarse con el equipo de herramientas contra el acoso en Wikipedia talk:Iniciativa de salud comunitaria en Wikipedia en inglés/Encuesta de confianza del administrador o de forma privada por correo electrónico.
Para el equipo de herramientas contra el acoso, SPoore (WMF), Defensor de la comunidad, Iniciativa de salud comunitaria ( discusión ) 16:29, 22 de septiembre de 2017 (UTC)
El equipo de herramientas contra el acoso de la Fundación Wikimedia desea crear y mejorar herramientas para apoyar el trabajo realizado por los colaboradores que establecen, monitorean y hacen cumplir las restricciones de edición en Wikipedia, así como también crear sistemas que faciliten a los usuarios sujetos a una restricción evitar la tentación de violar una sanción y seguir siendo colaboradores constructivos.
Se le invita a participar en un debate que documenta los problemas actuales con el uso de restricciones de edición y detalla posibles soluciones técnicas que puede desarrollar el equipo de herramientas contra el acoso. El debate se utilizará para priorizar el desarrollo y la mejora de herramientas y funciones.
Para el equipo de herramientas contra el acoso de la Fundación Wikimedia, SPoore (WMF), Defensor de la comunidad, Iniciativa de salud comunitaria ( discusión ) 20:47 25 septiembre 2017 (UTC)
¡Hola a todos! En los próximos meses, el equipo de herramientas antiacoso planea crear una función que esperamos permita a los usuarios investigar mejor las disputas de conducta de los usuarios, llamada Cronología de interacciones . En resumen, la función mostrará todas las ediciones de dos usuarios en las páginas en las que ambos han contribuido en una cronología. Creemos que la cronología lo ayudará a evaluar las disputas de conducta de una manera más eficiente en términos de tiempo, lo que dará como resultado decisiones más informadas y seguras sobre cómo responder.
Pero necesitamos tu ayuda. He creado dos diseños para ilustrar nuestro concepto y tenemos varias preguntas abiertas que necesitamos tu aporte para responder. Lee sobre la función y mira los wireframes en Wikipedia:Iniciativa de salud comunitaria en Wikipedia en inglés/Cronología de interacción y únete a nosotros en la página de discusión.
Gracias, — CSinders (WMF) ( discusión ) 19:42 3 oct 2017 (UTC)
¡Feliz octubre a todos! Me gustaría compartir un breve resumen de lo que el equipo de herramientas contra el acoso logró durante el último trimestre (¡y nuestro primer trimestre completo como equipo!) así como lo que está actualmente en agenda hasta diciembre. Nuestros objetivos del primer trimestre y del segundo trimestre están en la wiki, para aquellos que no quieren emojis ni comentarios.
Resumen del primer trimestre
📊 Nuestra métrica principal para medir nuestro impacto este año es la "confianza de los administradores en la resolución de disputas". Este trimestre la definimos, la medimos y la estamos debatiendo en la wiki. El 69,2 % de los administradores de Wikipedia en inglés informan que pueden reconocer el acoso, mientras que solo el 39,3 % cree que tiene las habilidades y herramientas para intervenir o detener el acoso y solo el 35,9 % está de acuerdo en que Wikipedia les ha proporcionado suficientes recursos. ¡Definitivamente hay margen de mejora!
🗣 Ayudamos a SuSa a preparar una metodología de investigación cualitativa para evaluar los tablones de anuncios de administradores en Wikipedia.
⏱ Agregamos mediciones de rendimiento para AbuseFilter y corregimos varios errores. Este trabajo continúa en el segundo trimestre.
⚖️ Hemos iniciado debates en la wiki sobre wireframes de líneas de tiempo de interacción . Esta herramienta debería permitir que los usuarios realicen investigaciones de forma más rápida y precisa.
🤚 Hemos iniciado un debate en la wiki sobre la creación de bloques por página y otras formas de aplicar restricciones de edición . Buscamos crear herramientas adecuadas que permitan que los usuarios maleducados pero productivos sigan siendo productivos (pero ya no maleducados).
🤐 Para las funciones de silenciamiento , hemos finalizado y lanzado Silenciar notificaciones para todos los wikis y Silenciar correo electrónico directo para Meta Wiki, con planes de lanzarlo para todos los wikis a fines de octubre.
Objetivos del segundo trimestre
⚖️ Nuestro proyecto principal para el resto del año será la función Cronología de interacciones . Tenemos previsto publicar una primera versión antes de enero.
🤚 ¡Démosles algo de qué hablar: bloqueos! Vamos a consultar con los wikipedistas sobre las deficiencias de la funcionalidad de bloqueo actual de MediaWiki para determinar qué herramientas de bloqueo (incluidas las de títeres, por página y limitación de edición) debería desarrollar nuestro equipo en los próximos trimestres.
Decidiremos, desarrollaremos y lanzaremos la posibilidad de que los usuarios restrinjan qué grupos de usuarios pueden enviarles correos electrónicos directos.
📊 Ahora que conocemos el impacto real en el rendimiento de AbuseFilter, vamos a analizar cómo aumentar el límite del filtro.
🤖 Vamos a evaluar ProcseeBot, la herramienta con un nombre inteligente que bloquea los proxies abiertos.
💬 Liderados por nuestra defensora de la comunidad, Sydney Poore, queremos establecer pautas y una cadencia de comunicación que fomenten la participación activa y constructiva entre los wikipedistas y el equipo de herramientas contra el acoso durante todo el ciclo de desarrollo del producto (antes y después del lanzamiento).
¡Comentarios, por favor!
Para asegurarnos de que nuestros objetivos y prioridades estén encaminados, nos encantaría saber si hay alguna inquietud, pregunta u oportunidad que hayamos pasado por alto. Envíenos un correo electrónico directamente si desea conversar en privado. De lo contrario, esperamos verlo participar en nuestras numerosas discusiones en la wiki durante los próximos meses. ¡Gracias!
— El equipo de herramientas contra el acoso (Caroline, David, Dayllan, Sydney y Trevor) Publicado por Trevor Bolliger, gerente de productos de WMF 🗨 20:56, 4 de octubre de 2017 (UTC)
0911F0
El equipo de herramientas antiacoso de WMF está trabajando arduamente para crear la línea de tiempo de interacción e investigar mejoras para las herramientas de bloqueo. Tendremos más para compartir sobre estas dos herramientas en las próximas semanas, pero por ahora nos gustaría invitarlo a enviar solicitudes a la lista de deseos de la comunidad de 2017 en la categoría Antiacoso: meta:Encuesta de lista de deseos de la comunidad de 2017/Antiacoso. ¡ Sus propuestas, comentarios y votos nos ayudarán a priorizar nuestro trabajo e identificar nuevas soluciones!
¡Gracias!
- Trevor Bolliger, gerente de producto de WMF ( t ) 23:58, 6 de noviembre de 2017 (UTC)
¡Hola a todos! Ahora que la versión beta de Interaction Timeline ya está disponible y estamos trabajando en las características para que sea una primera versión estable (consulte phab:T179607), nuestro equipo ha comenzado a redactar nuestros objetivos para los próximos tres meses, hasta fines de marzo de 2018. Esto es lo que tenemos hasta ahora:
¿Tienes alguna idea o comentario sobre el contenido o la redacción que he utilizado? Me siento muy satisfecho con ellos (son lo suficientemente agresivos para nuestro equipo de dos desarrolladores) y siento que son la prioridad correcta en la que trabajar.
¡Gracias! — Trevor Bolliger, gerente de productos de WMF ( t ) 22:40, 7 de diciembre de 2017 (UTC)
Ahora que el equipo de herramientas contra el acoso ha cumplido 6 meses de este año fiscal (julio de 2017 - junio de 2018), quería compartir una actualización sobre nuestra situación con respecto a nuestros objetivos del segundo trimestre y los objetivos de nuestro plan anual, así como también brindar una vista previa de los objetivos del tercer trimestre. Hay mucha información, por lo que puede leer la versión detallada en meta:Iniciativa de salud comunitaria/Actualizaciones trimestrales o simplemente estos resúmenes:
El plan anual se decidió antes de que se contratara a todo el equipo y es muy entusiasta y optimista. Muchos de los objetivos no se lograrán debido a la velocidad del equipo y a la nueva priorización. Pero aun así hemos aportado algo de valor y anticipamos un éxito continuo durante los próximos seis meses. 🎉
Durante los últimos seis meses, hemos realizado algunas pequeñas mejoras en AbuseFilter y AntiSpoof y actualmente estamos desarrollando la línea de tiempo de interacción. También hemos avanzado en trabajos que no están incluidos en estos objetivos: algunas funciones de Silencio, así como permitir a los usuarios restringir qué grupos de usuarios pueden enviarles correos electrónicos directos.
Durante los próximos seis meses, realizaremos una consulta cruzada wiki sobre herramientas de bloqueo y mejoras (y, en última instancia, las crearemos) e investigaremos, crearemos prototipos y nos prepararemos para el desarrollo de un nuevo sistema de informes.
Fuimos un poco ambiciosos, pero estamos encaminados a lograr todos nuestros objetivos. El cronograma de interacción está encaminado a un lanzamiento beta en enero, la consulta mundial sobre bloqueos ha comenzado y acabamos de implementar algunas preferencias de correo electrónico más sólidas. 💌
Hemos decidido detener el desarrollo de AbuseFilter, pero estamos listos para habilitar ProcseeBot en Meta Wiki si la comunidad global así lo desea. También hemos avanzado en la forma en que nos comunicamos en la wiki, lo cual es vital para todos nuestros éxitos.
De enero a marzo, nuestro equipo trabajará para lograr que la línea de tiempo de interacción tenga una forma que se pueda publicar, continuará con la consulta de bloqueo y comenzará el desarrollo de al menos una nueva función de bloqueo, y comenzará la investigación para un sistema mejorado de denuncia de acoso. 🤖
¡Gracias por leer! — Trevor Bolliger, gerente de productos de WMF 🗨 01:29, 20 de diciembre de 2017 (UTC)
El equipo de herramientas antiacoso de la Fundación Wikimedia se encuentra en las primeras etapas de investigación para crear un sistema mejorado de denuncia de acoso para las comunidades Wikimedia, con el objetivo de mejorar la calidad de las denuncias y reducir la carga de trabajo del denunciante. Se ha manifestado interés en crear una herramienta de denuncia en encuestas, presentaciones de IdeaLab y discusiones en la wiki. Desde personas del movimiento que la han solicitado hasta nosotros, como equipo, que hemos visto una posible necesidad de ella. Por eso, Sydney Poore y yo hemos empezado a contactar a usuarios que han expresado interés a lo largo de los años en hablar sobre el acoso que han experimentado y enfrentado en los proyectos Wikimedia. Nuestro plan es realizar entrevistas a usuarios con alrededor de 40 personas en entrevistas de 15 a 30 minutos. Realizaremos estas entrevistas hasta mediados de febrero y escribiremos un resumen de lo que hemos aprendido.
Estas son las preguntas que planeamos hacerles a los participantes. Las publicamos para mayor transparencia, en caso de que haya alguna inquietud importante que no estemos destacando, háganoslo saber.
-- CSinders (WMF) ( discusión ) 19:12 11 ene 2018 (UTC)
Hola,
El equipo de herramientas contra el acoso de la WMF introdujo una preferencia de usuario que permite a los usuarios restringir qué grupos de usuarios pueden enviarles correos electrónicos. Esta función tiene como objetivo brindarles a los usuarios individuales una herramienta para frenar el acoso que puedan estar sufriendo.
La función para restringir los correos electrónicos en wikis en las que un usuario nunca ha realizado modificaciones (phab:T178842) también se lanzó la primera semana de 2018, pero se revirtió la tercera semana de 2018 después de que se descubrieran algunos casos excepcionales de uso. No hay planes de volver a implementarla en el futuro.
Le invitamos a discutir la característica, informar cualquier error y proponer cualquier cambio de funcionalidad en la página de discusión.
Para el equipo de herramientas contra el acoso de SPoore (WMF), defensor de la comunidad, iniciativa de salud comunitaria ( discusión ) 00:47, 9 de febrero de 2018 (UTC)
Durante el mes de diciembre, el equipo de SuSa y de herramientas antiacoso de WMF realizó una encuesta dirigida a usuarios y administradores experimentados de AN/I y sobre cómo se gestionan las denuncias de acoso y conflictos. Durante el mes de enero, hemos estado analizando los datos cuantitativos y cualitativos de esta encuesta. Nuestro cronograma para publicar un informe de la encuesta es:
Estamos muy interesados en publicar nuestros hallazgos con la comunidad y queríamos brindar una actualización sobre dónde estamos con este análisis e informe de la encuesta.
-- CSinders (WMF) ( discusión ) 01:13 9 feb 2018 (UTC)
El equipo de herramientas antiacoso de la Fundación Wikimedia está iniciando una investigación sobre las formas en que se realizan denuncias sobre acoso en Internet, centrándose también en los proyectos Wikimedia. Tenemos previsto realizar cuatro auditorías importantes.
Nuestra primera auditoría se centra en los informes para la Wikipedia en inglés. Encontramos 12 formas diferentes en las que los editores pueden informar. Luego las dividimos en dos grupos: informes dentro de la wiki y fuera de la wiki. Los informes dentro de la wiki tienden a ser increíblemente públicos, mientras que los informes fuera de la wiki son más privados. Hemos decidido centrarnos en 4 espacios (aproximadamente) para informar que hemos dividido en dos categorías: "formas oficiales de informar" y "formas no oficiales de informar".
Formas oficiales de informar (todas son mantenidas por grupos de voluntarios, algunas son voluntarios más ad hoc, por ejemplo, AN/I)
Formas no oficiales de informar:
La auditoría 2 se centra en proyectos Wikimedia como Wikidata, Meta y Wikimedia Commons. La auditoría 3 se centrará en otras empresas y proyectos de código abierto como Creative Commons y Github. La auditoría 4 se centrará en las empresas de redes sociales y sus herramientas de generación de informes, como Twitter, Facebook, etc. Nos centraremos en cómo estas empresas interactúan con las comunidades de habla inglesa y sus políticas para dichas comunidades, en particular porque las políticas difieren de un país a otro.
Plan de auditoría paso a paso:
Estamos buscando comentarios de la comunidad sobre este plan. Prevemos obtener un nivel más profundo de comprensión sobre los flujos de trabajo actuales en los sitios Wikimedia para que podamos comenzar a identificar cuellos de botella y otras áreas potenciales de mejora. Nos estamos centrando en lo que funciona para los wikipedistas y, al mismo tiempo, en comprender qué otros estándares o formas de informar también existen en el mundo.
-- CSinders (WMF) ( discusión ) 17:16 2 mar 2018 (UTC)
Hola a todos,
El otoño pasado, como parte de la iniciativa de Salud Comunitaria, varios editores experimentados de En.WP respondieron una encuesta para captar sus opiniones sobre el tablón de anuncios de AN/I. Registraron dónde pensaban que el tablón funcionaba bien, dónde no y sugirieron mejoras. Los resultados de esta encuesta ya están disponibles; se han complementado con algunos puntos de datos interesantes sobre el proceso en general. Únase a nosotros para un debate sobre los resultados .
Saludos, SPoore (WMF), Defensor de la comunidad, Iniciativa de salud comunitaria ( discusión ) 20:07, 5 de marzo de 2018 (UTC)
Hola a todos,
El equipo de herramientas antiacoso realizó mejoras en Special:Block para tener un calendario como selector de fecha y hora para elegir un día y hora específicos en el futuro como fecha de vencimiento. La nueva función estuvo disponible por primera vez en de.wp, meta y mediawiki.org el 03/05/18. Para obtener más información, consulte Mejora de la forma en que se determina la hora de un bloqueo: de una discusión en de.WP o (phab:T132220) ¿Tiene preguntas? o desea enviar comentarios. Deje un mensaje en meta:Talk:Iniciativa de salud comunitaria/Herramientas de bloqueo y mejoras, en Phabricator, o por correo electrónico. SPoore (WMF), Confianza y seguridad, Iniciativa de salud comunitaria ( discusión ) 20:17, 15 de mayo de 2018 (UTC)
Creamos la línea de tiempo de interacción para que sea más fácil entender cómo interactúan y conversan dos personas en varias páginas de una wiki. La herramienta muestra una lista cronológica de las ediciones realizadas por dos usuarios, solo en las páginas en las que ambos realizaron ediciones dentro del rango de tiempo proporcionado.
Queremos añadir una función a la línea de tiempo que facilite la publicación de estadísticas e información en una discusión en la wiki sobre la mala conducta de los usuarios. Estamos debatiendo la posible salida de texto wiki en la página de discusión del proyecto y te invitamos a participar. Gracias, — Trevor Bolliger, gerente de productos de WMF ( t ) 22:10, 14 de junio de 2018 (UTC)
Hola a todos;
El equipo de herramientas antiacoso está casi listo para lanzar el primer conjunto de características de bloqueos parciales (la capacidad de bloquear a un usuario de ≤10 páginas) en el entorno beta y luego test.wikipedia a mediados de octubre.
En otras noticias, debido a la complejidad técnica, se ha despriorizado el bloqueo de múltiples bloques (phab:T194697) y se lo ha eliminado de este proyecto. Nuestro primer objetivo será asegurarnos de que el bloqueo de páginas, espacios de nombres y cargas funcione como se espera y realmente produzca un impacto significativo. Compartiré los cambios en los diseños cuando se actualicen. SPoore (WMF), Trust & Safety, Community health initiative ( discusión ) 00:10, 25 de septiembre de 2018 (UTC)
Hay una discusión relacionada con esta área del proyecto en la bomba de agua del pueblo. El tema es una plantilla de página de discusión opcional sugerida que permite a los usuarios calificar el estado de la discusión de la página de discusión. Edaham ( discusión ) 02:54, 4 de enero de 2019 (UTC)