stringtranslate.com

Discusión de Wikipedia:Iniciativa de salud comunitaria en Wikipedia en inglés

Cómo lidiar con informes desorientados

Esta es una iniciativa bienvenida, pero es probable que se informen algunos problemas que una investigación rápida debería mostrar que no tienen fundamento. Los procedimientos estándar de la comunidad incluyen el uso de WP:HERE como punto de referencia. Sería maravilloso si todos los usuarios pudieran ser bienvenidos y mimados, sin embargo, la experiencia muestra que alentar a algunos usuarios es muy perjudicial para la salud de la comunidad, ya que a menudo implica perder una gran cantidad de tiempo y energía para editores útiles. He visto varios casos en los que se informa al editor X por lenguaje abusivo dirigido contra el editor Y, y un vistazo superficial confirma que X fue abusivo e Y fue educado. Sin embargo, observar los problemas subyacentes puede mostrar que Y debería ser bloqueado indefinidamente por agotar la paciencia de muchos editores con intentos despistados de subvertir el propósito de Wikipedia, y fue lamentable pero bastante comprensible que X explotara de frustración porque la comunidad a menudo no puede manejar adecuadamente la presión civilizada del punto de vista . Johnuniq ( discusión ) 00:28, 3 de mayo de 2017 (UTC) [ responder ]

Lo has dicho muy bien. Me lo dicen muchas veces. Esta iniciativa es importante y tiene buenas intenciones, pero la ejecución podría salir mal de muchas maneras. Esperemos que se ejecute bien y con prudencia. Jytdog ( discusión ) 18:13 3 may 2017 (UTC) [ responder ]
+1 Aunque "informes despistados" no parece el título de sección más adecuado.
A veces, los quejosos son simples víctimas de abuso; a veces, los quejosos son los que abusan porque sus ediciones son rechazadas por razones de política; y, a veces, los buenos editores pueden verse frustrados por individuos educados pero agresivamente disruptivos. Cuando veas una queja, realmente debes comenzar con una mentalidad que suponga que hay un 50-50% de posibilidades de que alguien tenga el problema.
Los enlaces WP:HERE / WP:NOTHERE son importantes. Citamos NOTHERE con mucha frecuencia. La razón por la que alguien está aquí es un factor determinante para determinar si tendrá éxito o será disruptivo. Las personas que están aquí para arreglar el mundo a menudo se encuentran en un callejón sin salida y pueden estar en cualquier extremo de una queja. Alsee ( discusión ) 12:43 16 may 2017 (UTC) [ responder ]
@ Johnuniq y Alsee : En mi humilde opinión, un problema mayor es lidiar con respuestas desorientadas. Recientemente informé sobre una serie de ataques personales a AN (un editor me acusó públicamente de mala fe y me dijo que me fuera a la mierda), y la primera respuesta del administrador fue básicamente "provocaste a un acosador, así que es tu culpa, abandona la discusión, déjalo ganar y no nos hagas perder el tiempo". Pocas personas más comentaron, nadie se molestó en emitir ni siquiera una advertencia. Mi conclusión, basada en 10 años aquí y hablando con muchas personas sobre sus experiencias, es que la mayoría de las personas que son acosadas no se molestan en informarlo porque están hartas de que los administradores/la comunidad ignoren sus quejas. Existe la suposición de que es poco probable que las quejas sobre acoso generen siquiera una advertencia, son solo una pérdida de tiempo estresante en la que la víctima se queja y la comunidad/los administradores la critican por no tener la piel lo suficientemente gruesa. Las quejas pueden tener cierta fuerza si se trata de alguna IP o enlace rojo que realiza el acoso, pero cuanto más establecido esté el acosador, menos gente querrá alborotarlo. -- Piotr Konieczny alias Prokonsul Piotrus | responder aquí 05:14, 17 de mayo de 2017 (UTC) [ responder ]
Supongo que te refieres a este hilo. Si es así, es interesante leerlo en relación con la misión de esta iniciativa. Suceden muchas cosas así. El comportamiento de Lugnuts fue mediocre, pero no se pudo llevar a cabo ninguna acción, por lo que no se logró nada. Volviendo a la gente que lleva a cabo esta iniciativa... si esta iniciativa va a intentar eliminar el tipo de comportamiento del que se queja Piotrus, sería... mmm extremadamente controvertido. Leer esto probablemente sería instructivo. Jytdog ( discusión ) 05:43 17 may 2017 (UTC) [ responder ]

Preguntas sobre el alcance

Algunas preguntas sobre el alcance previsto S Philbrick (discusión) 16:15 3 may 2017 (UTC) [ responder ]

Hola S Philbrick ,
Nuestra intención es que el trabajo del equipo de herramientas contra el acoso se realice en colaboración con la comunidad Wikimedia. Por eso, agradecemos sus preguntas y comentarios. Equipo de herramientas contra el acoso 22:03, 5 de mayo de 2017 (UTC)

Gente

La iniciativa se lee como si las personas en cuestión fueran editores, tanto registrados como no registrados, tanto instigadores como destinatarios. Parece que los sujetos de las biografías no están en el ámbito de aplicación. En OTRS, a menudo recibimos correos electrónicos en los que la queja principal es el acoso al sujeto de un artículo. ¿Está esto en el ámbito de aplicación? S Philbrick (Discusión) 16:15 3 may 2017 (UTC) [ responder ]

El trabajo del equipo incluirá analizar el acoso tal como lo define WMF y las políticas de la comunidad. Por lo tanto, sí, los sujetos de BLP que son acosados ​​en la wiki (con imágenes o texto) se incluirán de manera similar a otras personas a medida que diseñamos herramientas para la detección, denuncia y evaluación del acoso. Equipo de herramientas contra el acoso 22:03, 5 de mayo de 2017 (UTC)

Nexo

La iniciativa habla de "Wikipedia y otros proyectos Wikimedia". Si bien es obvio que cualquier acoso dentro de los muros de los proyectos Wikimedia está dentro de este ámbito, y hay ejemplos de acoso que claramente no están dentro de este ámbito (el jugador de béisbol que fue objeto de burlas por parte de los fanáticos), existen algunas zonas grises. Podría ser útil aclarar los límites. Por ejemplo:

S Philbrick (discusión) 16:15 3 may 2017 (UTC) [ responder ]

En este momento, una de las áreas principales de énfasis de la iniciativa de salud comunitaria serán las wikis de la WMF, ya que tenemos mucho que mejorar, en particular en las cuatro áreas de enfoque: detección, informes, evaluación y bloqueo. Además del trabajo en la Wikipedia en inglés, otra área de énfasis será la revisión de las herramientas globales utilizadas por los funcionarios (administradores, usuarios de control, supervisores, etc.).
En cuanto al acoso que ocurre fuera de la wiki (es algo que todos tenemos en mente), nuestro equipo ha hablado sobre este tema varias veces por semana. ¿Cuál es nuestra responsabilidad? ¿Cómo podemos dotar a nuestros usuarios de los recursos necesarios para protegerse y defenderse en otros lugares? Este tema se seguirá discutiendo, incluso en el futuro, en consultas comunitarias.
Algunas áreas fuera del espacio wiki general donde actualmente se lleva a cabo trabajo de acoso son:
Los espacios técnicos de MediaWiki (incluidos IRC, Phabricator y las listas de correo oficiales) están cubiertos por el Código de Conducta de Wikimedia, que fue ratificado el mes pasado. Es posible que desarrollemos software para cubrir también estas cuestiones, pero no tenemos nada planeado.
La comunidad ha señalado la función EmailUser como un medio para el acoso. Estamos estudiando cómo podemos mejorar la función EmailUser para preparar mejor a los usuarios que actualmente no sepan cómo funciona.
Los eventos afiliados a la Fundación Wikimedia (conferencias, hackathons, etc.) están cubiertos por la Política de Espacios Amigables de la Fundación Wikimedia. No hay nada planeado actualmente, pero el equipo Antiacoso está trabajando en estrecha colaboración con el equipo de Soporte y Seguridad, y existe la posibilidad de que se trabaje en algún tipo de herramientas para ayudar a informar o investigar el acoso en estos eventos fuera de la wiki.
Equipo de herramientas contra el acoso 22:03, 5 de mayo de 2017 (UTC)

Momento

Es comprensible que el alcance inicial pueda ser limitado, pero ¿se prevé que sea un "paseo antes de correr", con la posibilidad de que el alcance pueda ampliarse eventualmente o se pretende que las respuestas a la pregunta del alcance sean semipermanentes (lo que significa, por supuesto, que las cosas pueden cambiar con el tiempo, pero ¿es esto parte de la planificación o no? - S Philbrick (discusión) 16:15, 3 de mayo de 2017 (UTC) [ responder ]

A medida que hacemos que sea más difícil que el acoso ocurra en sus formas actuales, sabemos que los actores maliciosos se adaptarán y encontrarán nuevas formas de impulsar sus agendas e intentar alejar a las personas de la comunidad. Recibimos fondos hasta el año fiscal 2018-19 con la subvención de la Fundación Newmark, pero no tenemos una idea clara de hacia dónde se dirigirá este trabajo más allá de eso. ¡La Estrategia del Movimiento 2030 sin duda orientará nuestros planes!
Los equipos de desarrollo de software bien preparados siempre deben estar abiertos a ajustar los planes a lo largo del camino. Lo que aprendemos con cada característica que creamos nos servirá de base para tomar decisiones, planificar y llevar a cabo proyectos futuros. Y lo decimos con toda sinceridad: necesitamos que la comunidad nos ayude con este aprendizaje y con los ajustes de la hoja de ruta.
Nuevamente, gracias por sus preguntas y comentarios, Caroline , Sydney y Trevor del equipo de Herramientas contra el Acoso. (presentado por SPoore (WMF) (discusión), Defensor de la comunidad, Iniciativa de salud comunitaria ( discusión ) 22:03, 5 de mayo de 2017 (UTC)) [ responder ]
Gracias a todos por las respuestas detalladas a mis preguntas.-- S Philbrick (discusión) 17:51 8 may 2017 (UTC) [ responder ]

Procesador de procesos

Como parte de la sección de detección, tenemos "Mejoras de fiabilidad y precisión en ProcseeBot". Me gustaría comentar esto como administrador que trabaja con muchos servidores proxy en enwiki. ProcseeBot es realmente increíblemente fiable y preciso. Siempre habrá lugar para mejorar en relación con las fuentes de entrada que se deben comprobar, pero su precisión y fiabilidad a la hora de realizar esas comprobaciones no se pueden cuestionar. El único momento en el que realmente llama la atención de los administradores es en las solicitudes de desbloqueo, donde normalmente el bloqueo ha durado demasiado tiempo.

ProcseeBot es invaluable, pero se limita a detectar proxies HTTP, y realmente su principal valor es bloquear proxies zombis. Estos suelen ser utilizados especialmente por spambots, pero no son los principales tipos de proxies utilizados para el abuso. Existe una gama cada vez más amplia de VPN, servicios en la nube, servicios web y otros servicios de anonimato que a menudo son casi imposibles de detectar automáticamente. Quizás debido a la efectividad de ProcseeBot, pero quizás no, estos son los tipos de proxies que vemos que causan el mayor abuso del anonimato.

En enwiki, así como en meta a nivel global, tendemos a bloquear rangos completos de ellos cuando se hacen evidentes. Esto se puede hacer con bastante facilidad usando whois y DNS inverso para algunas direcciones. Para otros, como Amazon, The Planet, Leaseweb, OVH, Proxad, esto no es tan sencillo ya que a menudo afectará a una gran cantidad de material complementario. Más preocupante es el reciente aumento de los proxies VPN dinámicos organizados centralmente, como vpngate, que funcionan de manera similar a Tor pero sin la transparencia.

El equipo siempre podría echar un vistazo a nl:Gebruiker:RonaldB/Open proxyfighting, que (la última vez que miré) está activo en múltiples wikis y es proactivo en el bloqueo (y desbloqueo) de varios tipos de servidores proxy que no son detectados por ProcseeBot. Su resultado en WP:OPD es una buena fuente para encontrar trolls.

Por ahora voy a ignorar la pregunta de si enwiki quiere prohibir totalmente la edición de todos los servidores web y proxies anónimos: la política dice que no. Y gran parte del acoso proviene de rangos enormemente dinámicos y no de proxies, cuando lo que realmente se necesita es presión de WMF sobre los ISP. De todos modos, buena suerte pensando en esto, pero no te concentres demasiado en ProcseeBot y en la comprobación de proxies HTTP. -- zzuuzz (discusión) 19:26, 3 de mayo de 2017 (UTC) [ responder ]

@ Zzuuzz : Gracias por los comentarios. Esto es realmente útil. Para los ISP que frecuentemente reasignan direcciones IP, me pregunto si realmente hay mucho que podamos hacer al respecto. Recientemente implementamos el bloqueo de cookies, pero es fácil solucionarlo. Se ha hablado de la búsqueda de agente de usuario en CheckUser, pero en un momento determinado comenzamos a adentrarnos en un territorio espeluznante de seguimiento/elaboración de perfiles/pesca de usuarios. Si tiene más ideas al respecto, háganoslo saber. Ryan Kaldari (WMF) ( discusión ) 23:34, 4 de mayo de 2017 (UTC) [ responder ]
Si tuviera recursos infinitos para analizar esto, analizaría el DNS inverso (o AS ) y la geolocalización en relación con los controles de administración a nivel de página o tema. Lo que realmente me gustaría escuchar (pero no necesariamente ahora) son los intentos de la WMF de presionar a los ISP en relación con los que violan las condiciones de servicio y los que abusan de forma totalmente ilegal. -- zzuuzz (discusión) 18:26 5 may 2017 (UTC) [ responder ]

Herramientas: no sólo para administradores

La página M:Community_health_initiative/User_Interaction_History_tool fue escrita exclusivamente para administradores, pero tenga en cuenta que las herramientas tienen varios usos valiosos para los no administradores. Uno de esos usos es recopilar evidencia para presentar a los administradores. Otro uso es revisar los supuestos títeres de calcetín, que pueden o no estar relacionados con el acoso. Alsee ( discusión ) 08:55, 16 de mayo de 2017 (UTC) [ responder ]

Esa es una propuesta interesante para una herramienta, y será interesante ver qué respuesta hay a tus ediciones en esa página. No ha habido mucha respuesta aquí. Esperaba al menos un reconocimiento de que mi primera publicación anterior fue leída. Johnuniq ( discusión ) 09:59, 16 de mayo de 2017 (UTC) [ responder ]
Johnuniq , apoyaré la sección de "informes despistados" que aparece más arriba y le enviaré un mensaje a SPoore (WMF) para que comente allí y/o en la sección de mi Panel de control que aparece a continuación. No me preocupa demasiado recibir una respuesta en esta sección. Alsee ( discusión ) 11:16 16 may 2017 (UTC) [ responder ]
Hola Johnuniq y Alsee , definitivamente leímos sus primeras publicaciones. Antes de cambiar algo o agregar nuevas herramientas, tendremos conversaciones con la comunidad. Uno de mis trabajos principales es identificar a las distintas partes interesadas y asegurarme de que un amplio grupo de personas aporte información al trabajo del equipo de la herramienta Anti-acoso. Analizaremos sus comentarios y luego les daremos una respuesta más sustancial sobre la herramienta Dashboard e Historial de interacciones. Saludos, SPoore (WMF) (discusión) , Defensor de la comunidad, Iniciativa de salud comunitaria ( discusión ) 13:55, 16 de mayo de 2017 (UTC) [ responder ]

Panel

La página principal aquí menciona que está evaluando un sistema de panel de control para administradores o funcionarios de wiki para ayudarlos a administrar investigaciones actuales y acciones disciplinarias , y hay un enlace sobre algunos de nuestros paneles de control existentes.

¿Estabas considerando programar algún tipo de panel de control? Herramientas como Interaction Analyzer nos permiten extraer información y la ponemos en wikitexto para que la comunidad la procese. Hemos creado un ecosistema wiki integrado completo en el que creamos, modificamos y abandonamos flujos de trabajo sobre la marcha. Si observas todos los ejemplos de "panel de control" existentes, todos son simplemente páginas wiki. Si estás creando herramientas de recuperación de datos como InteractionAnalizer y estás tratando de desarrollar innovaciones políticas y sociales, genial. Pero, por favor, avísame si estabas pensando en codificar algún tipo de panel de control o "aplicación" para gestionar el flujo de trabajo. Eso es algo muy diferente. Me gustaría mucho escuchar lo que tenías en mente y discutir por qué (probablemente) no es una buena idea. Algún día podremos desarrollar un gran sistema M:Workflows, pero tratar de crear una serie de aplicaciones únicas para varias tareas es el enfoque equivocado. Alsee ( discusión ) 10:42, 16 de mayo de 2017 (UTC) [ responder ]

Hola Alsee , todavía no se han tomado decisiones firmes. Estamos buscando comentarios de personas que usan las herramientas actuales para hacerlas más útiles. El equipo todavía está contratando desarrolladores. Estén atentos a las invitaciones para participar en las discusiones a medida que comenzamos a priorizar nuestro trabajo y a hacer planes más concretos. SPoore (WMF) (discusión) , Defensor de la comunidad, Iniciativa de salud comunitaria ( discusión ) 14:16, 16 de mayo de 2017 (UTC) [ responder ]
Me temo que esto se va a convertir en una de esas cosas en las que "hemos contratado a gente y tenemos que hacer algo con ellos". Jytdog ( discusión ) 15:08 16 may 2017 (UTC) [ responder ]
Invito y solicito a cualquiera que me contacte si se habla de crear herramientas "internas" como el sistema NewPagePatrol o "paneles de control" gestionados por software, en lugar de herramientas externas como ToolLabs. Me gustaría mucho considerar cuidadosamente lo que se propone crear. Normalmente sigo de cerca proyectos como este, pero ya tengo poco tiempo para varios otros proyectos de WMF. Alsee ( discusión ) 23:40, 16 de mayo de 2017 (UTC) [ responder ]

Invitación a probar y discutir la lista negra de notificaciones de Echo

Hola,

Para responder a una solicitud de la Lista de deseos de la comunidad de 2016 para que los usuarios tengan más control sobre las notificaciones, el equipo de herramientas contra el acoso está explorando cambios que permitan agregar una lista negra por usuario a las notificaciones de Echo. Esta función permite un control más preciso sobre las notificaciones y podría frenar las notificaciones de acoso. Te invitamos a probar la nueva función en versión beta y luego a hablar sobre ella con nosotros. Para el equipo de herramientas contra el acoso SPoore (WMF) (discusión) , Defensor de la comunidad, Iniciativa de salud comunitaria ( discusión ) 15:18, 2 de junio de 2017 (UTC) [ responder ]

Priorización de herramientas contra el acoso

¡Buen martes, Wikipedia!

Le debemos una actualización de lo que el equipo de Iniciativa de Salud Comunitaria y Herramientas Antiacoso han estado trabajando durante el último mes:


¡Ahora tenemos un desarrollador!

David Barratt se unió a nosotros el 30 de mayo como desarrollador full stack. Ya está realizando todas las tareas de incorporación y está ansioso por crear herramientas para que las uses.


Lista negra de notificaciones de Echo

Ya hemos publicado esto en algunos lugares, pero nuevamente queríamos compartir una nueva característica que se puso en práctica en la Lista de deseos de la comunidad de 2016 y en el hackathon de Viena del mes pasado: la lista negra de notificaciones de Echo . ¡Pruébela en nuestro entorno beta y comparta sus opiniones!


Priorizando nuestros esfuerzos

Lo principal de lo que me gustaría hablar hoy es cómo el equipo de Herramientas Antiacoso priorizará nuestro trabajo.

Ahora que David está a bordo, estamos casi listos para comenzar a poner la pluma digital en el papel digital y crear algunas herramientas para ayudar a la comunidad de Wikipedia a lidiar mejor con el acoso.

Hay muchas oportunidades para explorar, problemas para resolver y proyectos para abordar. Parte de mi trabajo como gerente de producto es priorizar nuestra lista de tareas pendientes de oportunidades, problemas y proyectos de una manera lógica y eficiente. Estamos usando Phabricator para hacer un seguimiento de nuestro trabajo en el tablero de trabajo Anti-Harassment en la columna “Prioritized Project/Oportunidad/Problem Backlog”. Se prioriza de arriba hacia abajo y es natural que los elementos cerca de la parte superior estén más desarrollados, mientras que los elementos más abajo pueden ser solo algunas palabras o pensamientos dispersos.

Durante este proceso de priorización, tengo en cuenta muchas cosas: ¿qué está diseñado, definido y listo para el desarrollo? ¿Qué proporcionará el mayor valor a nuestros usuarios? ¿Qué tiene impulso y un fuerte apoyo? ¿Qué podemos lograr con nuestro marco de tiempo y la capacidad de los desarrolladores? He elaborado una lista completa de todas las consideraciones de priorización en Wikipedia:Iniciativa_de_salud_comunitaria#Priorización .

La contribución de la comunidad de Wikipedia en inglés será extremadamente importante en este proceso. Necesitamos saber si existe un orden más lógico para nuestra priorización. Necesitamos saber si nos estamos olvidando de algo. Necesitamos saber si la comunidad está lista para lo que planeamos crear.

Así es como te invitamos a participar:

Actualmente, los primeros elementos en nuestra lista de tareas pendientes incluyen algunas herramientas para el equipo de soporte y seguridad de WMF (T167184), la lista negra de notificaciones (T159419) y AbuseFilter (T166802, T166804 y T166805). Es probable que esto sea suficiente trabajo hasta octubre, pero si el tiempo lo permite, analizaremos la creación de bloques de páginas y temas (T2674) y la herramienta Historial de interacción del usuario (T166807).

Así que, por favor, echa un vistazo a nuestra lista de tareas pendientes y dinos qué piensas. ¿Es lógica la secuencia? ¿Hay consideraciones que hemos pasado por alto? ¿Hay más oportunidades que deberíamos explorar?

¡Gracias!

TBolliger (WMF) ( discusión ) 20:44 13 jun 2017 (UTC) en nombre del equipo de herramientas antiacoso [ responder ]

¿Qué es un "bukkteam"? MER-C 23:47 13 jun 2017 (UTC) [ responder ]
😆 ¡Ni idea! Un error tipográfico que se coló. Gracias por señalarlo. He actualizado la oración para usar inglés humano. — TBolliger (WMF) ( discusión ) 23:50 13 jun 2017 (UTC) [ responder ]

Protección de páginas de usuario en todos los proyectos de WMF

@ TBolliger (WMF) : Con respecto a "proponer una nueva característica", no sé si estás familiarizado con algunos de los acosos a largo plazo de las LTA . He tenido una comunicación extensa con un par de editores que han recibido amenazas flagrantes a través de correo electrónico de Wikipedia y de la edición de usuarios o páginas de discusión de usuarios por parte de una LTA con una identidad conocida por la WMF. Se acaba de hacer otra solicitud aquí para encontrar una manera de tener páginas de usuarios protegidas en todos los sitios de WMF. Hay muchos más detalles disponibles. Según WP:DENY, podría ser mejor minimizar la discusión en esa charla. Johnuniq ( discusión ) 01:24, 15 de junio de 2017 (UTC) [ responder ]

@ Johnuniq : Sí, leí las páginas de LTA hace unos meses y definitivamente veo que algunos de nuestros elementos pendientes abordan este problema: T166809 es para crear "herramientas entre wikis que permitan a los administradores gestionar casos de acoso en proyectos wiki e idiomas", mientras que podríamos permitir a los usuarios individuales proteger sus páginas o silenciar a usuarios específicos en T164542 "Función general de silenciamiento/bloqueo de usuarios". Veo que podría ser necesario que existan ambas tácticas, ya que los usuarios individuales podrán reaccionar más rápidamente que los administradores o los administradores en casos de pequeña escala. — TBolliger (WMF) ( discusión ) 18:48, 15 de junio de 2017 (UTC) [ responder ]

Explorando cómo se puede utilizar el filtro Editar para combatir el acoso

El filtro de edición (también conocido como AbuseFilter) es una función que evalúa cada edición enviada, junto con otras acciones de registro, y las compara con las reglas definidas por la comunidad. Si se activa un filtro, la edición puede rechazarse, etiquetarse, registrarse, generar un mensaje de advertencia y/o revocar el estado de confirmación automática del usuario.

Actualmente hay 166 filtros activos en la Wikipedia en inglés. Un ejemplo sería el filtro n.° 80, “Enlaces spam”, que identifica a los usuarios no confirmados automáticamente que han añadido enlaces externos a tres o más páginas del espacio principal en un período de 20 minutos. Cuando se activa, muestra esta advertencia al usuario, pero le permite guardar los cambios. También etiqueta la edición con “posible enlace spam” para su posterior revisión. Se activa una docena de veces al día y parece que la mayoría de los usuarios infractores son finalmente bloqueados por spam.

AbuseFilter es una herramienta poderosa para manejar problemas de contenido y creemos que se puede ampliar para manejar más problemas de conducta de los usuarios. El equipo de desarrollo de software de herramientas antiacoso está estudiando tres áreas principales:


1. Mejorar su rendimiento para que se puedan ejecutar más filtros por edición.

Queremos que la extensión AbuseFilter sea más rápida para que se puedan habilitar más filtros sin tener que deshabilitar ningún otro filtro útil. Actualmente estamos investigando el rendimiento actual de T161059. Una vez que comprendamos mejor cómo funciona actualmente, crearemos un plan para que sea más rápida.


2. Evaluación del diseño y la eficacia de los mensajes de advertencia

Hay un filtro ( el n.° 50, “Gritos” ) que advierte cuando un usuario no confirmado realiza una edición en artículos del espacio principal que constan únicamente de letras mayúsculas. (Puede ver el registro si tiene curiosidad sobre qué tipos de ediciones activan con éxito este filtro). Cuando se activa la edición, se muestra un mensaje de advertencia al usuario sobre la ventana de edición:

De MediaWiki:Abusefilter-warning-shouting . Cada filtro puede especificar un mensaje personalizado para mostrar.


Estos mensajes ayudan a disuadir a los usuarios de realizar modificaciones perjudiciales. A veces, pedirle al usuario que haga una breve pausa es suficiente para evitar un incidente incívico.

Creemos que la función de advertencia es increíblemente importante, pero nos interesa saber si la presentación podría ser más eficaz. Nos gustaría trabajar con los usuarios interesados ​​para diseñar algunas variaciones de modo que podamos determinar qué ubicación (encima del área de edición, debajo, como una ventana emergente, etc.), elementos visuales (iconos, colores, grosores de fuente, etc.) y texto transmiten de manera más eficaz el mensaje deseado para cada advertencia. ¡Cuéntanos si tienes alguna idea o si te gustaría participar!


3. Agregar nueva funcionalidad para que se puedan crear filtros más complejos.

Ya hemos recibido docenas de sugerencias de funciones para agregar a AbuseFilter, pero necesitamos su ayuda para reducir esta lista para que podamos crear filtros efectivos que ayuden a combatir el acoso.

El primer filtro que propongo advertiría a los usuarios cuando publiquen mensajes abiertamente agresivos en las páginas de discusión. El usuario aún podría publicar el mensaje que desea, pero el mensaje de advertencia le daría una segunda oportunidad para considerar que sus palabras descorteses pueden tener consecuencias. Muchos sitios web de discusión en línea tienen esta funcionalidad, con un efecto positivo. La versión simple estaría diseñada para detectar palabras de una lista predefinida, pero si la integráramos con el aprendizaje automático de ORES podríamos detectar automáticamente ediciones de mala fe en las páginas de discusión. (Y como efecto secundario adicional, ORES también podría aplicarse a los filtros de edición de contenido).

Otro filtro que propongo sería registrar, advertir o prevenir violaciones de 3RR . Este filtro se ha propuesto dos veces antes ([1], [2]), pero se rechazó debido a la falta de discusión y porque AbuseFilter no puede detectar reversiones. El equipo de herramientas contra el acoso desarrollaría esta funcionalidad, ya que creemos que este filtro proporcionaría una utilidad inmensa para evitar que los incidentes de acoso a pequeña escala se descontrolen.

Hay una infinidad de otros filtros que se podrían crear. Si quisieras crear un filtro que registrara, advirtiera o impidiera los comentarios acosadores, ¿cuál sería? ¿Y qué funcionalidad agregarías a AbuseFilter? Únete a nuestra discusión en Wikipedia talk:Iniciativa de salud comunitaria en Wikipedia en inglés/Edit filter .

¡Gracias y nos vemos en la discusión!

— El equipo de herramientas contra el acoso (publicado por TBolliger (WMF) ( discusión ) 23:15, 21 de junio de 2017 (UTC)) [ responder ]

¿No queda la guerra de ediciones fuera del alcance de un proyecto centrado en el acoso? Jytdog ( discusión ) 00:30 22 jun 2017 (UTC) [ responder ]
@Jytdog : No del todo. Muchos casos de acoso se originan a partir de disputas de contenido y guerras de edición. Por lo tanto, esta podría ser una forma potencial de resolver la causa raíz y no el síntoma. — TBolliger (WMF) ( discusión ) 21:52 22 jun 2017 (UTC) [ responder ]
En cuanto a 3rr, en primer lugar, no creo que se puedan identificar adecuadamente las excepciones a la regla de 3rr mediante algoritmos y, francamente, esas excepciones son más importantes que la regla (violaciones de BLP, vandalismo flagrante, etc.). En cuanto a las advertencias, son un poco contradictorias. Por un lado, es definitivamente positivo advertir a las personas que pueden estar a punto de violar 3rr sin intención alguna de hacer una guerra de ediciones. Pero, por otro lado, conviene tener mucho cuidado de no fomentar la idea de que es aceptable hacer una guerra de ediciones sin violar 3rr. Personalmente, yo centraría los esfuerzos en el abuso a largo plazo contra el que los filtros existentes están demostrando ser ineficaces, en particular cuando se trata de acoso a largo plazo dirigido a editores concretos. Monty 845 02:42, 22 de junio de 2017 (UTC) [ responder ]
@ Monty845 : Tienes razón, la detección de 3RR es muy matizada, por lo que una etiqueta podría ser más apropiada que una advertencia. ¿Qué filtros crees que son ineficaces? (Quizás quieras enviarme un correo electrónico en lugar de publicarlos aquí. — TBolliger (WMF) ( discusión ) 21:52, 22 de junio de 2017 (UTC) [ responder ]
Estoy realmente intrigado por lo que ORES puede ofrecer en cuanto a ediciones agresivas de páginas de discusión. Sin embargo, recuerdo los resultados mixtos del Filtro 219 (transferido al Filtro 1 en agosto de 2009)[3]. Incluso detectar "vete a la mierda" no está exento de problemas. Si eliminas la agresión, este sitio sigue siendo muy diferente de muchos otros foros y sitios web. -- zzuuzz (discusión) 21:53 14 jul 2017 (UTC) [ responder ]

Revisión de interacción

Así que esta es una idea que consideré recientemente y es bastante simple:

  1. Puedes puntuar a otro editor en función de ciertas características. Elegirlas es fundamental, pero algunos ejemplos podrían ser:
    • civilidad
    • pericia
    • utilidad
    • visibilidad/participación
  2. Las puntuaciones son de 3 niveles (voto negativo, neutral, voto positivo)
  3. Estas puntuaciones son privadas (solo la persona que otorga una puntuación puede ver cómo calificó a un compañero colaborador)
  4. Puedes cambiar tu puntuación
  5. Las puntuaciones de los demás se promedian o se reducen con el tiempo y se presentan al usuario en su página de usuario o en algún lugar (si tienes suficientes puntuaciones, es posible que puedas ir a una línea de tiempo y ver cómo ha cambiado tu percepción con el tiempo). La vista de la puntuación tendría un perfil bajo, pero estaría presente de manera constante y continua (pero sin pings, etc.).
  6. Es posible que a veces el sistema te solicite que dejes una reseña (recientemente interactuaste con 'PersonaB', ¿puedes calificar tu experiencia con este editor?)

La idea sería que esto le permita al colaborador comprender su propio comportamiento y la percepción que tiene la comunidad de dicho comportamiento. Con suerte, esto fomentará la autodirección/corrección, sin introducir bloqueos, humillaciones públicas, etc. También agregaría algo de material de "curso" en la puntuación presentada, para aquellos que necesiten ayuda para interpretar su puntuación y para ayudarlos a ser "mejores" miembros de la comunidad. — The DJ ( discusióncontribuciones ) 11:50, 22 de junio de 2017 (UTC) [ responder ]

Por cierto, esto puede tener sus desventajas. Por ejemplo, un troll podría usarlo como una medida de "éxito". O las personas influyentes/inestables podrían sentirse angustiadas por su "puntuación". Estos son elementos importantes que deben tenerse en cuenta al diseñar algo. — The DJ ( discusióncontribuciones ) 11:55 , 22 de junio de 2017 (UTC) [ responder ]
Hola , DJ , el equipo de herramientas antiacoso definitivamente está buscando más ideas, así que gracias por publicar esta. ¿La has visto (o algo similar) en uso en otro sitio web? Además, estoy pensando que podría ser algo a lo que la gente se suscriba, pero podría socializarse para que se use si se considera que es útil. Además, para minimizar los efectos negativos del troleo, podría haber un límite para quién puede hacer las revisiones. Y tal vez incluir una lista negra para personas que tienen prohibiciones de interacciones, etc. Me interesa escuchar otras opiniones. SPoore (WMF) (discusión) , Defensor de la comunidad, Iniciativa de salud comunitaria ( discusión ) 19:22, 22 de junio de 2017 (UTC) [ responder ]
No lo he visto en ningún otro lado. Surgió de una línea de pensamiento que tuve: "La mayoría de los sitios te permiten bloquear y agregar amigos a otras personas, pero eso no coincide realmente con el tipo de interacción de bazar que suele ocurrir en Wikipedia. Entonces, si no puedes prohibir a un usuario, ¿qué puedes hacer?". En mi opinión, la unión "forzada" de personas y sus ideas como en Wikipedia es esencial para el modelo de Wikipedia, y tratar de no romper eso es uno de los mayores desafíos cuando queremos abordar la salud de la comunidad. — The DJ ( discusióncontribuciones ) 20:21 , 23 de junio de 2017 (UTC) [ responder ]
Mientras he estado revisando estas sugerencias de intervenciones, no dejo de pensar en la medicina. No existe ninguna intervención que no tenga efectos adversos ; para todas estas cosas, los beneficios potenciales tendrán que sopesarse frente a los daños potenciales, y habrá cosas inesperadas (buenas y malas) cuando se implemente; se deberían realizar algún tipo de ensayos clínicos de manera controlada para aprender sobre ellos antes de que algo se lance realmente al mercado, y después debería haber lo que llamamos vigilancia posterior a la comercialización / farmacovigilancia, ya que a veces los efectos adversos no surgen hasta que el uso es realmente generalizado. Jytdog ( discusión ) 15:23 22 jun 2017 (UTC) [ responder ]
Jytdog , nosotros (el equipo de la herramienta Anti-hassment) estamos de acuerdo en que es necesario realizar una variedad de pruebas y análisis tanto antes como después del lanzamiento de una nueva función. Afortunadamente, contamos con un analista/investigador de productos como parte de nuestro equipo. Nuestro equipo aún es nuevo y actualmente estamos desarrollando las mejores prácticas y flujos de trabajo. Puede esperar ver documentación sobre la forma general en que investigaremos, probaremos y analizaremos, así como planes y resultados específicos para una función en particular. En este momento, estamos pensando en el análisis posterior al lanzamiento y la recopilación de datos para la función de lista negra de notificaciones de Echo. T168489.
Además, después de que los últimos miembros de la Iniciativa de Salud Comunitaria se incorporen (dos comenzarán a principios de julio), planeamos tener una discusión comunitaria más amplia sobre definiciones, terminología, política sobre acoso (específica de Wikipedia en inglés) en lo que respecta al trabajo de este equipo. Y trabajaremos con la comunidad para identificar medidas de éxito en torno a la salud comunitaria que informarán nuestro trabajo y ayudarán a determinar el tipo de investigación, pruebas y análisis que debemos hacer. SPoore (WMF) (discusión) , Defensor de la comunidad, Iniciativa de salud comunitaria ( discusión ) 19:22, 22 de junio de 2017 (UTC) [ responder ]
¡Genial! Jytdog ( discusión ) 22:14 22 jun 2017 (UTC) [ responder ]

Los videos y comentarios de YouTube obtienen este tipo de calificación, pero para determinar qué contenido se promociona. ¿La sugerencia es que podemos calificar a los editores en todo el comportamiento solo una vez? Eso parece problemático ya que el comportamiento cambia con el tiempo y nadie tiene una idea completa de las contribuciones de ningún usuario. Tal vez veamos cómo se podría ajustar el sistema de agradecimientos para llegar a un objetivo similar. Si pudiéramos agradecer y no me gusta las ediciones y eso se tradujera en una puntuación que brindaría una gran cantidad de comentarios a los usuarios que hacen ediciones impopulares o publican opiniones estúpidas. Tal vez haga que los no me gusta sean anónimos y establezca un filtro para atrapar a los usuarios a los que simplemente no les gusta todo lo que alguien hace para eliminar su puntuación. O asigne no me gusta igual a la cantidad de agradecimientos otorgados, pero no más. Algo parecido a esto sucede en geocaching.com, donde solo puede marcar como favorito 1 de cada 10 cachés que encuentre. Legacypac ( discusión ) 20:14, 23 de junio de 2017 (UTC) [ responder ]

En mi idea, puedes cambiar tu puntuación (re-puntuación) en cualquier momento. Youtube no es realmente lo mismo, ya que la "promoción" es un efecto público y mi idea solo daría un efecto "privado", y esa es una parte crucial. He considerado todos estos tipos de comentarios "públicos", pero el problema es que creo que obtendrías un gran grupo de personas que se opondrían firmemente a un sistema de este tipo (el tipo que prioriza el contenido/calidad de la contribución sobre la calidad de la interacción). Cuando el sistema es privado y, en cambio, se centra en la "conciencia", creo que podría ser un enfoque interesante y novedoso que no se ha probado muy a menudo antes y que podría ser una vía interesante para la investigación. Probablemente se pueda automatizar incluso con ORES como la puntuación de la IA para una parte (entonces la puntuación del usuario se puede usar para entrenar a la IA y el resultado de la IA se puede mezclar con la puntuación que es visible para el usuario que se está puntuando en el gráfico final o algo así. Solo algunas ideas locas. — The DJ ( discusióncontribuciones ) 16:06 , 26 de junio de 2017 (UTC) [ responder ]

Cambios que estamos realizando en la lista negra de notificaciones de Echo antes del lanzamiento y estrategia de lanzamiento y análisis posterior al lanzamiento

Hola;

He publicado #Cambios que estamos haciendo en la lista negra antes del lanzamiento y #Estrategia de lanzamiento y análisis posterior al lanzamiento para aquellos interesados ​​en la función de lista negra de notificaciones de Echo . ¡Agradecemos sus comentarios! — TBolliger (WMF) ( discusión ) 18:41, 23 de junio de 2017 (UTC) [ responder ]

Encontrando guerras de edición

Actualmente hay una discusión en WP:Bomba de pueblo (propuestas)#Solicitud de nueva herramienta que es de interés aquí.

Resumen del problema: Las guerras de edición pueden ser estresantes para todos los involucrados. En muchos casos, las personas involucradas pueden no saber cómo solicitar una intervención, o pueden estar tan absortas en el conflicto que no lo hagan. La discusión es para crear una herramienta o un bot que encuentre posibles guerras de edición en curso y las informe automáticamente para que sean investigadas por un humano. Alsee ( discusión ) 21:53, 1 julio 2017 (UTC) [ responder ]

¡Gracias, usuario: Alsee ! Dejé un comentario en esa discusión. Definitivamente, analizaremos la detección de guerra de ediciones con nuestro trabajo de filtro de edición , pero también puede ser mejor como una herramienta independiente. — Trevor Bolliger, gerente de productos de WMF 🗨 17:10, 3 de julio de 2017 (UTC) [ responder ]

Nuestras metas hasta septiembre de 2017

Tengo dos novedades que compartir sobre el equipo de herramientas antiacoso de WMF. La primera (¡y sin duda la más emocionante!) es que nuestro equipo está compuesto por cinco personas. Nuestros desarrolladores, David y Dayllan, se unieron el mes pasado. Puedes leer sobre nuestros antecedentes aquí .

Estamos todos entusiasmados por comenzar a desarrollar software que lo ayude a facilitar la resolución de disputas. Nuestra segunda actualización es que hemos establecido nuestros objetivos trimestrales para los meses de julio a septiembre de 2017 en mw:Wikimedia Audiences/2017-18 Q1 Goals#Community Tech. Los puntos destacados incluyen:

Te invito a leer nuestros objetivos y a participar en las discusiones que ocurren aquí o en las páginas de discusión pertinentes.

Mejor,

- Trevor Bolliger, gerente de productos de WMF 🗨 20:29, 24 de julio de 2017 (UTC) [ respuesta ]

Noticias tecnológicas de esta semana

Veo en las noticias tecnológicas de esta semana en el cartel lo siguiente:

Eso se discutió aquí, esto surge de esta iniciativa, ¿no? Jytdog ( discusión ) 18:20 5 ago 2017 (UTC) [ responder ]

Hola @Jytdog : — Si bien el trabajo original fue realizado por voluntarios fuera de nuestra priorización habitual, mi equipo (el equipo de herramientas antiacoso) realizará algunos cambios finales antes de publicarlo en más wikis. En este momento, solo está habilitado en Meta Wiki. — Trevor Bolliger, gerente de productos de WMF 🗨 21:21, 7 de agosto de 2017 (UTC) [ responder ]
Gracias Jytdog ( discusión ) 21:35 7 ago 2017 (UTC) [ responder ]

Examinar las ediciones de un usuario

Historia de usuario: quiero examinar y comprender las ediciones de secuencia de otro usuario. Tal vez esté acechando a otro usuario, tal vez esté impulsando un conflicto en varias páginas, tal vez sea un editor pago no revelado.

Cuando veo el historial de una página, cada comparación tiene enlaces muy útiles en la parte superior para la próxima edición y la edición anterior. Eso es genial para recorrer el historial de esa página.

Cuando veo el historial de contribuciones de un usuario, al abrir uno de los enlaces de edición se abrirá una página de comparación de la página de destino. Como se indicó anteriormente, esa página de comparación tiene enlaces para la próxima edición de esa página y la edición anterior de esa página. En la mayoría de los casos, eso es exactamente lo que queremos. Sin embargo, esos enlaces siguiente y anterior son inútiles cuando intento recorrer las ediciones de un usuario en particular. En ese caso, lo que realmente quiero son enlaces siguiente y anterior para las ediciones de ese usuario.

Es posible trabajar desde la página del historial de contribuciones de un usuario, pero es muy complicado. O bien tengo que recorrer la lista abriendo cada edición en una nueva pestaña, o bien tengo que usar el botón Atrás del navegador para recargar continuamente la página del historial de contribuciones.

Me resulta difícil imaginar una buena solución de interfaz de usuario para este caso de uso. Todas las opciones que se me ocurren serían incorrectas para el caso más común o saturarían excesivamente la interfaz de usuario. Sería genial si pudieras encontrar una buena solución para esto. Alsee ( discusión ) 13:43 9 ago 2017 (UTC) [ responder ]

@ Alsee : Ah, es una idea interesante. Hemos pensado en cómo mostrar este tipo de información en un formato fácil de entender para más de 2 usuarios, pero no hemos pensado en hacerlo para un solo usuario. Debería ser sencillo crear una nueva herramienta para esto, por eso he creado T172893 para hacer un seguimiento de esta idea. — Trevor Bolliger, gerente de productos de WMF 🗨 14:55, 9 de agosto de 2017 (UTC) [ responder ]

Necesito información sobre las plantillas de advertencia

Fue genial conocer a algunos de los miembros del equipo antiacoso en Wikimania 2017. Después de mi presentación allí, me vendría bien algún aporte sobre cómo crear nuevas plantillas de advertencia para editores anónimos y nuevos que intentan dejar ataques personales en las páginas de otros usuarios. Funcrunch ( discusión ) 15:51 16 ago 2017 (UTC) [ responder ]

Gracias por la notificación, Funcrunch . Me complace ver que sigues adelante con más ideas. SPoore (WMF), Defensor de la comunidad, Iniciativa de salud comunitaria ( discusión ) 20:05, 16 de agosto de 2017 (UTC) [ responder ]
¡Gracias, Funcrunch ! Tengo mis propias ideas y expresaré mi opinión en breve. También te sugeriría que hagas ping a Village Pump o Wikipedia:WikiProject_Templates para que más personas participen en la conversación. Mucha suerte, estoy 100% de acuerdo en que "vandalismo", "graffiti" o "edición de prueba" son términos demasiado débiles para describir algunos de estos mensajes. — Trevor Bolliger, gerente de productos de WMF 🗨 21:52, 18 de agosto de 2017 (UTC) [ responder ]
@TBolliger (WMF) : Gracias, le hice un ping a WP Templates en la discusión. No pude averiguar en qué parte de Village Pump sería el lugar correcto para un enlace; si tienes uno en mente, no dudes en enviarlo también (o avísame dónde debería ir). Funcrunch ( discusión ) 23:10, 18 de agosto de 2017 (UTC) [ responder ]
@Funcrunch : suelo hablar más de Wikipedia:Village_pump_(miscelánea), pero este tema también podría ser pertinente para Wikipedia:Village_pump_(propuestas) . @SPoore (WMF) : ¿Qué opinas? — Trevor Bolliger, gerente de productos de WMF 🗨 16:50, 21 de agosto de 2017 (UTC) [ responder ]
También sugeriría publicar en Wikipedia:Village_pump_(miscellaneous) . SPoore (WMF), Defensor de la comunidad, Iniciativa de salud comunitaria ( discusión ) 15:26, 23 de agosto de 2017 (UTC) [ responder ]

Actualización y solicitud de comentarios sobre las funciones de silenciamiento de usuarios

Hola wikipedistas,

El equipo de la herramienta antiacoso lo invita a revisar las nuevas funciones de silenciamiento de usuarios que se encuentran en desarrollo y a brindarnos su opinión.

El equipo está desarrollando un software que permite a los colaboradores y administradores tomar decisiones informadas y oportunas cuando se produce acoso.

Con el aporte de la comunidad, el equipo presentará varias funciones de silenciamiento de usuarios que permitirán a un usuario prohibir que otro usuario específico interactúe con él. Estas funciones brindan a los usuarios individuales herramientas para frenar el acoso que puedan estar experimentando.

Las preferencias actuales de notificaciones y correo electrónico son de todo o nada. Estas funciones de silenciamiento permitirán a los usuarios recibir comunicaciones útiles e ignorar las comunicaciones no constructivas o acosadoras.

Notificaciones silenciadas

Con la función de silenciamiento de notificaciones, las notificaciones de eco en la wiki pueden ser controladas por un usuario individual para detener las notificaciones no deseadas de otro usuario. En la parte inferior de la pestaña "Notificaciones" de las preferencias del usuario, un usuario puede silenciar las notificaciones de eco en el sitio de usuarios individuales, ingresando su nombre de usuario en el cuadro.

La función para silenciar las notificaciones de Echo está actualmente activa en Meta Wiki y se lanzará en todos los wikis con Echo habilitado el 28 de agosto de 2017.

Pruebe la función y cuéntenos qué tan bien funciona para usted y su comunidad wiki. Sugiera mejoras a la función o a la documentación. Háganos saber si tiene preguntas sobre cómo usarla. Wikipedia discusión:Iniciativa de salud comunitaria en Wikipedia en inglés/Funciones de silenciamiento de usuarios

Lista de correos silenciados

Pronto, el equipo de herramientas antiacoso comenzará a trabajar en una función que permita a un usuario impedir que un usuario específico le envíe correos electrónicos a través de Wikimedia special:email. La lista de silenciamiento de correos electrónicos se ubicará en la sección "Opciones de correo electrónico" de la pestaña "Perfil de usuario" de las preferencias del usuario. No estará conectada a la lista de silenciamiento de notificaciones, será una lista completamente independiente.

Está previsto que esta función se lance en todos los wikis de Wikimedia a finales de septiembre de 2017.

Para obtener más información, consulte Iniciativa de salud comunitaria/Especial:EmailUser Mute

Cuéntanos tus ideas sobre esta función.

Preguntas abiertas sobre las funciones de silenciamiento de usuarios

Consulte Wikipedia:Iniciativa de salud comunitaria en Wikipedia en inglés/Funciones de silenciamiento de usuario para obtener más detalles sobre las herramientas de silenciamiento de usuario.

Se necesita el aporte de la comunidad para que estas funciones de silenciamiento de usuarios sean útiles para las personas y sus comunidades wiki.

Únase a la discusión en Wikipedia talk:Iniciativa de salud comunitaria en Wikipedia en inglés/Funciones de silenciamiento de usuarios o la discusión en Meta. O si desea compartir sus ideas de forma privada, comuníquese con el equipo de herramientas contra el acoso por correo electrónico.

Para el equipo de herramientas contra el acoso, SPoore (WMF), Defensor de la comunidad, Iniciativa de salud comunitaria ( discusión ) 20:17, 28 de agosto de 2017 (UTC) [ responder ]

La encuesta de confianza de los administradores del equipo de herramientas contra el acoso finaliza el 24 de septiembre

Hola, el equipo de herramientas contra el acoso de la Fundación Wikimedia está realizando una encuesta para evaluar la eficacia de las herramientas, la capacitación y la información que existen para ayudar a los administradores de Wikipedia en inglés a reconocer y mitigar problemas como el vandalismo, el acoso y el uso indebido de recursos. Esta encuesta será fundamental para que nuestro equipo determine cómo brindar un mejor apoyo a los administradores.

La encuesta solo debería llevar 5 minutos y su respuesta individual no se hará pública. La política de privacidad de la encuesta describe cómo y cuándo Wikimedia recopila, utiliza y comparte la información que recibimos de los participantes de la encuesta y se puede encontrar aquí: https://wikimediafoundation.org/wiki/Wikipedia_talk:Community_health_initiative_on_English_Wikipedia/Semi-Annual_Admin_Survey_Privacy_Statement

Para participar en la encuesta, regístrese aquí y le enviaremos un formulario. El plazo para enviar la encuesta finalizará el 24 de septiembre de 2017 a las 23:59 UTC. Los resultados se publicarán en la wiki en unas semanas.

Si tiene preguntas o desea compartir sus opiniones sobre la encuesta, puede comunicarse con el equipo de herramientas contra el acoso en Wikipedia talk:Iniciativa de salud comunitaria en Wikipedia en inglés/Encuesta de confianza del administrador o de forma privada por correo electrónico.

Para el equipo de herramientas contra el acoso, SPoore (WMF), Defensor de la comunidad, Iniciativa de salud comunitaria ( discusión ) 16:29, 22 de septiembre de 2017 (UTC) [ responder ]

Invitación a participar en una discusión sobre la creación de herramientas para gestionar restricciones de edición

El equipo de herramientas contra el acoso de la Fundación Wikimedia desea crear y mejorar herramientas para apoyar el trabajo realizado por los colaboradores que establecen, monitorean y hacen cumplir las restricciones de edición en Wikipedia, así como también crear sistemas que faciliten a los usuarios sujetos a una restricción evitar la tentación de violar una sanción y seguir siendo colaboradores constructivos.

Se le invita a participar en un debate que documenta los problemas actuales con el uso de restricciones de edición y detalla posibles soluciones técnicas que puede desarrollar el equipo de herramientas contra el acoso. El debate se utilizará para priorizar el desarrollo y la mejora de herramientas y funciones.

Para el equipo de herramientas contra el acoso de la Fundación Wikimedia, SPoore (WMF), Defensor de la comunidad, Iniciativa de salud comunitaria ( discusión ) 20:47 25 septiembre 2017 (UTC) [ responder ]

Ayúdanos a decidir los mejores diseños para la función Cronología de interacciones

¡Hola a todos! En los próximos meses, el equipo de herramientas antiacoso planea crear una función que esperamos permita a los usuarios investigar mejor las disputas de conducta de los usuarios, llamada Cronología de interacciones . En resumen, la función mostrará todas las ediciones de dos usuarios en las páginas en las que ambos han contribuido en una cronología. Creemos que la cronología lo ayudará a evaluar las disputas de conducta de una manera más eficiente en términos de tiempo, lo que dará como resultado decisiones más informadas y seguras sobre cómo responder.

Pero necesitamos tu ayuda. He creado dos diseños para ilustrar nuestro concepto y tenemos varias preguntas abiertas que necesitamos tu aporte para responder. Lee sobre la función y mira los wireframes en Wikipedia:Iniciativa de salud comunitaria en Wikipedia en inglés/Cronología de interacción y únete a nosotros en la página de discusión.

Gracias, — CSinders (WMF) ( discusión ) 19:42 3 oct 2017 (UTC) [ responder ]

Actualización trimestral de las herramientas contra el acoso

¡Feliz octubre a todos! Me gustaría compartir un breve resumen de lo que el equipo de herramientas contra el acoso logró durante el último trimestre (¡y nuestro primer trimestre completo como equipo!) así como lo que está actualmente en agenda hasta diciembre. Nuestros objetivos del primer trimestre y del segundo trimestre están en la wiki, para aquellos que no quieren emojis ni comentarios.

Resumen del primer trimestre

📊 Nuestra métrica principal para medir nuestro impacto este año es la "confianza de los administradores en la resolución de disputas". Este trimestre la definimos,  la medimosla estamos debatiendo  en la wiki. El 69,2 % de los administradores de Wikipedia en inglés informan que pueden reconocer el acoso, mientras que solo el 39,3 % cree que tiene las habilidades y herramientas para intervenir o detener el acoso y solo el 35,9 % está de acuerdo en que Wikipedia les ha proporcionado suficientes recursos. ¡Definitivamente hay margen de mejora! 

🗣 Ayudamos a SuSa a preparar una metodología de investigación cualitativa para evaluar los tablones de anuncios de administradores en Wikipedia.

⏱ Agregamos mediciones de rendimiento para AbuseFilter y corregimos varios errores. Este trabajo continúa en el segundo trimestre.

⚖️ Hemos iniciado debates en la wiki sobre  wireframes de líneas de tiempo de interacción  . Esta herramienta debería permitir que los usuarios realicen investigaciones de forma más rápida y precisa.

🤚 Hemos iniciado un debate en la wiki sobre la creación de bloques por página y otras formas de aplicar  restricciones de edición . Buscamos crear herramientas adecuadas que permitan que los usuarios maleducados pero productivos sigan siendo productivos (pero ya no maleducados).

🤐 Para  las funciones de silenciamiento , hemos finalizado y lanzado Silenciar notificaciones para todos los wikis y Silenciar correo electrónico directo para Meta Wiki, con planes de lanzarlo para todos los wikis a fines de octubre.

Objetivos del segundo trimestre

⚖️ Nuestro proyecto principal para el resto del año será la  función Cronología de interacciones  . Tenemos previsto publicar una primera versión antes de enero. 

🤚 ¡Démosles algo de qué hablar: bloqueos! Vamos a consultar con los wikipedistas sobre las deficiencias de la funcionalidad de bloqueo actual de MediaWiki para determinar qué herramientas de bloqueo (incluidas las de títeres, por página y limitación de edición) debería desarrollar nuestro equipo en los próximos trimestres.

Decidiremos, desarrollaremos y lanzaremos la posibilidad de que los usuarios restrinjan qué grupos de usuarios pueden enviarles correos electrónicos directos. 

📊 Ahora que conocemos el impacto real en el rendimiento de AbuseFilter, vamos a analizar cómo aumentar el límite del filtro. 

🤖 Vamos a evaluar ProcseeBot, la herramienta con un nombre inteligente que bloquea los proxies abiertos. 

💬 Liderados por nuestra defensora de la comunidad, Sydney Poore, queremos establecer pautas y una cadencia de comunicación que fomenten la participación activa y constructiva entre los wikipedistas y el equipo de herramientas contra el acoso durante todo el ciclo de desarrollo del producto (antes y después del lanzamiento).

¡Comentarios, por favor!

Para asegurarnos de que nuestros objetivos y prioridades estén encaminados, nos encantaría saber si hay alguna inquietud, pregunta u oportunidad que hayamos pasado por alto. Envíenos un correo electrónico directamente si desea conversar en privado. De lo contrario, esperamos verlo participar en nuestras numerosas discusiones en la wiki durante los próximos meses. ¡Gracias!

— El equipo de herramientas contra el acoso (Caroline, David, Dayllan, Sydney y Trevor) Publicado por Trevor Bolliger, gerente de productos de WMF 🗨 20:56, 4 de octubre de 2017 (UTC) [ responder ]

Trevor Bolliger , la mayoría de esos emojis me parecen basura, incluido el de tu firma. Se parecen bastante a . Probablemente sea mejor evitar los caracteres no estándar. Alsee ( discusión ) 23:57 12 oct 2017 (UTC) [ responder ]0911F0
@ Alsee : ¡Vaya! Actualizaré mi firma. Gracias por avisarme. — Trevor Bolliger, gerente de productos de WMF ( t ) 00:17, 13 de octubre de 2017 (UTC) [ responder ]
Creo que la queja no era sobre la firma, sino sobre los encabezados de texto (📊, 🤖, 💬, etc.). — Paleo Neonate – 01:21, 13 octubre 2017 (UTC) [ responder ]
Evitaré usar emojis en futuras actualizaciones (emoji llorando). Me gusta intentar agregar algo de personalidad a publicaciones que de otra manera serían estériles, pero si eso juega en mi contra, probablemente sea lo mejor. — Trevor Bolliger, gerente de productos de WMF ( t ) 19:05, 13 de octubre de 2017 (UTC) [ responder ]

Envíe sus ideas sobre herramientas contra el acoso en la encuesta de lista de deseos de 2017

El equipo de herramientas antiacoso de WMF está trabajando arduamente para crear la línea de tiempo de interacción e investigar mejoras para las herramientas de bloqueo. Tendremos más para compartir sobre estas dos herramientas en las próximas semanas, pero por ahora nos gustaría invitarlo a enviar solicitudes a la lista de deseos de la comunidad de 2017 en la categoría Antiacoso: meta:Encuesta de lista de deseos de la comunidad de 2017/Antiacoso. ¡ Sus propuestas, comentarios y votos nos ayudarán a priorizar nuestro trabajo e identificar nuevas soluciones!

¡Gracias!

- Trevor Bolliger, gerente de producto de WMF ( t ) 23:58, 6 de noviembre de 2017 (UTC) [ respuesta ]

Objetivos del equipo de herramientas contra el acoso para enero-marzo de 2018

¡Hola a todos! Ahora que la versión beta de Interaction Timeline ya está disponible y estamos trabajando en las características para que sea una primera versión estable (consulte phab:T179607), nuestro equipo ha comenzado a redactar nuestros objetivos para los próximos tres meses, hasta fines de marzo de 2018. Esto es lo que tenemos hasta ahora:

¿Tienes alguna idea o comentario sobre el contenido o la redacción que he utilizado? Me siento muy satisfecho con ellos (son lo suficientemente agresivos para nuestro equipo de dos desarrolladores) y siento que son la prioridad correcta en la que trabajar.

¡Gracias! — Trevor Bolliger, gerente de productos de WMF ( t ) 22:40, 7 de diciembre de 2017 (UTC) [ responder ]

Actualizaciones del estado de las herramientas contra el acoso (recapitulación del segundo trimestre, vista previa del tercer trimestre y seguimiento del plan anual)

Ahora que el equipo de herramientas contra el acoso ha cumplido 6 meses de este año fiscal (julio de 2017 - junio de 2018), quería compartir una actualización sobre nuestra situación con respecto a nuestros objetivos del segundo trimestre y los objetivos de nuestro plan anual, así como también brindar una vista previa de los objetivos del tercer trimestre. Hay mucha información, por lo que puede leer la versión detallada en meta:Iniciativa de salud comunitaria/Actualizaciones trimestrales o simplemente estos resúmenes:

Resumen del plan anual

El plan anual se decidió antes de que se contratara a todo el equipo y es muy entusiasta y optimista. Muchos de los objetivos no se lograrán debido a la velocidad del equipo y a la nueva priorización. Pero aun así hemos aportado algo de valor y anticipamos un éxito continuo durante los próximos seis meses. 🎉

Durante los últimos seis meses, hemos realizado algunas pequeñas mejoras en AbuseFilter y AntiSpoof y actualmente estamos desarrollando la línea de tiempo de interacción. También hemos avanzado en trabajos que no están incluidos en estos objetivos: algunas funciones de Silencio, así como permitir a los usuarios restringir qué grupos de usuarios pueden enviarles correos electrónicos directos.

Durante los próximos seis meses, realizaremos una consulta cruzada wiki sobre herramientas de bloqueo y mejoras (y, en última instancia, las crearemos) e investigaremos, crearemos prototipos y nos prepararemos para el desarrollo de un nuevo sistema de informes.

Resumen del segundo trimestre

Fuimos un poco ambiciosos, pero estamos encaminados a lograr todos nuestros objetivos. El cronograma de interacción está encaminado a un lanzamiento beta en enero, la consulta mundial sobre bloqueos ha comenzado y acabamos de implementar algunas preferencias de correo electrónico más sólidas. 💌

Hemos decidido detener el desarrollo de AbuseFilter, pero estamos listos para habilitar ProcseeBot en Meta Wiki si la comunidad global así lo desea. También hemos avanzado en la forma en que nos comunicamos en la wiki, lo cual es vital para todos nuestros éxitos.

Avance del tercer trimestre

De enero a marzo, nuestro equipo trabajará para lograr que la línea de tiempo de interacción tenga una forma que se pueda publicar, continuará con la consulta de bloqueo y comenzará el desarrollo de al menos una nueva función de bloqueo, y comenzará la investigación para un sistema mejorado de denuncia de acoso. 🤖

¡Gracias por leer! — Trevor Bolliger, gerente de productos de WMF 🗨 01:29, 20 de diciembre de 2017 (UTC) [ responder ]

Entrevistas a usuarios del sistema de informes

El equipo de herramientas antiacoso de la Fundación Wikimedia se encuentra en las primeras etapas de investigación para crear un sistema mejorado de denuncia de acoso para las comunidades Wikimedia, con el objetivo de mejorar la calidad de las denuncias y reducir la carga de trabajo del denunciante. Se ha manifestado interés en crear una herramienta de denuncia en encuestas, presentaciones de IdeaLab y discusiones en la wiki. Desde personas del movimiento que la han solicitado hasta nosotros, como equipo, que hemos visto una posible necesidad de ella. Por eso, Sydney Poore y yo hemos empezado a contactar a usuarios que han expresado interés a lo largo de los años en hablar sobre el acoso que han experimentado y enfrentado en los proyectos Wikimedia. Nuestro plan es realizar entrevistas a usuarios con alrededor de 40 personas en entrevistas de 15 a 30 minutos. Realizaremos estas entrevistas hasta mediados de febrero y escribiremos un resumen de lo que hemos aprendido.

Estas son las preguntas que planeamos hacerles a los participantes. Las publicamos para mayor transparencia, en caso de que haya alguna inquietud importante que no estemos destacando, háganoslo saber.

  1. ¿Cuánto tiempo llevas editando? ¿Qué wiki editas?
  2. ¿Ha sido testigo de acoso? ¿Dónde? ¿Cuántas veces al mes se encuentra con acoso en la wiki que requiere la intervención de un administrador? (bloqueo de una cuenta, modificación de una publicación, supresión de una edición, etc.)
  3. Nombre los lugares donde recibe informes de acoso o problemas relacionados (por ejemplo, arbcom-l, checkuser-l, lista de correo de funcionarios, OTRS, correo electrónico privado, IRC, AN/I, etc.)
    • Volumen por mes
  4. Mencione los lugares donde usted denuncia acoso o problemas relacionados (por ejemplo, emergency@, susa@, AN/I, arbcom-l, ….?)
    • Volumen por mes
  5. ¿Su trabajo como administrador a cargo de un caso denunciado de acoso le ha llevado a sufrir acoso?
    • Sigue la pregunta sobre con qué frecuencia y durante cuánto tiempo
  6. ¿Ha estado involucrado en diferentes tipos de conflictos y/o disputas de contenido? ¿Participó en el proceso de resolución?
  7. ¿Qué crees que funcionó?
  8. ¿Cuáles crees que son los espacios actuales que existen en WP:EN para resolver conflictos? ¿Qué te gusta y qué no te gusta? ¿Crees que esos espacios funcionan bien?
  9. ¿Qué opinas de un sistema de denuncia de acoso dentro de WP:EN? ¿Debería existir? ¿Qué crees que debería incluir? ¿Dónde crees que debería estar ubicado/existir? ¿Quién debería estar a cargo?
  10. ¿Qué tipos de acciones o comportamientos deberían estar cubiertos en este sistema de reporte?
    • Un ejemplo podría ser doxing, COI, vandalismo, etc.

-- CSinders (WMF) ( discusión ) 19:12 11 ene 2018 (UTC) [ responder ]

Nueva preferencia de usuario que permite restringir los correos electrónicos de cuentas nuevas

Hola,

La preferencia de la cuenta de usuario de Wikimedia está configurada para no permitir correos electrónicos de usuarios nuevos

El equipo de herramientas contra el acoso de la WMF introdujo una preferencia de usuario que permite a los usuarios restringir qué grupos de usuarios pueden enviarles correos electrónicos. Esta función tiene como objetivo brindarles a los usuarios individuales una herramienta para frenar el acoso que puedan estar sufriendo.

La función para restringir los correos electrónicos en wikis en las que un usuario nunca ha realizado modificaciones (phab:T178842) también se lanzó la primera semana de 2018, pero se revirtió la tercera semana de 2018 después de que se descubrieran algunos casos excepcionales de uso. No hay planes de volver a implementarla en el futuro.

Le invitamos a discutir la característica, informar cualquier error y proponer cualquier cambio de funcionalidad en la página de discusión.

Para el equipo de herramientas contra el acoso de SPoore (WMF), defensor de la comunidad, iniciativa de salud comunitaria ( discusión ) 00:47, 9 de febrero de 2018 (UTC) [ responder ]

Actualización de la encuesta AN/I

Durante el mes de diciembre, el equipo de SuSa y de herramientas antiacoso de WMF realizó una encuesta dirigida a usuarios y administradores experimentados de AN/I y sobre cómo se gestionan las denuncias de acoso y conflictos. Durante el mes de enero, hemos estado analizando los datos cuantitativos y cualitativos de esta encuesta. Nuestro cronograma para publicar un informe de la encuesta es:

Estamos muy interesados ​​en publicar nuestros hallazgos con la comunidad y queríamos brindar una actualización sobre dónde estamos con este análisis e informe de la encuesta.

-- CSinders (WMF) ( discusión ) 01:13 9 feb 2018 (UTC) [ responder ]

Herramientas de informes de auditoría

El equipo de herramientas antiacoso de la Fundación Wikimedia está iniciando una investigación sobre las formas en que se realizan denuncias sobre acoso en Internet, centrándose también en los proyectos Wikimedia. Tenemos previsto realizar cuatro auditorías importantes.

Nuestra primera auditoría se centra en los informes para la Wikipedia en inglés. Encontramos 12 formas diferentes en las que los editores pueden informar. Luego las dividimos en dos grupos: informes dentro de la wiki y fuera de la wiki. Los informes dentro de la wiki tienden a ser increíblemente públicos, mientras que los informes fuera de la wiki son más privados. Hemos decidido centrarnos en 4 espacios (aproximadamente) para informar que hemos dividido en dos categorías: "formas oficiales de informar" y "formas no oficiales de informar".

Formas oficiales de informar (todas son mantenidas por grupos de voluntarios, algunas son voluntarios más ad hoc, por ejemplo, AN/I)

Formas no oficiales de informar:

La auditoría 2 se centra en proyectos Wikimedia como Wikidata, Meta y Wikimedia Commons. La auditoría 3 se centrará en otras empresas y proyectos de código abierto como Creative Commons y Github. La auditoría 4 se centrará en las empresas de redes sociales y sus herramientas de generación de informes, como Twitter, Facebook, etc. Nos centraremos en cómo estas empresas interactúan con las comunidades de habla inglesa y sus políticas para dichas comunidades, en particular porque las políticas difieren de un país a otro.

Plan de auditoría paso a paso:

  1. Auditoría inicial
  2. Redactar los hallazgos y presentarlos a la comunidad.
    • Esto incluirá artefactos de diseño como recorridos de usuario.
  3. Discusión en wiki
  4. Sintetizar la discusión
    • Conclusiones, puntos destacados y comentarios que luego se publican en la wiki para su discusión en la wiki.
  5. Avanzar a la siguiente auditoría
    • Parámetros para la auditoría que nos ha proporcionado la comunidad y parámetros técnicos/de producto

Estamos buscando comentarios de la comunidad sobre este plan. Prevemos obtener un nivel más profundo de comprensión sobre los flujos de trabajo actuales en los sitios Wikimedia para que podamos comenzar a identificar cuellos de botella y otras áreas potenciales de mejora. Nos estamos centrando en lo que funciona para los wikipedistas y, al mismo tiempo, en comprender qué otros estándares o formas de informar también existen en el mundo.

-- CSinders (WMF) ( discusión ) 17:16 2 mar 2018 (UTC) [ responder ]

Resultados de la investigación sobre incidentes en el tablón de anuncios de administradores

Hola a todos,

El otoño pasado, como parte de la iniciativa de Salud Comunitaria, varios editores experimentados de En.WP respondieron una encuesta para captar sus opiniones sobre el tablón de anuncios de AN/I. Registraron dónde pensaban que el tablón funcionaba bien, dónde no y sugirieron mejoras. Los resultados de esta encuesta ya están disponibles; se han complementado con algunos puntos de datos interesantes sobre el proceso en general. Únase a nosotros para un debate sobre los resultados .

Saludos, SPoore (WMF), Defensor de la comunidad, Iniciativa de salud comunitaria ( discusión ) 20:07, 5 de marzo de 2018 (UTC) [ responder ]

Selector de fecha y hora para Special:Block

Hola a todos,

El equipo de herramientas antiacoso realizó mejoras en Special:Block para tener un calendario como selector de fecha y hora para elegir un día y hora específicos en el futuro como fecha de vencimiento. La nueva función estuvo disponible por primera vez en de.wp, meta y mediawiki.org el 03/05/18. Para obtener más información, consulte Mejora de la forma en que se determina la hora de un bloqueo: de una discusión en de.WP o (phab:T132220) ¿Tiene preguntas? o desea enviar comentarios. Deje un mensaje en meta:Talk:Iniciativa de salud comunitaria/Herramientas de bloqueo y mejoras, en Phabricator, o por correo electrónico. SPoore (WMF), Confianza y seguridad, Iniciativa de salud comunitaria ( discusión ) 20:17, 15 de mayo de 2018 (UTC) [ responder ]

¿Cómo puede ser útil la línea de tiempo de interacción para informar a los tablones de anuncios?

Creamos la línea de tiempo de interacción para que sea más fácil entender cómo interactúan y conversan dos personas en varias páginas de una wiki. La herramienta muestra una lista cronológica de las ediciones realizadas por dos usuarios, solo en las páginas en las que ambos realizaron ediciones dentro del rango de tiempo proporcionado.

Queremos añadir una función a la línea de tiempo que facilite la publicación de estadísticas e información en una discusión en la wiki sobre la mala conducta de los usuarios. Estamos debatiendo la posible salida de texto wiki en la página de discusión del proyecto y te invitamos a participar. Gracias, — Trevor Bolliger, gerente de productos de WMF ( t ) 22:10, 14 de junio de 2018 (UTC) [ responder ]

Los bloques parciales llegarán a test.wikipedia a mediados de octubre

Hola a todos;

El equipo de herramientas antiacoso está casi listo para lanzar el primer conjunto de características de bloqueos parciales (la capacidad de bloquear a un usuario de ≤10 páginas) en el entorno beta y luego test.wikipedia a mediados de octubre.

En otras noticias, debido a la complejidad técnica, se ha despriorizado el bloqueo de múltiples bloques (phab:T194697) y se lo ha eliminado de este proyecto. Nuestro primer objetivo será asegurarnos de que el bloqueo de páginas, espacios de nombres y cargas funcione como se espera y realmente produzca un impacto significativo. Compartiré los cambios en los diseños cuando se actualicen. SPoore (WMF), Trust & Safety, Community health initiative ( discusión ) 00:10, 25 de septiembre de 2018 (UTC) [ responder ]

Propuesta de plantilla para la página de discusión del evaluador de salud

Hay una discusión relacionada con esta área del proyecto en la bomba de agua del pueblo. El tema es una plantilla de página de discusión opcional sugerida que permite a los usuarios calificar el estado de la discusión de la página de discusión. Edaham ( discusión ) 02:54, 4 de enero de 2019 (UTC) [ responder ]

@ Edaham : Gracias por compartir e invitar a esa idea. Mi única queja es que la "salud" de una discusión podría variar según el tema o la sección, por lo que una versión futura podría ser a nivel de sección, en lugar de a nivel de página. ¡Espero ver cómo evoluciona tu propuesta de IdeaLab! — Trevor Bolliger, gerente de productos de WMF ( t ) 21:03, 4 de enero de 2019 (UTC) [ responder ]
Gracias por la rápida respuesta. Continuemos esta discusión en la estación de servicio del pueblo. Feliz año nuevo. Edaham ( discusión ) 03:11 5 ene 2019 (UTC) [ responder ]