Algoritmo de calificación de la comunidad
Un sistema de reputación es un programa o algoritmo que permite a los usuarios de una comunidad en línea calificarse entre sí para generar confianza a través de la reputación . Algunos usos comunes de estos sistemas se pueden encontrar en sitios web de comercio electrónico como eBay , Amazon.com y Etsy , así como en comunidades de asesoramiento en línea como Stack Exchange . [1] Estos sistemas de reputación representan una tendencia significativa en el "soporte de decisiones para la prestación de servicios mediada por Internet". [2] Con la popularidad de las comunidades en línea para compras, asesoramiento e intercambio de otra información importante, los sistemas de reputación se están volviendo de vital importancia para la experiencia en línea. La idea de los sistemas de reputación es que incluso si el consumidor no puede probar físicamente un producto o servicio, o ver a la persona que proporciona la información, puede confiar en el resultado del intercambio a través de la confianza generada por los sistemas de recomendación . [2]
El filtrado colaborativo , que se utiliza con mayor frecuencia en los sistemas de recomendación, está relacionado con los sistemas de reputación en el sentido de que ambos recopilan calificaciones de los miembros de una comunidad. [2] La principal diferencia entre los sistemas de reputación y el filtrado colaborativo es la forma en que utilizan los comentarios de los usuarios . En el filtrado colaborativo, el objetivo es encontrar similitudes entre los usuarios para recomendar productos a los clientes. El papel de los sistemas de reputación, en cambio, es recopilar una opinión colectiva para generar confianza entre los usuarios de una comunidad en línea.
Tipos
En línea
Howard Rheingold afirma que los sistemas de reputación online son "tecnologías informáticas que permiten manipular de formas nuevas y poderosas un rasgo humano antiguo y esencial". [3] Rheingold dice que estos sistemas surgieron como resultado de la necesidad de los usuarios de Internet de ganarse la confianza de las personas con las que realizan transacciones en línea. El rasgo que observa en los grupos humanos es que las funciones sociales como el chisme "nos mantienen al día sobre en quién confiar, en quién confían otras personas, quién es importante y quién decide quién es importante". Los sitios de Internet como eBay y Amazon , sostiene, buscan hacer uso de este rasgo social y están "construidos en torno a las contribuciones de millones de clientes, mejorados por sistemas de reputación que vigilan la calidad del contenido y las transacciones intercambiadas a través del sitio".
Bancos de reputación
La economía colaborativa emergente aumenta la importancia de la confianza en los mercados y servicios entre pares . [4] Los usuarios pueden generar reputación y confianza en sistemas individuales, pero por lo general no tienen la capacidad de trasladar esa reputación a otros sistemas. Rachel Botsman y Roo Rogers sostienen en su libro What's Mine is Yours (2010), [5] que "es solo cuestión de tiempo antes de que exista algún tipo de red que agregue capital de reputación a través de múltiples formas de consumo colaborativo". Estos sistemas, a menudo denominados bancos de reputación, intentan brindarles a los usuarios una plataforma para administrar su capital de reputación a través de múltiples sistemas.
Mantener sistemas de reputación eficaces
La función principal de los sistemas de reputación es generar un sentimiento de confianza entre los usuarios de las comunidades en línea. Al igual que en el caso de las tiendas físicas , la confianza y la reputación se pueden generar a través de los comentarios de los clientes . Paul Resnick, de la Association for Computing Machinery, describe tres propiedades que son necesarias para que los sistemas de reputación funcionen de manera eficaz. [2]
- Las entidades deben tener una larga vida útil y crear expectativas precisas de interacciones futuras.
- Deben capturar y distribuir retroalimentación sobre interacciones anteriores.
- Deben utilizar la retroalimentación para orientar la confianza.
Estas tres propiedades son de vital importancia para construir una reputación confiable y todas giran en torno a un elemento importante: la opinión de los usuarios. La opinión de los usuarios en los sistemas de reputación, ya sea en forma de comentarios, calificaciones o recomendaciones, es una pieza de información valiosa. Sin la opinión de los usuarios, los sistemas de reputación no pueden mantener un entorno de confianza.
Obtener retroalimentación de los usuarios puede tener tres problemas relacionados.
- El primero de estos problemas es la disposición de los usuarios a proporcionar comentarios cuando no es necesario. Si en una comunidad en línea se producen muchas interacciones, pero no se recogen comentarios, no se puede crear un entorno de confianza y reputación.
- El segundo de estos problemas es recibir comentarios negativos de los usuarios. Hay muchos factores que contribuyen a que los usuarios no quieran dar comentarios negativos, el más importante de los cuales es el miedo a las represalias. Cuando los comentarios no son anónimos, muchos usuarios temen represalias si reciben comentarios negativos.
- El último problema relacionado con la retroalimentación de los usuarios es obtener una retroalimentación honesta de los usuarios. Si bien no existe un método concreto para garantizar la veracidad de la retroalimentación, si se establece una comunidad de retroalimentación honesta, será más probable que los nuevos usuarios también brinden una retroalimentación honesta.
Otros obstáculos que enfrentan los sistemas de reputación eficaces, descritos por A. Josang et al., son el cambio de identidad y la discriminación. Nuevamente, estas ideas se vinculan con la idea de regular las acciones de los usuarios para obtener comentarios precisos y consistentes. Al analizar los diferentes tipos de sistemas de reputación, es importante observar estas características específicas para determinar la eficacia de cada sistema.
Intento de estandarización
El IETF propuso un protocolo para intercambiar datos de reputación. [6] Originalmente estaba destinado a aplicaciones de correo electrónico, pero posteriormente se desarrolló como una arquitectura general para un servicio basado en reputación, seguido de una parte específica de correo electrónico. [7] Sin embargo, el caballo de batalla de la reputación de correo electrónico sigue siendo DNSxL, que no sigue ese protocolo. [8] Esas especificaciones no dicen cómo recopilar comentarios (de hecho, la granularidad de las entidades que envían correo electrónico hace que sea poco práctico recopilar comentarios directamente de los destinatarios), pero solo se ocupan de los métodos de consulta/respuesta de reputación.
Ejemplos notables de aplicaciones prácticas
- Búsqueda: web (ver PageRank )
- Comercio electrónico: eBay , Epinions , Bizrate , Trustpilot
- Noticias sociales: Reddit , Digg , Imgur
- Comunidades de programación: Advogato , mercados de freelance , Stack Overflow
- Wikis: Aumentar la cantidad y calidad de las contribuciones [9]
- Seguridad en Internet: TrustedSource
- Sitios de preguntas y respuestas: Quora , Yahoo! Answers , Gutefrage.net , Stack Exchange
- Correo electrónico: DNSBL y DNSWL proporcionan reputación global sobre los remitentes de correo electrónico
- Reputación personal: CouchSurfing (para viajeros),
- Organizaciones no gubernamentales (ONG): GreatNonProfits.org, GlobalGiving
- Reputación profesional de traductores y empresas de traducción externalizadas: BlueBoard en ProZ.com
- Sistema de reputación para todo uso: Yelp, Inc.
- Academia: medidas bibliométricas generales , por ejemplo el índice h de un investigador.
La reputación como recurso
El capital de reputación alta a menudo otorga beneficios a su titular. Por ejemplo, una amplia gama de estudios han encontrado una correlación positiva entre la calificación del vendedor y el precio de venta en eBay [10] , lo que indica que una reputación alta puede ayudar a los usuarios a obtener más dinero por sus artículos. Las buenas reseñas de productos en los mercados en línea también pueden ayudar a impulsar mayores volúmenes de ventas.
La reputación abstracta puede utilizarse como una especie de recurso que puede intercambiarse por ganancias a corto plazo o puede acumularse invirtiendo esfuerzo. Por ejemplo, una empresa con una buena reputación puede vender productos de menor calidad para obtener mayores ganancias hasta que su reputación caiga, o puede vender productos de mayor calidad para aumentar su reputación. [11] Algunos sistemas de reputación van más allá y hacen explícitamente posible gastar reputación dentro del sistema para obtener un beneficio. Por ejemplo, en la comunidad Stack Overflow , los puntos de reputación pueden gastarse en "recompensas" por preguntas para incentivar a otros usuarios a responderlas. [12]
Incluso sin un mecanismo de gasto explícito, los sistemas de reputación suelen facilitar a los usuarios gastar su reputación sin dañarla excesivamente. Por ejemplo, un conductor de una empresa de viajes compartidos con una puntuación alta en aceptación de viajes (una métrica que se utiliza a menudo para la reputación del conductor) puede optar por ser más selectivo con su clientela, lo que reduce la puntuación de aceptación del conductor pero mejora su experiencia de conducción. Con la retroalimentación explícita que proporciona el servicio, los conductores pueden gestionar cuidadosamente su selectividad para evitar ser penalizados demasiado.
Ataques y defensa
Los sistemas de reputación son en general vulnerables a los ataques, y son posibles muchos tipos de ataques. [13] Como el sistema de reputación intenta generar una evaluación precisa basada en varios factores que incluyen, entre otros, el tamaño impredecible de los usuarios y los entornos adversarios potenciales, los ataques y los mecanismos de defensa juegan un papel importante en los sistemas de reputación. [14]
La clasificación de los ataques al sistema de reputación se basa en la identificación de los componentes del sistema y las opciones de diseño que son el objetivo de los ataques, mientras que los mecanismos de defensa se concluyen en función de los sistemas de reputación existentes.
Modelo de atacante
La capacidad del atacante está determinada por varias características, por ejemplo, la ubicación del atacante en relación con el sistema (atacante interno vs. atacante externo). Un atacante interno es una entidad que tiene acceso legítimo al sistema y puede participar de acuerdo con las especificaciones del sistema, mientras que un atacante externo es cualquier entidad no autorizada en el sistema que puede o no ser identificable.
Como el ataque externo es mucho más similar a otros ataques en un entorno de sistemas informáticos, el ataque interno recibe más atención en el sistema de reputación. Por lo general, existen algunas suposiciones comunes: los atacantes están motivados por intenciones egoístas o maliciosas y pueden trabajar solos o en coalición.
Clasificación de ataques
Los ataques contra los sistemas de reputación se clasifican según los objetivos y métodos del atacante.
- Ataque de autopromoción. El atacante aumenta falsamente su propia reputación. Un ejemplo típico es el llamado ataque Sybil , en el que un atacante subvierte el sistema de reputación creando una gran cantidad de entidades seudónimas y utilizándolas para obtener una influencia desproporcionadamente grande. [15] La vulnerabilidad de un sistema de reputación a un ataque Sybil depende de lo barato que sea generar Sybils, del grado en que el sistema de reputación acepte la información de entidades que no tienen una cadena de confianza que las vincule con una entidad confiable y de si el sistema de reputación trata a todas las entidades de manera idéntica.
- Ataque de blanqueamiento. El atacante utiliza alguna vulnerabilidad del sistema para actualizar su reputación. Este ataque suele tener como objetivo la fórmula del sistema de reputación que se utiliza para calcular el resultado de la reputación. El ataque de blanqueamiento se puede combinar con otros tipos de ataques para que cada uno sea más eficaz.
- Ataque de difamación. El atacante informa datos falsos para reducir la reputación de los nodos víctimas. Puede ser realizado por un solo atacante o por una coalición de atacantes.
- Ataque orquestado. El atacante organiza sus esfuerzos y emplea varias de las estrategias anteriores. Un ejemplo famoso de ataque orquestado se conoce como ataque de oscilación. [16]
- Ataque de denegación de servicio. El atacante impide el cálculo y la difusión de valores de reputación en sistemas de reputación mediante el método de denegación de servicio .
Estrategias de defensa
A continuación se presentan algunas estrategias para prevenir los ataques mencionados anteriormente. [17]
- Prevención de identidades múltiples
- Mitigación de la generación de rumores falsos
- Mitigación de la propagación de rumores falsos
- Prevención del abuso a corto plazo del sistema
- Mitigación de ataques de denegación de servicio
Véase también
Referencias
- ^ "¿Qué es la reputación? ¿Cómo puedo ganarla (y perderla)? - Centro de ayuda". Stack Overflow . Consultado el 15 de noviembre de 2022 .
- ^ abcd Josang, Audun (2000). "Un estudio de los sistemas de confianza y reputación para la prestación de servicios en línea". Decision Support Systems . 45 (2): 618–644. CiteSeerX 10.1.1.687.1838 . doi :10.1016/j.dss.2005.05.019. S2CID 209552.
- ^ Suplemento de libros impresos. RR Bowker Company. 2002. ISBN 978-0-8352-4564-7.
- ^ Tanz, Jason (23 de mayo de 2014). "Cómo Airbnb y Lyft finalmente lograron que los estadounidenses confiaran entre sí". Wired .
- ^ Botsman, Rachel (2010). Lo mío es tuyo . Nueva York: Harper Business. ISBN 978-0061963544.
- ^ Nathaniel Borenstein ; Murray S. Kucherawy (noviembre de 2013). Una arquitectura para la generación de informes de reputación. IETF . doi : 10.17487/RFC7070 . RFC 7070 . Consultado el 20 de abril de 2017 .
- ^ Nathaniel Borenstein; Murray S. Kucherawy (noviembre de 2013). Un conjunto de respuestas de reputación para identificadores de correo electrónico. IETF . doi : 10.17487/RFC7073 . RFC 7073 . Consultado el 20 de abril de 2017 .
- ^ John Levine (febrero de 2010). DNS Blacklists and Whitelists [Listas negras y listas blancas de DNS]. IETF . doi : 10.17487/RFC5782 . RFC 5782. Consultado el 20 de abril de 2017 .
- ^ Dencheva, S.; Prause, CR; Prinz, W. (septiembre de 2011). Automoderación dinámica en una wiki corporativa para mejorar la participación y la calidad de las contribuciones (PDF) . Actas de la 12.ª Conferencia Europea sobre Trabajo Cooperativo con Apoyo Informático (ECSCW 2011). Aarhus, Dinamarca. Archivado desde el original (PDF) el 29 de noviembre de 2014.
- ^ Ye, Qiang (2013). "Análisis en profundidad de la relación entre la reputación del vendedor y la prima de precio: una comparación entre eBay US y Taobao China" (PDF) . Journal of Electronic Commerce Research . 14 (1). Archivado desde el original (PDF) el 2017-08-08 . Consultado el 2015-04-30 .
- ^ Winfree, Jason, A. (2003). "Reputación colectiva y calidad" (PDF) . Reuniones de la Asociación Estadounidense de Economía Agrícola .
{{cite journal}}
: CS1 maint: varios nombres: lista de autores ( enlace ) - ^ "¿Qué es una recompensa? ¿Cómo puedo iniciar una? - Centro de ayuda". stackoverflow.com .
- ^ Jøsang, A.; Golbeck, J. (septiembre de 2009). Desafíos para sistemas robustos de confianza y reputación (PDF) . Actas del 5.º Taller internacional sobre seguridad y gestión de la confianza (STM 2009). Saint Malo, Francia.
- ^ Hoffman, K.; Zage, D.; Nita-Rotaru, C. (2009). "Un estudio de técnicas de ataque y defensa para sistemas de reputación" (PDF) . ACM Computing Surveys . 42 : 1–31. CiteSeerX 10.1.1.172.8253 . doi :10.1145/1592451.1592452. S2CID 2294541. Archivado desde el original (PDF) el 2017-04-07 . Consultado el 2016-12-05 .
- ^ Lazzari, Marco (marzo de 2010). Un experimento sobre la debilidad de los algoritmos de reputación utilizados en las redes sociales profesionales: el caso de Naymz. Actas de la Conferencia Internacional IADIS e-Society 2010. Oporto, Portugal. Archivado desde el original el 7 de marzo de 2016. Consultado el 28 de agosto de 2014 .
- ^ Srivatsa, M.; Xiong, L.; Liu, L. (2005). TrustGuard: contrarrestar vulnerabilidades en la gestión de reputación para redes superpuestas descentralizadas (PDF) . Actas de la Conferencia Internacional IADIS e-Society 2010, la 14.ª conferencia internacional sobre la World Wide Web. Porto, Portugal. doi :10.1145/1060745.1060808. S2CID 1612033. Archivado desde el original (PDF) el 18 de octubre de 2017.
- ^ Hoffman, Kevin; Zage, David; Nita-Rotaru, Cristina (14 de diciembre de 2009). "Un estudio de técnicas de ataque y defensa para sistemas de reputación". ACM Computing Surveys . 42 (1): 1:1–1:31. CiteSeerX 10.1.1.172.8253 . doi :10.1145/1592451.1592452. ISSN 0360-0300. S2CID 2294541.
- Dellarocas, C. (2003). "La digitalización del boca a boca: promesas y desafíos de los mecanismos de reputación online" (PDF) . Management Science . 49 (10): 1407–1424. doi :10.1287/mnsc.49.10.1407.17308. hdl : 1721.1/1851 .
- Vavilis, S.; Petković, M.; Zannone, N. (2014). "Un modelo de referencia para sistemas de reputación" (PDF) . Decision Support Systems . 61 : 147–154. doi :10.1016/j.dss.2014.02.002. Archivado desde el original (PDF) el 2017-07-13 . Consultado el 2014-06-03 .
- D. Quercia, S. Hailes, L. Capra. Propagación de confianza distribuida y ligera. ICDM 2007.
- R. Guha, R. Kumar, P. Raghavan, A. Tomkins. Propagación de la confianza y la desconfianza WWW2004.
- A. Cheng, E. Friedman. Mecanismos de reputación a prueba de sibilas. Taller SIGCOMM sobre economía de sistemas peer-to-peer, 2005.
- Hamed Alhoori, Omar Alvarez, Richard Furuta, Miguel Muñiz, Eduardo Urbina: Apoyo a la creación de bibliografías académicas por parte de las comunidades mediante la colaboración social basada en la reputación en línea. ECDL 2009: 180-191
- Ataques de Sybil contra usuarios de dispositivos móviles: amigos y enemigos al rescate, por Daniele Quercia y Stephen Hailes. IEEE INFOCOM 2010.
- JR Douceur. El ataque de la sibila. IPTPS02 2002.
- Hoffman, K.; Zage, D.; Nita-Rotaru, C. (2009). "Un estudio de técnicas de ataque y defensa para sistemas de reputación". ACM Computing Surveys . 42 (1): 1. CiteSeerX 10.1.1.172.8253 . doi :10.1145/1592451.1592452. S2CID 2294541.
- Rheingold, Howard (2002). Smart Mobs: The Next Social Revolution [Multitudes inteligentes: la próxima revolución social] . Perseus, Cambridge, Massachusetts.
- Cattalibys, K. (2010). “Podría ser otra persona: redes sociales, seudónimos y títeres”. Trastornos esquizoafectivos . 49 (3).
- Zhang, Jie; Cohen, Robin (2006). Confiar en los consejos de otros compradores en los mercados electrónicos: el problema de las calificaciones injustas (PDF) . Actas de la Octava Conferencia Internacional sobre Comercio Electrónico (ICEC). Nuevo Brunswick, Canadá.
Enlaces externos
- Sistemas de reputación: tutorial de 2008 de Yury Lifshits
- Contratos en el ciberespacio - Ensayo de 2008 (capítulo de libro) de David D. Friedman.