stringtranslate.com

Colaboración colectiva

Este gráfico simboliza el uso de ideas de una amplia gama de individuos, tal como se utiliza en el crowdsourcing.

El crowdsourcing implica un gran grupo de participantes dispersos que contribuyen o producen bienes o servicios (incluyendo ideas, votos , microtareas y finanzas) a cambio de un pago o como voluntarios. El crowdsourcing contemporáneo a menudo implica plataformas digitales para atraer y dividir el trabajo entre los participantes para lograr un resultado acumulativo. Sin embargo, el crowdsourcing no se limita a la actividad en línea y existen varios ejemplos históricos de crowdsourcing. La palabra crowdsourcing es un acrónimo de " crowd " y " outsourcing ". [1] [2] [3] A diferencia del outsourcing, el crowdsourcing generalmente implica grupos de participantes menos específicos y más públicos. [4] [5] [6]

Las ventajas de utilizar el crowdsourcing incluyen menores costos, mayor velocidad, mejor calidad, mayor flexibilidad y/o mayor escalabilidad del trabajo, además de promover la diversidad . [7] [8] Los métodos de crowdsourcing incluyen concursos, mercados laborales virtuales, colaboración abierta en línea y donación de datos. [8] [9] [10] [11] Algunas formas de crowdsourcing, como los "concursos de ideas" o los "concursos de innovación", brindan formas para que las organizaciones aprendan más allá de la "base de mentes" proporcionada por sus empleados (por ejemplo, Lego Ideas ). [12] [13] [ ¿promoción? ] Las plataformas comerciales, como Amazon Mechanical Turk , hacen coincidir las microtareas enviadas por los solicitantes con los trabajadores que las realizan. Las organizaciones sin fines de lucro también utilizan el crowdsourcing para desarrollar bienes comunes , como Wikipedia . [14]

Definiciones

El término crowdsourcing fue acuñado en 2006 por dos editores de Wired , Jeff Howe y Mark Robinson, para describir cómo las empresas estaban usando Internet para " subcontratar trabajo a la multitud", lo que rápidamente dio lugar al acrónimo "crowdsourcing". [15] El Oxford English Dictionary da un primer uso: "La evidencia más temprana del OED para el crowdsourcing es de 2006, en los escritos de J. Howe". [16] El diccionario en línea Merriam-Webster lo define como: "la práctica de obtener los servicios, ideas o contenido necesarios solicitando contribuciones de un gran grupo de personas y especialmente de la comunidad en línea en lugar de los empleados o proveedores tradicionales". [17]

Daren C. Brabham definió el crowdsourcing como un "modelo de producción y resolución de problemas distribuido y en línea". [18] Kristen L. Guth y Brabham descubrieron que el rendimiento de las ideas ofrecidas en plataformas de crowdsourcing se ve afectado no solo por su calidad, sino también por la comunicación entre los usuarios acerca de las ideas y su presentación en la propia plataforma. [19]

A pesar de la multiplicidad de definiciones de crowdsourcing, una constante ha sido la difusión de problemas al público y una convocatoria abierta de contribuciones para ayudar a resolver el problema. [ investigación original? ] Los miembros del público presentan soluciones que luego son propiedad de la entidad que originalmente difundió el problema. En algunos casos, el contribuyente de la solución es compensado monetariamente con premios o reconocimiento público. En otros casos, las únicas recompensas pueden ser elogios o satisfacción intelectual. El crowdsourcing puede producir soluciones de aficionados o voluntarios que trabajan en su tiempo libre, de expertos o de pequeñas empresas. [15]

Ejemplos históricos

Si bien el término "crowdsourcing" se popularizó en línea para describir actividades basadas en Internet, [18] algunos ejemplos de proyectos, en retrospectiva, pueden describirse como crowdsourcing.

Cronología de ejemplos de crowdsourcing

Competiciones tempranas

En el pasado, el crowdsourcing se ha utilizado a menudo como una competición para descubrir una solución. El gobierno francés propuso varias de estas competiciones, a menudo recompensadas con los Premios Montyon . [41] Entre ellas se encontraban el proceso Leblanc , o el premio Alkali, en el que se otorgaba una recompensa por separar la sal del álcali, y la turbina de Fourneyron , cuando se desarrolló la primera turbina comercial hidráulica. [42]

En respuesta a un desafío del gobierno francés, Nicolas Appert ganó un premio por inventar una nueva forma de conservación de alimentos que implicaba sellar los alimentos en frascos herméticos. [43] El gobierno británico proporcionó una recompensa similar para encontrar una manera fácil de determinar la longitud de un barco en el Premio de Longitud . Durante la Gran Depresión, los empleados desempleados tabularon funciones matemáticas superiores en el Proyecto de Tablas Matemáticas como un proyecto de divulgación. [44] [ ¿ Fuente poco confiable? ] Una de las campañas de crowdsourcing más grandes fue un concurso de diseño público en 2010 organizado por el Ministerio de Finanzas del gobierno indio para crear un símbolo para la rupia india . Miles de personas enviaron sus propuestas antes de que el gobierno se centrara en el símbolo final basado en la escritura devanagari utilizando la letra Ra. [45]

Aplicaciones

Existen varias motivaciones para que las empresas recurran al crowdsourcing para llevar a cabo sus tareas. Entre ellas, se encuentran la capacidad de descargarse de la demanda máxima, acceder a mano de obra e información baratas, generar mejores resultados, acceder a una gama más amplia de talentos que la que existe en una organización y abordar problemas que habrían sido demasiado difíciles de resolver internamente. [46] El crowdsourcing permite a las empresas presentar problemas en los que los colaboradores pueden trabajar (sobre temas como ciencia, fabricación, biotecnología y medicina), opcionalmente con recompensas monetarias por las soluciones exitosas. Aunque el crowdsourcing de tareas complicadas puede ser difícil, las tareas de trabajo simples [ especificar ] se pueden realizar de forma económica y eficaz. [47]

El crowdsourcing también tiene el potencial de ser un mecanismo de resolución de problemas para uso gubernamental y sin fines de lucro. [48] La planificación urbana y del transporte público son áreas privilegiadas para el crowdsourcing. Por ejemplo, de 2008 a 2009, se creó un proyecto de crowdsourcing para la planificación del transporte público en Salt Lake City para probar el proceso de participación pública. [49] Otra aplicación notable del crowdsourcing para la resolución de problemas gubernamentales es Peer-to-Patent , que fue una iniciativa para mejorar la calidad de las patentes en los Estados Unidos mediante la recopilación de aportes públicos de una manera estructurada y productiva. [50]

Los investigadores han utilizado sistemas de crowdsourcing como Amazon Mechanical Turk o CloudResearch para ayudar a sus proyectos de investigación mediante la colaboración colectiva de algunos aspectos del proceso de investigación, como la recopilación , el análisis y la evaluación de datos para el público. Algunos ejemplos notables incluyen el uso de la colaboración colectiva para crear bases de datos de habla y lenguaje, [51] [52] para realizar estudios de usuarios, [53] y para ejecutar encuestas y experimentos de ciencias del comportamiento. [54] Los sistemas de crowdsourcing proporcionaron a los investigadores la capacidad de recopilar grandes cantidades de datos y los ayudaron a recopilar datos de poblaciones y demografías a las que quizás no tuvieran acceso localmente. [55] [ verificación fallida ]

Los artistas también han utilizado sistemas de crowdsourcing. En un proyecto llamado Sheep Market, Aaron Koblin utilizó Mechanical Turk para recopilar 10.000 dibujos de ovejas de colaboradores de todo el mundo. [56] El artista Sam Brown aprovechó la multitud pidiendo a los visitantes de su sitio web explodingdog que le enviaran frases para utilizarlas como inspiración para sus pinturas. [57] La ​​curadora de arte Andrea Grover sostiene que las personas tienden a ser más abiertas en los proyectos de crowdsourcing porque no se las juzga ni se las examina físicamente. [58] Al igual que con otros tipos de usos, los artistas utilizan sistemas de crowdsourcing para generar y recopilar datos. La multitud también puede utilizarse para proporcionar inspiración y para reunir apoyo financiero para el trabajo de un artista. [59]

En los sistemas de navegación , INRIX utilizó el crowdsourcing de 100 millones de conductores para recopilar los tiempos de conducción de los usuarios y así proporcionar mejores rutas GPS y actualizaciones de tráfico en tiempo real. [60]

En el ámbito sanitario

El uso del crowdsourcing en la investigación médica y sanitaria está aumentando sistemáticamente. El proceso implica la externalización de tareas o la recopilación de información de un gran número de personas, a menudo facilitada a través de plataformas digitales, para contribuir a la investigación médica, el diagnóstico, el análisis de datos, la promoción y diversas iniciativas relacionadas con la atención sanitaria. El uso de este enfoque innovador proporciona un método comunitario útil para mejorar los servicios médicos.

Desde la financiación de casos médicos individuales y dispositivos innovadores hasta el apoyo a la investigación, las iniciativas de salud comunitaria y las respuestas a las crisis, el crowdsourcing demuestra su impacto versátil a la hora de abordar diversos desafíos de la atención sanitaria. [61]

En 2011, ONUSIDA inició el proyecto de políticas participativas en línea para lograr una mayor participación de los jóvenes en los procesos de toma de decisiones relacionados con el sida . [62] El proyecto obtuvo datos de 3.497 participantes de setenta y nueve países a través de foros en línea y fuera de línea. Los resultados, en general, destacaron la importancia de las perspectivas de los jóvenes a la hora de diseñar estrategias para abordar eficazmente el sida , lo que proporcionó una valiosa perspectiva para futuras iniciativas de empoderamiento comunitario.

Otro enfoque consiste en obtener resultados de algoritmos clínicos a partir de las aportaciones colectivas de los participantes. [63] Los investigadores de SPIE desarrollaron una herramienta de colaboración colectiva para capacitar a personas, especialmente a estudiantes de secundaria y preparatoria de Corea del Sur, en el diagnóstico de glóbulos rojos infectados por malaria . Utilizando un marco estadístico, la plataforma combinó diagnósticos de expertos con los de personas con una formación mínima, creando una biblioteca de referencia. El objetivo era enseñar rápidamente a las personas a lograr una gran precisión en el diagnóstico sin ninguna formación previa.

La revista Cancer Medicine Journal realizó una revisión de los estudios publicados entre enero de 2005 y junio de 2016 sobre crowdsourcing en la investigación del cáncer, con el uso de PubMed , CINAHL , Scopus , PsychINFO y Embase . [64] Todos ellos abogan firmemente por esfuerzos continuos para refinar y expandir las aplicaciones de crowdsourcing en la investigación académica. El análisis destacó la importancia de las colaboraciones interdisciplinarias y la difusión generalizada del conocimiento; la revisión subrayó la necesidad de aprovechar al máximo el potencial del crowdsourcing para abordar los desafíos dentro de la investigación del cáncer. [64]

En la ciencia

Astronomía

El crowdsourcing en astronomía fue utilizado a principios del siglo XIX por el astrónomo Denison Olmsted . Después de despertarse una noche de finales de noviembre debido a una lluvia de meteoritos que se estaba produciendo, Olmsted notó un patrón en las estrellas fugaces. Olmsted escribió un breve informe de esta lluvia de meteoritos en el periódico local. "Como los meteorólogos no entienden la causa de las 'estrellas fugaces', es deseable recopilar todos los hechos relacionados con este fenómeno, expresados ​​con la mayor precisión posible", escribió Olmsted a los lectores, en un informe que posteriormente fue recogido y agrupado en periódicos de todo el país. Las respuestas llegaron en masa desde muchos estados, junto con las observaciones de los científicos enviadas al American Journal of Science and Arts . [65] Estas respuestas lo ayudaron a hacer una serie de avances científicos, incluida la observación del hecho de que las lluvias de meteoritos se ven en todo el país y caen desde el espacio bajo la influencia de la gravedad. Las respuestas también le permitieron aproximar una velocidad para los meteoros. [66]

Una versión más reciente del crowdsourcing en astronomía es el proyecto de organización de fotografías de la NASA, [67] que pidió a los usuarios de Internet que buscaran fotografías tomadas desde el espacio e intentaran identificar la ubicación que la imagen estaba documentando. [68]

Ciencia del comportamiento

En el campo de la ciencia del comportamiento, el crowdsourcing se utiliza a menudo para recopilar datos e información sobre el comportamiento humano y la toma de decisiones . Los investigadores pueden crear encuestas o experimentos en línea que son completados por un gran número de participantes, lo que les permite recopilar una cantidad diversa y potencialmente grande de datos. [54] El crowdsourcing también se puede utilizar para recopilar datos en tiempo real sobre el comportamiento, como mediante el uso de aplicaciones móviles que rastrean y registran las actividades y la toma de decisiones de los usuarios. [69] El uso del crowdsourcing en la ciencia del comportamiento tiene el potencial de aumentar en gran medida el alcance y la eficiencia de la investigación, y se ha utilizado en estudios sobre temas como la investigación en psicología, [70] las actitudes políticas, [71] y el uso de las redes sociales. [72]

Investigación sobre sistemas energéticos

Los modelos de sistemas energéticos requieren conjuntos de datos grandes y diversos , cada vez más dada la tendencia hacia una mayor resolución temporal y espacial. [73] En respuesta, ha habido varias iniciativas para obtener estos datos mediante crowdsourcing. Lanzado en diciembre de 2009, OpenEI es un sitio web colaborativo dirigido por el gobierno de los EE. UU. que proporciona datos de energía abiertos . [74] [75] Si bien gran parte de su información proviene de fuentes del gobierno de los EE. UU., la plataforma también busca aportes de crowdsourcing de todo el mundo. [76] La wiki semántica y la base de datos Enipedia también publican datos de sistemas energéticos utilizando el concepto de información abierta de crowdsourcing. Enipedia se puso en marcha en marzo de 2011. [77] [78] : 184–188 

Investigación genealógica

La investigación genealógica utilizaba técnicas de colaboración abierta mucho antes de que los ordenadores personales fueran comunes. A partir de 1942, los miembros de la Iglesia de Jesucristo de los Santos de los Últimos Días animaron a sus miembros a enviar información sobre sus antepasados. La información enviada se reunió en una única recopilación. En 1969, para fomentar una mayor participación, la iglesia puso en marcha el programa de las tres generaciones. En este programa, se pedía a los miembros de la iglesia que prepararan formularios de registro de grupo familiar documentados para las tres primeras generaciones. El programa se amplió más tarde para animar a los miembros a investigar al menos cuatro generaciones y se conoció como el programa de las cuatro generaciones. [79]

Los institutos que tienen registros de interés para la investigación genealógica han recurrido a numerosos voluntarios para crear catálogos e índices de registros. [ cita requerida ]

Investigación de genealogía genética

La genealogía genética es una combinación de la genealogía tradicional con la genética . El auge de las pruebas de ADN personales, después del cambio de siglo, por empresas como Gene by Gene , FTDNA , GeneTree , 23andMe y Ancestry.com , ha dado lugar a bases de datos públicas y semipúblicas de pruebas de ADN utilizando técnicas de colaboración colectiva. Los proyectos de ciencia ciudadana han incluido el apoyo, la organización y la difusión de pruebas de ADN (genéticas) personales. De manera similar a la astronomía amateur , los científicos ciudadanos alentados por organizaciones voluntarias como la Sociedad Internacional de Genealogía Genética [80] han proporcionado información e investigación valiosas a la comunidad científica profesional. [81] El Proyecto Genográfico , que comenzó en 2005, es un proyecto de investigación llevado a cabo por el equipo científico de la National Geographic Society para revelar patrones de migración humana utilizando pruebas de ADN de colaboración colectiva y la presentación de informes de resultados. [82]

Ornitología

Otro ejemplo temprano de crowdsourcing ocurrió en el campo de la ornitología . El 25 de diciembre de 1900, Frank Chapman, uno de los primeros funcionarios de la Sociedad Nacional Audubon , inició una tradición llamada "Censo de Aves del Día de Navidad" . El proyecto convocó a observadores de aves de toda América del Norte para contar y registrar el número de aves de cada especie que presenciaron el día de Navidad. El proyecto tuvo éxito y los registros de 27 contribuyentes diferentes se compilaron en un censo de aves, que contabilizó alrededor de 90 especies de aves. [83] Esta recopilación de datos a gran escala constituyó una forma temprana de ciencia ciudadana, la premisa en la que se basa el crowdsourcing. En el censo de 2012, más de 70.000 personas participaron en 2.369 círculos de conteo de aves. [84] La Navidad de 2014 marcó el 115.º conteo anual de aves de Navidad de la Sociedad Nacional Audubon .

Sismología

El Centro Sismológico Europeo-Mediterráneo (EMSC) ha desarrollado un sistema de detección sísmica mediante el seguimiento de los picos de tráfico en su sitio web y el análisis de palabras clave utilizadas en Twitter. [85]

En el periodismo

El crowdsourcing se utiliza cada vez más en el periodismo profesional. Los periodistas pueden organizar la información obtenida mediante la verificación de los hechos y luego utilizar la información que han reunido en sus artículos como mejor les parezca. [ cita requerida ] Un diario de Suecia ha utilizado con éxito el crowdsourcing para investigar las tasas de interés de los préstamos hipotecarios en el país en 2013-2014, lo que dio como resultado más de 50.000 presentaciones. [86] Un diario de Finlandia realizó una investigación mediante crowdsourcing sobre la venta en corto de acciones en 2011-2012, y la información obtenida mediante crowdsourcing condujo a revelaciones sobre un sistema de evasión fiscal por parte de un banco finlandés. El ejecutivo del banco fue despedido y se produjeron cambios en la política. [87] TalkingPointsMemo en los Estados Unidos pidió a sus lectores que examinaran 3.000 correos electrónicos relacionados con el despido de fiscales federales en 2008. El periódico británico The Guardian realizó un examen mediante crowdsourcing de cientos de miles de documentos en 2009. [88]

Donación de datos

La donación de datos es una estrategia de colaboración colectiva para recopilar datos digitales. La utilizan investigadores y organizaciones para acceder a datos de plataformas en línea, sitios web, motores de búsqueda, aplicaciones y dispositivos. Los proyectos de donación de datos suelen depender de que los participantes proporcionen voluntariamente información auténtica de su perfil digital. Algunos ejemplos son:

En las redes sociales

El crowdsourcing se utiliza en medios de comunicación a gran escala, como el sistema de notas comunitarias de la plataforma X. Se cree que el crowdsourcing en dichas plataformas es eficaz para combatir la desinformación partidista en las redes sociales cuando se cumplen ciertas condiciones. [96] [97] El éxito puede depender de la confianza en las fuentes de verificación de datos, la capacidad de presentar información que cuestione creencias previas sin causar una disonancia excesiva y tener una multitud de participantes suficientemente grande y diversa. Las intervenciones de crowdsourcing eficaces deben navegar en entornos políticamente polarizados donde las fuentes confiables pueden estar menos inclinadas a brindar opiniones disonantes. Al aprovechar el análisis de redes para conectar a los usuarios con comunidades vecinas fuera de sus cámaras de eco ideológicas, el crowdsourcing puede proporcionar una capa adicional de moderación de contenido.

En las políticas públicas

El crowdsourcing de políticas públicas y la producción de servicios públicos también se conoce como crowdsourcing ciudadano . Mientras que algunos académicos defienden el crowdsourcing con este fin como una herramienta de políticas [98] o un medio definido de coproducción, [99] otros lo cuestionan y sostienen que el crowdsourcing debería considerarse simplemente como un facilitador tecnológico que simplemente aumenta la velocidad y la facilidad de participación. [100] El crowdsourcing también puede desempeñar un papel en la democratización . [101]

La primera conferencia centrada en el crowdsourcing para la política y las políticas públicas tuvo lugar en la Universidad de Oxford , bajo los auspicios del Oxford Internet Institute, en 2014. Desde 2012, han surgido investigaciones [102] centradas en el uso del crowdsourcing para fines políticos. [103] [104] Estas incluyen la investigación experimental del uso de los mercados laborales virtuales para la evaluación de políticas, [105] y la evaluación del potencial de participación ciudadana en la innovación de procesos para la administración pública. [106]

Los gobiernos de todo el mundo están utilizando cada vez más el crowdsourcing para el descubrimiento de conocimientos y la participación cívica. [ cita requerida ] Islandia realizó un crowdsourcing para su proceso de reforma constitucional en 2011, y Finlandia ha realizado un crowdsourcing para varios procesos de reforma legal para abordar sus leyes de tráfico fuera de carretera. El gobierno finlandés permitió a los ciudadanos participar en un foro en línea para discutir problemas y posibles resoluciones con respecto a algunas leyes de tráfico fuera de carretera. [ cita requerida ] La información y las resoluciones obtenidas mediante crowdsourcing se pasarían luego a los legisladores para que las consulten al tomar una decisión, lo que permite a los ciudadanos contribuir a la política pública de una manera más directa. [107] [108] Palo Alto realizó un crowdsourcing de comentarios para la actualización de su Plan Integral de la Ciudad en un proceso que comenzó en 2015. [109] La Cámara de Representantes de Brasil ha utilizado el crowdsourcing en las reformas de políticas. [110]

La NASA utilizó el crowdsourcing para analizar grandes conjuntos de imágenes. Como parte de la Iniciativa de Gobierno Abierto de la Administración Obama , la Administración de Servicios Generales recopiló y fusionó sugerencias para mejorar los sitios web federales. [110]

Durante parte de las administraciones de Obama y Trump , el sistema We the People recogía firmas para peticiones que, una vez alcanzada cierta cantidad, merecían una respuesta oficial de la Casa Blanca . Varias agencias federales de Estados Unidos organizaron concursos de premios , entre ellas la NASA y la Agencia de Protección Ambiental . [111] [110]

Datos relacionados con el lenguaje

El crowdsourcing se ha utilizado ampliamente para recopilar datos relacionados con el lenguaje.

Hace más de cien años, los editores del Oxford English Dictionary aplicaron el crowdsourcing para el trabajo de diccionarios, utilizando papel y franqueo. También se ha utilizado para recopilar ejemplos de proverbios sobre un tema específico (por ejemplo, el pluralismo religioso ) para una revista impresa. [112] El crowdsourcing de datos relacionados con el lenguaje en línea ha demostrado ser muy eficaz y muchos proyectos de compilación de diccionarios utilizaron el crowdsourcing. Se utiliza particularmente para temas especializados e idiomas que no están bien documentados, como el idioma oromo . [113] Se han desarrollado programas de software para diccionarios de crowdsourcing, como WeSay . [114] Una forma ligeramente diferente de crowdsourcing para datos de idiomas fue la creación en línea de terminología científica y matemática para el lenguaje de señas americano . [115]

En lingüística, se han aplicado estrategias de crowdsourcing para estimar el conocimiento de palabras, el tamaño del vocabulario y el origen de las palabras. [116] El crowdsourcing implícito en las redes sociales también ha permitido aproximar de manera eficiente los datos sociolingüísticos. Se analizaron conversaciones de Reddit en varios subreddits basados ​​en la ubicación para detectar la presencia de formas gramaticales exclusivas de un dialecto regional. Luego se utilizaron para mapear la extensión de la población de hablantes. Los resultados podrían aproximarse aproximadamente a las encuestas a gran escala sobre el tema sin realizar entrevistas de campo. [117]

La minería de conversaciones de redes sociales disponibles públicamente se puede utilizar como una forma de crowdsourcing implícito para aproximarse a la extensión geográfica de los dialectos de los hablantes. [117] La ​​recopilación de proverbios también se está realizando a través del crowdsourcing en la Web, sobre todo para el idioma pastún de Afganistán y Pakistán. [118] [119] [120] El crowdsourcing se ha utilizado ampliamente para recopilar estándares de oro de alta calidad para crear sistemas automáticos en el procesamiento del lenguaje natural (por ejemplo , reconocimiento de entidades con nombre , vinculación de entidades ). [121]

En el diseño de productos

Lego permite a los usuarios trabajar en nuevos diseños de productos mientras realizan pruebas de requisitos. Cualquier usuario puede proporcionar un diseño para un producto y otros usuarios pueden votar sobre el producto. Una vez que el producto presentado haya recibido 10.000 votos, se revisará formalmente en etapas y pasará a producción sin impedimentos como fallas legales identificadas. El creador recibe regalías de los ingresos netos. [122] Etiquetar los nuevos productos como "ideados por el cliente" a través de iniciativas de crowdsourcing, en lugar de no especificar la fuente de diseño, conduce a un aumento sustancial en el desempeño real de los productos en el mercado. Simplemente destacar la fuente de diseño a los clientes, en particular, atribuir el producto a esfuerzos de crowdsourcing de las comunidades de usuarios, puede conducir a un aumento significativo en las ventas de productos. Los consumidores perciben los productos "ideados por el cliente" como más efectivos para abordar sus necesidades, lo que conduce a una inferencia de calidad. El modo de diseño asociado con las ideas de crowdsourcing se considera superior en la generación de nuevos productos prometedores, lo que contribuye al aumento observado en el desempeño del mercado. [123]

En los negocios

Los propietarios de viviendas pueden utilizar Airbnb para anunciar su alojamiento o habitaciones no utilizadas. Los propietarios fijan sus propias tarifas y alojamientos por noche, semana y mes. La empresa, a su vez, cobra a los huéspedes y a los anfitriones una tarifa. Los huéspedes suelen acabar gastando entre 9 y 15 dólares. [124] Tienen que pagar una tarifa de reserva cada vez que reservan una habitación. El propietario, a su vez, paga una tarifa de servicio por el importe adeudado. La empresa tiene 1.500 propiedades en 34.000 ciudades de más de 190 países. [ cita requerida ]

En la investigación de mercados

El crowdsourcing se utiliza con frecuencia en la investigación de mercados como una forma de recopilar información y opiniones de un gran número de consumidores. [125] Las empresas pueden crear encuestas en línea o grupos de discusión abiertos al público en general, lo que les permite recopilar una amplia gama de perspectivas sobre sus productos o servicios. Esto puede ser especialmente útil para las empresas que buscan comprender las necesidades y preferencias de un segmento de mercado en particular o para recopilar comentarios sobre la eficacia de sus esfuerzos de marketing. El uso del crowdsourcing en la investigación de mercados permite a las empresas recopilar de forma rápida y eficiente una gran cantidad de datos e información que pueden fundamentar sus decisiones comerciales. [126]

Otros ejemplos

Métodos

Internet y las tecnologías digitales han ampliado enormemente las oportunidades de crowdsourcing. Sin embargo, el efecto de la comunicación con los usuarios y la presentación de la plataforma pueden tener una influencia importante en el éxito de un proyecto de crowdsourcing en línea. [19] El problema de crowdsourcing puede variar desde tareas enormes (como encontrar vida extraterrestre o mapear zonas sísmicas) hasta muy pequeñas (identificar imágenes). Algunos ejemplos de temas de crowdsourcing exitosos son los problemas que molestan a la gente, las cosas que hacen que la gente se sienta bien consigo misma, los proyectos que aprovechan el conocimiento especializado de expertos orgullosos y los temas que la gente encuentra simpáticos. [142]

El crowdsourcing puede adoptar una vía explícita o implícita:

En su libro de 2013, Crowdsourcing , Daren C. Brabham propone una tipología basada en problemas de los enfoques de crowdsourcing: [144]

Ivo Blohm identifica cuatro tipos de plataformas de crowdsourcing: microtareas, agrupación de información, búsqueda de difusión y colaboración abierta. Se diferencian en la diversidad y agregación de las contribuciones que se crean. La diversidad de información recopilada puede ser homogénea o heterogénea. La agregación de información puede ser selectiva o integradora. [ definición necesaria ] [145] Algunas categorías comunes de crowdsourcing que se han utilizado de manera efectiva en el mundo comercial incluyen crowdvoting, crowdsolving, crowdfunding , microwork , crowdsourcing creativo , gestión de la fuerza laboral mediante crowdsourcing y concursos de premios de incentivo . [146]

Votación colectiva

El crowdvoting se produce cuando un sitio web recopila las opiniones y juicios de un gran grupo sobre un tema determinado. Algunas herramientas y plataformas de crowdsourcing permiten a los participantes clasificar las contribuciones de los demás, por ejemplo, en respuesta a la pregunta "¿Qué es una cosa que podemos hacer para que Acme sea una gran empresa?". Un método común para la clasificación es el recuento de "me gusta", donde la contribución con la mayor cantidad de votos de "me gusta" ocupa el primer lugar. Este método es simple y fácil de entender, pero privilegia las contribuciones tempranas, que tienen más tiempo para acumular votos. [ cita requerida ] En los últimos años, varias empresas de crowdsourcing han comenzado a utilizar comparaciones por pares respaldadas por algoritmos de clasificación. Los algoritmos de clasificación no penalizan las contribuciones tardías. [ cita requerida ] También producen resultados más rápido. Los algoritmos de clasificación han demostrado ser al menos 10 veces más rápidos que la clasificación manual en pila. [ 147 ] Sin embargo, un inconveniente es que los algoritmos de clasificación son más difíciles de entender que el recuento de votos.

El Mercado Electrónico de Iowa es un mercado de predicciones que recoge las opiniones de las multitudes sobre política e intenta garantizar la precisión haciendo que los participantes paguen dinero para comprar y vender contratos basados ​​en resultados políticos. [148] Algunos de los ejemplos más famosos han hecho uso de canales de redes sociales: Domino's Pizza, Coca-Cola, Heineken y Sam Adams han colaborado para crear una nueva pizza, un diseño de botella, una cerveza y una canción respectivamente. [149] Un sitio web llamado Threadless seleccionó las camisetas que vendió haciendo que los usuarios proporcionaran diseños y votaran por las que les gustaban, que luego se imprimían y estaban disponibles para su compra. [18]

El California Report Card (CRC), un programa lanzado conjuntamente en enero de 2014 por el Centro de Investigación de Tecnología de la Información en Interés de la Sociedad [150] y el vicegobernador Gavin Newsom , es un ejemplo de votación colectiva moderna. Los participantes acceden al CRC en línea y votan sobre seis temas de actualidad. A través del análisis de componentes principales , los usuarios son luego colocados en un "café" en línea en el que pueden presentar sus propias opiniones políticas y calificar las sugerencias de otros participantes. Este sistema tiene como objetivo involucrar eficazmente al público en general en debates políticos relevantes y destacar los temas específicos que más preocupan a la gente.

El valor del crowdvoting en la industria cinematográfica quedó demostrado cuando en 2009 una multitud predijo con precisión el éxito o el fracaso de una película basándose en su tráiler, [151] [152] una hazaña que fue replicada en 2013 por Google. [153]

En Reddit, los usuarios califican colectivamente el contenido web, las discusiones y los comentarios, así como las preguntas planteadas a personas de interés en las entrevistas en línea " AMA " y AskScience . [ Se necesita limpieza ]

En 2017, Project Fanchise compró un equipo de la Indoor Football League y creó los Salt Lake Screaming Eagles , un equipo dirigido por aficionados. Mediante una aplicación móvil, los aficionados votaron sobre las operaciones diarias del equipo, el nombre de la mascota, la contratación de jugadores e incluso las jugadas ofensivas durante los partidos. [154]

Financiación colectiva

El crowdfunding es un proceso de financiación de proyectos en el que una multitud de personas aportan una pequeña cantidad para alcanzar un determinado objetivo monetario, normalmente a través de Internet. [155] El crowdfunding se ha utilizado tanto con fines comerciales como benéficos. [156] El modelo de crowdfunding que lleva más tiempo en uso es el crowdfunding basado en recompensas. Este modelo consiste en que las personas pueden comprar productos por adelantado, adquirir experiencias o simplemente donar. Si bien en algunos casos esta financiación puede destinarse a ayudar a una empresa, los financiadores no pueden invertir y convertirse en accionistas a través del crowdfunding basado en recompensas. [157]

Las personas, empresas y emprendedores pueden mostrar sus negocios y proyectos creando un perfil, que generalmente incluye un video corto que presenta su proyecto, una lista de recompensas por donación e ilustraciones a través de imágenes. [ cita requerida ] Los financiadores hacen contribuciones monetarias por numerosas razones:

  1. Se conectan con el propósito mayor de la campaña, como ser parte de una comunidad empresarial y apoyar una idea o producto innovador. [158]
  2. Se conectan con un aspecto físico de la campaña, como recompensas y ganancias de la inversión. [158]
  3. Se conectan con la visualización creativa de la presentación de la campaña.
  4. Quieren ver nuevos productos antes que el público. [158]

El dilema que enfrentaba el crowdfunding de acciones en los Estados Unidos en 2012 se encontraba en un proceso de perfeccionamiento de las regulaciones de la Comisión de Bolsa y Valores de Estados Unidos (SEC , por sus siglas en inglés), que tenía hasta el 1 de enero de 2013 para ajustar los métodos de recaudación de fondos. Los reguladores estaban desbordados tratando de regular la ley Dodd-Frank y todas las demás normas y regulaciones que afectaban a las empresas públicas y su forma de operar. Los defensores de la regulación afirmaban que el crowdfunding abriría las compuertas al fraude, lo llamaban el "salvaje oeste" de la recaudación de fondos y lo comparaban con los días de los "vaqueros de las llamadas en frío" de los años 80 en las acciones de centavo. El proceso permitía recaudar hasta un millón de dólares sin que se aplicaran algunas de las regulaciones. Las empresas que se amparaban en la propuesta vigente en ese momento tendrían exenciones disponibles y podrían recaudar capital de un grupo más grande de personas, lo que puede incluir umbrales más bajos para los criterios de los inversores, mientras que las antiguas normas exigían que la persona fuera un inversor "acreditado". Estas personas suelen ser reclutadas a través de las redes sociales, donde los fondos pueden obtenerse mediante una compra de acciones, un préstamo, una donación o un pedido. Las cantidades recaudadas han llegado a ser bastante altas, con solicitudes que superan el millón de dólares para un software como Trampoline Systems, que lo utilizó para financiar la comercialización de su nuevo software. [ cita requerida ]

Concursos con premios de incentivo

Los concursos de ideas basados ​​en la Web o los concursos de premios de incentivos suelen consistir en ideas genéricas, premios en efectivo y una plataforma basada en Internet para facilitar la generación y el debate de ideas. Un ejemplo de estos concursos incluye un evento como el "Innovation Jam" de IBM de 2006, al que asistieron más de 140.000 participantes internacionales y del que surgieron alrededor de 46.000 ideas. [159] [160] Otro ejemplo es el Premio Netflix de 2009. Se pidió a la gente que ideara un algoritmo de recomendación que fuera más preciso que el algoritmo actual de Netflix. Tenía un gran premio de 1.000.000 de dólares estadounidenses y se le dio a un equipo que diseñó un algoritmo que superó al propio algoritmo de Netflix para predecir las calificaciones en un 10,06%. [ cita requerida ]

Otro ejemplo de crowdsourcing basado en la competencia es el experimento de globos de DARPA de 2009, donde DARPA colocó 10 marcadores de globos en todo Estados Unidos y desafió a los equipos a competir para ser el primero en informar la ubicación de todos los globos. Se requirió una colaboración de esfuerzos para completar el desafío rápidamente y además de la motivación competitiva del concurso en su conjunto, el equipo ganador ( MIT , en menos de nueve horas) estableció su propio entorno "colaborapetitivo" para generar participación en su equipo. [161] Un desafío similar fue el Tag Challenge , financiado por el Departamento de Estado de EE. UU., que requería localizar y fotografiar a individuos en cinco ciudades de EE. UU. y Europa en 12 horas basándose solo en una única fotografía. El equipo ganador logró localizar a tres sospechosos movilizando voluntarios en todo el mundo utilizando un esquema de incentivos similar al utilizado en el desafío de los globos. [162]

El uso de plataformas de innovación abierta es una forma eficaz de obtener ideas y opiniones de la gente para la investigación y el desarrollo. La empresa InnoCentive es una plataforma de crowdsourcing para la investigación y el desarrollo corporativo en la que se publican problemas científicos difíciles para que multitudes de personas descubran la respuesta y ganen un premio en efectivo que va desde los 10.000 a los 100.000 dólares por desafío. [18] InnoCentive, de Waltham, Massachusetts , y Londres, Inglaterra, proporciona acceso a millones de expertos científicos y técnicos de todo el mundo. La empresa afirma tener una tasa de éxito del 50% en la búsqueda de soluciones exitosas a problemas científicos y técnicos no resueltos anteriormente. La Fundación X Prize crea y organiza concursos de incentivos que ofrecen entre 1 y 30 millones de dólares por resolver desafíos. Local Motors es otro ejemplo de crowdsourcing, y es una comunidad de 20.000 ingenieros, diseñadores y entusiastas del sector automovilístico que compiten para construir camiones de rally todoterreno. [163]

Crowdsourcing implícito

El crowdsourcing implícito es menos obvio porque los usuarios no necesariamente saben que están contribuyendo, pero aun así puede ser muy eficaz para completar ciertas tareas. [ cita requerida ] En lugar de que los usuarios participen activamente en la solución de un problema o proporcionen información, el crowdsourcing implícito implica que los usuarios realicen otra tarea completamente diferente, donde un tercero obtiene información para otro tema en función de las acciones del usuario. [18]

Un buen ejemplo de crowdsourcing implícito es el juego ESP , en el que los usuarios encuentran palabras para describir imágenes de Google, que luego se utilizan como metadatos para las imágenes. Otro uso popular del crowdsourcing implícito es a través de reCAPTCHA , que pide a las personas que resuelvan CAPTCHA para demostrar que son humanos, y luego proporciona CAPTCHA de libros antiguos que no pueden ser descifrados por computadoras, para digitalizarlos para la web. Al igual que muchas tareas resueltas utilizando Mechanical Turk, los CAPTCHA son simples para los humanos, pero a menudo muy difíciles para las computadoras. [143]

El crowdsourcing a cuenta de los usuarios se observa con mayor frecuencia en sitios web como Google, que extraen datos del historial de búsqueda de los usuarios y de los sitios web para descubrir palabras clave para anuncios, correcciones ortográficas y búsqueda de sinónimos. De esta manera, los usuarios ayudan sin querer a modificar sistemas existentes, como Google Ads . [53]

Otros tipos

Demografía de la multitud

El término "masacre" se utiliza para designar a las personas que contribuyen a las iniciativas de crowdsourcing. Aunque a veces resulta difícil recopilar datos sobre la demografía de la masa en su conjunto, varios estudios han examinado varias plataformas online específicas. Amazon Mechanical Turk ha recibido una gran atención en particular. Un estudio realizado en 2008 por Ipeirotis descubrió que los usuarios en ese momento eran principalmente estadounidenses, jóvenes, mujeres y con un buen nivel educativo, y que el 40% de ellos ganaba más de 40.000 dólares al año. En noviembre de 2009, Ross descubrió una población de Mechanical Turk muy diferente, en la que el 36% era india. Dos tercios de los trabajadores indios eran hombres y el 66% tenía al menos una licenciatura. Dos tercios tenían ingresos anuales inferiores a 10.000 dólares y el 27% dependía a veces o siempre de los ingresos de Mechanical Turk para llegar a fin de mes. [181] Estudios más recientes han descubierto que los trabajadores estadounidenses de Mechanical Turk son aproximadamente un 58% mujeres y casi el 67% de los trabajadores tienen entre 20 y 30 años. [54] [182] [183] ​​[184] Cerca del 80% son blancos y el 9% son negros. Los trabajadores de MTurk tienen menos probabilidades de estar casados ​​o tener hijos en comparación con la población general. En la población estadounidense mayor de 18 años, el 45% no está casado, mientras que la proporción de trabajadores solteros en MTurk es de alrededor del 57%. Además, alrededor del 55% de los trabajadores de MTurk no tienen hijos, lo que es significativamente más alto que la población general. Aproximadamente el 68% de los trabajadores estadounidenses están empleados, en comparación con el 60% de la población general. Los trabajadores de MTurk en los EE. UU. también tienen más probabilidades de tener un título universitario de cuatro años (35%) en comparación con la población general (27%). La política dentro de la muestra estadounidense de MTurk está sesgada hacia el liberalismo, con un 46% de demócratas, un 28% de republicanos y un 26% de "otros". Los trabajadores de MTurk también son menos religiosos que la población estadounidense: el 41% son religiosos, el 20% espirituales, el 21% agnósticos y el 16% ateos.

La demografía de Microworkers.com difiere de la de Mechanical Turk en que Estados Unidos y la India juntos representan solo el 25% de los trabajadores; 197 países están representados entre los usuarios, siendo Indonesia (18%) y Bangladesh (17%) los que aportan la mayor proporción. Sin embargo, el 28% de los empleadores son de Estados Unidos. [185]

Otro estudio demográfico de la multitud en iStockphoto encontró que la multitud era mayoritariamente blanca, de clase media a alta, con un nivel educativo alto, que trabajaba en un llamado "trabajo de cuello blanco" y tenía una conexión a Internet de alta velocidad en casa. [186] En un estudio diario de colaboración colectiva de 30 días en Europa, los participantes eran predominantemente mujeres con un nivel educativo alto. [141]

Los estudios también han demostrado que las multitudes no son simplemente conjuntos de aficionados o aficionados, sino que suelen estar formadas profesionalmente en una disciplina relevante para una determinada tarea de crowdsourcing y, a veces, poseen títulos avanzados y muchos años de experiencia en la profesión. [186] [187] [188] [189] Afirmar que las multitudes son aficionados, en lugar de profesionales, es falso desde el punto de vista fáctico y puede llevar a la marginación de los derechos laborales de las multitudes. [190]

Gregory Saxton et al. estudiaron el papel de los usuarios de la comunidad, entre otros elementos, durante su análisis de contenido de 103 organizaciones de crowdsourcing. Desarrollaron una taxonomía de nueve modelos de crowdsourcing (modelo intermediario, producción de medios ciudadanos, desarrollo de software colaborativo, ventas de bienes digitales, diseño de productos, financiación social entre pares, modelo de informes de consumidores, modelo de construcción de bases de conocimiento y modelo de proyectos científicos colaborativos) para categorizar los roles de los usuarios de la comunidad, como investigador, ingeniero, programador, periodista, diseñador gráfico, etc., y los productos y servicios desarrollados. [191]

Motivaciones

Colaboradores

Muchos investigadores sugieren que tanto las motivaciones intrínsecas como las extrínsecas hacen que las personas contribuyan a las tareas colaborativas y estos factores influyen en los diferentes tipos de contribuyentes. [108] [186] [187] [189] [192] [193 ] [194] [195] Por ejemplo, las personas empleadas en un puesto de tiempo completo califican el avance del capital humano como menos importante que los trabajadores a tiempo parcial, mientras que las mujeres califican el contacto social como más importante que los hombres. [193]

Las motivaciones intrínsecas se dividen en dos categorías: motivaciones basadas en el disfrute y motivaciones basadas en la comunidad. Las motivaciones basadas en el disfrute se refieren a las motivaciones relacionadas con la diversión y el disfrute que experimentan los contribuyentes a través de su participación. Estas motivaciones incluyen: variedad de habilidades, identidad de tarea, autonomía de tarea , retroalimentación directa del trabajo y tomar el trabajo como un pasatiempo . [ cita requerida ] Las motivaciones basadas en la comunidad se refieren a las motivaciones relacionadas con la participación comunitaria e incluyen la identificación con la comunidad y el contacto social. En el periodismo colaborativo, los factores de motivación son intrínsecos: la multitud está impulsada por la posibilidad de tener un impacto social, contribuir al cambio social y ayudar a sus pares. [192]

Las motivaciones extrínsecas se dividen en tres categorías: recompensas inmediatas, recompensas diferidas y motivaciones sociales. Las recompensas inmediatas, a través del pago monetario, son las compensaciones recibidas inmediatamente que se dan a quienes completan las tareas. Las recompensas diferidas son beneficios que se pueden utilizar para generar ventajas futuras, como la capacitación de habilidades y ser notado por empleadores potenciales. Las motivaciones sociales son las recompensas por comportarse de manera prosocial, [196] como las motivaciones altruistas de los voluntarios en línea . Chandler y Kapelner descubrieron que los usuarios estadounidenses de Amazon Mechanical Turk tenían más probabilidades de completar una tarea cuando se les decía que iban a ayudar a los investigadores a identificar células tumorales, que cuando no se les decía el propósito de su tarea. Sin embargo, de aquellos que completaron la tarea, la calidad del resultado no dependía del encuadre. [197]

La motivación en el crowdsourcing es a menudo una mezcla de factores intrínsecos y extrínsecos. [198] En un proyecto de elaboración de leyes mediante crowdsourcing, la multitud estaba motivada tanto por factores intrínsecos como extrínsecos. Las motivaciones intrínsecas incluían el cumplimiento del deber cívico, la modificación de la ley por razones sociotrópicas, el deliberar con los pares y aprender de ellos. Las motivaciones extrínsecas incluían la modificación de la ley para obtener beneficios económicos u otros. La participación en la elaboración de políticas mediante crowdsourcing era un acto de defensa de las bases, ya fuera para perseguir el propio interés o metas más altruistas, como la protección de la naturaleza. [108] Los participantes en estudios de investigación en línea informan que su motivación era tanto el disfrute intrínseco como la ganancia monetaria. [199] [200] [183]

Otra forma de motivación social es el prestigio o el estatus. La Biblioteca Digital Infantil Internacional reclutó voluntarios para traducir y revisar libros. Dado que todos los traductores reciben un reconocimiento público por sus contribuciones, Kaufman y Schulz citan esto como una estrategia basada en la reputación para motivar a las personas que quieren estar asociadas con instituciones que tienen prestigio. El Turco Mecánico utiliza la reputación como motivador en un sentido diferente, como una forma de control de calidad. A los trabajadores colaborativos que frecuentemente completan tareas de maneras que se juzgan inadecuadas se les puede negar el acceso a futuras tareas, mientras que los trabajadores que prestan mucha atención pueden ser recompensados ​​con acceso a tareas mejor pagadas o estando en una "Lista Aprobada" de trabajadores. Este sistema puede incentivar el trabajo de mayor calidad. [201] Sin embargo, este sistema solo funciona cuando los solicitantes rechazan el trabajo malo, lo que muchos no hacen. [202]

A pesar del alcance global potencial de las aplicaciones de TI en línea, investigaciones recientes ilustran que las diferencias en la ubicación [ ¿cuáles? ] afectan los resultados de participación en multitudes mediadas por TI. [203]

Limitaciones y controversias

Al menos seis temas principales cubren las limitaciones y controversias acerca del crowdsourcing:

  1. El impacto del crowdsourcing en la calidad del producto
  2. Los empresarios aportan menos capital
  3. Aumento del número de ideas financiadas
  4. El valor y el impacto del trabajo recibido del público
  5. Las implicaciones éticas de los bajos salarios que pagan los trabajadores
  6. Confiabilidad y toma de decisiones informada

El impacto del crowdsourcing en la calidad del producto

El crowdsourcing permite que cualquiera participe, lo que permite que haya muchos participantes no calificados y da como resultado grandes cantidades de contribuciones inutilizables. [204] Las empresas, o los crowdworkers adicionales, tienen que clasificar las contribuciones de baja calidad. La tarea de clasificar las contribuciones de los crowdworkers, junto con el trabajo necesario de administrar la multitud, requiere que las empresas contraten empleados reales, lo que aumenta la sobrecarga de gestión. [205] Por ejemplo, la susceptibilidad a los resultados erróneos puede ser causada por esfuerzos de trabajo dirigidos y maliciosos. Dado que los crowdworkers que completan microtareas reciben un pago por tarea, un incentivo financiero a menudo hace que los trabajadores completen las tareas rápidamente en lugar de bien. [54] Verificar las respuestas requiere mucho tiempo, por lo que los empleadores a menudo dependen de que varios trabajadores completen la misma tarea para corregir los errores. Sin embargo, hacer que cada tarea se complete varias veces aumenta el tiempo y los costos monetarios. [206] Algunas empresas, como CloudResearch, controlan la calidad de los datos al examinar repetidamente a los crowdworkers para asegurarse de que están prestando atención y brindando un trabajo de alta calidad. [202]

La calidad del crowdsourcing también se ve afectada por el diseño de las tareas. Lukyanenko et al. [207] sostienen que la práctica predominante de modelar las tareas de recopilación de datos mediante crowdsourcing en términos de clases fijas (opciones) restringe innecesariamente la calidad. Los resultados demuestran que la precisión de la información depende de las clases utilizadas para modelar los dominios, y que los participantes proporcionan información más precisa cuando clasifican los fenómenos a un nivel más general (que suele ser menos útil para las organizaciones patrocinadoras y, por lo tanto, menos común). [ Aclaración necesaria ] Además, se espera una mayor precisión general cuando los participantes pueden proporcionar datos de formato libre en comparación con las tareas en las que seleccionan entre opciones restringidas. En la investigación de las ciencias del comportamiento, a menudo se recomienda incluir respuestas abiertas, además de otras formas de comprobaciones de la atención, para evaluar la calidad de los datos. [208] [209]

Igualmente limitante es que muchas veces no hay suficientes habilidades o experiencia en la multitud para completar con éxito la tarea deseada. Si bien este escenario no afecta a tareas "simples" como el etiquetado de imágenes, es particularmente problemático para tareas más complejas, como el diseño de ingeniería o la validación de productos. Una comparación entre la evaluación de modelos comerciales por parte de expertos y una multitud anónima en línea mostró que una multitud anónima en línea no puede evaluar modelos comerciales al mismo nivel que los expertos. [210] En estos casos, puede ser difícil o incluso imposible encontrar personas calificadas en la multitud, ya que sus respuestas representan solo una pequeña fracción de los trabajadores en comparación con los miembros de la multitud consistentes, pero incorrectos. [211] Sin embargo, si la tarea es "intermedia" en su dificultad, estimar las habilidades e intenciones de los trabajadores de la multitud y aprovecharlas para inferir respuestas verdaderas funciona bien, [212] aunque con un costo computacional adicional. [ cita requerida ]

Los trabajadores colaborativos son una muestra no aleatoria de la población. Muchos investigadores utilizan el crowdsourcing para realizar estudios de forma rápida y económica con tamaños de muestra más grandes de lo que sería posible de otro modo. Sin embargo, debido al acceso limitado a Internet, la participación en los países de bajo desarrollo es relativamente baja. La participación en los países altamente desarrollados es igualmente baja, en gran parte porque el bajo nivel de remuneración no es una motivación fuerte para la mayoría de los usuarios en estos países. Estos factores conducen a un sesgo en el grupo de población hacia los usuarios en países de desarrollo medio, como lo considera el índice de desarrollo humano . [213] Los participantes en estos países a veces se hacen pasar por participantes estadounidenses para obtener acceso a ciertas tareas. Esto llevó al "susto de los bots" en Amazon Mechanical Turk en 2018, cuando los investigadores pensaron que los bots estaban completando encuestas de investigación debido a la menor calidad de las respuestas originadas en países de desarrollo medio. [209] [214]

La probabilidad de que un proyecto de crowdsourcing fracase debido a la falta de motivación monetaria o a la escasez de participantes aumenta a lo largo del proyecto. Las tareas que no se completan rápidamente pueden quedar olvidadas, enterradas por filtros y procedimientos de búsqueda. Esto da como resultado una distribución de ley de potencia de cola larga de los tiempos de finalización. [215] Además, los estudios de investigación en línea mal remunerados tienen mayores tasas de deserción, ya que los participantes no completan el estudio una vez comenzado. [55] Incluso cuando se completan las tareas, el crowdsourcing no siempre produce resultados de calidad. Cuando Facebook comenzó su programa de localización en 2008, recibió algunas críticas por la baja calidad de sus traducciones de crowdsourcing. [216] Uno de los problemas de los productos de crowdsourcing es la falta de interacción entre la multitud y el cliente. Por lo general, se conoce poca información sobre el producto final y los trabajadores rara vez interactúan con el cliente final en el proceso. Esto puede disminuir la calidad del producto, ya que la interacción con el cliente se considera una parte vital del proceso de diseño. [217]

Otra causa de la disminución de la calidad de los productos que puede resultar del crowdsourcing es la falta de herramientas de colaboración. En un lugar de trabajo típico, los compañeros de trabajo están organizados de tal manera que pueden trabajar juntos y aprovechar los conocimientos e ideas de los demás. Además, la empresa suele proporcionar a los empleados la información, los procedimientos y las herramientas necesarias para cumplir con sus responsabilidades. Sin embargo, en el crowdsourcing, los trabajadores del crowdsourcing dependen de sus propios conocimientos y medios para completar las tareas. [205]

Por lo general, se espera que un proyecto de colaboración colectiva sea imparcial al incorporar una gran población de participantes con antecedentes diversos. Sin embargo, la mayoría de los trabajos de colaboración colectiva son realizados por personas a las que se les paga o que se benefician directamente del resultado (por ejemplo, la mayoría de los proyectos de código abierto que funcionan en Linux ). En muchos otros casos, el producto final es el resultado del esfuerzo de una sola persona, que crea la mayor parte del producto, mientras que la multitud solo participa en detalles menores. [218]

Los empresarios aportan menos capital

Para que una idea se convierta en realidad, el primer componente necesario es el capital. Según el alcance y la complejidad del proyecto de financiación colectiva, la cantidad de capital necesaria puede variar desde unos pocos miles de dólares hasta cientos de miles, si no más. El proceso de obtención de capital puede llevar desde días hasta meses, dependiendo de distintas variables, entre ellas la red del emprendedor y la cantidad de capital inicial autogenerado. [ cita requerida ]

El proceso de crowdsourcing permite a los emprendedores acceder a una amplia gama de inversores que pueden asumir diferentes participaciones en el proyecto. [219] Como resultado, el crowdsourcing simplifica el proceso de obtención de capital y permite a los emprendedores dedicar más tiempo al proyecto en sí y a alcanzar hitos en lugar de dedicar tiempo a ponerlo en marcha. En general, el acceso simplificado al capital puede ahorrar tiempo para iniciar proyectos y potencialmente aumentar la eficiencia de los mismos. [ cita requerida ]

Otros sostienen que un acceso más fácil al capital a través de un gran número de inversores más pequeños puede perjudicar al proyecto y a sus creadores. Con un proceso de captación de capital simplificado que implique a más inversores con participaciones más pequeñas, los inversores son más proclives a asumir riesgos porque pueden asumir un tamaño de inversión con el que se sientan cómodos. [219] Esto hace que los empresarios pierdan la posible experiencia de convencer a los inversores que son cautelosos ante los riesgos potenciales de la inversión porque no dependen de un único inversor para la supervivencia de su proyecto. En lugar de verse obligados a evaluar los riesgos y convencer a los grandes inversores institucionales de por qué su proyecto puede tener éxito, los inversores cautelosos pueden ser reemplazados por otros que estén dispuestos a asumir el riesgo.

Algunas empresas de traducción y consumidores de herramientas de traducción pretenden utilizar el crowdsourcing como un medio para reducir drásticamente los costos, en lugar de contratar traductores profesionales . Esta situación ha sido denunciada sistemáticamente por la IAPTI y otras organizaciones de traductores. [220]

Aumento del número de ideas financiadas

La cantidad total de ideas que se financian y la calidad de las mismas son un tema de gran controversia en el ámbito del crowdsourcing.

Los defensores de esta idea sostienen que el crowdsourcing es beneficioso porque permite la formación de empresas emergentes con ideas de nicho que no sobrevivirían a la financiación de capitalistas de riesgo o inversores ángeles , que suelen ser los principales inversores de las empresas emergentes. Muchas ideas se descartan en sus inicios debido a la falta de apoyo y capital, pero el crowdsourcing permite que estas ideas se pongan en marcha si un emprendedor puede encontrar una comunidad que se interese por el proyecto. [221]

El crowdsourcing permite que quienes se beneficiarían del proyecto lo financien y formen parte de él, lo que es una forma de que surjan pequeñas ideas de nicho. [222] Sin embargo, cuando el número de proyectos crece, también aumenta el número de fracasos. El crowdsourcing ayuda al desarrollo de proyectos de nicho y de alto riesgo debido a la necesidad percibida de unos pocos seleccionados que buscan el producto. Con un alto riesgo y mercados objetivo pequeños, el grupo de proyectos de crowdsourcing enfrenta una mayor posible pérdida de capital, menor retorno y menores niveles de éxito. [223]

Preocupaciones relacionadas con el trabajo

Debido a que los trabajadores colaborativos se consideran contratistas independientes en lugar de empleados, no se les garantiza un salario mínimo . En la práctica, los trabajadores que utilizan Amazon Mechanical Turk generalmente ganan menos del salario mínimo. En 2009, se informó que los usuarios de Turk en Estados Unidos ganaban un promedio de $2,30 por hora por tareas, mientras que los usuarios en India ganaban un promedio de $1,58 por hora, que está por debajo del salario mínimo en Estados Unidos (pero no en India). [181] [224] En 2018, una encuesta a 2676 trabajadores de Amazon Mechanical Turk que realizaban 3,8 millones de tareas encontró que el salario medio por hora era de aproximadamente $2 por hora, y solo el 4% de los trabajadores ganaba más que el salario mínimo federal de $7,25 por hora. [225] Algunos investigadores que han considerado utilizar Mechanical Turk para obtener participantes para estudios de investigación han argumentado que las condiciones salariales podrían ser poco éticas. [55] [226] Sin embargo, según otras investigaciones, los trabajadores de Amazon Mechanical Turk no se sienten explotados y están listos para participar en actividades de crowdsourcing en el futuro. [227] Un estudio más reciente que utilizó un muestreo aleatorio estratificado para acceder a una muestra representativa de trabajadores de Mechanical Turk encontró que la población estadounidense de MTurk es financieramente similar a la población general. [183] ​​Los trabajadores tienden a participar en tareas como una forma de ocio remunerado y para complementar su ingreso principal, y solo el 7% lo ve como un trabajo de tiempo completo. En general, los trabajadores calificaron a MTurk como menos estresante que otros trabajos. Los trabajadores también ganan más de lo informado anteriormente, alrededor de $ 6,50 por hora. Ven a MTurk como parte de la solución a su situación financiera y reportan raras experiencias perturbadoras. También perciben a los solicitantes en MTurk como más justos y honestos que los empleadores fuera de la plataforma. [183]

Cuando Facebook inició su programa de localización en 2008, recibió críticas por utilizar mano de obra gratuita para la traducción colectiva de las directrices del sitio. [216]

Por lo general, no se realizan contratos escritos, acuerdos de confidencialidad ni acuerdos con los empleados con los trabajadores colaborativos. Para los usuarios de Amazon Mechanical Turk, esto significa que los empleadores deciden si el trabajo de los usuarios es aceptable y se reservan el derecho de retener el pago si no cumple con sus estándares. [228] Los críticos dicen que los acuerdos de colaboración colectiva explotan a los individuos de la multitud, y se ha hecho un llamado para que las multitudes se organicen por sus derechos laborales. [229] [190] [230]

La colaboración entre los miembros de la comunidad también puede resultar difícil o incluso desalentada, especialmente en el contexto de la colaboración colectiva competitiva. El sitio de colaboración colectiva InnoCentive permite a las organizaciones solicitar soluciones a problemas científicos y tecnológicos; solo el 10,6% de los encuestados informó haber trabajado en equipo en su propuesta. [187] Los trabajadores de Amazon Mechanical Turk colaboraron con académicos para crear una plataforma, WeAreDynamo.org, que les permite organizar y crear campañas para mejorar su situación laboral, pero el sitio ya no está en funcionamiento. [231] Otra plataforma dirigida por trabajadores y académicos de Amazon Mechanical Turk, Turkopticon, sigue funcionando y ofrece reseñas de los trabajadores sobre los empleadores de Amazon Mechanical Turk. [232]

En 2009, America Online resolvió el caso Hallissey et al. v. America Online, Inc. por 15 millones de dólares, después de que moderadores no remunerados demandaran para que se les pagara el salario mínimo como empleados bajo la Ley de Normas Laborales Justas de Estados Unidos .

Otras preocupaciones

Además de la compensación insuficiente y otras disputas relacionadas con el trabajo, también ha habido preocupaciones con respecto a violaciones de la privacidad , la contratación de grupos vulnerables , violaciones del anonimato , daños psicológicos incluyendo trastorno de estrés postraumático , el fomento de conductas adictivas y más. [233] Muchos, pero no todos, los problemas relacionados con el crowdworks se superponen con las preocupaciones relacionadas con los moderadores de contenido .

Véase también

Referencias

  1. ^ Schenk, Eric; Guittard, Claude (1 de enero de 2009). Crowdsourcing: qué se puede subcontratar a la multitud y por qué. Centro de Comunicación Científica Directa . Recuperado el 1 de octubre de 2018 – vía HAL.
  2. ^ Hirth, Matthias; Hoßfeld, Tobias; Tran-Gia, Phuoc (2011). "Anatomía de una plataforma de crowdsourcing: uso del ejemplo de Microworkers.com" (PDF) . 2011 Quinta Conferencia Internacional sobre Servicios Innovadores Móviles e Internet en Computación Ubicua . pp. 322–329. doi :10.1109/IMIS.2011.89. ISBN. 978-1-61284-733-7. S2CID  12955095. Archivado desde el original (PDF) el 22 de noviembre de 2015 . Consultado el 5 de septiembre de 2015 .
  3. ^ Estellés-Arolas, Enrique; González-Ladrón-de-Guevara, Fernando (2012), "Hacia una definición integrada de crowdsourcing" (PDF) , Journal of Information Science , 38 (2): 189–200, doi :10.1177/0165551512437638, hdl :10251/56904, S2CID  18535678, archivado desde el original (PDF) el 19 de agosto de 2019 , recuperado 16 de marzo 2012
  4. ^ Brabham, DC (2013). Crowdsourcing . Cambridge, Massachusetts; Londres, Inglaterra: The MIT Press.
  5. ^ Brabham, DC (2008). "El crowdsourcing como modelo para la resolución de problemas: introducción y casos". Convergencia: Revista internacional de investigación sobre nuevas tecnologías de los medios . 14 (1): 75–90. CiteSeerX 10.1.1.175.1623 . doi :10.1177/1354856507084420. S2CID  145310730. 
  6. ^ Prpić, J., & Shukla, P. (2016). Crowd Science: Measurements, Models, and Methods. In Proceedings of the 49th Annual Hawaii International Conference on System Sciences, Kauai, Hawaii: IEEE Computer Society. arXiv:1702.04221
  7. ^ Buettner, Ricardo (2015). A Systematic Literature Review of Crowdsourcing Research from a Human Resource Management Perspective. 48th Annual Hawaii International Conference on System Sciences. Kauai, Hawaii: IEEE. pp. 4609–4618. doi:10.13140/2.1.2061.1845. ISBN 978-1-4799-7367-5.
  8. ^ a b Prpić, John; Taeihagh, Araz; Melton, James (September 2015). "The Fundamentals of Policy Crowdsourcing". Policy & Internet. 7 (3): 340–361. arXiv:1802.04143. doi:10.1002/poi3.102. S2CID 3626608.
  9. ^ Afuah, A.; Tucci, C. L. (2012). "Crowdsourcing as a Solution to Distant Search". Academy of Management Review. 37 (3): 355–375. doi:10.5465/amr.2010.0146.
  10. ^ de Vreede, T., Nguyen, C., de Vreede, G. J., Boughzala, I., Oh, O., & Reiter-Palmon, R. (2013). A Theoretical Model of User Engagement in Crowdsourcing. In Collaboration and Technology (pp. 94–109). Springer Berlin Heidelberg
  11. ^ Sarin, Supheakmungkol; Pipatsrisawat, Knot; Pham, Khiêm; Batra, Anurag; Valente, Luis (2019). "Crowdsource by Google: A Platform for Collecting Inclusive and Representative Machine Learning Data" (PDF). AAAI Hcomp 2019.
  12. ^ a b Liu, Wei; Moultrie, James; Ye, Songhe (4 May 2019). "The Customer-Dominated Innovation Process: Involving Customers as Designers and Decision-Makers in Developing New Product". The Design Journal. 22 (3): 299–324. doi:10.1080/14606925.2019.1592324. S2CID 145931864.
  13. ^ Schlagwein, Daniel; Bjørn-Andersen, Niels (2014), "Organizational Learning with Crowdsourcing: The Revelatory Case of Lego" (PDF), Journal of the Association for Information Systems, 15 (11): 754–778, doi:10.17705/1jais.00380, S2CID 14811856
  14. ^ Taeihagh, Araz (19 June 2017). "Crowdsourcing, Sharing Economies, and Development". Journal of Developing Societies. 33 (2): 0169796X1771007. arXiv:1707.06603. doi:10.1177/0169796x17710072. S2CID 32008949.
  15. ^ a b c Howe, Jeff (2006). "The Rise of Crowdsourcing". Wired.
  16. ^ "crowdsourcing (noun)". Oxford English Dictionary. 2023. Retrieved 3 January 2024.
  17. ^ "crowdsourcing (noun)". Merriam-Webster. 2024. Retrieved 3 January 2024.
  18. ^ a b c d e Brabham, Daren (2008), "Crowdsourcing as a Model for Problem Solving: An Introduction and Cases" (PDF), Convergence: The International Journal of Research into New Media Technologies, 14 (1): 75–90, CiteSeerX 10.1.1.175.1623, doi:10.1177/1354856507084420, S2CID 145310730, archived from the original (PDF) on 2 August 2012
  19. ^ a b Guth, Kristen L.; Brabham, Daren C. (4 August 2017). "Finding the diamond in the rough: Exploring communication and platform in crowdsourcing performance". Communication Monographs. 84 (4): 510–533. doi:10.1080/03637751.2017.1359748. S2CID 54045924.
  20. ^ a b Wei, Zhudeng; Fang, Xiuqi; Yin, Jun (October 2018). "Comparison of climatic impacts transmission from temperature to grain harvests and economies between the Han (206 BC–AD 220) and Tang (AD 618–907) dynasties". The Holocene. 28 (10): 1606. Bibcode:2018Holoc..28.1598W. doi:10.1177/0959683618782592. S2CID 134577720.
  21. ^ O'Connor, J. J.; Robertson, E. F. (February 1997). "Longitude and the Académie Royale". University of St. Andrews. Retrieved 20 January 2024.
  22. ^ a b c d e f g h "A Brief History of Crowdsourcing [Infographic]". Crowdsourcing.org. 18 March 2012. Archived from the original on 3 July 2015. Retrieved 2 July 2015.{{cite web}}: CS1 maint: unfit URL (link)
  23. ^ Hern, Chester G.(2002). Tracks in the Sea, p. 123 & 246. McGraw Hill. ISBN 0-07-136826-4.
  24. ^ "Smithsonian Crowdsourcing Since 1849". Smithsonian Institution Archives. 14 April 2011. Retrieved 24 August 2018.
  25. ^ Clark, Catherine E. (25 April 1970). "'C'était Paris en 1970'". Études Photographiques (31). Retrieved 2 July 2015.
  26. ^ Axelrod R. (1980), "'Effective choice in the Prisoner's Dilemma'", Journal of Conflict Resolution, 24 (1): 3–25, doi:10.1177/002200278002400101, S2CID 143112198
  27. ^ "SETI@home". University of California. Retrieved 20 January 2024.
  28. ^ Brabham, Daren C.; Ribisl, Kurt M.; Kirchner, Thomas R.; Bernhardt, Jay M. (1 February 2014). "Crowdsourcing Applications for Public Health". American Journal of Preventive Medicine. 46 (2): 179–187. doi:10.1016/j.amepre.2013.10.016. PMID 24439353. S2CID 205436420.
  29. ^ "UNV Online Volunteering Service | History". Onlinevolunteering.org. Archived from the original on 2 July 2015. Retrieved 2 July 2015.
  30. ^ "Wired 14.06: The Rise of Crowdsourcing". Archive.wired.com. 4 January 2009. Retrieved 2 July 2015.
  31. ^ Lih, Andrew (2009). The Wikipedia revolution: how a bunch of nobodies created the world's greatest encyclopedia (1st ed.). New York: Hyperion. ISBN 978-1401303716.
  32. ^ Lakhani KR, Garvin DA, Lonstein E (January 2010). "TopCoder (A): Developing Software through Crowdsourcing". Harvard Business School Case: 610–032.
  33. ^ Phadnisi, Shilpa (21 October 2016). "Appirio's TopCoder too is a big catch for Wipro". The Times of India. Retrieved 30 April 2018.
  34. ^ a b Lardinois, F. (9 August 2014). "For The Love Of Open Mapping Data". Yahoo. Retrieved 20 January 2024.
  35. ^ a b "Crowdsourcing Back-Up Timeline Early Stories". Archived from the original on 29 November 2014.[better source needed]
  36. ^ "Amazon Mechanical Turk". www.mturk.com. Retrieved 25 November 2022.
  37. ^ Ohanian, A. (5 December 2006). "reddit on June23-05". Flickr. Retrieved 20 January 2024.
  38. ^ "Waze". Waze Mobile. 2009. Retrieved 20 January 2024.
  39. ^ Sengupta, S. (13 August 2013). "Potent Memories From a Divided India". New York Times. Retrieved 20 January 2024.
  40. ^ Garrigos-Simon, Fernando J.; Gil-Pechuán, Ignacio; Estelles-Miguel, Sofia (2015). Advances in Crowdsourcing. Springer. ISBN 9783319183411.
  41. ^ "Antoine-Jean-Baptiste-Robert Auget, Baron de Montyon". New Advent. Retrieved 25 February 2012.
  42. ^ "It Was All About Alkali". Chemistry Chronicles. Retrieved 25 February 2012.
  43. ^ "Nicolas Appert". John Blamire. Retrieved 25 February 2012.
  44. ^ "9 Examples of Crowdsourcing, Before 'Crowdsourcing' Existed". MemeBurn. 15 September 2011. Retrieved 25 February 2012.
  45. ^ Pande, Shamni (25 May 2013). "The People Know Best". Business Today. India: Living Media India Limited.
  46. ^ Noveck, Beth Simone (2009), Wiki Government: How Technology Can Make Government Better, Democracy Stronger, and Citizens More Powerful, Brookings Institution Press
  47. ^ Sarasua, Cristina; Simperl, Elena; Noy, Natalya F. (2012), "Crowdsourcing Ontology Alignment with Microtasks" (PDF), Institute AIFB. Karlsruhe Institute of Technology: 2, archived from the original (PDF) on 5 March 2016, retrieved 18 September 2021
  48. ^ Hollow, Matthew (20 April 2013). "Crowdfunding and Civic Society in Europe: A Profitable Partnership?". Open Citizenship. Retrieved 29 April 2013.
  49. ^ Federal Transit Administration Public Transportation Participation Pilot Program, U.S. Department of Transportation, archived from the original on 7 January 2009
  50. ^ Peer-to-Patent Community Patent Review Project, Peer-to-Patent Community Patent Review Project
  51. ^ Callison-Burch, C.; Dredze, M. (2010), "Creating Speech and Language Data With Amazon's Mechanical Turk" (PDF), Human Language Technologies Conference: 1–12, archived from the original (PDF) on 2 August 2012, retrieved 28 February 2012
  52. ^ McGraw, I.; Seneff, S. (2011), "Growing a spoken language interface on Amazon Mechanical Turk", Interspeech 2011 (PDF), pp. 3057–3060, doi:10.21437/Interspeech.2011-765
  53. ^ a b Kittur, A.; Chi, E.H.; Sun, B. (2008), "Crowdsourcing user studies with Mechanical Turk" (PDF), Chi 2008
  54. ^ a b c d Litman, Leib; Robinson, Jonathan (2020). Conducting Online Research on Amazon Mechanical Turk and Beyond. SAGE Publications. ISBN 978-1506391137.
  55. ^ a b c Mason, W.; Suri, S. (2010), "Conducting Behavioral Research on Amazon's Mechanical Turk", Behavior Research Methods, SSRN 1691163
  56. ^ Koblin, A. (2009). "The sheep market". Proceedings of the seventh ACM conference on Creativity and cognition. pp. 451–452. doi:10.1145/1640233.1640348. ISBN 9781605588650. S2CID 20609292.
  57. ^ "explodingdog 2015". Explodingdog.com. Retrieved 2 July 2015.
  58. ^ DeVun, Leah (19 November 2009). "Looking at how crowds produce and present art". Wired News. Archived from the original on 24 October 2012. Retrieved 26 February 2012.
  59. ^ Linver, D. (2010), Crowdsourcing and the Evolving Relationship between Art and Artist, archived from the original on 14 July 2014, retrieved 28 February 2012{{citation}}: CS1 maint: unfit URL (link)
  60. ^ "Why". INRIX.com. 13 September 2014. Archived from the original on 12 October 2014. Retrieved 2 July 2015.
  61. ^ Wang, Cheng; Han, Larry; Stein, Gabriella; Day, Suzanne; Bien-Gund, Cedric; Mathews, Allison; Ong, Jason J.; Zhao, Pei-Zhen; Wei, Shu-Fang; Walker, Jennifer; Chou, Roger; Lee, Amy; Chen, Angela; Bayus, Barry; Tucker, Joseph D. (20 January 2020). "Crowdsourcing in health and medical research: a systematic review". Infectious Diseases of Poverty. 9 (1): 8. doi:10.1186/s40249-020-0622-9. ISSN 2049-9957. PMC 6971908. PMID 31959234.
  62. ^ Hildebrand, Mikaela; Ahumada, Claudia; Watson, Sharon (January 2013). "CrowdOutAIDS: crowdsourcing youth perspectives for action". Reproductive Health Matters. 21 (41): 57–68. doi:10.1016/S0968-8080(13)41687-7. ISSN 0968-8080. PMID 23684188. S2CID 31888826.
  63. ^ Feng, Steve; Woo, Min-jae; Kim, Hannah; Kim, Eunso; Ki, Sojung; Shao, Lei; Ozcan, Aydogan (11 March 2016). Levitz, David; Ozcan, Aydogan; Erickson, David (eds.). "A game-based crowdsourcing platform for rapidly training middle and high school students to perform biomedical image analysis". Optics and Biophotonics in Low-Resource Settings II. 9699. SPIE: 92–100. Bibcode:2016SPIE.9699E..0TF. doi:10.1117/12.2212310. S2CID 124343732.
  64. ^ a b Lee, Young Ji; Arida, Janet A.; Donovan, Heidi S. (November 2017). "The application of crowdsourcing approaches to cancer research: a systematic review". Cancer Medicine. 6 (11): 2595–2605. doi:10.1002/cam4.1165. ISSN 2045-7634. PMC 5673951. PMID 28960834.
  65. ^ Vergano, Dan (30 August 2014). "1833 Meteor Storm Started Citizen Science". National Geographic. StarStruck. Archived from the original on 16 September 2014. Retrieved 18 September 2014.
  66. ^ Littmann, Mark; Suomela, Todd (June 2014). "Crowdsourcing, the great meteor storm of 1833, and the founding of meteor science". Endeavour. 38 (2): 130–138. doi:10.1016/j.endeavour.2014.03.002. PMID 24917173.
  67. ^ "Gateway to Astronaut Photography of Earth". NASA.
  68. ^ McLaughlin, Elliot. "Image Overload: Help us sort it all out, NASA requests". CNN. Retrieved 18 September 2014.
  69. ^ Liu, Huiying; Xie, Qian Wen; Lou, Vivian W. Q. (1 April 2019). "Everyday social interactions and intra-individual variability in affect: A systematic review and meta-analysis of ecological momentary assessment studies". Motivation and Emotion. 43 (2): 339–353. doi:10.1007/s11031-018-9735-x. S2CID 254827087.
  70. ^ Luong, Raymond; Lomanowska, Anna M. (2021). "Evaluating Reddit as a Crowdsourcing Platform for Psychology Research Projects". Teaching of Psychology. 49 (4): 329–337. doi:10.1177/00986283211020739. S2CID 236414676.
  71. ^ Brown, Joshua K.; Hohman, Zachary P. (2022). "Extreme party animals: Effects of political identification and ideological extremity". Journal of Applied Social Psychology. 52 (5): 351–362. doi:10.1111/jasp.12863. S2CID 247077069.
  72. ^ Vaterlaus, J. Mitchell; Patten, Emily V.; Spruance, Lori A. (26 May 2022). "#Alonetogether:: An Exploratory Study of Social Media Use at the Beginning of the COVID-19 Pandemic". The Journal of Social Media in Society. 11 (1): 27–45.
  73. ^ Després, Jacques; Hadjsaid, Nouredine; Criqui, Patrick; Noirot, Isabelle (1 February 2015). "Modelling the impacts of variable renewable sources on the power sector: reconsidering the typology of energy modelling tools". Energy. 80: 486–495. Bibcode:2015Ene....80..486D. doi:10.1016/j.energy.2014.12.005.
  74. ^ "OpenEI — Energy Information, Data, and other Resources". OpenEI. Retrieved 26 September 2016.
  75. ^ Garvin, Peggy (12 December 2009). "New Gateway: Open Energy Info". SLA Government Information Division. Dayton, Ohio, USA. Retrieved 26 September 2016.[permanent dead link]
  76. ^ Brodt-Giles, Debbie (2012). WREF 2012: OpenEI — an open energy data and information exchange for international audiences (PDF). Golden, Colorado, USA: National Renewable Energy Laboratory (NREL). Archived from the original (PDF) on 9 October 2016. Retrieved 24 September 2016.
  77. ^ Davis, Chris; Chmieliauskas, Alfredas; Dijkema, Gerard; Nikolic, Igor. "Enipedia". Delft, The Netherlands: Energy and Industry group, Faculty of Technology, Policy and Management, TU Delft. Archived from the original on 10 June 2014. Retrieved 7 October 2016.{{cite web}}: CS1 maint: unfit URL (link)
  78. ^ Davis, Chris (2012). Making sense of open data: from raw data to actionable insight — PhD thesis. Delft, The Netherlands: Delft University of Technology. Retrieved 2 October 2018.Chapter 9 discusses in depth the initial development of Enipedia.
  79. ^ "What Is the Four-Generation Program?". The Church of Jesus Christ of Latter-day Saints. Retrieved 30 January 2012.
  80. ^ King, Turi E.; Jobling, Mark A. (2009). "What's in a name? Y chromosomes, surnames and the genetic genealogy revolution". Trends in Genetics. 25 (8): 351–60. doi:10.1016/j.tig.2009.06.003. hdl:2381/8106. PMID 19665817. The International Society of Genetic Genealogy (http://www.isogg.org) advocates the use of genetics as a tool for genealogical research, and provides a support network for genetic genealogists. It hosts the ISOGG Y-haplogroup tree, which has the virtue of being regularly updated.
  81. ^ Mendex, etc. al., Fernando (28 February 2013). "An African American Paternal Lineage Adds an Extremely Ancient Root to the Human Y Chromosome Phylogenetic Tree". The American Journal of Human Genetics. 92 (3): 454–459. doi:10.1016/j.ajhg.2013.02.002. PMC 3591855. PMID 23453668.
  82. ^ Wells, Spencer (2013). "The Genographic Project and the Rise of Citizen Science". Southern California Genealogical Society (SCGS). Archived from the original on 10 July 2013. Retrieved 10 July 2013.
  83. ^ "History of the Christmas Bird Count | Audubon". Birds.audubon.org. 22 January 2015. Retrieved 2 July 2015.
  84. ^ "Thank you!". Audubon. 5 October 2017. Archived from the original on 24 August 2014.
  85. ^ "Home – ISCRAM2015 – University of Agder" (PDF). iscram2015.uia.no. Archived from the original (PDF) on 17 October 2016. Retrieved 14 October 2016.
  86. ^ Aitamurto, Tanja (2015). "Motivation Factors in Crowdsourced Journalism: Social Impact, Social Change and Peer-Learning". International Journal of Communication. 9: 3523–3543.
  87. ^ Aitamurto, Tanja (2016). "Crowdsourcing as a Knowledge-Search Method in Digital Journalism: Ruptured Ideals and Blended Responsibility". Digital Journalism. 4 (2): 280–297. doi:10.1080/21670811.2015.1034807. S2CID 156243124.
  88. ^ Aitamurto, Tanja (2013). "Balancing between open and closed: co-creation in magazine journalism". Digital Journalism. 1 (2): 229–251. doi:10.1080/21670811.2012.750150. S2CID 62882093.
  89. ^ "Algorithm Watch". Algorithm Watch. 2022. Retrieved 18 May 2022.
  90. ^ "Overview in English". DataSkop. 2022. Retrieved 18 May 2022.
  91. ^ "FAQs". Mozilla Rally. Archived from the original on 14 March 2023. Retrieved 14 March 2023. Mozilla Rally is currently available to US residents who are age 19 and older
  92. ^ "It's your data. Use it for change". Mozilla Rally. Retrieved 14 March 2023.
  93. ^ Angus, Daniel (16 February 2022). "A data economy: the case for doing and knowing more about algorithms". Crikey. Retrieved 24 March 2022.
  94. ^ Burgess, Jean; Angus, Daniel; Carah, Nicholas; Andrejevic, Mark; Hawker, Kiah; Lewis, Kelly; Obeid, Abdul; Smith, Adam; Tan, Jane; Fordyce, Robbie; Trott, Verity (8 November 2021). "Critical simulation as hybrid digital method for exploring the data operations and vernacular cultures of visual social media platforms". SocArXiv. doi:10.31235/osf.io/2cwsu. S2CID 243837581.
  95. ^ The Markup (2022). "The Citizen Browser Project—Auditing the Algorithms of Disinformation". The Markup. Retrieved 18 May 2022.
  96. ^ Pretus, Clara; Gil-Buitrago, Helena; Cisma, Irene; Hendricks, Rosamunde C.; Lizarazo-Villarreal, Daniela (16 July 2024). "Scaling crowdsourcing interventions to combat partisan misinformation". Advances.in/Psychology. 2: e85592. doi:10.56296/aip00018. ISSN 2976-937X.
  97. ^ Allen, Jennifer; Arechar, Antonio A.; Pennycook, Gordon; Rand, David G. (3 September 2021). "Scaling up fact-checking using the wisdom of crowds". Science Advances. 7 (36): eabf4393. Bibcode:2021SciA....7.4393A. doi:10.1126/sciadv.abf4393. ISSN 2375-2548. PMC 8442902. PMID 34516925.
  98. ^ Smith, Graham; Richards, Robert C.; Gastil, John (12 May 2015). "The Potential ofParticipediaas a Crowdsourcing Tool for Comparative Analysis of Democratic Innovations" (PDF). Policy & Internet. 7 (2): 243–262. doi:10.1002/poi3.93.
  99. ^ Moon, M. Jae (2018). "Evolution of co-production in the information age: crowdsourcing as a model of web-based co-production in Korea". Policy and Society. 37 (3): 294–309. doi:10.1080/14494035.2017.1376475. S2CID 158440300.
  100. ^ Taeihagh, Araz (8 November 2017). "Crowdsourcing: a new tool for policy-making?". Policy Sciences. 50 (4): 629–647. arXiv:1802.03113. doi:10.1007/s11077-017-9303-3. S2CID 27696037.
  101. ^ Diamond, Larry; Whittington, Zak (2009). "Social Media". In Welzel, Christian; Haerpfer, Christian W.; Bernhagen, Patrick; Inglehart, Ronald F. (eds.). Democratization (2 ed.). Oxford: Oxford University Press (published 2018). p. 256. ISBN 9780198732280. Retrieved 4 March 2021. Another way that social media can contribute to democratization is by 'crowdsourcing' information. This elicits the knowledge and wisdom of the 'crowd' [...].
  102. ^ Aitamurto, Tanja (2012). Crowdsourcing for Democracy: New Era In Policy–Making. Committee for the Future, Parliament of Finland. pp. 10–30. ISBN 978-951-53-3459-6.
  103. ^ Prpić, J.; Taeihagh, A.; Melton, J. (2014). "Crowdsourcing the Policy Cycle. Collective Intelligence 2014, MIT Center for Collective Intelligence" (PDF). Humancomputation.com. Archived from the original (PDF) on 24 June 2015. Retrieved 2 July 2015.
  104. ^ Prpić, J.; Taeihagh, A.; Melton, J. (2014). "A Framework for Policy Crowdsourcing. Oxford Internet Institute, University of Oxford – IPP 2014 – Crowdsourcing for Politics and Policy" (PDF). Ipp.oxii.ox.ac.uk. Retrieved 2 October 2018.
  105. ^ Prpić, J.; Taeihagh, A.; Melton, J. (2014). "Experiments on Crowdsourcing Policy Assessment. Oxford Internet Institute, University of Oxford – IPP 2014 – Crowdsourcing for Politics and Policy" (PDF). Ipp.oii.ox.ac.uk. Archived from the original (PDF) on 24 June 2015. Retrieved 2 July 2015.
  106. ^ Thapa, B.; Niehaves, B.; Seidel, C.; Plattfaut, R. (2015). "Citizen involvement in public sector innovation: Government and citizen perspectives". Information Polity. 20 (1): 3–17. doi:10.3233/IP-150351.
  107. ^ Aitamurto and Landemore (4 February 2015). "Five design principles for crowdsourced policymaking: Assessing the case of crowdsourced off-road traffic law reform in Finland". Journal of Social Media for Organizations (1): 1–19.
  108. ^ a b c Aitamurto, Tanja; Landemore, Hélène; Saldivar Galli, Jorge (2016). "Unmasking the Crowd: Participants' Motivation Factors, Profile and Expectations for Participation in Crowdsourced Policymaking". Information, Communication & Society. 20 (8): 1239–1260. doi:10.1080/1369118x.2016.1228993. S2CID 151989757.
  109. ^ "Making Sense of Crowdsourced Civic Data with Big Data Tools". ACM Digital Archive: Academic Mindtrek. 2016. doi:10.1145/2994310.2994366. S2CID 16855773 – via ACM Digital Archive.
  110. ^ a b c Aitamurto, Tanja (31 January 2015). Crowdsourcing for Democracy: New Era in Policymaking. Committee for the Future, Parliament of Finland. ISBN 978-951-53-3459-6.
  111. ^ "Home". challenge.gov.
  112. ^ Nussbaum, Stan. (2003). Proverbial perspectives on pluralism. Connections: the journal of the WEA Missions Committee October, pp. 30, 31.
  113. ^ "Oromo dictionary project". OromoDictionary.com. Retrieved 3 February 2014.
  114. ^ Albright, Eric; Hatton, John (2007). Chapter 10. WeSay, a Tool for Engaging Native Speakers in Dictionary Building. Natl Foreign Lg Resource Ctr. hdl:10125/1368. ISBN 978-0-8248-3309-1.
  115. ^ "Developing ASL vocabulary for science and math". Washington.edu. 7 December 2012. Retrieved 3 February 2014.
  116. ^ Keuleers; et al. (February 2015). "Word knowledge in the crowd: Measuring vocabulary size and word prevalence in a massive online experiment". Quarterly Journal of Experimental Psychology. 68 (8): 1665–1692. doi:10.1080/17470218.2015.1022560. PMID 25715025. S2CID 4894686.
  117. ^ a b Bill, Jeremiah; Gong, He; Hamilton, Brooke; Hawthorn, Henry; et al. "The extension of (positive) anymore". Google Docs. Retrieved 27 September 2020.
  118. ^ "Pashto Proverb Collection project". AfghanProverbs.com. Archived from the original on 4 February 2014. Retrieved 3 February 2014.
  119. ^ "Comparing methods of collecting proverbs" (PDF). gial.edu. Archived from the original (PDF) on 17 December 2014. Retrieved 17 December 2014.
  120. ^ Edward Zellem. 2014. Mataluna: 151 Afghan Pashto Proverbs. Tampa, Florida: Culture Direct.
  121. ^ Zhai, Haijun; Lingren, Todd; Deleger, Louise; Li, Qi; Kaiser, Megan; Stoutenborough, Laura; Solti, Imre (2013). "Web 2.0-based crowdsourcing for high-quality gold standard development in clinical Natural Language Processing". Journal of Medical Internet Research. 15 (4): e73. doi:10.2196/jmir.2426. PMC 3636329. PMID 23548263.
  122. ^ Martin, Fred; Resnick, Mitchel (1993), "Lego/Logo and Electronic Bricks: Creating a Scienceland for Children", Advanced Educational Technologies for Mathematics and Science, Berlin, Heidelberg: Springer Berlin Heidelberg, pp. 61–89, doi:10.1007/978-3-662-02938-1_2, ISBN 978-3-642-08152-1
  123. ^ Nishikawa, Hidehiko; Schreier, Martin; Fuchs, Christoph; Ogawa, Susumu (August 2017). "The Value of Marketing Crowdsourced New Products as Such: Evidence from Two Randomized Field Experiments". Journal of Marketing Research. 54 (4): 525–539. doi:10.1509/jmr.15.0244. ISSN 0022-2437.
  124. ^ Reinhold, Stephan; Dolnicar, Sara (December 2017), "How Airbnb Creates Value", Peer-to-Peer Accommodation Networks, Goodfellow Publishers, doi:10.23912/9781911396512-3602, ISBN 9781911396512
  125. ^ "Prime Panels by CloudResearch | Online Research Panel Recruitment". CloudResearch. Retrieved 12 January 2023.
  126. ^ Nunan, Daniel; Birks, David F.; Malhotra, Naresh K. (2020). Marketing research : applied insight (6th ed.). Harlow, United Kingdom: Pearson. ISBN 978-1-292-30872-2. OCLC 1128061550.
  127. ^ Parker, Christopher J.; May, Andrew; Mitchell, Val (November 2013). "The role of VGI and PGI in supporting outdoor activities". Applied Ergonomics. 44 (6): 886–894. doi:10.1016/j.apergo.2012.04.013. PMID 22795180. S2CID 12918341.
  128. ^ Parker, Christopher J.; May, Andrew; Mitchell, Val (15 May 2014). "User-centred design of neogeography: the impact of volunteered geographic information on users' perceptions of online map 'mashups'". Ergonomics. 57 (7): 987–997. doi:10.1080/00140139.2014.909950. PMID 24827070. S2CID 13458260.
  129. ^ Brown, Michael; Sharples, Sarah; Harding, Jenny; Parker, Christopher J. (November 2013). "Usability of Geographic Information: Current challenges and future directions" (PDF). Applied Ergonomics. 44 (6): 855–865. doi:10.1016/j.apergo.2012.10.013. PMID 23177775. S2CID 26412254. Archived from the original (PDF) on 19 July 2018. Retrieved 20 August 2019.
  130. ^ Parker, Christopher J.; May, Andrew; Mitchell, Val (August 2012). "Understanding Design with VGI using an Information Relevance Framework". Transactions in GIS. 16 (4): 545–560. Bibcode:2012TrGIS..16..545P. doi:10.1111/j.1467-9671.2012.01302.x. S2CID 20100267.
  131. ^ Holley, Rose (March 2010). "Crowdsourcing: How and Why Should Libraries Do It?". D-Lib Magazine. 16 (3/4). doi:10.1045/march2010-holley. Retrieved 21 May 2021.
  132. ^ Trant, Jennifer (2009). Tagging, Folksonomy and Art Museums: Results of steve.museum's research (PDF). Archives & Museum Informatics. Archived from the original (PDF) on 10 February 2010. Retrieved 21 May 2021.
  133. ^ Andro, M. (2018). Digital libraries and crowdsourcing, Wiley / ISTE. ISBN 9781786301611.
  134. ^ Rahman, Mahbubur; Blackwell, Brenna; Banerjee, Nilanjan; Dharmendra, Saraswat (2015), "Smartphone-based hierarchical crowdsourcing for weed identification", Computers and Electronics in Agriculture, 113: 14–23, Bibcode:2015CEAgr.113...14R, doi:10.1016/j.compag.2014.12.012, retrieved 12 August 2015
  135. ^ "2015 Cheating Scandal". Bridge Winners. 2015. Retrieved 20 January 2024.
  136. ^ Tang, Weiming; Han, Larry; Best, John; Zhang, Ye; Mollan, Katie; Kim, Julie; Liu, Fengying; Hudgens, Michael; Bayus, Barry (1 June 2016). "Crowdsourcing HIV Test Promotion Videos: A Noninferiority Randomized Controlled Trial in China". Clinical Infectious Diseases. 62 (11): 1436–1442. doi:10.1093/cid/ciw171. PMC 4872295. PMID 27129465.
  137. ^ a b Zhang, Ye; Kim, Julie A.; Liu, Fengying; Tso, Lai Sze; Tang, Weiming; Wei, Chongyi; Bayus, Barry L.; Tucker, Joseph D. (November 2015). "Creative Contributory Contests to Spur Innovation in Sexual Health: 2 Cases and a Guide for Implementation". Sexually Transmitted Diseases. 42 (11): 625–628. doi:10.1097/OLQ.0000000000000349. PMC 4610177. PMID 26462186.
  138. ^ Créquit, Perrine (2018). "Mapping of Crowdsourcing in Health: Systematic Review". Journal of Medical Internet Research. 20 (5): e187. doi:10.2196/jmir.9330. PMC 5974463. PMID 29764795.
  139. ^ van der Krieke; et al. (2015). "HowNutsAreTheDutch (HoeGekIsNL): A crowdsourcing study of mental symptoms and strengths" (PDF). International Journal of Methods in Psychiatric Research. 25 (2): 123–144. doi:10.1002/mpr.1495. PMC 6877205. PMID 26395198. Archived from the original (PDF) on 2 August 2019. Retrieved 26 December 2018.
  140. ^ Prpić, J. (2015). Health Care Crowds: Collective Intelligence in Public Health. Collective Intelligence 2015. Center for the Study of Complex Systems, University of Michigan. Papers.ssrn.com. SSRN 2570593.
  141. ^ a b van der Krieke, L; Blaauw, FJ; Emerencia, AC; Schenk, HM; Slaets, JP; Bos, EH; de Jonge, P; Jeronimus, BF (2016). "Temporal Dynamics of Health and Well-Being: A Crowdsourcing Approach to Momentary Assessments and Automated Generation of Personalized Feedback (2016)" (PDF). Psychosomatic Medicine. 79 (2): 213–223. doi:10.1097/PSY.0000000000000378. PMID 27551988. S2CID 10955232.
  142. ^ Ess, Henk van (2010) "Crowdsourcing: how to find a crowd", ARD ZDF Akademie, Berlin, p. 99
  143. ^ a b c Doan, A.; Ramarkrishnan, R.; Halevy, A. (2011), "Crowdsourcing Systems on the World Wide Web" (PDF), Communications of the ACM, 54 (4): 86–96, doi:10.1145/1924421.1924442, S2CID 207184672
  144. ^ Brabham, Daren C. (2013), Crowdsourcing, MIT Press, p. 45
  145. ^ Blohm, Ivo; Zogaj, Shkodran; Bretschneider, Ulrich; Leimeister, Jan Marco (2018). "How to Manage Crowdsourcing Platforms Effectively" (PDF). California Management Review. 60 (2): 122–149. doi:10.1177/0008125617738255. S2CID 73551209. Archived from the original (PDF) on 20 July 2018. Retrieved 24 August 2020.
  146. ^ Howe, Jeff (2008), Crowdsourcing: Why the Power of the Crowd is Driving the Future of Business (PDF), The International Achievement Institute, archived from the original (PDF) on 23 September 2015, retrieved 9 April 2012
  147. ^ "Crowdvoting: How Elo Limits Disruption". thevisionlab.com. 25 May 2017.
  148. ^ Robson, John (24 February 2012). "IEM Demonstrates the Political Wisdom of Crowds". Canoe.ca. Archived from the original on 7 April 2012. Retrieved 31 March 2012.
  149. ^ "4 Great Examples of Crowdsourcing through Social Media". digitalagencymarketing.com. 2012. Archived from the original on 1 April 2012. Retrieved 29 March 2012.
  150. ^ Goldberg, Ken; Newsom, Gavin (12 June 2014). "Let's amplify California's collective intelligence". Citris-uc.org. Retrieved 14 June 2014.
  151. ^ Escoffier, N. and B. McKelvey (2014). "Using "Crowd-Wisdom Strategy" to Co-Create Market Value: Proof-of-Concept from the Movie Industry." in International Perspective on Business Innovation and Disruption in the Creative Industries: Film, Video, Photography, P. Wikstrom and R. DeFillippi, eds., UK: Edward Elgar Publishing Ltd, Chap. 11. ISBN 9781783475339
  152. ^ Block, A. B. (21 April 2010). "How boxoffice trading could flop". The Hollywood Reporter.
  153. ^ Chen, A. and Panaligan, R. (2013). "Quantifying movie magic with Google search." Google White Paper, Industry Perspectives+User Insights
  154. ^ Williams, Jack (17 February 2017). "An Indoor Football Team Has Its Fans Call the Plays". The New York Times. ISSN 0362-4331. Retrieved 7 February 2018.
  155. ^ Prive, Tanya. "What Is Crowdfunding And How Does It Benefit The Economy". Forbes.com. Retrieved 2 July 2015.
  156. ^ Choy, Katherine; Schlagwein, Daniel (2016), "Crowdsourcing for a better world: On the relation between IT affordances and donor motivations in charitable crowdfunding", Information Technology & People, 29 (1): 221–247, doi:10.1108/ITP-09-2014-0215, S2CID 12352130
  157. ^ Barnett, Chance. "Crowdfunding Sites In 2014". Forbes.com. Retrieved 2 July 2015.
  158. ^ a b c Agrawal, Ajay; Catalini, Christian; Goldfarb, Avi (2014). "Some Simple Economics of Crowdfunding" (PDF). Innovation Policy and the Economy. 14. University of Chicago Press: 63–97. doi:10.1086/674021. hdl:1721.1/108043. ISSN 1531-3468. S2CID 16085029.
  159. ^ Leimeister, J.M.; Huber, M.; Bretschneider, U.; Krcmar, H. (2009), "Leveraging Crowdsourcing: Activation-Supporting Components for IT-Based Ideas Competition", Journal of Management Information Systems, 26 (1): 197–224, doi:10.2753/mis0742-1222260108, S2CID 17485373
  160. ^ Ebner, W.; Leimeister, J.; Krcmar, H. (September 2009). "Community Engineering for Innovations: The Ideas Competition as a Method to Nurture a Virtual Community for Innovations". R&D Management. 39 (4): 342–356. doi:10.1111/j.1467-9310.2009.00564.x. Retrieved 20 January 2024.
  161. ^ "DARPA Network Challenge". DARPA Network Challenge. Archived from the original on 11 August 2011. Retrieved 28 November 2011.
  162. ^ "Social media web snares 'criminals'". New Scientist. Retrieved 4 April 2012.
  163. ^ "Beyond XPrize: The 10 Best Crowdsourcing Tools and Technologies". 20 February 2012. Retrieved 30 March 2012.
  164. ^ Cunard, C. (19 July 2010). "The Movie Research Experience gets audiences involved in filmmaking." The Daily Bruin
  165. ^ MacArthur, Kate. "Squadhelp wants your company to crowdsource better names (and avoid Boaty McBoatface)". chicagotribune.com. Retrieved 28 August 2017.
  166. ^ "Compete To Create Your Dream Home". FastCoexist.com. 4 June 2013. Retrieved 3 February 2014.
  167. ^ "Designers, clients forge ties on web". Boston Herald. 11 June 2012. Retrieved 3 February 2014.
  168. ^ Dolan, Shelagh, "Crowdsourced delivery explained: making same day shipping cheaper through local couriers.", Business Insider, archived from the original on 22 May 2018, retrieved 21 May 2018
  169. ^ Murison, Malek (19 April 2018), "LivingPackets uses IoT, crowdshipping to transform deliveries", Internet of Business, retrieved 19 April 2018
  170. ^ Biller, David; Sciaudone, Christina (19 June 2018), "Goldman Sachs, Soros Bet on the Uber of Brazilian Trucking", Bloomberg, retrieved 11 March 2019
  171. ^ Tyrsina, Radu, "Parcl Uses Trusted Forwarders to Bring you Products that don't Ship to your Country", Technology Personalised, archived from the original on 3 October 2015, retrieved 1 October 2015
  172. ^ Geiger D, Rosemann M, Fielt E. (2011) Crowdsourcing information systems: a systems theory perspective. Proceedings of the 22nd Australasian Conference on Information Systems.
  173. ^ Powell, D (2015). "A new tool for crowdsourcing". МИР (Модернизация. Инновации. Развитие). 6 (2-2 (22)). ISSN 2079-4665.
  174. ^ Yang, J.; Adamic, L.; Ackerman, M. (2008), "Crowdsourcing and knowledge sharing: Strategic user behavior on taskcn", Proceedings of the 9th ACM conference on Electronic commerce (PDF), pp. 246–255, doi:10.1145/1386790.1386829, ISBN 9781605581699, S2CID 15553154, archived from the original (PDF) on 29 July 2020, retrieved 28 February 2012
  175. ^ "Mobile Crowdsourcing". Clickworker. Retrieved 10 December 2014.
  176. ^ Thebault-Spieker, Jacob; Terveen, Loren G.; Hecht, Brent (28 February 2015). "Avoiding the South Side and the Suburbs". Proceedings of the 18th ACM Conference on Computer Supported Cooperative Work & Social Computing. New York, NY, USA: ACM. pp. 265–275. doi:10.1145/2675133.2675278. ISBN 9781450329224.
  177. ^ Chatzimiloudis, Konstantinidis & Laoudias, Zeinalipour-Yazti. Crowdsourcing with smartphones (PDF).
  178. ^ Arkian, Hamid Reza; Diyanat, Abolfazl; Pourkhalili, Atefe (2017). "MIST: Fog-based data analytics scheme with cost-efficient resource provisioning for IoT crowdsensing applications". Journal of Network and Computer Applications. 82: 152–165. doi:10.1016/j.jnca.2017.01.012.
  179. ^ Felstiner, Alek (August 2011). "Working the Crowd: Employment and Labor Law in the Crowdsourcing Industry" (PDF). Berkeley Journal of Employment & Labor Law. 32: 150–151 – via WTF.
  180. ^ "View of Crowdsourcing: Libertarian Panacea or Regulatory Nightmare?". online-shc.com. Retrieved 26 May 2017.[permanent dead link]
  181. ^ a b Ross, J.; Irani, L.; Silberman, M.S.; Zaldivar, A.; Tomlinson, B. (2010). "Who are the Crowdworkers? Shifting Demographics in Mechanical Turk" (PDF). Chi 2010. Archived from the original (PDF) on 1 April 2011. Retrieved 28 February 2012.
  182. ^ Huff, Connor; Tingley, Dustin (1 July 2015). ""Who are these people?" Evaluating the demographic characteristics and political preferences of MTurk survey respondents". Research & Politics. 2 (3): 205316801560464. doi:10.1177/2053168015604648. S2CID 7749084.
  183. ^ a b c d Moss, Aaron; Rosenzweig, Cheskie; Robinson, Jonathan; Jaffe, Shalom; Litman, Leib (2022). "Is it Ethical to Use Mechanical Turk for Behavioral Research? Relevant Data from a Representative Survey of MTurk Participants and Wages". psyarxiv.com. Retrieved 12 January 2023.
  184. ^ Levay, Kevin E.; Freese, Jeremy; Druckman, James N. (1 January 2016). "The Demographic and Political Composition of Mechanical Turk Samples". SAGE Open. 6 (1): 215824401663643. doi:10.1177/2158244016636433. S2CID 147299692.
  185. ^ Hirth, M.; Hoßfeld, T.; Train-Gia, P. (2011), Human Cloud as Emerging Internet Application – Anatomy of the Microworkers Crowdsourcing Platform (PDF)
  186. ^ a b c Brabham, Daren C. (2008). "Moving the Crowd at iStockphoto: The Composition of the Crowd and Motivations for Participation in a Crowdsourcing Application". First Monday. 13 (6). doi:10.5210/fm.v13i6.2159.
  187. ^ a b c Lakhani; et al. (2007). The Value of Openness in Scientific Problem Solving (PDF). Retrieved 26 February 2012.
  188. ^ Brabham, Daren C. (2012). "Managing Unexpected Publics Online: The Challenge of Targeting Specific Groups with the Wide-Reaching Tool of the Internet". International Journal of Communication. 6: 20.
  189. ^ a b Brabham, Daren C. (2010). "Moving the Crowd at Threadless: Motivations for Participation in a Crowdsourcing Application". Information, Communication & Society. 13 (8): 1122–1145. doi:10.1080/13691181003624090. S2CID 143402410.
  190. ^ a b Brabham, Daren C. (2012). "The Myth of Amateur Crowds: A Critical Discourse Analysis of Crowdsourcing Coverage". Information, Communication & Society. 15 (3): 394–410. doi:10.1080/1369118X.2011.641991. S2CID 145675154.
  191. ^ Saxton, Gregory D.; Oh, Onook; Kishore, Rajiv (2013). "Rules of Crowdsourcing: Models, Issues, and Systems of Control". Information Systems Management. 30: 2–20. CiteSeerX 10.1.1.300.8026. doi:10.1080/10580530.2013.739883. S2CID 16811686.
  192. ^ a b Aitamurto, Tanja (2015). "Motivation Factors in Crowdsourced Journalism: Social Impact, Social Change, and Peer Learning". International Journal of Communication. 9: 3523–3543.
  193. ^ a b Kaufmann, N.; Schulze, T.; Viet, D. (2011). "More than fun and money. Worker Motivation in Crowdsourcing – A Study on Mechanical Turk" (PDF). Proceedings of the Seventeenth Americas Conference on Information Systems. Archived from the original (PDF) on 27 February 2012.
  194. ^ Brabham, Daren C. (2012). "Motivations for Participation in a Crowdsourcing Application to Improve Public Engagement in Transit Planning". Journal of Applied Communication Research. 40 (3): 307–328. doi:10.1080/00909882.2012.693940. S2CID 144807388.
  195. ^ Lietsala, Katri; Joutsen, Atte (2007). "Hang-a-rounds and True Believers: A Case Analysis of the Roles and Motivational Factors of the Star Wreck Fans". MindTrek 2007 Conference Proceedings.
  196. ^ "State of the World's Volunteerism Report 2011" (PDF). Unv.org. Archived from the original (PDF) on 2 December 2014. Retrieved 1 July 2015.
  197. ^ Chandler, D.; Kapelner, A. (2010). "Breaking Monotony with Meaning: Motivation in Crowdsourcing Markets" (PDF). Journal of Economic Behavior & Organization. 90: 123–133. arXiv:1210.0962. doi:10.1016/j.jebo.2013.03.003. S2CID 8563262.
  198. ^ Aparicio, M.; Costa, C.; Braga, A. (2012). "Proposing a system to support crowdsourcing". Proceedings of the Workshop on Open Source and Design of Communication (PDF). pp. 13–17. doi:10.1145/2316936.2316940. ISBN 9781450315258. S2CID 16494503.
  199. ^ Ipeirotis, Panagiotis G. (10 March 2010). Demographics of Mechanical Turk.
  200. ^ Ross, Joel; Irani, Lilly; Silberman, M. Six; Zaldivar, Andrew; Tomlinson, Bill (10 April 2010). "Who are the crowdworkers?". CHI '10 Extended Abstracts on Human Factors in Computing Systems. CHI EA '10. New York, USA: Association for Computing Machinery. pp. 2863–2872. doi:10.1145/1753846.1753873. ISBN 978-1-60558-930-5. S2CID 11386257.
  201. ^ Quinn, Alexander J.; Bederson, Benjamin B. (2011). "Human Computation:A Survey and Taxonomy of a Growing Field, CHI 2011 [Computer Human Interaction conference], May 7–12, 2011, Vancouver, BC, Canada" (PDF). Retrieved 30 June 2015.
  202. ^ a b Hauser, David J.; Moss, Aaron J.; Rosenzweig, Cheskie; Jaffe, Shalom N.; Robinson, Jonathan; Litman, Leib (3 November 2022). "Evaluating CloudResearch's Approved Group as a solution for problematic data quality on MTurk". Behavior Research Methods. 55 (8): 3953–3964. doi:10.3758/s13428-022-01999-x. PMC 10700412. PMID 36326997.
  203. ^ Prpić, J; Shukla, P.; Roth, Y.; Lemoine, J.F. (2015). "A Geography of Participation in IT-Mediated Crowds". Proceedings of the Hawaii International Conference on Systems Sciences 2015. SSRN 2494537.
  204. ^ "How Generative AI Can Augment Human Creativity". Harvard Business Review. 16 June 2023. ISSN 0017-8012. Retrieved 20 June 2023.
  205. ^ a b Borst, Irma. "The Case For and Against Crowdsourcing: Part 2". Archived from the original on 12 September 2015. Retrieved 9 February 2015.{{cite web}}: CS1 maint: unfit URL (link)
  206. ^ Ipeirotis; Provost; Wang (2010). Quality Management on Amazon Mechanical Turk (PDF). Archived from the original (PDF) on 9 August 2012. Retrieved 28 February 2012.
  207. ^ Lukyanenko, Roman; Parsons, Jeffrey; Wiersma, Yolanda (2014). "The IQ of the Crowd: Understanding and Improving Information Quality in Structured User-Generated Content". Information Systems Research. 25 (4): 669–689. doi:10.1287/isre.2014.0537.
  208. ^ Hauser, David; Paolacci, Gabriele; Chandler, Jesse, "Evidence and Solutions", Handbook of Research Methods in Consumer Psychology, doi:10.4324/9781351137713-17, ISBN 9781351137713, S2CID 150882624, retrieved 12 January 2023
  209. ^ a b Moss, Aaron J; Rosenzweig, Cheskie; Jaffe, Shalom Noach; Gautam, Richa; Robinson, Jonathan; Litman, Leib (11 June 2021). Bots or inattentive humans? Identifying sources of low-quality data in online platforms. doi:10.31234/osf.io/wr8ds. S2CID 236288817.
  210. ^ Goerzen, Thomas; Kundisch, Dennis (11 August 2016). "Can the Crowd Substitute Experts in Evaluation of Creative Ideas? An Experimental Study Using Business Models". AMCIS 2016 Proceedings.
  211. ^ Burnap, Alex; Ren, Alex J.; Papazoglou, Giannis; Gerth, Richard; Gonzalez, Richard; Papalambros, Panos. When Crowdsourcing Fails: A Study of Expertise on Crowdsourced Design Evaluation (PDF). Archived from the original (PDF) on 29 October 2015. Retrieved 19 May 2015.
  212. ^ Kurve, Aditya; Miller, David J.; Kesidis, George (30 May 2014). "Multicategory Crowdsourcing Accounting for Variable Task Difficulty, Worker Skill, and Worker Intention". IEEE Kde (99).
  213. ^ Hirth; Hoßfeld; Tran-Gia (2011), Human Cloud as Emerging Internet Application – Anatomy of the Microworkers Crowdsourcing Platform (PDF)
  214. ^ PhD, Aaron Moss (18 September 2018). "After the Bot Scare: Understanding What's Been Happening With Data Collection on MTurk and How to Stop It". CloudResearch. Retrieved 12 January 2023.
  215. ^ Ipeirotis, Panagiotis G. (2010). "Analyzing the Amazon Mechanical Turk Marketplace" (PDF). XRDS: Crossroads, the ACM Magazine for Students. 17 (2): 16–21. doi:10.1145/1869086.1869094. S2CID 6472586. SSRN 1688194. Retrieved 2 October 2018.
  216. ^ a b Hosaka, Tomoko A. (April 2008). "Facebook asks users to translate for free". NBC News.
  217. ^ Britt, Darice. "Crowdsourcing: The Debate Roars On". Archived from the original on 1 July 2014. Retrieved 4 December 2012.
  218. ^ Woods, Dan (28 September 2009). "The Myth of Crowdsourcing". Forbes. Retrieved 4 December 2012.
  219. ^ a b Aitamurto, Tanja; Leiponen, Aija. "The Promise of Idea Crowdsourcing: Benefits, Contexts, Limitations". Ideasproject.com. Retrieved 2 July 2015.
  220. ^ "International Translators Association Launched in Argentina". Latin American Herald Tribune. Archived from the original on 11 March 2021. Retrieved 23 November 2016.
  221. ^ Kleeman, Frank (2008). "Un(der)paid Innovators: The Commercial Utilization of Consumer Work through Crowdsourcing". Sti-studies.de. Retrieved 2 July 2015.
  222. ^ Jason (2011). "Crowdsourcing: A Million Heads is Better Than One". Crowdsourcing.org. Archived from the original on 3 July 2015. Retrieved 2 July 2015.{{cite web}}: CS1 maint: unfit URL (link)
  223. ^ Dupree, Steven (2014). "Crowdfunding 101: Pros and Cons". Gsb.stanford.edu. Retrieved 2 July 2015.
  224. ^ "Fair Labor Standards Act Advisor". Retrieved 28 February 2012.
  225. ^ Hara, Kotaro; Adams, Abigail; Milland, Kristy; Savage, Saiph; Callison-Burch, Chris; Bigham, Jeffrey P. (21 April 2018). "A Data-Driven Analysis of Workers' Earnings on Amazon Mechanical Turk". Proceedings of the 2018 CHI Conference on Human Factors in Computing Systems. New York, USA: ACM. pp. 1–14. doi:10.1145/3173574.3174023. ISBN 9781450356206. S2CID 5040507.
  226. ^ Greg Norcie, 2011, "Ethical and practical considerations for compensation of crowdsourced research participants", CHI WS on Ethics Logs and VideoTape: Ethics in Large Scale Trials & User Generated Content, [1][usurped], accessed 30 June 2015.
  227. ^ Busarovs, Aleksejs (2013). "Ethical Aspects of Crowdsourcing, or is it a Modern Form of Exploitation" (PDF). International Journal of Economics & Business Administration. 1 (1): 3–14. doi:10.35808/ijeba/1. Retrieved 26 November 2014.
  228. ^ Paolacci, G; Chandler, J; Ipeirotis, P.G. (2010). "Running experiments on Amazon Mechanical Turk". Judgment and Decision Making. 5 (5): 411–419. doi:10.1017/S1930297500002205. hdl:1765/31983. S2CID 14476283.
  229. ^ Graham, Mark; Hjorth, Isis; Lehdonvirta, Vili (1 May 2017). "Digital labour and development: impacts of global digital labour platforms and the gig economy on worker livelihoods". Transfer: European Review of Labour and Research. 23 (2): 135–162. doi:10.1177/1024258916687250. PMC 5518998. PMID 28781494.
  230. ^ The Crowdsourcing Scam (Dec. 2014), The Baffler, No. 26
  231. ^ Salehi; et al. (2015). We Are Dynamo: Overcoming Stalling and Friction in Collective Action for Crowd Workers (PDF). Archived from the original (PDF) on 17 June 2015. Retrieved 16 June 2015.
  232. ^ Irani, Lilly C.; Silberman, M. Six (27 April 2013). "Turkopticon". Proceedings of the SIGCHI Conference on Human Factors in Computing Systems. New York, USA: ACM. pp. 611–620. doi:10.1145/2470654.2470742. ISBN 9781450318990. S2CID 207203679.
  233. ^ Shmueli, Boaz; Fell, Jan; Ray, Soumya; Ku, Lun-Wei (2021). "Beyond Fair Pay: Ethical Implications of NLP Crowdsourcing". Proceedings of the 2021 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies. Association for Computational Linguistics. pp. 3758–3769. doi:10.18653/v1/2021.naacl-main.295. S2CID 233307331.

External links