stringtranslate.com

Encuesta de opinión

Una encuesta de opinión , a menudo denominada simplemente encuesta o sondeo ( aunque estrictamente una encuesta es una elección real), es una investigación humana de la opinión pública de una muestra particular . Las encuestas de opinión suelen estar diseñadas para representar las opiniones de una población realizando una serie de preguntas y luego extrapolando generalidades en proporciones o dentro de intervalos de confianza . A la persona que realiza encuestas se le llama encuestador .

Historia

El primer ejemplo conocido de una encuesta de opinión fue un recuento de las preferencias de los votantes informado por el Raleigh Star y North Carolina State Gazette y el Wilmington American Watchman y Delaware Advertiser antes de las elecciones presidenciales de 1824 , [1] que muestra a Andrew Jackson liderando a John Quincy Adams por 335 votos contra 169 en la contienda por la Presidencia de Estados Unidos . Desde que Jackson ganó el voto popular en ese estado y en todo el país, esos votos informales se hicieron gradualmente más populares, pero siguieron siendo fenómenos locales, generalmente en toda la ciudad. En 1916, The Literary Digest se embarcó en una encuesta nacional (en parte como ejercicio para aumentar la circulación) y predijo correctamente la elección de Woodrow Wilson como presidente. Al enviar millones de postales y simplemente contar las devoluciones, The Literary Digest predijo correctamente las victorias de Warren Harding en 1920, Calvin Coolidge en 1924, Herbert Hoover en 1928 y Franklin Roosevelt en 1932.

Luego, en 1936 , su encuesta entre 2,3 millones de votantes sugirió que Alf Landon ganaría las elecciones presidenciales, pero Roosevelt fue reelegido por abrumadora mayoría. La investigación de George Gallup encontró que el error fue causado principalmente por el sesgo de participación ; aquellos que favorecían a Landon se mostraron más entusiastas a la hora de devolver sus postales. Además, las postales se enviaron a un público objetivo que era más rico que la población estadounidense en su conjunto y, por tanto, más propenso a tener simpatías republicanas . [2] Al mismo tiempo, Gallup, Archibald Crossley y Elmo Roper realizaron encuestas que eran mucho más pequeñas pero con una base más científica, y los tres lograron predecir correctamente el resultado. [3] [4] El Literary Digest pronto cerró, mientras que las encuestas comenzaron a despegar. [3] Roper pasó a predecir correctamente las dos reelecciones posteriores del presidente Franklin D. Roosevelt. Louis Harris había estado en el campo de la opinión pública desde 1947, cuando se unió a la firma Elmo Roper, luego se convirtió en socio.

En septiembre de 1938, Jean Stoetzel , después de haber conocido a Gallup, creó IFOP, el Institut Français d'Opinion Publique , como el primer instituto europeo de encuestas en París. Stoetzel inició las encuestas políticas en el verano de 1939 con la pregunta "¿ Por qué morir por Danzig? ", Buscando apoyo o disidencia popular con esta pregunta formulada por el político apaciguador y futuro colaboracionista Marcel Déat .

Gallup lanzó una filial en el Reino Unido que, casi sola, predijo correctamente la victoria laborista en las elecciones generales de 1945 , a diferencia de prácticamente todos los demás comentaristas, que esperaban una victoria del Partido Conservador , liderado por el líder en tiempos de guerra Winston Churchill . Las potencias de ocupación aliadas ayudaron a crear institutos de investigación en todas las zonas de ocupación occidentales de Alemania en 1947 y 1948 para dirigir mejor la desnazificación . En la década de 1950, varios tipos de encuestas se habían extendido a la mayoría de las democracias.

Vista desde una perspectiva de largo plazo, la publicidad había estado bajo una fuerte presión a principios de los años treinta. La Gran Depresión obligó a las empresas a recortar drásticamente su gasto en publicidad. Los despidos y reducciones fueron comunes en todas las agencias. Además, el New Deal promovió agresivamente el consumismo y minimizó el valor (o la necesidad) de la publicidad. El historiador Jackson Lears sostiene que "a finales de la década de 1930, sin embargo, los anunciantes corporativos habían comenzado un contraataque exitoso contra sus críticos". Rehabilitaron el concepto de soberanía del consumidor inventando encuestas científicas de opinión pública y convirtiéndolos en la pieza central de su propia investigación de mercado, así como en la clave para entender la política. George Gallup, vicepresidente de Young and Rubicam, y muchos otros expertos en publicidad, abrieron el camino. Ya en la década de 1940, la industria jugó un papel destacado en la movilización ideológica del pueblo estadounidense en la lucha contra los nazis y los japoneses en la Segunda Guerra Mundial. Como parte de ese esfuerzo, redefinieron el "American Way of Life" en términos de un compromiso con la libre empresa. "Los anunciantes", concluye Lears, "jugaron un papel hegemónico crucial en la creación de la cultura de consumo que dominó la sociedad estadounidense posterior a la Segunda Guerra Mundial". [5] [6]

Métodos de muestreo y sondeo.

Cuestionario de votación para votantes expuesto en el Instituto Smithsonian

Las encuestas de opinión durante muchos años se mantuvieron a través de telecomunicaciones o en contacto persona a persona. Los métodos y técnicas varían, aunque son ampliamente aceptados en la mayoría de las áreas. A lo largo de los años, las innovaciones tecnológicas también han influido en los métodos de encuesta, como la disponibilidad de portapapeles electrónicos [7] y las encuestas basadas en Internet. Los tipos verbales, de votación y procesados ​​se pueden realizar de manera eficiente, en contraste con otros tipos de encuestas, sistemáticas y matrices complicadas más allá de los procedimientos ortodoxos anteriores. [ cita necesaria ]

Las encuestas de opinión se convirtieron en aplicaciones populares a través del pensamiento popular, aunque las tasas de respuesta de algunas encuestas disminuyeron. Además, lo siguiente también ha llevado a resultados diferenciadores: [4] Algunas organizaciones encuestadoras, como Angus Reid Public Opinion , YouGov y Zogby utilizan encuestas en Internet , donde se extrae una muestra de un gran panel de voluntarios y los resultados se ponderan para reflejar la demografía de la población de interés. Por el contrario, las encuestas populares en la web recurren a quienes desean participar, más que a una muestra científica de la población, y por lo tanto no se consideran profesionales.

Recientemente, se han propuesto métodos de aprendizaje estadístico para explotar el contenido de las redes sociales (como las publicaciones en la plataforma de microblogging Twitter ) para modelar y predecir encuestas de intención de voto. [8] [9]

Las encuestas también se pueden utilizar en el campo de las relaciones públicas. A principios de la década de 1920, los expertos en relaciones públicas describieron su trabajo como una vía de doble sentido. Su trabajo sería presentar al público los intereses mal interpretados de las grandes instituciones. También evaluarían los intereses del público, típicamente ignorados, a través de encuestas.

Encuestas de referencia

Una encuesta de referencia es generalmente la primera encuesta realizada en una campaña. A menudo se toma antes de que un candidato anuncie su candidatura al cargo, pero a veces ocurre inmediatamente después de ese anuncio, después de haber tenido alguna oportunidad de recaudar fondos. Generalmente se trata de una encuesta breve y sencilla de votantes probables.

Una encuesta de referencia tiene varios propósitos para una campaña, ya sea una campaña política o algún otro tipo de campaña. En primer lugar, le da al candidato una idea de su posición frente al electorado antes de que se lleve a cabo cualquier campaña. Si la encuesta se realiza antes de anunciar su candidatura, el candidato puede utilizarla para decidir si debe o no postularse para el cargo. En segundo lugar, les muestra dónde están sus debilidades y fortalezas en dos áreas principales. El primero es el electorado. Una encuesta de referencia les muestra qué tipos de votantes seguramente ganarán, cuáles perderán y todos los que se encuentran entre estos dos extremos. Esto le permite a la campaña saber qué votantes son persuadibles para que puedan gastar sus recursos limitados de la manera más efectiva. En segundo lugar, puede darles una idea de qué mensajes, ideas o lemas son los más fuertes entre el electorado. [10]

Encuestas sobre incendios forestales

Las encuestas Brushfire son encuestas realizadas durante el período entre la encuesta de referencia y las encuestas de seguimiento . El número de encuestas realizadas por una campaña está determinado por cuán competitiva es la carrera y cuánto dinero tiene para gastar la campaña. Estas encuestas generalmente se centran en los votantes probables y la duración de la encuesta varía según la cantidad de mensajes que se prueban.

Las encuestas de Brushfire se utilizan para varios propósitos. Primero, le permite al candidato saber si ha logrado algún progreso en la boleta, cuánto progreso se ha logrado y en qué grupo demográfico ha estado ganando o perdiendo terreno. En segundo lugar, es una manera de que la campaña pruebe una variedad de mensajes, tanto positivos como negativos, sobre ellos mismos y sus oponentes. Esto le permite a la campaña saber qué mensajes funcionan mejor con ciertos datos demográficos y qué mensajes deben evitarse. Las campañas suelen utilizar estas encuestas para probar posibles mensajes de ataque que su oponente pueda usar y posibles respuestas a esos ataques. Luego, la campaña puede dedicar algún tiempo a preparar una respuesta eficaz a cualquier posible ataque. En tercer lugar, este tipo de encuesta puede ser utilizada por candidatos o partidos políticos para convencer a los rivales de las primarias de que abandonen una carrera y apoyen a un candidato más fuerte.

Seguimiento de encuestas

Una encuesta de seguimiento o encuesta continua es una encuesta en la que se obtienen respuestas en varios períodos consecutivos, por ejemplo diariamente, y luego los resultados se calculan utilizando un promedio móvil de las respuestas que se recopilaron durante un número fijo de los períodos más recientes. por ejemplo los últimos cinco días. [11] En este ejemplo, los siguientes resultados calculados utilizarán datos de cinco días contando hacia atrás desde el día siguiente, es decir, los mismos datos que antes, pero con los datos del día siguiente incluidos y sin los datos del sexto día anterior. ese día.

Sin embargo, estas encuestas a veces están sujetas a fluctuaciones dramáticas, por lo que las campañas políticas y los candidatos son cautelosos al analizar sus resultados. Un ejemplo de encuesta de seguimiento que generó controversia sobre su precisión es la realizada durante las elecciones presidenciales estadounidenses de 2000 por la Organización Gallup . Los resultados de un día mostraron que el candidato demócrata Al Gore tenía una ventaja de once puntos sobre el candidato republicano George W. Bush . Luego, una encuesta posterior realizada sólo dos días después mostró a Bush por delante de Gore por siete puntos. Pronto se determinó que la volatilidad de los resultados se debía, al menos en parte, a una distribución desigual de votantes afiliados demócratas y republicanos en las muestras. Aunque la Organización Gallup argumentó que la volatilidad en la encuesta era una representación genuina del electorado, otras organizaciones encuestadoras tomaron medidas para reducir variaciones tan amplias en sus resultados. Uno de esos pasos incluía manipular la proporción de demócratas y republicanos en cualquier muestra determinada, pero este método está sujeto a controversia. [12]

Potencial de inexactitud

Con el tiempo, se han ofrecido una serie de teorías y mecanismos para explicar los resultados erróneos de las encuestas. Algunas de ellas reflejan errores por parte de los encuestadores; muchos de ellos son de naturaleza estadística. Otros culpan a los encuestados por no dar respuestas sinceras ( por ejemplo , el efecto Bradley , el factor Shy Tory ); estos pueden ser más controvertidos. [ cita necesaria ]

Margen de error debido al muestreo

Las encuestas basadas en muestras de poblaciones están sujetas a errores de muestreo que reflejan los efectos del azar y la incertidumbre en el proceso de muestreo. Las encuestas por muestreo se basan en la ley de los grandes números para medir las opiniones de toda la población basándose únicamente en un subconjunto, y para este propósito el tamaño absoluto de la muestra es importante, pero el porcentaje de toda la población no lo es (a menos que suceda estar cerca del tamaño de la muestra). La posible diferencia entre la muestra y la población total a menudo se expresa como un margen de error , generalmente definido como el radio de un intervalo de confianza del 95% para una estadística particular. Un ejemplo es el porcentaje de personas que prefieren el producto A frente al producto B. Cuando se informa un único margen de error global para una encuesta, se refiere al margen de error máximo para todos los porcentajes informados utilizando la muestra completa de la encuesta. Si la estadística es un porcentaje, este margen máximo de error se puede calcular como el radio del intervalo de confianza para un porcentaje informado del 50%. Otros sugieren que una encuesta con una muestra aleatoria de 1.000 personas tiene un margen de error de muestreo de ±3% para el porcentaje estimado de toda la población.

Un margen de error del 3% significa que si se utiliza el mismo procedimiento un gran número de veces, el 95% de las veces el verdadero promedio de la población estará dentro de la estimación de la muestra más o menos el 3%. El margen de error se puede reducir utilizando una muestra más grande; sin embargo, si un encuestador desea reducir el margen de error al 1%, necesitaría una muestra de alrededor de 10.000 personas. [13] En la práctica, los encuestadores necesitan equilibrar el costo de una muestra grande con la reducción del error de muestreo y un tamaño de muestra de alrededor de 500 a 1.000 es un compromiso típico para las encuestas políticas. (Para obtener respuestas completas puede ser necesario incluir miles de participantes adicionales). [14] [15]

Otra forma de reducir el margen de error es confiar en los promedios de las encuestas . Esto supone que el procedimiento es bastante similar entre muchas encuestas diferentes y utiliza el tamaño de la muestra de cada encuesta para crear un promedio de encuesta. [16] Otra fuente de error proviene de modelos demográficos defectuosos de los encuestadores que pesan sus muestras según variables particulares como la identificación del partido en una elección. Por ejemplo, si se supone que el desglose de la población estadounidense por identificación partidista no ha cambiado desde las elecciones presidenciales anteriores, se puede subestimar la victoria o la derrota de un candidato de partido particular que experimentó un aumento o una disminución en su registro partidario en relación con el ciclo electoral presidencial anterior.

Una precaución es que una estimación de una tendencia está sujeta a un error mayor que una estimación de un nivel. Esto se debe a que si uno estima el cambio, la diferencia entre dos números X e Y, entonces tiene que lidiar con errores tanto en X como en Y. Una guía aproximada es que si el cambio en la medición cae fuera del margen de error, vale la pena prestarle atención.

Sesgo de falta de respuesta

Dado que algunas personas no responden llamadas de extraños o se niegan a responder la encuesta, las muestras de la encuesta pueden no ser muestras representativas de una población debido a un sesgo de falta de respuesta . Las tasas de respuesta han ido disminuyendo y han bajado a alrededor del 10% en los últimos años. [17] Debido a este sesgo de selección , las características de quienes aceptan ser entrevistados pueden ser marcadamente diferentes de las de quienes rechazan ser entrevistados. Es decir, la muestra real es una versión sesgada del universo que el encuestador quiere analizar. En estos casos, el sesgo introduce nuevos errores, de una manera u otra, que se suman a los errores causados ​​por el tamaño de la muestra. El error debido al sesgo no disminuye con tamaños de muestra más grandes, porque tomar un tamaño de muestra más grande simplemente repite el mismo error en una escala mayor. Si las personas que se niegan a responder, o que nunca son contactadas, tienen las mismas características que las personas que sí responden, entonces los resultados finales deberían ser imparciales. Si las personas que no responden tienen opiniones diferentes entonces hay sesgo en los resultados. En términos de encuestas electorales, los estudios sugieren que los efectos del sesgo son pequeños, pero cada empresa encuestadora tiene sus propias técnicas para ajustar las ponderaciones para minimizar el sesgo de selección. [18] [19]

Sesgo de respuesta

Los resultados de la encuesta pueden verse afectados por el sesgo de respuesta , donde las respuestas dadas por los encuestados no reflejan sus verdaderas creencias. Esto puede ser diseñado deliberadamente por encuestadores sin escrúpulos para generar un determinado resultado o complacer a sus clientes, pero más a menudo es el resultado de la redacción detallada o el orden de las preguntas (ver más abajo). Los encuestados pueden tratar deliberadamente de manipular el resultado de una encuesta, por ejemplo, defendiendo una posición más extrema de la que realmente sostienen para reforzar su lado del argumento o dando respuestas rápidas y poco meditadas para acelerar el final de su interrogatorio. Los encuestados también pueden sentirse presionados socialmente para no dar una respuesta impopular. Por ejemplo, los encuestados podrían no estar dispuestos a admitir actitudes impopulares como el racismo o el sexismo y, por lo tanto, las encuestas podrían no reflejar la verdadera incidencia de estas actitudes en la población. En el lenguaje político estadounidense, este fenómeno suele denominarse efecto Bradley . Si los resultados de las encuestas se publicitan ampliamente, este efecto puede amplificarse: un fenómeno comúnmente conocido como la espiral del silencio .

El uso del sistema de votación por pluralidad (seleccionar solo un candidato) en una encuesta genera un sesgo involuntario en la encuesta, ya que las personas que favorecen a más de un candidato no pueden indicarlo. El hecho de que deban elegir solo un candidato sesga la encuesta, haciendo que favorezca al candidato más diferente de los demás, mientras que desfavorece a los candidatos que son similares a otros candidatos. El sistema de votación por pluralidad también influye en las elecciones de la misma manera.

Es posible que algunas personas que respondan no entiendan las palabras que se utilizan, pero tal vez deseen evitar la vergüenza de admitirlo, o el mecanismo de encuesta puede no permitir aclaraciones, por lo que pueden tomar una decisión arbitraria. Un porcentaje de personas también responde con capricho o molestia por haber sido encuestado. Esto da como resultado que quizás el 4% de los estadounidenses informen que han sido decapitados personalmente . [20]

Redacción de preguntas

Entre los factores que impactan los resultados de las Encuestas de Opinión, se encuentran la redacción y el orden de las preguntas que plantea el encuestador. Las preguntas que afectan intencionalmente la respuesta de un encuestado se denominan preguntas capciosas . Los individuos y/o grupos utilizan este tipo de preguntas en encuestas para obtener respuestas favorables a sus intereses. [21]

Por ejemplo, es más probable que el público indique su apoyo a una persona que el encuestador describe como uno de los "candidatos principales". Esta descripción es "orientativa", ya que indica un sesgo sutil hacia ese candidato, ya que implica que los demás en la carrera no son contendientes serios. Además, las preguntas capciosas a menudo contienen, o carecen de, ciertos hechos que pueden influir en la respuesta del encuestado. Las preguntas argumentativas también pueden afectar el resultado de una encuesta. Este tipo de preguntas, dependiendo de su naturaleza, ya sea positiva o negativa, influyen en las respuestas de los encuestados para reflejar el tono de la(s) pregunta(s) y generar una determinada respuesta o reacción, en lugar de medir el sentimiento de manera imparcial. [22]

En las encuestas de opinión también existen " preguntas capciosas ", también conocidas como " preguntas capciosas ". Este tipo de pregunta capciosa puede referirse a un tema incómodo o controvertido, y/o asumir automáticamente que el tema de la pregunta está relacionado con el encuestado o que tienen conocimiento al respecto. Del mismo modo, las preguntas se redactan de manera que limiten las posibles respuestas, normalmente a sí o no. [23]

Otro tipo de preguntas que pueden producir resultados inexactos son las " Preguntas Doblemente Negativas ". Estos son más a menudo el resultado de un error humano que de una manipulación intencional. Un ejemplo de ello es una encuesta realizada en 1992 por la Organización Roper sobre el Holocausto . La pregunta decía: "¿Le parece posible o imposible que el exterminio nazi de los judíos nunca haya ocurrido?" La redacción confusa de esta pregunta condujo a resultados inexactos que indicaron que el 22 por ciento de los encuestados creía que parecía posible que el Holocausto nunca hubiera ocurrido. Cuando se reformuló la pregunta, muchos menos encuestados (sólo el 1 por ciento) expresaron el mismo sentimiento. [24]

Así, las comparaciones entre encuestas a menudo se reducen a la redacción de la pregunta. En algunas cuestiones, la redacción de las preguntas puede dar lugar a diferencias bastante pronunciadas entre las encuestas. [25] [26] Sin embargo, esto también puede ser el resultado de sentimientos legítimamente conflictivos o de actitudes en evolución, más que de una encuesta mal construida. [27]

Una técnica común para controlar este sesgo es rotar el orden en que se hacen las preguntas. Muchos encuestadores también dividen la muestra. Esto implica tener dos versiones diferentes de una pregunta, y cada versión se presenta a la mitad de los encuestados.

Los controles más eficaces, utilizados por los investigadores de actitudes , son:

Estos controles no se utilizan ampliamente en la industria electoral. [ ¿ por qué? ] . Sin embargo, como es importante que las preguntas para probar el producto sean de alta calidad, los metodólogos de encuestas trabajan en métodos para probarlas. Las pruebas empíricas proporcionan información sobre la calidad del cuestionario; algunas pueden ser más complejas que otras. Por ejemplo, se puede probar un cuestionario de la siguiente manera:

Fachadas involuntarias y falsas correlaciones

Una de las críticas a las encuestas de opinión es que los supuestos sociales de que opiniones entre las cuales no existe un vínculo lógico son "actitudes correlacionadas" pueden empujar a las personas con una opinión a un grupo que los obliga a pretender tener una opinión supuestamente vinculada pero que en realidad no tiene relación. Esto, a su vez, puede hacer que las personas que tienen la primera opinión afirmen en las encuestas que tienen la segunda opinión sin tenerla, lo que hace que las encuestas de opinión se conviertan en parte de problemas de profecía autocumplida . Se ha sugerido que los intentos de contrarrestar opiniones poco éticas condenando opiniones supuestamente vinculadas pueden favorecer a los grupos que promueven opiniones realmente poco éticas al obligar a personas con opiniones supuestamente vinculadas a aceptarlas mediante el ostracismo en otras partes de la sociedad, haciendo que tales esfuerzos sean contraproducentes, al no ser enviados entre grupos. que asumen motivos ocultos entre sí y que no se les permite expresar un pensamiento crítico consistente en ningún lugar puede crear estrés psicológico porque los humanos son inteligentes, y que se deben crear espacios de discusión libres de suposiciones de motivos ocultos detrás de opiniones específicas. En este contexto, se considera importante rechazar la suposición de que las encuestas de opinión muestran vínculos reales entre las opiniones. [32] [33]

Sesgo de cobertura

Otra fuente de error es el uso de muestras que no son representativas de la población como consecuencia de la metodología utilizada, como fue la experiencia de The Literary Digest en 1936. Por ejemplo, el muestreo telefónico tiene un error incorporado porque en muchas ocasiones y lugares, quienes tienen teléfonos generalmente han sido más ricos que quienes no los tienen.

En algunos lugares mucha gente sólo tiene teléfonos móviles . Debido a que los encuestadores no pueden utilizar máquinas de marcación automática para llamar a teléfonos móviles en los Estados Unidos (porque al propietario del teléfono se le puede cobrar por atender una llamada [34] ), estas personas generalmente quedan excluidas de las muestras de encuestas. Existe la preocupación de que, si el subconjunto de la población sin teléfonos móviles difiere marcadamente del resto de la población, estas diferencias puedan sesgar los resultados de la encuesta. [35]

Las organizaciones encuestadoras han desarrollado muchas técnicas de ponderación para ayudar a superar estas deficiencias, con distintos grados de éxito. Los estudios de usuarios de teléfonos móviles realizados por el Pew Research Center en EE.UU. en 2007 concluyeron que "los encuestados que sólo utilizan teléfonos móviles son diferentes de los encuestados de teléfonos fijos en aspectos importantes, (pero) no eran ni lo suficientemente numerosos ni diferentes en las preguntas que examinamos para producir un cambio significativo en las estimaciones de la encuesta de población general cuando se incluyen con las muestras de teléfonos fijos y se ponderan de acuerdo con los parámetros del censo de EE. UU. sobre características demográficas básicas". [36]

Participación electoral por raza/etnia, elecciones presidenciales de EE. UU. de 2008

Esta cuestión se identificó por primera vez en 2004, [37] pero cobró importancia recién durante las elecciones presidenciales estadounidenses de 2008 . [38] En elecciones anteriores, la proporción de la población general que utilizaba teléfonos móviles era pequeña, pero a medida que esta proporción ha aumentado, existe la preocupación de que votar únicamente a través de teléfonos fijos ya no sea representativo de la población general. En 2003, sólo el 2,9% de los hogares disponían de conexión inalámbrica (sólo teléfonos móviles), frente al 12,8% en 2006. [39] Esto da lugar a un " error de cobertura ". Muchas organizaciones encuestadoras seleccionan su muestra marcando números de teléfono aleatorios; sin embargo, en 2008, hubo una clara tendencia a que las encuestas que incluían teléfonos móviles en sus muestras mostraran una ventaja mucho mayor para Obama que las encuestas que no lo incluían. [40] [41]

Las posibles fuentes de sesgo son: [42]

  1. Algunos hogares utilizan únicamente teléfonos móviles y no tienen línea fija. Esto tiende a incluir a minorías y votantes más jóvenes; y ocurre con mayor frecuencia en las áreas metropolitanas. Los hombres tienen más probabilidades de utilizar únicamente teléfonos móviles en comparación con las mujeres.
  2. Es posible que no se pueda contactar con algunas personas por teléfono fijo de lunes a viernes y es posible que solo se pueda contactar con ellos por teléfono celular.
  3. Algunas personas utilizan sus teléfonos fijos sólo para acceder a Internet y responden llamadas únicamente a sus teléfonos móviles.

Algunas empresas encuestadoras han intentado solucionar este problema incluyendo un "suplemento para teléfonos móviles". Existen varios problemas al incluir teléfonos móviles en una encuesta telefónica:

  1. Es difícil conseguir la cooperación de los usuarios de teléfonos móviles, porque en muchas partes de Estados Unidos, a los usuarios se les cobra tanto por las llamadas salientes como por las entrantes. Eso significa que los encuestadores han tenido que ofrecer una compensación financiera para obtener la cooperación.
  2. La ley federal estadounidense prohíbe el uso de dispositivos de marcación automática para llamar a teléfonos móviles ( Ley de Protección al Consumidor Telefónico de 1991 ). Por lo tanto, los números deben marcarse a mano, lo que requiere más tiempo y resulta más caro para los encuestadores.

Elecciones generales del Reino Unido de 1992

Un ejemplo frecuentemente citado de encuestas de opinión que sucumbieron a errores ocurrió durante las elecciones generales del Reino Unido de 1992 . A pesar de que las organizaciones encuestadoras utilizaron diferentes metodologías, prácticamente todas las encuestas realizadas antes de la votación, y en menor medida las encuestas a pie de urna realizadas el día de la votación, mostraron una ventaja para el opositor Partido Laborista , mientras que la votación real dio una clara victoria al gobernante Conservador. Fiesta . En sus deliberaciones después de este bochorno, los encuestadores propusieron varias ideas para explicar sus errores, entre ellas:

La importancia relativa de estos factores fue, y sigue siendo, motivo de controversia. Desde entonces, las organizaciones encuestadoras han ajustado sus metodologías y han logrado resultados más precisos en campañas electorales posteriores. [ cita necesaria ] Varias fuentes, incluidas Dillman y Salant (1994), incluyen una discusión exhaustiva sobre estos sesgos y cómo deben entenderse y mitigarse. [43]

Fallos

Un fracaso ampliamente publicitado de las encuestas de opinión hasta la fecha en Estados Unidos fue la predicción de que Thomas Dewey derrotaría a Harry S. Truman en las elecciones presidenciales estadounidenses de 1948 . Las principales organizaciones encuestadoras, incluidas Gallup y Roper, indicaron una victoria aplastante para Dewey. También hubo errores sustanciales en las encuestas en las elecciones presidenciales de 1952, 1980, 1996, 2000 y 2016. [44]

En el Reino Unido, la mayoría de las encuestas no lograron predecir las victorias electorales de los conservadores de 1970 y 1992 , ni la victoria de los laboristas en febrero de 1974 . En las elecciones de 2015, prácticamente todas las encuestas predijeron un parlamento sin consenso con laboristas y conservadores codo a codo, cuando el resultado real fue una clara mayoría conservadora. En cambio, en 2017 parece haber ocurrido lo contrario. La mayoría de las encuestas predijeron una mayor mayoría conservadora, aunque en realidad las elecciones resultaron en un parlamento sin consenso con una pluralidad conservadora. Sin embargo, algunas encuestas predijeron correctamente este resultado.

En Nueva Zelanda, las encuestas previas a las elecciones generales de 1993 predecían una cómoda victoria del gobernante Partido Nacional . Sin embargo, los resultados preliminares de la noche de las elecciones mostraron un parlamento sin consenso y con Nacional a un escaño de la mayoría, lo que llevó al primer ministro Jim Bolger a exclamar "jodan a los encuestadores" en la televisión nacional. [45] [46] El recuento oficial vio a National elegir a Waitaki para mantener una mayoría de un escaño y reformar el gobierno.

Las redes sociales como fuente de opinión sobre los candidatos

Hoy en día, las redes sociales son un medio popular para que los candidatos hagan campaña y para medir la reacción del público a las campañas. Las redes sociales también pueden utilizarse como indicador de la opinión de los votantes sobre la encuesta. Algunos estudios de investigación han demostrado que las predicciones realizadas utilizando señales de las redes sociales pueden coincidir con las encuestas de opinión tradicionales. [8] [9]

Con respecto a las elecciones presidenciales estadounidenses de 2016 , una preocupación importante ha sido el efecto de las historias falsas difundidas en las redes sociales . La evidencia muestra que las redes sociales juegan un papel enorme en el suministro de noticias: el 62 por ciento de los adultos estadounidenses obtienen noticias en las redes sociales. [47] Este hecho hace que el tema de las noticias falsas en las redes sociales sea más pertinente. Otra evidencia muestra que las noticias falsas más populares se compartieron más ampliamente en Facebook que las noticias más populares; muchas personas que ven noticias falsas afirman que les creen; y las noticias falsas más discutidas tendieron a favorecer a Donald Trump sobre Hillary Clinton. Como resultado de estos hechos, algunos han llegado a la conclusión de que, si no fuera por estas historias, es posible que Donald Trump no hubiera ganado las elecciones sobre Hillary Clinton. [48]

Influencia

Efecto sobre los votantes

Al proporcionar información sobre las intenciones de voto, las encuestas de opinión a veces pueden influir en el comportamiento de los electores, y en su libro The Broken Compass , Peter Hitchens afirma que las encuestas de opinión son en realidad un dispositivo para influir en la opinión pública. [49] Las diversas teorías sobre cómo sucede esto se pueden dividir en dos grupos: efectos de bandwagon/underdog y votación estratégica ("táctica").

Se produce un efecto de carro cuando la encuesta incita a los votantes a respaldar al candidato que se muestra ganador en la encuesta. La idea de que los votantes son susceptibles a tales efectos es antigua y surge al menos desde 1884; William Safire informó que el término se utilizó por primera vez en una caricatura política en la revista Puck de ese año. [50] También ha permanecido persistente a pesar de la falta de corroboración empírica hasta finales del siglo XX. George Gallup dedicó muchos esfuerzos en vano a intentar desacreditar esta teoría en su época presentando investigaciones empíricas. Un metaestudio reciente de investigación científica sobre este tema indica que a partir de la década de 1980 los investigadores encuentran con mayor frecuencia el efecto Bandwagon. [51]

Lo opuesto al efecto bandwagon es el efecto desvalido . A menudo se menciona en los medios. Esto ocurre cuando la gente vota, por simpatía, por el partido que se percibe que está "perdiendo" las elecciones. Hay menos evidencia empírica de la existencia de este efecto que de la existencia del efecto bandwagon. [51]

La segunda categoría de teorías sobre cómo las encuestas afectan directamente la votación se llama votación estratégica . Esta teoría se basa en la idea de que los votantes ven el acto de votar como un medio para seleccionar un gobierno. Por lo tanto, a veces no elegirán al candidato que prefieren por motivos de ideología o simpatía, sino a otro candidato menos preferido por consideraciones estratégicas. Un ejemplo se puede encontrar en las elecciones generales del Reino Unido de 1997 . Como entonces era ministro del gabinete, se creía que el distrito electoral de Enfield Southgate de Michael Portillo era un asiento seguro , pero las encuestas de opinión mostraron que el candidato laborista Stephen Twigg ganaba apoyo constantemente, lo que puede haber llevado a votantes indecisos o partidarios de otros partidos a apoyar a Twigg. para sacar a Portillo. Otro ejemplo es el efecto boomerang, en el que los probables partidarios del candidato que se muestra ganador sienten que las posibilidades son escasas y que su voto no es necesario, permitiendo así que gane otro candidato. Para la representación proporcional por lista de partidos, las encuestas de opinión ayudan a los votantes a evitar desperdiciar su voto en un partido por debajo del umbral electoral . [52]

Además, Mark Pickup, en Voting Behaviour in Canada de Cameron Anderson y Laura Stephenson , describe tres respuestas "conductuales" adicionales que los votantes pueden exhibir cuando se enfrentan a datos de encuestas. El primero se conoce como efecto de "toma de señales", que sostiene que los datos de las encuestas se utilizan como un "representante" de información sobre los candidatos o partidos. La toma de señales se "basa en el fenómeno psicológico de utilizar heurísticas para simplificar una decisión compleja" (243). [53]

La segunda, descrita por primera vez por Petty y Cacioppo (1996), se conoce como teoría de la "respuesta cognitiva". Esta teoría afirma que la respuesta de un votante a una encuesta puede no coincidir con su concepción inicial de la realidad electoral. En respuesta, es probable que el votante genere una "lista mental" en la que crea razones para la pérdida o ganancia de un partido en las encuestas. Esto puede reforzar o cambiar su opinión sobre el candidato y, por tanto, afectar el comportamiento electoral. En tercer lugar, la última posibilidad es una "respuesta conductual" similar a una respuesta cognitiva. La única diferencia destacada es que un votante buscará nueva información para formar su "lista mental", estando así más informado sobre la elección. Esto puede entonces afectar el comportamiento electoral.

Estos efectos indican cómo las encuestas de opinión pueden afectar directamente las decisiones políticas del electorado. Pero, directa o indirectamente, se pueden examinar y analizar otros efectos en todos los partidos políticos. También se debe tener en cuenta la forma en que se enmarcan los medios y los cambios en la ideología de los partidos. En algunos casos, las encuestas de opinión son una medida del sesgo cognitivo, que se considera de manera variable y se maneja adecuadamente en sus diversas aplicaciones. A su vez, la información sin matices de los medios de comunicación sobre los datos de las encuestas y las opiniones públicas puede incluso agravar la polarización política [54] .

Efecto sobre los políticos

A partir de la década de 1980, el seguimiento de las encuestas y las tecnologías relacionadas comenzaron a tener un impacto notable en los líderes políticos estadounidenses. [55] Según Douglas Bailey, un republicano que había ayudado a dirigir la campaña presidencial de Gerald Ford en 1976 , "Ya no es necesario que un candidato político adivine lo que piensa una audiencia. Puede [descubrirlo] con una encuesta de seguimiento nocturna. Así que ya no es probable que los líderes políticos vayan a liderar, sino que vayan a seguir". [55]

Regulación

Algunas jurisdicciones en todo el mundo restringen la publicación de los resultados de las encuestas de opinión, especialmente durante el período cercano a una elección, para evitar que los resultados posiblemente erróneos afecten las decisiones de los votantes. Por ejemplo, en Canadá está prohibido publicar los resultados de encuestas de opinión que identificarían partidos políticos o candidatos específicos en los últimos tres días antes del cierre de la votación. [56]

Sin embargo, la mayoría de las naciones democráticas occidentales no apoyan la prohibición total de la publicación de encuestas de opinión preelectorales; la mayoría de ellos no tienen regulación y algunos sólo lo prohíben en los últimos días u horas hasta el cierre de la votación correspondiente. [57] Una encuesta realizada por la Comisión Real de Reforma Electoral de Canadá informó que el período de prohibición de publicación de los resultados de la encuesta difería en gran medida en los diferentes países. De los 20 países examinados, 3 prohíben la publicación durante todo el período de campaña, mientras que otros la prohíben por un período más corto, como el período de votación o las últimas 48 horas antes del cierre de una votación. [56] En la India, la Comisión Electoral lo ha prohibido en las 48 horas previas al inicio de las elecciones.

Encuesta de opinión en dictaduras

El director del Centro Levada afirmó en 2015 que sacar conclusiones de los resultados de las encuestas rusas o compararlos con las encuestas en estados democráticos era irrelevante, ya que no existe una competencia política real en Rusia, donde, a diferencia de los estados democráticos, a los votantes rusos no se les ofrece nada. alternativas creíbles y la opinión pública está formada principalmente por medios de comunicación controlados por el Estado , que promueven a quienes están en el poder y desacreditan a los candidatos alternativos. [58] Muchos encuestados en Rusia no quieren responder a las preguntas de los encuestadores por miedo a las consecuencias negativas. [59] [60] El 23 de marzo de 2023, se abrió una causa penal contra Yury Kokhovets, residente de Moscú, participante en la encuesta callejera de Radio Liberty . Se enfrentaba a hasta 10 años de prisión en virtud de las leyes rusas de censura de guerra de 2022 . [61]

Ver también

Notas a pie de página

  1. ^ Jarra, James W. (1972). "Encuestas de opinión pública realizadas por periódicos en la campaña electoral presidencial de 1824". Periodismo Trimestral . 49 (2): 361–365. doi :10.1177/107769907204900219. ISSN  0022-5533. S2CID  144801377. Los primeros precursores de la encuesta de opinión pública moderna parecen ser los recuentos de las preferencias de los votantes informados por Raleigh Star y North Carolina State Gazette y Wilmington American Watchman y Delaware Advertiser antes de las elecciones de 1824. Un estudio de los antecedentes de La elección muestra que estos esfuerzos electorales fueron una consecuencia natural de una campaña que involucró la primera elección real de los votantes de un presidente y cuatro candidatos coloridos. Algunos investigadores han atribuido los orígenes de las encuestas a otros periódicos y otros períodos históricos. Algunos han dado crédito al Harrisburg Pennsylvanian y al Raleigh Star , o solo al Pennsylvanian , por haber informado sobre la primera encuesta de opinión pública. Otros dan fechas mucho más tardías para la primera encuesta, mencionando una encuesta del Chicago Record durante la campaña presidencial de 1896 y los pronósticos electorales del New York Herald antes de 1900. Ahora parece que el ciudadano de Pensilvania simplemente estaba informando los resultados de la encuesta del American Watchman , de modo que El mérito de las primeras encuestas debería ir al Watchman and the Star .
  2. ^ Escudero, Peverill (1988). "Por qué fracasó la encuesta del Literary Digest de 1936". Opinión Pública Trimestral . Archivado desde el original el 4 de enero de 2022 . Consultado el 15 de noviembre de 2020 a través de Issuu.
  3. ^ ab Dietrich, Bryce J. (2008), "Crossley, Archibald (1896-1985)", Enciclopedia de métodos de investigación de encuestas , Thousand Oaks: SAGE Publications, Inc., págs. 170-171, doi :10.4135/9781412963947, ISBN 9781412918084, recuperado 2021-05-22
  4. ^ ab Cantril, Hadley; Strunk, Mildred (1951). "Opinión pública, 1935-1946". Prensa de la Universidad de Princeton. pag. vii. Archivado desde el original el 29 de junio de 2009 . Consultado el 7 de septiembre de 2017 .
  5. ^ Jackson Lears (1995). Fábulas de la abundancia: una historia cultural de la publicidad en Estados Unidos. Libros básicos. pag. 235.ISBN _ 9780465090754.
  6. ^ Jean M. Converse, " Investigación por encuestas en los Estados Unidos: raíces y aparición 1960 (1987) págs.: 114-24
  7. ^ G. Rowley, K. Barker, V. Callaghan (1986) " La terminal de investigación de mercado y desarrollos en la investigación por encuestas ", European Journal of Marketing, vol. 20 Número: 2, págs.35 - 39.
  8. ^ ab "Vasileios Lampos, Daniel Preotiuc-Pietro y Trevor Cohn. Un modelo de intención de voto centrado en el usuario en las redes sociales. Actas de la 51.ª reunión anual de la Asociación de Lingüística Computacional. ACL, págs. 993-1003, 2013 Consultado el 16 -06-4". Archivado desde el original el 11 de noviembre de 2015 . Consultado el 5 de junio de 2016 .
  9. ^ ab Brendan O'Connor, Ramnath Balasubramanyan, Bryan R Routledge y Noah A Smith. De los tweets a las encuestas: vincular el sentimiento del texto con las series temporales de opinión pública. En actas de la Conferencia Internacional AAAI sobre Weblogs y Redes Sociales. Prensa AAAI, págs. 122-129, 2010.
  10. ^ Kenneth F. Warren (1992). "En defensa de las encuestas de opinión pública". Prensa de Westview. pag. 200-1.
  11. ^ "Acerca de las encuestas de seguimiento". CNN.com. Archivado desde el original el 4 de noviembre de 2012 . Consultado el 18 de febrero de 2013 .
  12. ^ Asher, Herbert B. (16 de agosto de 2016). Las encuestas y el público: lo que todo ciudadano debería saber (Novena ed.). Mil robles, California. págs. 196-198. ISBN 978-1-5063-5242-8.{{cite book}}: Mantenimiento CS1: falta el editor de la ubicación ( enlace )
  13. ^ Se puede obtener una estimación del margen de error en términos porcentuales mediante la fórmula 100 ÷ raíz cuadrada del tamaño de la muestra.
  14. ^ 20 preguntas que los periodistas deberían hacer sobre los resultados de las encuestas Archivado el 4 de junio de 2016 en Wayback Machine , Consejo Nacional de Encuestas Públicas obtenido el 5 de junio de 2016
  15. ^ Margen de error de muestreo e intervalo de credibilidad Archivado el 7 de julio de 2016 en Wayback Machine , Asociación Estadounidense para la Investigación de la Opinión Pública, obtenido el 5 de junio de 2016
  16. ^ Lynch, Scott M. Introducción a la estimación y estadística bayesiana para científicos sociales (2007).
  17. ^ Will Oremus (17 de mayo de 2012). "Opiniones de las minorías: ya casi nadie responde a las encuestas de opinión pública. ¿Podemos seguir confiando en ellos?". Pizarra . Consultado el 21 de noviembre de 2013 .
  18. ^ Langer, Gary (mayo de 2003). "Acerca de las tasas de respuesta: algunas preguntas sin resolver" (PDF) . ABC Noticias. Archivado (PDF) desde el original el 2017-07-20 . Consultado el 17 de mayo de 2010 .
  19. ^ Tasas de respuesta: descripción general Archivado el 12 de julio de 2019 en la Asociación Estadounidense para la Investigación de la Opinión Pública de Wayback Machine , obtenido el 5 de junio de 2016
  20. ^ "Episodio 714: ¿Puede perder un programa de juegos?". Planeta Dinero . NPR. 27 de julio de 2016. Archivado desde el original el 1 de julio de 2020 . Consultado el 30 de junio de 2020 .
  21. ^ Asher, Herbert B. (16 de agosto de 2016). Las encuestas y el público: lo que todo ciudadano debería saber (Novena ed.). Mil robles, California. pag. 75.ISBN _ 978-1-5063-5242-8.{{cite book}}: Mantenimiento CS1: falta el editor de la ubicación ( enlace )
  22. ^ Asher, Herbert B. (16 de agosto de 2016). Las encuestas y el público: lo que todo ciudadano debería saber (Novena ed.). Thousand Oaks, California: Prensa SAGE CQ. págs. 82–86. ISBN 978-1-5063-5242-8.
  23. ^ "Redacción de la pregunta - AAPOR". www.aapor.org . Archivado desde el original el 28 de octubre de 2020 . Consultado el 27 de septiembre de 2020 .
  24. ^ Asher, Herbert B. (16 de agosto de 2016). Las encuestas y el público: lo que todo ciudadano debería saber (Novena ed.). Mil robles, California. pag. 82.ISBN _ 978-1-5063-5242-8.{{cite book}}: Mantenimiento CS1: falta el editor de la ubicación ( enlace )
  25. ^ Vigilancia gubernamental: un experimento de redacción de preguntas Archivado el 18 de mayo de 2016 en Wayback Machine , Pew Research Center Publicado el 26 de julio de 2013 Consultado el 5 de junio de 2016
  26. ^ ¿ Qué hay en un nombre? Calentamiento global versus cambio climático Archivado el 13 de agosto de 2016 en Wayback Machine , Programa de Yale sobre comunicación sobre el cambio climático, publicado el 27 de mayo de 2014, obtenido el 5 de junio de 2016.
  27. ^ "Las siete etapas de la agenda pública de opinión pública". Publicagenda.org. Archivado desde el original el 25 de octubre de 2012 . Consultado el 18 de febrero de 2013 .
  28. ^ Lord, F. y Novick, MR (1968). Teorías estadísticas de resultados de pruebas mentales. Addison-Wesley.
  29. ^ Heise, DR (1969). Separando confiabilidad y estabilidad en la correlación test-retest. Revista sociológica estadounidense, 34, 93-101.
  30. ^ Andrews, FM (1984). Componentes de validez y error de constructo de las medidas de la encuesta: un enfoque de modelado estructural. Opinión Pública Trimestral, 48, 409-442.
  31. ^ Saris, WE y Gallhofer, IN (2014). Diseño, evaluación y análisis de cuestionarios para investigación por encuestas. Segunda edicion. Hoboken, Wiley.
  32. ^ "Encuestas políticas en la era digital: el desafío de medir y comprender la opinión pública" por Robert K. Goidel, año veintiún
  33. ^ "Comprensión de las encuestas de opinión pública" de Jelke Bethlehem, año veintisiete
  34. ^ http://transition.fcc.gov/cgb/policy/TCPA-Rules.pdf Archivado el 21 de mayo de 2015 en Wayback Machine [ URL desnuda PDF ]
  35. ^ La creciente brecha entre las encuestas electorales por teléfono fijo y de doble marco: la proporción de votos republicanos es mayor en las encuestas solo por teléfono fijo Archivado el 18 de mayo de 2016 en el Wayback Machine Pew Research Center, el 22 de noviembre de 2010; Consultado el 5 de junio de 2016.
  36. ^ Keeter, Scott (27 de junio de 2007). "¿Qué tan grave es el problema de las encuestas únicamente con celulares?". Publicaciones del Centro de Investigación Pew. Archivado desde el original el 30 de octubre de 2008 . Consultado el 1 de noviembre de 2008 .
  37. ^ Blumenthal, Mark (19 de septiembre de 2008). "Más encuestadores entrevistando por teléfono celular". Encuesta.com. Archivado desde el original el 21 de noviembre de 2008 . Consultado el 4 de noviembre de 2008 .
  38. ^ Blumenthal, Mark (17 de julio de 2008). "Nuevos datos de Pew en teléfonos móviles". Entrevistador. Archivado desde el original el 11 de octubre de 2008 . Consultado el 4 de noviembre de 2008 .
  39. ^ Blumberg SJ, Luke JV (14 de mayo de 2007). "Sustitución inalámbrica: publicación anticipada de estimaciones basadas en datos de la encuesta nacional de entrevistas de salud, julio-diciembre de 2006" (PDF) . Centros para el control de enfermedades. Archivado (PDF) desde el original el 6 de junio de 2009 . Consultado el 22 de junio de 2009 . {{cite journal}}: Citar diario requiere |journal=( ayuda )
  40. ^ Plata, Nate (2 de noviembre de 2008). "El efecto teléfono móvil, continuación". FiveThirtyEight.com. Archivado desde el original el 4 de diciembre de 2008 . Consultado el 4 de noviembre de 2008 .
  41. ^ Blumenthal, Mark (17 de octubre de 2008). "Más datos de teléfonos móviles de Gallup". Encuesta.com. Archivado desde el original el 31 de enero de 2013 . Consultado el 4 de noviembre de 2008 .
  42. ^ Plata, Nate (22 de julio de 2008). "El problema del teléfono móvil, revisado". FiveThirtyEight.com. Archivado desde el original el 6 de enero de 2009 . Consultado el 4 de noviembre de 2008 .
  43. ^ Salant, Priscilla, I. Dillman y A. Don. Cómo llevar a cabo su propia encuesta. N° 300.723 S3.. 1994.
  44. ^ Campbell, W. Joseph (2020). Perdido en un Gallup: fracaso de las encuestas en las elecciones presidenciales de Estados Unidos . Prensa de la Universidad de California.
  45. ^ McCulloch, Craig (2 de abril de 2017). "Encuestadores, profetas y política: ¿acertados o fuera de lugar?". Radio Nueva Zelanda. Archivado desde el original el 30 de enero de 2019 . Consultado el 3 de junio de 2020 .
  46. ^ "Esto está claro: el 100% de los encuestadores no tienen idea". Cosa . 2019-06-10. Archivado desde el original el 3 de junio de 2020 . Consultado el 3 de junio de 2020 .
  47. ^ "Uso de noticias en plataformas de redes sociales 2016". Proyecto de Periodismo del Pew Research Center . 2016-05-26. Archivado desde el original el 15 de enero de 2017 . Consultado el 6 de octubre de 2017 .
  48. ^ Allcott, cazar; Gentzkow, Matthew (primavera de 2017). «Redes sociales y noticias falsas en las elecciones de 2016» (PDF) . Revista de perspectivas económicas . 31 (2): 211–236. doi : 10.1257/jep.31.2.211 . S2CID  32730475. Archivado (PDF) desde el original el 18 de octubre de 2017 . Consultado el 6 de octubre de 2017 a través de Stanford.
  49. ^ Hitchens, Peter (2009). "Capítulo 1, Guy Fawkes consigue una Blackberry". La brújula rota: cómo la política británica perdió el rumbo . Continuum International Publishing Group Ltd. ISBN 978-1-84706-405-9.
  50. ^ Safire, William, Diccionario político de Safire , página 42. Random House, 1993.
  51. ^ ab Irwin, Galen A. y Joop JM Van Holsteyn. Bandwagons, Underdogs, el Titanic y la Cruz Roja: la influencia de las encuestas de opinión pública en los votantes (2000).
  52. ^ Fredén, Annika (2017). "Encuestas de opinión, señales de coalición y votación estratégica: evidencia de un experimento de encuesta". Estudios políticos escandinavos . 40 (3): 247–264. doi :10.1111/1467-9477.12087.
  53. ^ Recogida, Mark (2010). "Encuestas de campaña electoral y democracia en Canadá: examen de la evidencia detrás de las afirmaciones comunes". En Anderson, Cameron; Stephenson, Laura (eds.). Comportamiento electoral en Canadá . Vancouver: Prensa UBC. págs. 243–278.
  54. ^ Willems, Jürgen; Meyfroodt, Kenn (30 de enero de 2024). "Debate: Informes de encuestas preelectorales: se trata menos de Jane y Joe promedio, y más de Karen y Kevin polarizados". Gestión y dinero públicos : 1–2. doi :10.1080/09540962.2024.2306912. ISSN  0954-0962.
  55. ^ ab Kaiser, Robert G. (9 de marzo de 2011). "David S. Broder: el mejor reportero político de su tiempo". El Washington Post . Archivado desde el original el 29 de junio de 2011 . Consultado el 9 de marzo de 2011 .
  56. ^ ab Claude Emery (enero de 1994), Encuestas de opinión pública en Canadá, Biblioteca del Parlamento, Canadá, archivado desde el original el 30 de julio de 2010 , consultado el 17 de julio de 2010
  57. ^ Tim Bale (2002). "Restringir la transmisión y publicación de encuestas preelectorales y a boca de urna: algunos ejemplos seleccionados". Representación . 39 (1): 15-22. doi :10.1080/00344890208523210. S2CID  153407445.
  58. ^ "Opinión: La verdad sobre el índice de aprobación del 86 por ciento de Putin. Cómo la gente no comprende los datos de las encuestas sobre el apoyo al Kremlin". Medusa . Consultado el 10 de diciembre de 2015 .
  59. ^ "En Rusia, las encuestas de opinión son un arma política". democracia abierta . 9 de marzo de 2022.
  60. ^ Yaffa, Joshua (29 de marzo de 2022). "¿Por qué tantos rusos dicen que apoyan la guerra en Ucrania?". El neoyorquino .
  61. ^ "La policía rusa mejora los cargos contra un residente de Moscú en un caso de 'noticias falsas' por un comentario para Radio Liberty". Novaya Gazeta . 30 de abril de 2023.

Referencias

Fuentes adicionales

enlaces externos