El modelo de elección intenta modelar el proceso de decisión de un individuo o segmento a través de preferencias reveladas o preferencias declaradas hechas en un contexto o contextos particulares. Por lo general, intenta utilizar elecciones discretas (A sobre B; B sobre A, B y C) para inferir posiciones de los elementos (A, B y C) en alguna escala latente relevante (típicamente " utilidad " en economía y varios campos relacionados). De hecho, existen muchos modelos alternativos en econometría , marketing , sociometría y otros campos, incluida la maximización de la utilidad , la optimización aplicada a la teoría del consumidor y una plétora de otras estrategias de identificación que pueden ser más o menos precisas dependiendo de los datos , la muestra , la hipótesis y la decisión particular que se modela. Además, el modelo de elección se considera el método más adecuado para estimar la disposición de los consumidores a pagar por mejoras de calidad en múltiples dimensiones. [1]
Hay varios términos que se consideran sinónimos del término modelado de elección. Algunos son precisos (aunque suelen ser específicos de una disciplina o continente) y otros se utilizan en aplicaciones industriales, aunque se consideran imprecisos en el ámbito académico (como el análisis conjunto). [2]
Entre ellos se incluyen los siguientes:
Aunque persisten los desacuerdos en la terminología, es notable que la revista académica destinada a proporcionar una fuente interdisciplinaria de investigación nueva y empírica en el campo se llame Journal of Choice Modelling. [3]
La teoría detrás del modelado de elección fue desarrollada independientemente por economistas y psicólogos matemáticos. Los orígenes del modelado de elección se pueden rastrear a la investigación de Thurstone sobre las preferencias alimentarias en la década de 1920 y a la teoría de la utilidad aleatoria . [4] En economía, la teoría de la utilidad aleatoria fue desarrollada luego por Daniel McFadden [5] y en psicología matemática principalmente por Duncan Luce y Anthony Marley. [6] En esencia, el modelado de elección asume que la utilidad (beneficio o valor) que un individuo deriva del artículo A sobre el artículo B es una función de la frecuencia con la que (él) elige el artículo A sobre el artículo B en elecciones repetidas. Debido a su uso de la distribución normal, Thurstone no pudo generalizar esta elección binaria en un marco de elección multinomial (que requería la regresión logística multinomial en lugar de la función de enlace probit), de ahí que el método languideciera durante más de 30 años. Sin embargo, en la década de 1960 a 1980, el método fue axiomatizado y aplicado en una variedad de tipos de estudio.
El modelado de elección se utiliza tanto en estudios de preferencia revelada (PR) como de preferencia declarada (DE). Los estudios de PR utilizan las elecciones ya realizadas por los individuos para estimar el valor que atribuyen a los artículos - "revelan sus preferencias - y por lo tanto valores (utilidades) - mediante sus elecciones". Los estudios de DE utilizan las elecciones realizadas por individuos en condiciones experimentales para estimar estos valores - "declaran sus preferencias a través de sus elecciones". McFadden utilizó con éxito las preferencias reveladas (realizadas en estudios de transporte previos) para predecir la demanda del Bay Area Rapid Transit (BART) antes de que se construyera. Luce y Marley habían axiomatizado previamente la teoría de la utilidad aleatoria pero no la habían utilizado en una aplicación del mundo real; [7] además, pasaron muchos años probando el método en estudios de DE que participaban estudiantes de psicología.
El trabajo de McFadden le valió el Premio Nobel de Economía en 2000 [8]. Sin embargo, gran parte del trabajo en modelización de la elección se había estado realizando durante casi 20 años en el campo de las preferencias declaradas. [9] [10] Este tipo de trabajo surgió en varias disciplinas, originalmente en el transporte y el marketing, debido a la necesidad de predecir la demanda de nuevos productos que eran potencialmente costosos de producir. Este trabajo se basó en gran medida en los campos del análisis conjunto y el diseño de experimentos , con el fin de:
En concreto, el objetivo era presentar el número mínimo de pares/triples, etc. de (por ejemplo) teléfonos móviles/celulares para que el analista pudiera estimar el valor que el consumidor obtenía (en unidades monetarias) de cada característica posible de un teléfono. A diferencia de gran parte del trabajo en análisis conjunto, se debían realizar elecciones discretas (A versus B; B versus A, B y C), en lugar de calificaciones en escalas de calificación de categorías ( escalas de Likert ). A David Hensher y Jordan Louviere se les atribuye ampliamente el mérito de los primeros modelos de elección de preferencias establecidos. [10] Siguieron siendo figuras fundamentales, junto con otros, incluidos Joffre Swait y Moshe Ben-Akiva, y durante las siguientes tres décadas en los campos del transporte y el marketing ayudaron a desarrollar y difundir los métodos. [11] [12] Sin embargo, muchas otras figuras, que trabajaban predominantemente en la economía y el marketing del transporte, contribuyeron a la teoría y la práctica y ayudaron a difundir ampliamente el trabajo. [13]
Desde el principio, la modelización de la elección adoleció de una falta de estandarización de la terminología y se han utilizado todos los términos mencionados anteriormente para describirla. Sin embargo, el mayor desacuerdo ha resultado ser geográfico: en América, siguiendo la práctica de la industria en ese país, el término "análisis conjunto basado en la elección" ha llegado a predominar. Esto reflejaba el deseo de que la modelización de la elección (1) reflejara la estructura de atributos y niveles heredada del análisis conjunto, pero (2) mostrara que se utilizaran elecciones discretas, en lugar de calificaciones numéricas, como medida de resultados que se obtienen de los consumidores. En el resto del mundo, el término experimento de elección discreta ha llegado a predominar en prácticamente todas las disciplinas. [2] Louviere (marketing y transporte) y sus colegas en economía ambiental y de la salud llegaron a repudiar la terminología estadounidense, alegando que era engañosa y ocultaba una diferencia fundamental que los experimentos de elección discreta tienen respecto de los métodos conjuntos tradicionales: los experimentos de elección discreta tienen una teoría comprobable de la toma de decisiones humanas que los sustenta (teoría de la utilidad aleatoria), mientras que los métodos conjuntos son simplemente una forma de descomponer el valor de un bien utilizando diseños estadísticos a partir de calificaciones numéricas que no tienen una teoría psicológica para explicar lo que significan los números de la escala de calificación. [2]
El diseño de un modelo de elección o un experimento de elección discreta (DCE) generalmente sigue los siguientes pasos:
Esta suele ser la tarea más sencilla, normalmente definida por:
Un bien o servicio, por ejemplo un teléfono móvil, se describe normalmente mediante una serie de atributos (características). Los teléfonos suelen describirse por su forma, tamaño, memoria, marca, etc. Los atributos que se deben variar en la DCE deben ser todos aquellos que sean de interés para los encuestados. La omisión de atributos clave suele provocar que los encuestados hagan inferencias (conjeturas) sobre los que faltan en la DCE, lo que da lugar a problemas de omisión de variables. Los niveles suelen incluir todos los que están disponibles actualmente y, a menudo, se amplían para incluir los que sean posibles en el futuro; esto es especialmente útil para orientar el desarrollo de productos.
Una de las ventajas de los análisis DCE y conjuntos es que suelen presentar un subconjunto del factorial completo. Por ejemplo, un teléfono con dos marcas, tres formas, tres tamaños y cuatro cantidades de memoria tiene 2x3x3x4=72 configuraciones posibles. Este es el factorial completo y en la mayoría de los casos es demasiado grande para administrarlo a los encuestados. Los subconjuntos del factorial completo se pueden producir de diversas maneras, pero en general tienen el siguiente objetivo: permitir la estimación de un cierto número limitado de parámetros que describen el bien: efectos principales (por ejemplo, el valor asociado con la marca, manteniendo todo lo demás igual), interacciones bidireccionales (por ejemplo, el valor asociado con esta marca y el tamaño más pequeño, esa marca y el tamaño más pequeño), etc. Esto se logra típicamente confundiendo deliberadamente las interacciones de orden superior con las interacciones de orden inferior. Por ejemplo, las interacciones bidireccionales y tridireccionales pueden confundirse con los efectos principales. Esto tiene las siguientes consecuencias:
Por lo tanto, se ha advertido repetidamente a los investigadores que el diseño implica tomar decisiones críticas sobre si es probable que las interacciones bidireccionales y de orden superior sean distintas de cero; cometer un error en la etapa de diseño invalida efectivamente los resultados, ya que la hipótesis de que las interacciones de orden superior sean distintas de cero no es comprobable. [11]
Los diseños están disponibles en catálogos y programas estadísticos. Tradicionalmente, tenían la propiedad de ortogonalidad , por la cual todos los niveles de atributos se pueden estimar independientemente unos de otros. Esto garantiza una colinealidad cero y se puede explicar con el siguiente ejemplo.
Imaginemos un concesionario de coches que vende tanto coches de lujo como vehículos usados de gama baja. Utilizando el principio de maximización de la utilidad y suponiendo un modelo MNL, planteamos la hipótesis de que la decisión de comprar un coche en este concesionario es la suma de la contribución individual de cada uno de los siguientes a la utilidad total.
Sin embargo, el uso de la regresión multinomial en los datos de ventas no nos dirá lo que queremos saber. La razón es que gran parte de los datos son colineales, ya que los autos en este concesionario son:
No hay suficiente información, ni la habrá nunca, para saber si la gente compra coches porque son europeos, porque son un BMW o porque son de alto rendimiento. Esta es una razón fundamental por la que los datos RP a menudo no son adecuados y por la que se requieren datos SP. En los datos RP estos tres atributos siempre coinciden y en este caso están perfectamente correlacionados . Es decir: todos los BMW se fabrican en Alemania y son de alto rendimiento. Se dice que estos tres atributos: origen, marca y rendimiento son colineales o no ortogonales. Solo en condiciones experimentales, a través de los datos SP, se pueden variar el rendimiento y el precio de forma independiente, es decir, se pueden descomponer sus efectos.
Un diseño experimental (abajo) en un experimento de elección es un esquema estricto para controlar y presentar escenarios hipotéticos o conjuntos de opciones a los encuestados. Para el mismo experimento, se pueden utilizar diferentes diseños, cada uno con diferentes propiedades. El mejor diseño depende de los objetivos del ejercicio.
El diseño experimental es el que determina el experimento y las capacidades finales del modelo. Existen muchos diseños muy eficientes en el dominio público que permiten realizar experimentos casi óptimos.
Por ejemplo, el diseño del cuadrado latino 16 × 17 permite la estimación de todos los efectos principales de un producto que podría tener hasta 16 × 17 configuraciones (aproximadamente 295 seguidas de dieciocho ceros). Además, esto podría lograrse dentro de un marco de muestra de solo alrededor de 256 encuestados.
A continuación se muestra un ejemplo de un diseño mucho más pequeño. Se trata de un diseño de 3 x 4 efectos principales.
Este diseño permitiría la estimación de las utilidades de los efectos principales a partir de 81 (3 4 ) posibles configuraciones de producto suponiendo que todas las interacciones de orden superior son cero . Una muestra de alrededor de 20 encuestados podría modelar los efectos principales de las 81 posibles configuraciones de producto con resultados estadísticamente significativos.
Algunos ejemplos de otros diseños experimentales comúnmente utilizados:
Más recientemente, se han producido diseños eficientes. [16] [17] Estos típicamente minimizan funciones de la varianza de los parámetros (desconocidos pero estimados). Una función común es la D-eficiencia de los parámetros. El objetivo de estos diseños es reducir el tamaño de muestra requerido para lograr significancia estadística de los parámetros de utilidad estimados. Tales diseños a menudo han incorporado priores bayesianos para los parámetros, para mejorar aún más la precisión estadística. [18] Los diseños altamente eficientes se han vuelto extremadamente populares, dados los costos de reclutar un mayor número de encuestados. Sin embargo, figuras clave en el desarrollo de estos diseños han advertido sobre posibles limitaciones, más notablemente las siguientes. [16] La eficiencia del diseño típicamente se maximiza cuando el bien A y el bien B son lo más diferentes posible: por ejemplo, cada atributo (característica) que define el teléfono difiere entre A y B. Esto obliga al encuestado a negociar entre precio, marca, tamaño, memoria, etc.; Ningún atributo tiene el mismo nivel en A y B. Esto puede imponer una carga cognitiva al encuestado, llevándolo a utilizar heurísticas simplificadoras ("elige siempre el teléfono más barato") que no reflejan su verdadera función de utilidad (regla de decisión). Trabajos empíricos recientes han confirmado que los encuestados efectivamente tienen diferentes reglas de decisión cuando responden a un diseño menos eficiente en comparación con un diseño altamente eficiente. [19]
Puede encontrarse más información sobre los diseños experimentales aquí . Sin embargo, vale la pena reiterar que los diseños pequeños que estiman los efectos principales generalmente lo hacen confundiendo deliberadamente las interacciones de orden superior con los efectos principales. Esto significa que, a menos que esas interacciones sean cero en la práctica, el analista obtendrá estimaciones sesgadas de los efectos principales. Además, no tiene (1) forma de probar esto y (2) no tiene forma de corregirlo en el análisis. Esto enfatiza el papel crucial del diseño en los DCE.
La construcción de la encuesta generalmente implica:
Tradicionalmente, las encuestas de participación en el desarrollo se administraban mediante métodos de papel y lápiz. Cada vez más, con el poder de la web, las encuestas por Internet se han convertido en la norma. Estas tienen ventajas en términos de costo, asignación aleatoria de los encuestados a diferentes versiones de la encuesta y uso de filtros. Un ejemplo de esto último sería lograr un equilibrio de género: si responden demasiados hombres, se los puede descartar para que el número de mujeres coincida con el de hombres.
El análisis de los datos de un DCE requiere que el analista suponga un tipo particular de regla de decisión (o forma funcional de la ecuación de utilidad en términos de economistas). Esto suele estar determinado por el diseño: si se ha utilizado un diseño de efectos principales, no se pueden incluir en el modelo términos de interacción de orden superior y de dos vías. A continuación, se suelen estimar los modelos de regresión. Estos suelen comenzar con el modelo logit condicional (tradicionalmente, aunque de forma ligeramente engañosa, los modeladores de la elección se refieren al modelo de regresión logística multinomial (MNL)). El modelo MNL convierte las frecuencias de elección observadas (que son probabilidades estimadas en una escala de proporción) en estimaciones de utilidad (en una escala de intervalo) a través de la función logística. Se puede estimar la utilidad (valor) asociada a cada nivel de atributo, lo que permite al analista construir la utilidad total de cualquier configuración posible (en este caso, de coche o teléfono). Sin embargo, un DCE puede utilizarse alternativamente para estimar los beneficios y los costes ambientales no comerciales. [20]
Yatchew y Griliches fueron los primeros en demostrar que las medias y las varianzas se confundían en modelos de variable dependiente limitada (donde la variable dependiente toma cualquiera de un conjunto discreto de valores en lugar de uno continuo como en la regresión lineal convencional). [22] Esta limitación se agudiza en el modelado de elección por la siguiente razón: una beta estimada grande del modelo de regresión MNL o cualquier otro modelo de elección puede significar:
Esto tiene implicancias significativas para la interpretación de los resultados de un modelo de regresión. Todos los programas estadísticos "resuelven" la confusión media-varianza al establecer la varianza igual a una constante; todos los coeficientes beta estimados son, de hecho, una beta estimada multiplicada por una lambda estimada (una función inversa de la varianza). Esto tienta al analista a ignorar el problema. Sin embargo, debe considerar si un conjunto de coeficientes beta grandes refleja preferencias fuertes (una beta verdadera grande) o consistencia en las elecciones (una lambda verdadera grande), o alguna combinación de las dos. Dividir todas las estimaciones por otra -normalmente la de la variable precio- cancela el término lambda confundido del numerador y el denominador. [23] Esto resuelve el problema, con el beneficio adicional de que proporciona a los economistas la disposición a pagar del encuestado por cada nivel de atributo. Sin embargo, el hallazgo de que los resultados estimados en el "espacio de utilidad" no coinciden con los estimados en el "espacio de disposición a pagar", [24] [25] sugiere que el problema de confusión no se resuelve con este "truco": las varianzas pueden ser específicas de los atributos o alguna otra función de las variables (lo que explicaría la discrepancia). Este es un tema de investigación actual en el campo.
Los principales problemas con las preguntas de calificación que no ocurren con los modelos de elección son:
Las clasificaciones tienden a obligar al individuo a indicar preferencias relativas por los elementos de interés. Por lo tanto, las compensaciones entre ellas pueden, como en un DCE, estimarse normalmente. Sin embargo, los modelos de clasificación deben comprobar si se está estimando la misma función de utilidad en cada nivel de clasificación: por ejemplo, las mismas estimaciones (hasta la escala de varianza) deben resultar de los datos de rango inferior y de los de rango superior.
La escala de mejor-peor (BWS, por sus siglas en inglés) es una alternativa bien considerada a las calificaciones y clasificaciones. Pide a las personas que elijan sus opciones preferidas entre una variedad de alternativas. Al restar o integrar las probabilidades de elección, se pueden estimar las puntuaciones de utilidad para cada alternativa en una escala de intervalo o razón, para individuos y/o grupos. Los individuos pueden utilizar varios modelos psicológicos para producir datos de mejor-peor, incluido el modelo MaxDiff .
El modelado de elección es particularmente útil para:
La sección sobre “Aplicaciones” de la elección discreta proporciona más detalles sobre cómo se puede aplicar este tipo de modelado en diferentes campos.
En economía , un modelo de elección ocupacional es un modelo que busca responder por qué las personas ingresan a diferentes ocupaciones [28] . [29]
En el modelo, en cada momento, la persona decide si trabajar como en la ocupación anterior, en otra ocupación o no trabajar. En algunas versiones del modelo, un individuo elige aquella ocupación para la cual el valor actual de su ingreso esperado es máximo. [30] Sin embargo, en otras versiones, la aversión al riesgo puede llevar a las personas a trabajar en la misma ocupación que antes. [31]
{{cite book}}
: |website=
ignorado ( ayuda ){{cite book}}
: |website=
ignorado ( ayuda ){{cite journal}}
: Requiere citar revista |journal=
( ayuda )