stringtranslate.com

Teoría de la información y el juego

La inferencia estadística puede considerarse como una teoría del juego aplicada al mundo que nos rodea. Las innumerables aplicaciones de las medidas de información logarítmica nos indican con precisión cómo hacer la mejor estimación en caso de disponer de información parcial. [1] En ese sentido, la teoría de la información puede considerarse una expresión formal de la teoría del juego. No sorprende, por tanto, que la teoría de la información tenga aplicaciones en los juegos de azar. [2]

Apuestas de Kelly

Las apuestas de Kelly o apuestas proporcionales son una aplicación de la teoría de la información a las inversiones y los juegos de azar . Su descubridor fue John Larry Kelly, Jr.

Parte de la idea de Kelly era que el jugador maximizara la expectativa del logaritmo de su capital, en lugar de la ganancia esperada de cada apuesta. Esto es importante, ya que en este último caso, uno se vería obligado a apostar todo lo que tenía cuando se le presentara una apuesta favorable, y si perdía, no tendría capital con el que realizar apuestas posteriores. Kelly se dio cuenta de que era el logaritmo del capital del jugador lo que se suma en las apuestas secuenciales y "al que se aplica la ley de los grandes números".

Información adicional

Un bit es la cantidad de entropía en un evento en el que se puede apostar con dos resultados posibles y probabilidades iguales. Obviamente, podríamos duplicar nuestro dinero si supiéramos de antemano cuál sería el resultado de ese evento. La idea de Kelly fue que, sin importar cuán complicado sea el escenario de apuestas, podemos usar una estrategia de apuestas óptima, llamada el criterio de Kelly , para hacer que nuestro dinero crezca exponencialmente con cualquier información adicional que podamos obtener. El valor de esta información adicional "ilícita" se mide como información mutua relativa al resultado del evento en el que se puede apostar:

donde Y es la información adicional, X es el resultado del evento apostable e I es el estado del conocimiento del corredor de apuestas. Esta es la divergencia Kullback-Leibler promedio , o ganancia de información, de la distribución de probabilidad a posteriori de X dado el valor de Y en relación con la distribución a priori , o probabilidades establecidas, en X. Observe que la expectativa se toma sobre Y en lugar de X : necesitamos evaluar qué tan precisa, en el largo plazo, es nuestra información adicional Y antes de comenzar a apostar dinero real en X. Esta es una aplicación directa de la inferencia bayesiana . Observe que la información adicional Y podría afectar no solo nuestro conocimiento del evento X sino también al evento en sí. Por ejemplo, Y podría ser un caballo que tuvo demasiada avena o no suficiente agua. Las mismas matemáticas se aplican en este caso, porque desde el punto de vista del corredor de apuestas, el amaño ocasional de carreras ya se tiene en cuenta cuando hace sus probabilidades.

La naturaleza de la información secundaria es extremadamente delicada. Ya hemos visto que puede afectar tanto al evento real como a nuestro conocimiento del resultado. Supongamos que tenemos un informante que nos dice que cierto caballo va a ganar. Ciertamente no queremos apostar todo nuestro dinero en ese caballo sólo por un rumor: ese informante puede estar apostando por otro caballo y puede estar difundiendo rumores sólo para poder obtener mejores probabilidades. En lugar de eso, como hemos indicado, necesitamos evaluar nuestra información secundaria en el largo plazo para ver cómo se correlaciona con los resultados de las carreras. De esta manera podemos determinar exactamente cuán confiable es nuestro informante y realizar nuestras apuestas con precisión para maximizar el logaritmo esperado de nuestro capital de acuerdo con el criterio de Kelly. Incluso si nuestro informante nos está mintiendo, todavía podemos beneficiarnos de sus mentiras si podemos encontrar alguna correlación inversa entre sus consejos y los resultados reales de la carrera.

Tasa de duplicación

La tasa de duplicación en las apuestas sobre carreras de caballos es [3]

donde hay caballos, la probabilidad de que gane el caballo número 1 es , la proporción de riqueza apostada en el caballo es , y las probabilidades (ganancia) son (por ejemplo, si el caballo número 1 gana, se paga el doble de la cantidad apostada). Esta cantidad se maximiza mediante el juego proporcional (de Kelly):

Para cual

¿Dónde está la entropía de la información ?

Ganancias esperadas

Existe una relación importante pero simple entre la cantidad de información adicional que obtiene un jugador y el crecimiento exponencial esperado de su capital (Kelly):

para una estrategia de apuestas óptima, donde es el capital inicial, es el capital después de la apuesta t y es la cantidad de información adicional obtenida con respecto a la apuesta i (en particular, la información mutua relativa al resultado de cada evento apostable).

Esta ecuación se aplica en ausencia de costos de transacción o apuestas mínimas. Cuando se aplican estas restricciones (como ocurre invariablemente en la vida real), entra en juego otro concepto importante de juego: en un juego con un valor esperado negativo, el jugador (o inversor inescrupuloso) debe enfrentar una cierta probabilidad de ruina final, que se conoce como el escenario de la ruina del jugador . Obsérvese que incluso la comida, la ropa y el alojamiento pueden considerarse costos de transacción fijos y, por lo tanto, contribuyen a la probabilidad de ruina final del jugador.

Esta ecuación fue la primera aplicación de la teoría de la información de Shannon fuera de su paradigma predominante de comunicaciones de datos (Pierce).

Aplicaciones de autoinformación

Sorpresa y evidencia en bits, como medidas logarítmicas de probabilidad y probabilidades respectivamente.

La medida de probabilidad logarítmica autoinformación o sorpresa, [4] cuyo promedio es la entropía /incertidumbre de la información y cuya diferencia promedio es la divergencia KL , tiene aplicaciones en el análisis de probabilidades por sí sola. Sus dos puntos fuertes principales son que las sorpresas: (i) reducen probabilidades minúsculas a números de tamaño manejable y (ii) se suman cuando las probabilidades se multiplican.

Por ejemplo, se podría decir que "la cantidad de estados es igual a dos a la cantidad de bits", es decir, #estados = 2 #bits . Aquí la cantidad que se mide en bits es la medida de información logarítmica mencionada anteriormente. Por lo tanto, hay N bits de sorpresa en que salgan todas caras en el primer lanzamiento de N monedas.

La naturaleza aditiva de las sorpresas y la capacidad de captar su significado con un puñado de monedas pueden ayudar a contextualizar acontecimientos improbables (como ganar la lotería o sufrir un accidente). Por ejemplo, si uno de 17 millones de billetes es ganador, la sorpresa de ganar con una única selección aleatoria es de unos 24 bits. Si se lanzan 24 monedas varias veces, se puede tener una idea de la sorpresa de que todas salgan cara en el primer intento.

La naturaleza aditiva de esta medida también resulta útil a la hora de sopesar alternativas. Por ejemplo, imaginemos que la sorpresa de daño por una vacuna es de 20 bits. Si la sorpresa de contraer una enfermedad sin vacunarse es de 16 bits, pero la sorpresa de daño por la enfermedad si se contrae es de 2 bits, entonces la sorpresa de daño por NO vacunarse es de solo 16+2=18 bits. Independientemente de si se decide vacunarse o no (por ejemplo, el coste monetario de pagarla no está incluido en este debate), de esa manera al menos se puede asumir la responsabilidad de una decisión informada sobre el hecho de que no vacunarse implica más de un bit de riesgo adicional.

En términos más generales, se puede relacionar la probabilidad p con los bits de la sorpresa sbits como probabilidad = 1/2 sbits . Como se sugirió anteriormente, esto es principalmente útil con probabilidades pequeñas. Sin embargo, Jaynes señaló que con las afirmaciones verdaderas o falsas también se pueden definir los bits de evidencia ebits como la sorpresa en contra menos la sorpresa a favor. Esta evidencia en bits se relaciona simplemente con la razón de probabilidades = p/(1-p) = 2 ebits , y tiene ventajas similares a las de la propia autoinformación.

Aplicaciones en juegos de azar

La teoría de la información puede considerarse como una forma de cuantificar la información para tomar la mejor decisión ante una información imperfecta. Es decir, cómo tomar la mejor decisión utilizando únicamente la información de la que se dispone. El objetivo de las apuestas es evaluar racionalmente todas las variables relevantes de un juego/carrera/partido incierto, luego compararlas con las evaluaciones de la casa de apuestas, que normalmente vienen en forma de probabilidades o diferenciales y realizar la apuesta adecuada si las evaluaciones difieren lo suficiente. [5] El área de los juegos de azar donde esto tiene mayor uso es en las apuestas deportivas. Las apuestas deportivas se prestan muy bien a la teoría de la información debido a la disponibilidad de estadísticas. Durante muchos años, economistas destacados han probado diferentes teorías matemáticas utilizando los deportes como su laboratorio, con resultados muy diferentes.

Una teoría sobre las apuestas deportivas es que se trata de un camino aleatorio . El camino aleatorio es un escenario en el que la nueva información, los precios y los retornos fluctuarán por casualidad, esto es parte de la hipótesis del mercado eficiente . La creencia subyacente de la hipótesis del mercado eficiente es que el mercado siempre hará ajustes ante cualquier nueva información. Por lo tanto, nadie puede superar al mercado porque está operando con la misma información a partir de la cual el mercado se ajustó. Sin embargo, según Fama, [6] para tener un mercado eficiente se deben cumplir tres cualidades:

Los estadísticos han demostrado que la tercera condición es la que permite que la teoría de la información sea útil en el análisis de pronósticos deportivos. Cuando no todos están de acuerdo sobre cómo afectará la información al resultado del evento, surgen opiniones divergentes.

Véase también

Referencias

  1. ^ Jaynes, ET (1998/2003) Teoría de la probabilidad: la lógica de la ciencia (Cambridge U. Press, Nueva York).
  2. ^ Kelly, JL (1956). "Una nueva interpretación de la tasa de información" (PDF) . Bell System Technical Journal . 35 (4): 917–926. doi :10.1002/j.1538-7305.1956.tb03809.x. Archivado desde el original (PDF) el 27 de abril de 2019 . Consultado el 5 de septiembre de 2019 .
  3. ^ Thomas M. Cover , Joy A. Thomas. Elementos de la teoría de la información , 1.ª edición. Nueva York: Wiley-Interscience, 1991. ISBN 0-471-06259-6 , Capítulo 6. 
  4. ^ Tribus, Myron (1961) Termodinámica y termostática: Introducción a la energía, la información y los estados de la materia, con aplicaciones de ingeniería (D. Van Nostrand Company Inc., 24 West 40 Street, Nueva York 18, Nueva York, EE. UU.) ASIN: B000ARSH5S.
  5. ^ Hansen, Kristen Brinch. (2006) Apuestas deportivas desde un punto de vista de las finanzas conductuales Archivado el 20 de septiembre de 2018 en Wayback Machine . (Arhus School of Business).
  6. ^ Fama, EF (1970) "Mercados de capital eficientes: una revisión de la teoría y el trabajo independiente", Journal of Financial Economics Volumen 25, 383-417

Enlaces externos