stringtranslate.com

Algoritmo de búsqueda binaria

En informática , la búsqueda binaria , también conocida como búsqueda de medio intervalo , [1] búsqueda logarítmica , [2] o corte binario , [3] es un algoritmo de búsqueda que encuentra la posición de un valor objetivo dentro de una matriz ordenada . [4] [5] La búsqueda binaria compara el valor objetivo con el elemento central de la matriz. Si no son iguales, se elimina la mitad en la que el objetivo no puede estar y la búsqueda continúa en la mitad restante, tomando nuevamente el elemento del medio para compararlo con el valor objetivo y repitiendo esto hasta encontrar el valor objetivo. Si la búsqueda termina con la mitad restante vacía, el objetivo no está en la matriz.

La búsqueda binaria se ejecuta en tiempo logarítmico en el peor de los casos , haciendo comparaciones, donde está el número de elementos del array. [a] [6] La búsqueda binaria es más rápida que la búsqueda lineal , excepto en el caso de matrices pequeñas. Sin embargo, primero se debe ordenar la matriz para poder aplicar la búsqueda binaria. Existen estructuras de datos especializadas diseñadas para búsquedas rápidas, como tablas hash , que se pueden buscar de manera más eficiente que la búsqueda binaria. Sin embargo, la búsqueda binaria se puede utilizar para resolver una gama más amplia de problemas, como encontrar el siguiente elemento más pequeño o el siguiente más grande en la matriz en relación con el objetivo, incluso si está ausente de la matriz.

Existen numerosas variaciones de búsqueda binaria. En particular, la cascada fraccionaria acelera las búsquedas binarias del mismo valor en múltiples matrices. La cascada fraccional resuelve eficientemente una serie de problemas de búsqueda en geometría computacional y en muchos otros campos. La búsqueda exponencial extiende la búsqueda binaria a listas ilimitadas. El árbol de búsqueda binaria y las estructuras de datos del árbol B se basan en la búsqueda binaria.

Algoritmo

La búsqueda binaria funciona en matrices ordenadas. La búsqueda binaria comienza comparando un elemento en el medio de la matriz con el valor objetivo. Si el valor objetivo coincide con el elemento, se devuelve su posición en la matriz. Si el valor objetivo es menor que el elemento, la búsqueda continúa en la mitad inferior de la matriz. Si el valor objetivo es mayor que el elemento, la búsqueda continúa en la mitad superior de la matriz. Al hacer esto, el algoritmo elimina la mitad en la que el valor objetivo no puede estar en cada iteración. [7]

Procedimiento

Dada una matriz de elementos con valores o registros ordenados de manera que y el valor objetivo , la siguiente subrutina utiliza la búsqueda binaria para encontrar el índice de en . [7]

  1. Establecer en y en .
  2. Si es , la búsqueda finaliza sin éxito.
  3. Establezca (la posición del elemento medio) en el piso de , que es el mayor entero menor o igual a .
  4. Si es , configúrelo y vaya al paso 2.
  5. Si es , configúrelo y vaya al paso 2.
  6. Ahora , la búsqueda ha terminado; devolver .

Este procedimiento iterativo realiza un seguimiento de los límites de búsqueda con las dos variables y . El procedimiento se puede expresar en pseudocódigo de la siguiente manera, donde los nombres y tipos de variables siguen siendo los mismos que antes, es la función piso y se refiere a un valor específico que transmite el error de la búsqueda. [7]floorunsuccessful

búsqueda binaria
la función binario_search(A, n, T) es L := 0 R := norte - 1 mientras que L ≤ R hacer m := piso((L + R) / 2) si A[m] < T entonces L := metro + 1 de lo contrario, si A[m] > T entonces R := metro - 1 else : retorno m retorno fallido

Alternativamente, el algoritmo puede tomar el techo de . Esto puede cambiar el resultado si el valor objetivo aparece más de una vez en la matriz.

Procedimiento alternativo

En el procedimiento anterior, el algoritmo verifica si el elemento medio ( ) es igual al objetivo ( ) en cada iteración. Algunas implementaciones omiten esta verificación durante cada iteración. El algoritmo realizaría esta verificación solo cuando queda un elemento (cuando ). Esto da como resultado un ciclo de comparación más rápido, ya que se elimina una comparación por iteración, mientras que solo requiere una iteración más en promedio. [8]

Hermann Bottenbruch publicó la primera implementación que omitía esta verificación en 1962. [8] [9]

  1. Establecer en y en .
  2. Mientras ,
    1. Establezca (la posición del elemento medio) en el techo de , que es el mínimo entero mayor o igual a .
    2. Si , configúrelo en .
    3. Demás, ; ajustado a .
  3. Ahora , la búsqueda ha terminado. Si , regresa . De lo contrario, la búsqueda finaliza como infructuosa.

¿Dónde ceilestá la función techo? El pseudocódigo para esta versión es:

la función binaria_search_alternative(A, n, T) es L := 0 R := norte - 1 mientras que L != R hacer m := techo((L + R) / 2) si A[m] > T entonces R := metro - 1 demás : L := metro si A[L] = T entonces  regresa L regresa sin éxito

Elementos duplicados

El procedimiento puede devolver cualquier índice cuyo elemento sea igual al valor objetivo, incluso si hay elementos duplicados en la matriz. Por ejemplo, si la matriz a buscar fuera y el objetivo fuera , entonces sería correcto que el algoritmo devolviera el cuarto (índice 3) o el quinto (índice 4). El procedimiento normal devolvería el cuarto elemento (índice 3) en este caso. No siempre devuelve el primer duplicado (considere cuál aún devuelve el cuarto elemento). Sin embargo, a veces es necesario encontrar el elemento más a la izquierda o el elemento más a la derecha para un valor objetivo que está duplicado en la matriz. En el ejemplo anterior, el cuarto elemento es el elemento más a la izquierda del valor 4, mientras que el quinto elemento es el elemento más a la derecha del valor 4. El procedimiento alternativo anterior siempre devolverá el índice del elemento más a la derecha si dicho elemento existe. [9]

Procedimiento para encontrar el elemento más a la izquierda.

Para encontrar el elemento más a la izquierda, se puede utilizar el siguiente procedimiento: [10]

  1. Establecer en y en .
  2. Mientras ,
    1. Establezca (la posición del elemento medio) en el piso de , que es el mayor entero menor o igual a .
    2. Si , configúrelo en .
    3. Demás, ; ajustado a .
  3. Devolver .

Si y , entonces es el elemento más a la izquierda que es igual a . Incluso si no está en la matriz, es el rango de la matriz o la cantidad de elementos de la matriz que son menores que .

¿Dónde floorestá la función piso? El pseudocódigo para esta versión es:

función binario_search_leftmost (A, n, T): L := 0 R := norte mientras L <R: m := piso((L + R) / 2) si A[m] <T: L := metro + 1 demás : R := metro volver l

Procedimiento para encontrar el elemento más a la derecha.

Para encontrar el elemento más a la derecha, se puede utilizar el siguiente procedimiento: [10]

  1. Establecer en y en .
  2. Mientras ,
    1. Establezca (la posición del elemento medio) en el piso de , que es el mayor entero menor o igual a .
    2. Si , configúrelo en .
    3. Demás, ; ajustado a .
  3. Devolver .

Si y , entonces es el elemento más a la derecha que es igual a . Incluso si no está en la matriz, es el número de elementos de la matriz que son mayores que .

¿Dónde floorestá la función piso? El pseudocódigo para esta versión es:

función binario_search_rightmost (A, n, T): L := 0 R := norte mientras L <R: m := piso((L + R) / 2) si A[m] > T: R := metro demás : L := metro + 1 devolver R - 1

Coincidencias aproximadas

La búsqueda binaria se puede adaptar para calcular coincidencias aproximadas. En el ejemplo anterior, se muestran el rango, el predecesor, el sucesor y el vecino más cercano para el valor objetivo , que no está en la matriz.

El procedimiento anterior solo realiza coincidencias exactas , encontrando la posición de un valor objetivo. Sin embargo, es trivial extender la búsqueda binaria para realizar coincidencias aproximadas porque la búsqueda binaria opera en matrices ordenadas. Por ejemplo, la búsqueda binaria se puede utilizar para calcular, para un valor dado, su rango (el número de elementos más pequeños), predecesor (el siguiente elemento más pequeño), sucesor (el siguiente elemento más grande) y vecino más cercano . Las consultas de rango que buscan el número de elementos entre dos valores se pueden realizar con dos consultas de rango. [11]

Actuación

Un árbol que representa la búsqueda binaria. La matriz que se busca aquí es y el valor objetivo es .
El peor caso se alcanza cuando la búsqueda alcanza el nivel más profundo del árbol, mientras que el mejor caso se alcanza cuando el valor objetivo es el elemento medio.

En términos del número de comparaciones, el rendimiento de la búsqueda binaria se puede analizar viendo la ejecución del procedimiento en un árbol binario. El nodo raíz del árbol es el elemento medio de la matriz. El elemento medio de la mitad inferior es el nodo hijo izquierdo de la raíz y el elemento medio de la mitad superior es el nodo hijo derecho de la raíz. El resto del árbol está construido de forma similar. A partir del nodo raíz, se atraviesan los subárboles izquierdo o derecho dependiendo de si el valor objetivo es menor o mayor que el nodo bajo consideración. [6] [14]

En el peor de los casos, la búsqueda binaria realiza iteraciones del ciclo de comparación, donde la notación denota la función mínima que produce el mayor entero menor o igual que el argumento, y es el logaritmo binario . Esto se debe a que el peor caso se alcanza cuando la búsqueda alcanza el nivel más profundo del árbol y siempre hay niveles en el árbol para cualquier búsqueda binaria.

El peor de los casos también se puede alcanzar cuando el elemento objetivo no está en la matriz. Si es uno menos que una potencia de dos, entonces siempre es así. De lo contrario, la búsqueda puede realizar iteraciones si alcanza el nivel más profundo del árbol. Sin embargo, puede realizar iteraciones, una menos que en el peor de los casos, si la búsqueda finaliza en el segundo nivel más profundo del árbol. [15]

En promedio, suponiendo que cada elemento tiene la misma probabilidad de ser buscado, la búsqueda binaria realiza iteraciones cuando el elemento de destino está en la matriz. Esto es aproximadamente igual a iteraciones. Cuando el elemento de destino no está en la matriz, la búsqueda binaria realiza iteraciones en promedio, asumiendo que es igualmente probable que se busque el rango entre y los elementos externos. [14]

En el mejor de los casos, cuando el valor objetivo es el elemento central de la matriz, su posición se devuelve después de una iteración. [dieciséis]

En términos de iteraciones, ningún algoritmo de búsqueda que funcione únicamente comparando elementos puede exhibir un mejor rendimiento promedio y en el peor de los casos que la búsqueda binaria. El árbol de comparación que representa la búsqueda binaria tiene la menor cantidad de niveles posibles ya que cada nivel por encima del nivel más bajo del árbol está completamente lleno. [b] De lo contrario, el algoritmo de búsqueda puede eliminar pocos elementos en una iteración, aumentando el número de iteraciones requeridas en el caso promedio y en el peor de los casos. Este es el caso de otros algoritmos de búsqueda basados ​​en comparaciones, ya que si bien pueden funcionar más rápido en algunos valores objetivo, el rendimiento promedio de todos los elementos es peor que el de la búsqueda binaria. Al dividir la matriz por la mitad, la búsqueda binaria garantiza que el tamaño de ambas submatrices sea lo más similar posible. [14]

Complejidad espacial

La búsqueda binaria requiere tres punteros a elementos, que pueden ser índices de matriz o punteros a ubicaciones de memoria, independientemente del tamaño de la matriz. Por lo tanto, la complejidad espacial de la búsqueda binaria está en el modelo de cálculo de la palabra RAM .

Derivación del caso promedio

El número promedio de iteraciones realizadas por búsqueda binaria depende de la probabilidad de que se busque cada elemento. El caso promedio es diferente para búsquedas exitosas y búsquedas fallidas. Se supondrá que cada elemento tiene la misma probabilidad de ser buscado para realizar búsquedas exitosas. Para búsquedas fallidas, se supondrá que los intervalos entre elementos y elementos externos tienen la misma probabilidad de ser buscados. El caso promedio de búsquedas exitosas es el número de iteraciones necesarias para buscar cada elemento exactamente una vez, dividido por el número de elementos. El caso promedio de búsquedas fallidas es el número de iteraciones necesarias para buscar un elemento dentro de cada intervalo exactamente una vez, dividido por los intervalos. [14]

Búsquedas exitosas

En la representación del árbol binario, una búsqueda exitosa se puede representar mediante una ruta desde la raíz hasta el nodo de destino, llamada ruta interna . La longitud de un camino es el número de aristas (conexiones entre nodos) por las que pasa el camino. El número de iteraciones que realiza una búsqueda, dado que el camino correspondiente tiene longitud , se cuenta la iteración inicial. La longitud de la ruta interna es la suma de las longitudes de todas las rutas internas únicas. Dado que sólo hay una ruta desde la raíz hasta cualquier nodo, cada ruta interna representa una búsqueda de un elemento específico. Si hay elementos, que es un entero positivo, y la longitud de la ruta interna es , entonces el número promedio de iteraciones para una búsqueda exitosa , con una iteración agregada para contar la iteración inicial. [14]

Dado que la búsqueda binaria es el algoritmo óptimo para buscar con comparaciones, este problema se reduce a calcular la longitud mínima de la ruta interna de todos los árboles binarios con nodos, que es igual a: [17]

Por ejemplo, en una matriz de 7 elementos, la raíz requiere una iteración, los dos elementos debajo de la raíz requieren dos iteraciones y los cuatro elementos debajo requieren tres iteraciones. En este caso, la longitud del camino interno es: [17]

El número promedio de iteraciones se basaría en la ecuación del caso promedio. La suma de se puede simplificar a: [14]

Sustituyendo la ecuación de en la ecuación de : [14]

Para un número entero , esto equivale a la ecuación para el caso promedio de una búsqueda exitosa especificada anteriormente.

Búsquedas fallidas

Las búsquedas fallidas se pueden representar aumentando el árbol con nodos externos , lo que forma un árbol binario extendido . Si un nodo interno, o un nodo presente en el árbol, tiene menos de dos nodos secundarios, se agregan nodos secundarios adicionales, llamados nodos externos, para que cada nodo interno tenga dos nodos secundarios. Al hacerlo, una búsqueda fallida se puede representar como una ruta a un nodo externo, cuyo padre es el único elemento que permanece durante la última iteración. Una ruta externa es una ruta desde la raíz hasta un nodo externo. La longitud de la ruta externa es la suma de las longitudes de todas las rutas externas únicas. Si hay elementos, que es un entero positivo, y la longitud de la ruta externa es , entonces el número promedio de iteraciones para una búsqueda fallida , con la iteración agregada para contar la iteración inicial. La longitud de la ruta externa se divide por en lugar de porque hay rutas externas, que representan los intervalos entre y fuera de los elementos de la matriz. [14]

Este problema se puede reducir de manera similar a determinar la longitud mínima de la ruta externa de todos los árboles binarios con nodos. Para todos los árboles binarios, la longitud de la ruta externa es igual a la longitud de la ruta interna más . [17] Sustituyendo la ecuación por : [14]

Sustituyendo la ecuación de en la ecuación de , se puede determinar el caso promedio de búsquedas fallidas: [14]

Realización de procedimiento alternativo

Cada iteración del procedimiento de búsqueda binaria definido anteriormente realiza una o dos comparaciones, verificando si el elemento central es igual al objetivo en cada iteración. Suponiendo que cada elemento tiene la misma probabilidad de ser buscado, cada iteración realiza 1,5 comparaciones en promedio. Una variación del algoritmo comprueba si el elemento central es igual al objetivo al final de la búsqueda. En promedio, esto elimina media comparación de cada iteración. Esto reduce ligeramente el tiempo necesario por iteración en la mayoría de las computadoras. Sin embargo, garantiza que la búsqueda tome el número máximo de iteraciones, agregando en promedio una iteración a la búsqueda. Debido a que el ciclo de comparación se realiza solo una vez en el peor de los casos, el ligero aumento en la eficiencia por iteración no compensa la iteración adicional para todos excepto para los muy grandes . [c] [18] [19]

Tiempo de ejecución y uso de caché

Al analizar el rendimiento de la búsqueda binaria, otra consideración es el tiempo necesario para comparar dos elementos. Para números enteros y cadenas, el tiempo requerido aumenta linealmente a medida que aumenta la longitud de codificación (generalmente el número de bits ) de los elementos. Por ejemplo, comparar un par de enteros sin signo de 64 bits requeriría comparar hasta el doble de bits que comparar un par de enteros sin signo de 32 bits. El peor caso se logra cuando los números enteros son iguales. Esto puede ser significativo cuando las longitudes de codificación de los elementos son grandes, como con tipos de enteros grandes o cadenas largas, lo que encarece la comparación de elementos. Además, comparar valores de punto flotante (la representación digital más común de números reales ) suele ser más costoso que comparar números enteros o cadenas cortas.

En la mayoría de las arquitecturas de computadoras, el procesador tiene un caché de hardware separado de la RAM . Dado que están ubicados dentro del propio procesador, es mucho más rápido acceder a las cachés, pero generalmente almacenan muchos menos datos que la RAM. Por lo tanto, la mayoría de los procesadores almacenan ubicaciones de memoria a las que se ha accedido recientemente, junto con ubicaciones de memoria cercanas. Por ejemplo, cuando se accede a un elemento de la matriz, el elemento en sí puede almacenarse junto con los elementos almacenados cerca de él en la RAM, lo que hace que sea más rápido acceder secuencialmente a los elementos de la matriz que tienen un índice cercano entre sí ( localidad de referencia ). . En una matriz ordenada, la búsqueda binaria puede saltar a ubicaciones de memoria distantes si la matriz es grande, a diferencia de los algoritmos (como la búsqueda lineal y el sondeo lineal en tablas hash ) que acceden a los elementos en secuencia. Esto aumenta ligeramente el tiempo de ejecución de la búsqueda binaria para matrices grandes en la mayoría de los sistemas. [20]

Búsqueda binaria versus otros esquemas

Las matrices ordenadas con búsqueda binaria son una solución muy ineficiente cuando las operaciones de inserción y eliminación se intercalan con la recuperación, lo que requiere tiempo para cada una de esas operaciones. Además, las matrices ordenadas pueden complicar el uso de la memoria, especialmente cuando los elementos se insertan con frecuencia en la matriz. [21] Existen otras estructuras de datos que admiten una inserción y eliminación mucho más eficiente. La búsqueda binaria se puede utilizar para realizar coincidencias exactas y establecer membresía (determinando si un valor objetivo está en una colección de valores). Existen estructuras de datos que admiten coincidencias exactas más rápidas y membresías establecidas. Sin embargo, a diferencia de muchos otros esquemas de búsqueda, la búsqueda binaria se puede utilizar para una coincidencia aproximada eficiente, realizando normalmente dichas coincidencias en el tiempo independientemente del tipo o estructura de los valores mismos. [22] Además, hay algunas operaciones, como encontrar el elemento más pequeño y más grande, que se pueden realizar de manera eficiente en una matriz ordenada. [11]

búsqueda lineal

La búsqueda lineal es un algoritmo de búsqueda simple que verifica cada registro hasta encontrar el valor objetivo. La búsqueda lineal se puede realizar en una lista vinculada, lo que permite una inserción y eliminación más rápida que una matriz. La búsqueda binaria es más rápida que la búsqueda lineal para matrices ordenadas, excepto si la matriz es corta, aunque la matriz debe ordenarse de antemano. [d] [24] Todos los algoritmos de clasificación basados ​​en la comparación de elementos, como la clasificación rápida y la clasificación por combinación , requieren al menos comparaciones en el peor de los casos. [25] A diferencia de la búsqueda lineal, la búsqueda binaria se puede utilizar para una coincidencia aproximada eficiente. Hay operaciones como encontrar el elemento más pequeño y más grande que se pueden realizar de manera eficiente en una matriz ordenada pero no en una matriz no ordenada. [26]

Árboles

Los árboles de búsqueda binaria se buscan mediante un algoritmo similar a la búsqueda binaria.

Un árbol de búsqueda binaria es una estructura de datos de árbol binario que funciona según el principio de búsqueda binaria. Los registros del árbol están ordenados y cada registro del árbol se puede buscar utilizando un algoritmo similar a la búsqueda binaria, tomando un tiempo logarítmico promedio. La inserción y eliminación también requieren un tiempo logarítmico promedio en árboles de búsqueda binarios. Esto puede ser más rápido que la inserción y eliminación en tiempo lineal de matrices ordenadas, y los árboles binarios conservan la capacidad de realizar todas las operaciones posibles en una matriz ordenada, incluidas consultas de rango y aproximadas. [22] [27]

Sin embargo, la búsqueda binaria suele ser más eficiente para la búsqueda, ya que los árboles de búsqueda binaria probablemente estarán imperfectamente equilibrados, lo que dará como resultado un rendimiento ligeramente peor que la búsqueda binaria. Esto se aplica incluso a los árboles de búsqueda binarios equilibrados , árboles de búsqueda binarios que equilibran sus propios nodos, porque rara vez producen el árbol con el menor número de niveles posibles. Excepto en el caso de los árboles de búsqueda binarios equilibrados, el árbol puede estar gravemente desequilibrado con pocos nodos internos con dos hijos, lo que da como resultado que el tiempo de búsqueda promedio y el peor de los casos se acerquen a las comparaciones. [e] Los árboles de búsqueda binaria ocupan más espacio que las matrices ordenadas. [29]

Los árboles de búsqueda binaria se prestan para búsquedas rápidas en memoria externa almacenada en discos duros, ya que los árboles de búsqueda binaria se pueden estructurar eficientemente en sistemas de archivos. El árbol B generaliza este método de organización de árboles. Los árboles B se utilizan con frecuencia para organizar el almacenamiento a largo plazo, como bases de datos y sistemas de archivos . [30] [31]

hash

Para implementar matrices asociativas , las tablas hash , una estructura de datos que asigna claves a registros utilizando una función hash , son generalmente más rápidas que la búsqueda binaria en una matriz ordenada de registros. [32] La mayoría de las implementaciones de tablas hash solo requieren un tiempo constante amortizado en promedio. [f] [34] Sin embargo, el hash no es útil para coincidencias aproximadas, como calcular la siguiente clave más pequeña, la siguiente más grande y la más cercana, ya que la única información proporcionada en una búsqueda fallida es que el objetivo no está presente en ninguna registro. [35] La búsqueda binaria es ideal para este tipo de coincidencias, ya que se realiza en tiempo logarítmico. La búsqueda binaria también admite coincidencias aproximadas. Algunas operaciones, como encontrar el elemento más pequeño y más grande, se pueden realizar de manera eficiente en matrices ordenadas, pero no en tablas hash. [22]

Establecer algoritmos de membresía

Un problema relacionado con la búsqueda es el establecimiento de membresía . Cualquier algoritmo que realice búsquedas, como la búsqueda binaria, también se puede utilizar para la membresía establecida. Existen otros algoritmos que son más específicamente adecuados para la membresía de conjuntos. Una matriz de bits es la más simple y útil cuando el rango de claves es limitado. Almacena de forma compacta una colección de bits , donde cada bit representa una única clave dentro del rango de claves. Las matrices de bits son muy rápidas y solo requieren tiempo. [36] El tipo Judy1 de matriz Judy maneja claves de 64 bits de manera eficiente. [37]

Para obtener resultados aproximados, los filtros Bloom , otra estructura de datos probabilística basada en hash, almacenan un conjunto de claves codificándolas utilizando una matriz de bits y múltiples funciones hash. Los filtros Bloom ahorran mucho más espacio que las matrices de bits en la mayoría de los casos y no son mucho más lentos: con las funciones hash, las consultas de membresía solo requieren tiempo. Sin embargo, los filtros Bloom sufren de falsos positivos . [g] [h] [39]

Otras estructuras de datos

Existen estructuras de datos que pueden mejorar la búsqueda binaria en algunos casos tanto para la búsqueda como para otras operaciones disponibles para matrices ordenadas. Por ejemplo, las búsquedas, coincidencias aproximadas y las operaciones disponibles para matrices ordenadas se pueden realizar de manera más eficiente que la búsqueda binaria en estructuras de datos especializadas como árboles de van Emde Boas , árboles de fusión , intentos y matrices de bits . Estas estructuras de datos especializadas generalmente son más rápidas porque aprovechan las propiedades de las claves con un determinado atributo (generalmente claves que son números enteros pequeños) y, por lo tanto, consumirán tiempo o espacio para las claves que carecen de ese atributo. [22] Siempre que las claves se puedan ordenar, estas operaciones siempre se pueden realizar al menos de manera eficiente en una matriz ordenada, independientemente de las claves. Algunas estructuras, como las matrices Judy, utilizan una combinación de enfoques para mitigar esto y al mismo tiempo conservan la eficiencia y la capacidad de realizar coincidencias aproximadas. [37]

Variaciones

Búsqueda binaria uniforme

La búsqueda binaria uniforme almacena la diferencia entre el elemento intermedio actual y los dos siguientes posibles elementos intermedios en lugar de límites específicos.

La búsqueda binaria uniforme almacena, en lugar de los límites superior e inferior, la diferencia en el índice del elemento central de la iteración actual a la siguiente iteración. De antemano se calcula una tabla de búsqueda que contiene las diferencias. Por ejemplo, si la matriz a buscar es [1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11] , el elemento del medio ( ) sería 6 . En este caso, el elemento medio del subarreglo izquierdo ( [1, 2, 3, 4, 5] ) es 3 y el elemento medio del subarreglo derecho ( [7, 8, 9, 10, 11] ) es 9 . La búsqueda binaria uniforme almacenaría el valor de 3 ya que ambos índices difieren de 6 en la misma cantidad. [40] Para reducir el espacio de búsqueda, el algoritmo suma o resta este cambio del índice del elemento central. La búsqueda binaria uniforme puede ser más rápida en sistemas donde es ineficiente calcular el punto medio, como en las computadoras decimales . [41]

búsqueda exponencial

Visualización de búsqueda exponencial encontrando el límite superior para la búsqueda binaria posterior.

La búsqueda exponencial extiende la búsqueda binaria a listas ilimitadas. Comienza encontrando el primer elemento con un índice que sea a la vez una potencia de dos y mayor que el valor objetivo. Luego, establece ese índice como límite superior y cambia a búsqueda binaria. Una búsqueda requiere iteraciones antes de que se inicie la búsqueda binaria y, como máximo, iteraciones de la búsqueda binaria, donde está la posición del valor objetivo. La búsqueda exponencial funciona en listas acotadas, pero se convierte en una mejora con respecto a la búsqueda binaria sólo si el valor objetivo se encuentra cerca del comienzo de la matriz. [42]

Búsqueda por interpolación

Visualización de la búsqueda por interpolación mediante interpolación lineal. En este caso, no es necesaria ninguna búsqueda porque la estimación de la ubicación del objetivo dentro de la matriz es correcta. Otras implementaciones pueden especificar otra función para estimar la ubicación del objetivo.

En lugar de calcular el punto medio, la búsqueda por interpolación estima la posición del valor objetivo, teniendo en cuenta los elementos más bajos y más altos de la matriz, así como la longitud de la matriz. Funciona sobre la base de que el punto medio no es la mejor suposición en muchos casos. Por ejemplo, si el valor objetivo está cerca del elemento más alto de la matriz, es probable que esté ubicado cerca del final de la matriz. [43]

Una función de interpolación común es la interpolación lineal . Si es la matriz, son los límites inferior y superior respectivamente, y es el objetivo, entonces se estima que el objetivo está en el camino entre y . Cuando se utiliza la interpolación lineal y la distribución de los elementos de la matriz es uniforme o casi uniforme, la búsqueda por interpolación realiza comparaciones. [43] [44] [45]

En la práctica, la búsqueda por interpolación es más lenta que la búsqueda binaria para matrices pequeñas, ya que la búsqueda por interpolación requiere cálculos adicionales. Su complejidad temporal crece más lentamente que la búsqueda binaria, pero esto sólo compensa el cálculo adicional para matrices grandes. [43]

cascada fraccionaria

En cascada fraccionaria , cada matriz tiene punteros a cada segundo elemento de otra matriz, por lo que solo se debe realizar una búsqueda binaria para buscar en todas las matrices.

La cascada fraccional es una técnica que acelera las búsquedas binarias del mismo elemento en múltiples matrices ordenadas. Buscar cada matriz por separado requiere tiempo, donde está el número de matrices. La cascada fraccional reduce esto al almacenamiento de información específica en cada matriz sobre cada elemento y su posición en las otras matrices. [46] [47]

La cascada fraccional se desarrolló originalmente para resolver de manera eficiente varios problemas de geometría computacional . La cascada fraccionada se ha aplicado en otros lugares, como en la minería de datos y el enrutamiento del protocolo de Internet . [46]

Generalización a gráficos.

La búsqueda binaria se ha generalizado para funcionar en ciertos tipos de gráficos, donde el valor objetivo se almacena en un vértice en lugar de en un elemento de matriz. Los árboles de búsqueda binaria son una de esas generalizaciones: cuando se consulta un vértice (nodo) en el árbol, el algoritmo aprende que el vértice es el objetivo o, en caso contrario, en qué subárbol se ubicaría el objetivo. Sin embargo, esto se puede generalizar aún más como siguiente: dado un gráfico no dirigido, ponderado positivamente y un vértice objetivo, el algoritmo aprende al consultar un vértice que es igual al objetivo, o se le da un borde incidente que está en el camino más corto desde el vértice consultado hasta el objetivo. El algoritmo de búsqueda binaria estándar es simplemente el caso en el que el gráfico es una ruta. De manera similar, los árboles de búsqueda binarios son el caso en el que los bordes de los subárboles izquierdo o derecho se dan cuando el vértice consultado no es igual al objetivo. Para todos los gráficos no dirigidos y ponderados positivamente, existe un algoritmo que encuentra el vértice objetivo en las consultas en el peor de los casos. [48]

Búsqueda binaria ruidosa

En una búsqueda binaria ruidosa, existe una cierta probabilidad de que una comparación sea incorrecta.

Los ruidosos algoritmos de búsqueda binaria resuelven el caso en el que el algoritmo no puede comparar de manera confiable los elementos de la matriz. Para cada par de elementos, existe una cierta probabilidad de que el algoritmo realice una comparación incorrecta. La búsqueda binaria ruidosa puede encontrar la posición correcta del objetivo con una probabilidad dada que controla la confiabilidad de la posición obtenida. Todo procedimiento de búsqueda binaria ruidoso debe hacer al menos comparaciones en promedio, donde es la función de entropía binaria y es la probabilidad de que el procedimiento arroje la posición incorrecta. [49] [50] [51] El ruidoso problema de búsqueda binaria puede considerarse como un caso del juego Rényi-Ulam , [52] una variante de las Veinte Preguntas donde las respuestas pueden ser incorrectas. [53]

Búsqueda binaria cuántica

Las computadoras clásicas están limitadas al peor de los casos de iteraciones exactas al realizar una búsqueda binaria. Los algoritmos cuánticos para la búsqueda binaria todavía están limitados a una proporción de consultas (que representan iteraciones del procedimiento clásico), pero el factor constante es menor que uno, lo que proporciona una menor complejidad temporal en las computadoras cuánticas . Cualquier procedimiento de búsqueda binaria cuántica exacta , es decir, un procedimiento que siempre arroje el resultado correcto, requiere al menos consultas en el peor de los casos, ¿dónde está el logaritmo natural ? [54] Existe un procedimiento de búsqueda binaria cuántica exacta que se ejecuta en consultas en el peor de los casos. [55] En comparación, el algoritmo de Grover es el algoritmo cuántico óptimo para buscar una lista desordenada de elementos y requiere consultas. [56]

Historia

La idea de ordenar una lista de elementos para permitir una búsqueda más rápida se remonta a la antigüedad. El ejemplo más antiguo conocido fue la tablilla de Inakibit-Anu de Babilonia que data de c.  200 a . C. La tablilla contenía alrededor de 500 números sexagesimales y sus recíprocos ordenados en orden lexicográfico , lo que facilitaba la búsqueda de una entrada específica. Además, en las islas del Egeo se descubrieron varias listas de nombres ordenados por su primera letra . Catholicon , un diccionario latino terminado en 1286 EC, fue el primer trabajo en describir reglas para clasificar las palabras en orden alfabético, en lugar de solo las primeras letras. [9]

En 1946, John Mauchly hizo la primera mención de la búsqueda binaria como parte de las Conferencias de la Escuela Moore , un curso universitario fundamental y fundamental en informática. [9] En 1957, William Wesley Peterson publicó el primer método de búsqueda por interpolación. [9] [57] Cada algoritmo de búsqueda binaria publicado funcionó solo para matrices cuya longitud es uno menos que una potencia de dos [i] hasta 1960, cuando Derrick Henry Lehmer publicó un algoritmo de búsqueda binaria que funcionó en todas las matrices. [59] En 1962, Hermann Bottenbruch presentó una implementación ALGOL 60 de búsqueda binaria que colocaba la comparación de igualdad al final, aumentando el número promedio de iteraciones en uno, pero reduciendo a uno el número de comparaciones por iteración. [8] La búsqueda binaria uniforme fue desarrollada por AK Chandra de la Universidad de Stanford en 1971. [9] En 1986, Bernard Chazelle y Leonidas J. Guibas introdujeron la cascada fraccionaria como método para resolver numerosos problemas de búsqueda en geometría computacional . [46] [60] [61]

Problemas de implementación

Aunque la idea básica de la búsqueda binaria es comparativamente sencilla, los detalles pueden ser sorprendentemente complicados.

-Donald  Knuth [2]

Cuando Jon Bentley asignó la búsqueda binaria como un problema en un curso para programadores profesionales, descubrió que el noventa por ciento no logró proporcionar una solución correcta después de varias horas de trabajo en ella, principalmente porque las implementaciones incorrectas no se ejecutaron o devolvieron una respuesta incorrecta en raras ocasiones. casos extremos . [62] Un estudio publicado en 1988 muestra que el código exacto sólo se encuentra en cinco de veinte libros de texto. [63] Además, la propia implementación de búsqueda binaria de Bentley, publicada en su libro Programming Pearls de 1986 , contenía un error de desbordamiento que permaneció sin detectar durante más de veinte años. La implementación de búsqueda binaria de la biblioteca del lenguaje de programación Java tuvo el mismo error de desbordamiento durante más de nueve años. [64]

En una implementación práctica, las variables utilizadas para representar los índices a menudo serán de tamaño fijo (enteros), y esto puede resultar en un desbordamiento aritmético para matrices muy grandes. Si el punto medio del intervalo se calcula como , entonces el valor de puede exceder el rango de números enteros del tipo de datos utilizado para almacenar el punto medio, incluso si y están dentro del rango. Si y no son negativos, esto se puede evitar calculando el punto medio como . [sesenta y cinco]

Puede ocurrir un bucle infinito si las condiciones de salida del bucle no se definen correctamente. Una vez superado , la búsqueda ha fracasado y debe transmitir el fracaso de la búsqueda. Además, se debe salir del bucle cuando se encuentra el elemento de destino o, en el caso de una implementación en la que esta verificación se mueve al final, se deben verificar si la búsqueda fue exitosa o fallida al final. Bentley descubrió que la mayoría de los programadores que implementaron incorrectamente la búsqueda binaria cometieron un error al definir las condiciones de salida. [8] [66]

Soporte de biblioteca

Las bibliotecas estándar de muchos idiomas incluyen rutinas de búsqueda binaria:

Ver también

notas y referencias

Este artículo se envió a WikiJournal of Science para revisión por pares académicos externos en 2018 (informes de revisores). El contenido actualizado se reintegró a la página de Wikipedia bajo una licencia CC-BY-SA-3.0 ( 2019 ). La versión del expediente revisada es: Anthony Lin; et al. (2 de julio de 2019). "Algoritmo de búsqueda binaria" (PDF) . WikiRevista científica . 2 (1): 5. doi :10.15347/WJS/2019.005. ISSN  2470-6345. Wikidata  Q81434400.

Notas

  1. ^ La notación es Big O y es el logaritmo . En notación O grande, la base del logaritmo no importa ya que cada logaritmo de una base determinada es un factor constante de otro logaritmo de otra base. Es decir, donde es una constante.
  2. ^ Cualquier algoritmo de búsqueda basado únicamente en comparaciones se puede representar mediante un árbol de comparación binario. Una ruta interna es cualquier ruta desde la raíz hasta un nodo existente. Sea la longitud del camino interno , la suma de las longitudes de todos los caminos internos. Si cada elemento tiene la misma probabilidad de ser buscado, el caso promedio es o simplemente uno más el promedio de todas las longitudes de rutas internas del árbol. Esto se debe a que las rutas internas representan los elementos que el algoritmo de búsqueda compara con el objetivo. Las longitudes de estas rutas internas representan el número de iteraciones después del nodo raíz. Sumar el promedio de estas longitudes a la iteración en la raíz produce el caso promedio. Por lo tanto, para minimizar el número promedio de comparaciones, se debe minimizar la longitud del camino interno. Resulta que el árbol para la búsqueda binaria minimiza la longitud de la ruta interna. Knuth 1998 demostró que la longitud del camino externo (la longitud del camino a través de todos los nodos donde ambos hijos están presentes para cada nodo ya existente) se minimiza cuando los nodos externos (los nodos sin hijos) se encuentran dentro de dos niveles consecutivos del árbol. Esto también se aplica a las rutas internas, ya que la longitud de la ruta interna está relacionada linealmente con la longitud de la ruta externa . Para cualquier árbol de nodos, . Cuando cada subárbol tiene un número similar de nodos, o de manera equivalente, la matriz se divide en mitades en cada iteración, los nodos externos así como sus nodos principales interiores se encuentran dentro de dos niveles. De ello se deduce que la búsqueda binaria minimiza el número de comparaciones promedio ya que su árbol de comparación tiene la longitud de ruta interna más baja posible. [14]
  3. Knuth 1998 demostró en su modelo de computadora MIX , que Knuth diseñó como una representación de una computadora común, que el tiempo de ejecución promedio de esta variación para una búsqueda exitosa es de unidades de tiempo en comparación con las unidades de una búsqueda binaria normal. La complejidad temporal de esta variación crece ligeramente más lentamente, pero a costa de una mayor complejidad inicial. [18]
  4. ^ Knuth 1998 realizó un análisis formal del rendimiento temporal de ambos algoritmos de búsqueda. En la computadora MIX de Knuth , que Knuth diseñó como una representación de una computadora común, la búsqueda binaria toma en promedio unidades de tiempo para una búsqueda exitosa, mientras que la búsqueda lineal con un nodo centinela al final de la lista toma unidades. La búsqueda lineal tiene una complejidad inicial más baja porque requiere un cálculo mínimo, pero rápidamente supera en complejidad a la búsqueda binaria. En la computadora MIX, la búsqueda binaria solo supera a la búsqueda lineal con un centinela si . [14] [23]
  5. ^ La inserción de los valores en orden o en un patrón de clave alternativo de menor a mayor dará como resultado un árbol de búsqueda binario que maximiza el tiempo de búsqueda promedio y en el peor de los casos. [28]
  6. ^ Es posible buscar algunas implementaciones de tablas hash en un tiempo constante garantizado. [33]
  7. ^ Esto se debe a que simplemente configurar todos los bits a los que apuntan las funciones hash para una clave específica puede afectar las consultas de otras claves que tienen una ubicación hash común para una o más funciones. [38]
  8. ^ Existen mejoras en el filtro Bloom que mejoran su complejidad o admiten la eliminación; por ejemplo, el filtro cuco explota el hashing cuco para obtener estas ventajas. [38]
  9. ^ Es decir, matrices de longitud 1, 3, 7, 15, 31... [58]

Citas

  1. ^ Williams, Jr., Louis F. (22 de abril de 1976). Una modificación del método de búsqueda de medio intervalo (búsqueda binaria). Actas de la 14ª Conferencia ACM Sureste. ACM. págs. 95-101. doi : 10.1145/503561.503582 . Archivado desde el original el 12 de marzo de 2017 . Consultado el 29 de junio de 2018 .
  2. ^ ab Knuth 1998, §6.2.1 ("Búsqueda en una tabla ordenada"), subsección "Búsqueda binaria".
  3. ^ Butterfield y Ngondi 2016, pág. 46.
  4. ^ Cormen et al. 2009, pág. 39.
  5. ^ Weisstein, Eric W. "Búsqueda binaria". MundoMatemático .
  6. ^ ab Flores, Iván; Madpis, George (1 de septiembre de 1971). "Longitud promedio de búsqueda binaria para listas ordenadas densas". Comunicaciones de la ACM . 14 (9): 602–603. doi : 10.1145/362663.362752 . ISSN  0001-0782. S2CID  43325465.
  7. ^ abc Knuth 1998, §6.2.1 ("Búsqueda en una tabla ordenada"), subsección "Algoritmo B".
  8. ^ abcd Bottenbruch, Hermann (1 de abril de 1962). "Estructura y uso de ALGOL 60". Revista de la ACM . 9 (2): 161–221. doi : 10.1145/321119.321120 . ISSN  0004-5411. S2CID  13406983.El procedimiento se describe en la pág. 214 (§43), titulado "Programa de búsqueda binaria".
  9. ^ abcdef Knuth 1998, §6.2.1 ("Búsqueda en una tabla ordenada"), subsección "Historia y bibliografía".
  10. ^ ab Kasahara y Morishita 2006, págs. 8–9.
  11. ^ abc Sedgewick & Wayne 2011, §3.1, subsección "Clasificación y selección".
  12. ^ abc Goldman y Goldman 2008, págs.
  13. ^ Sedgewick & Wayne 2011, §3.1, subsección "Consultas de rango".
  14. ^ abcdefghijkl Knuth 1998, §6.2.1 ("Búsqueda en una tabla ordenada"), subsección "Análisis adicional de la búsqueda binaria".
  15. ^ Knuth 1998, §6.2.1 ("Búsqueda en una tabla ordenada"), "Teorema B".
  16. ^ Chang 2003, pag. 169.
  17. ^ abc Knuth 1997, §2.3.4.5 ("Longitud del camino").
  18. ^ ab Knuth 1998, §6.2.1 ("Búsqueda en una tabla ordenada"), subsección "Ejercicio 23".
  19. ^ Rolfe, Timothy J. (1997). "Derivación analítica de comparaciones en búsqueda binaria". Boletín ACM SIGNUM . 32 (4): 15-19. doi : 10.1145/289251.289255 . S2CID  23752485.
  20. ^ Khuong, Paul-Virak; Morin, Pat (2017). "Diseños de matriz para búsquedas basadas en comparaciones". Revista de algorítmica experimental . 22 . Artículo 1.3. arXiv : 1509.05053 . doi :10.1145/3053370. S2CID  23752485.
  21. ^ Knuth 1997, §2.2.2 ("Asignación secuencial").
  22. ^ abcd Beame, Paul; Fich, Fe E. (2001). "Límites óptimos para el problema predecesor y problemas relacionados". Revista de Ciencias de la Computación y de Sistemas . 65 (1): 38–72. doi : 10.1006/jcss.2002.1822 .
  23. ^ Knuth 1998, Respuestas a los ejercicios (§6.2.1) para el "Ejercicio 5".
  24. ^ Knuth 1998, §6.2.1 ("Búsqueda en una tabla ordenada").
  25. ^ Knuth 1998, §5.3.1 ("Clasificación por comparación mínima").
  26. ^ Sedgewick & Wayne 2011, §3.2 ("Tablas de símbolos ordenados").
  27. ^ Sedgewick & Wayne 2011, §3.2 ("Árboles de búsqueda binaria"), subsección "Métodos basados ​​en pedidos y eliminación".
  28. ^ Knuth 1998, §6.2.2 ("Búsqueda en árbol binario"), subsección "¿Pero qué pasa en el peor de los casos?".
  29. ^ Sedgewick & Wayne 2011, §3.5 ("Aplicaciones"), "¿Qué implementación de tabla de símbolos debo usar?".
  30. ^ Knuth 1998, §5.4.9 ("Discos y tambores").
  31. ^ Knuth 1998, §6.2.4 ("Árboles de múltiples vías").
  32. ^ Knuth 1998, §6.4 ("Hashing").
  33. ^ Knuth 1998, §6.4 ("Hashing"), subsección "Historia".
  34. ^ Dietzfelbinger, Martín; Karlín, Anna ; Mehlhorn, Kurt ; Meyer auf der Heide, Friedhelm; Rohnert, Hans; Tarjan, Robert E. (agosto de 1994). "Hash dinámico perfecto: límites superior e inferior". Revista SIAM de Computación . 23 (4): 738–761. doi :10.1137/S0097539791194094.
  35. ^ Morin, Pat. "Tablas hash" (PDF) . pag. 1. Archivado (PDF) desde el original el 9 de octubre de 2022 . Consultado el 28 de marzo de 2016 .
  36. ^ Knuth 2011, §7.1.3 ("Trucos y técnicas bit a bit").
  37. ^ ab Silverstein, Alan, manual de taller de Judy IV (PDF) , Hewlett-Packard , págs. 80–81, archivado (PDF) del original el 9 de octubre de 2022
  38. ^ ab Ventilador, contenedor; Andersen, Dave G.; Kaminsky, Michael; Mitzenmacher, Michael D. (2014). Filtro cuco: prácticamente mejor que Bloom . Actas de la décima conferencia internacional ACM sobre tecnologías y experimentos de redes emergentes. págs. 75–88. doi : 10.1145/2674005.2674994 .
  39. ^ Floración, Burton H. (1970). "Compensaciones de espacio/tiempo en codificación hash con errores permitidos". Comunicaciones de la ACM . 13 (7): 422–426. CiteSeerX 10.1.1.641.9096 . doi :10.1145/362686.362692. S2CID  7931252. 
  40. ^ Knuth 1998, §6.2.1 ("Búsqueda en una tabla ordenada"), subsección "Una variación importante".
  41. ^ Knuth 1998, §6.2.1 ("Búsqueda en una tabla ordenada"), subsección "Algoritmo U".
  42. ^ Moffat y Turpin 2002, pág. 33.
  43. ^ abc Knuth 1998, §6.2.1 ("Búsqueda en una tabla ordenada"), subsección "Búsqueda por interpolación".
  44. ^ Knuth 1998, §6.2.1 ("Búsqueda en una tabla ordenada"), subsección "Ejercicio 22".
  45. ^ Perl, Yehoshua; Itaí, Alón; Avni, Haim (1978). "Búsqueda de interpolación: una búsqueda de registro y registro". Comunicaciones de la ACM . 21 (7): 550–553. doi : 10.1145/359545.359557 . S2CID  11089655.
  46. ^ a b C Chazelle, Bernard ; Liu, Ding (6 de julio de 2001). Límites inferiores para búsqueda de intersecciones y cascada fraccionaria en dimensión superior. 33º Simposio ACM sobre Teoría de la Computación . ACM. págs. 322–329. doi :10.1145/380752.380818. ISBN 978-1-58113-349-3. Consultado el 30 de junio de 2018 .
  47. ^ Chazelle, Bernardo ; Liu, Ding (1 de marzo de 2004). "Límites inferiores para búsqueda de intersecciones y cascada fraccionaria en dimensión superior" (PDF) . Revista de Ciencias de la Computación y de Sistemas . 68 (2): 269–284. CiteSeerX 10.1.1.298.7772 . doi :10.1016/j.jcss.2003.07.003. ISSN  0022-0000. Archivado (PDF) desde el original el 9 de octubre de 2022 . Consultado el 30 de junio de 2018 . 
  48. ^ Emamjomeh-Zadeh, Ehsan; Kempe, David; Singhal, Vikrant (2016). Búsqueda binaria determinista y probabilística en gráficos . 48º Simposio ACM sobre Teoría de la Computación . págs. 519–532. arXiv : 1503.00805 . doi :10.1145/2897518.2897656.
  49. ^ Ben-Or, Michael; Jasidim, Avinatan (2008). "El alumno bayesiano es óptimo para búsquedas binarias ruidosas (y bastante bueno también para cuántica)" (PDF) . 49º Simposio sobre Fundamentos de la Informática . págs. 221-230. doi :10.1109/FOCS.2008.58. ISBN 978-0-7695-3436-7. Archivado (PDF) desde el original el 9 de octubre de 2022.
  50. ^ Pelc, Andrzej (1989). "Búsqueda con probabilidad de error conocida". Informática Teórica . 63 (2): 185-202. doi : 10.1016/0304-3975(89)90077-7 .
  51. ^ Rivest, Ronald L .; Meyer, Albert R .; Kleitman, Daniel J .; Winklmann, K. Cómo afrontar errores en los procedimientos de búsqueda binaria . X Simposio ACM sobre Teoría de la Computación . doi : 10.1145/800133.804351 .
  52. ^ Pelc, Andrzej (2002). "Buscando juegos con errores: cincuenta años lidiando con mentirosos". Informática Teórica . 270 (1–2): 71–109. doi : 10.1016/S0304-3975(01)00303-6 .
  53. ^ Rényi, Alfred (1961). "Sobre un problema de teoría de la información". Magyar Tudományos Akadémia Matematikai Kutató Intézetének Közleményei (en húngaro). 6 : 505–516. SEÑOR  0143666.
  54. ^ Hoyer, Peter; Neerbek, enero; Shi, Yaoyun (2002). "Las complejidades cuánticas de la búsqueda ordenada, la clasificación y la distinción de elementos". Algorítmica . 34 (4): 429–448. arXiv : quant-ph/0102078 . doi :10.1007/s00453-002-0976-3. S2CID  13717616.
  55. ^ Niños, Andrew M.; Landahl, Andrew J.; Parrilo, Pablo A. (2007). "Algoritmos cuánticos para el problema de búsqueda ordenada mediante programación semidefinida". Revisión física A. 75 (3). 032335. arXiv : quant-ph/0608161 . Código bibliográfico : 2007PhRvA..75c2335C. doi : 10.1103/PhysRevA.75.032335. S2CID  41539957.
  56. ^ Grover, Lov K. (1996). Un algoritmo rápido de mecánica cuántica para la búsqueda de bases de datos . 28º Simposio ACM sobre Teoría de la Computación . Filadelfia, Pensilvania. págs. 212-219. arXiv : quant-ph/9605043 . doi :10.1145/237814.237866.
  57. ^ Peterson, William Wesley (1957). "Direccionamiento para almacenamiento de acceso aleatorio". Revista IBM de investigación y desarrollo . 1 (2): 130–146. doi :10.1147/rd.12.0130.
  58. ^ "2 norte -1". OEIS A000225 Archivado el 8 de junio de 2016 en Wayback Machine . Consultado el 7 de mayo de 2016.
  59. ^ Lehmer, Torre de perforación (1960). "Enseñar trucos combinatorios a una computadora". Actas de simposios en matemáticas aplicadas . 10 : 180–181. doi : 10.1090/psapm/010 . ISBN 9780821813102.
  60. ^ Chazelle, Bernardo ; Guibas, Leónidas J. (1986). "Cascada fraccionada: I. Una técnica de estructuración de datos" (PDF) . Algorítmica . 1 (1–4): 133–162. CiteSeerX 10.1.1.117.8349 . doi :10.1007/BF01840440. S2CID  12745042. 
  61. ^ Chazelle, Bernardo ; Guibas, Leonidas J. (1986), "Cascada fraccionada: II. Aplicaciones" (PDF) , Algorithmica , 1 (1–4): 163–191, doi :10.1007/BF01840441, S2CID  11232235
  62. ^ Bentley 2000, §4.1 ("El desafío de la búsqueda binaria").
  63. ^ Pattis, Richard E. (1988). "Errores de libros de texto en búsqueda binaria". Boletín SIGCSE . 20 : 190–194. doi :10.1145/52965.53012.
  64. ^ Bloch, Joshua (2 de junio de 2006). "Extra, extra: lea todo al respecto: casi todas las búsquedas binarias y fusiones están rotas". Blog de investigación de Google . Archivado desde el original el 1 de abril de 2016 . Consultado el 21 de abril de 2016 .
  65. ^ Ruggieri, Salvatore (2003). "Sobre calcular la semisuma de dos números enteros" (PDF) . Cartas de procesamiento de información . 87 (2): 67–71. CiteSeerX 10.1.1.13.5631 . doi :10.1016/S0020-0190(03)00263-1. Archivado (PDF) desde el original el 3 de julio de 2006 . Consultado el 19 de marzo de 2016 . 
  66. ^ Bentley 2000, §4.4 ("Principios").
  67. ^ "bsearch: búsqueda binaria en una tabla ordenada". Especificaciones básicas del grupo abierto (7ª ed.). El grupo abierto . 2013. Archivado desde el original el 21 de marzo de 2016 . Consultado el 28 de marzo de 2016 .
  68. ^ Stroustrup 2013, pag. 945.
  69. ^ "std.range - Lenguaje de programación D". dlang.org . Consultado el 29 de abril de 2020 .
  70. ^ Unisys (2012), manual de referencia de programación COBOL ANSI-85 , vol. 1, págs. 598–601
  71. ^ "Clasificación de paquetes". El lenguaje de programación Go . Archivado desde el original el 25 de abril de 2016 . Consultado el 28 de abril de 2016 .
  72. ^ "java.util.Arrays". Documentación de la plataforma Java Standard Edition 8 . Corporación Oráculo . Archivado desde el original el 29 de abril de 2016 . Consultado el 1 de mayo de 2016 .
  73. ^ "java.util.Colecciones". Documentación de la plataforma Java Standard Edition 8 . Corporación Oráculo . Archivado desde el original el 23 de abril de 2016 . Consultado el 1 de mayo de 2016 .
  74. ^ "Lista <T>.Método BinarySearch (T)". Red de desarrolladores de Microsoft . Archivado desde el original el 7 de mayo de 2016 . Consultado el 10 de abril de 2016 .
  75. ^ "NSArray". Biblioteca para desarrolladores de Mac . Apple Inc. Archivado desde el original el 17 de abril de 2016 . Consultado el 1 de mayo de 2016 .
  76. ^ "CFArray". Biblioteca para desarrolladores de Mac . Apple Inc. Archivado desde el original el 20 de abril de 2016 . Consultado el 1 de mayo de 2016 .
  77. ^ "8.6. bisect - Algoritmo de bisección de matriz". La biblioteca estándar de Python . Fundación de software Python. Archivado desde el original el 25 de marzo de 2018 . Consultado el 26 de marzo de 2018 .
  78. ^ Fitzgerald 2015, pag. 152.

Fuentes

enlaces externos