Esta tesis trata la técnica de prebúsqueda aplicada a la World Wide Web. Esta técnica se fundamenta en procesar (p.e. descargar) una petición Web antes de que el usuario la realice para que, de esta forma, consigamos reducir el tiempo de espera percibido por el usuario final, objetivo último de las técnicas de prebúsqueda en la Web. El estudio del estado del arte de la prebúsqueda web puso de manifiesto una gran heterogeneidad en cómo se evaluaban las prestaciones. Podemos destacar cuatro aspectos principales: i) no existía un entorno libre de desarrollo en el que simular y evaluar las técnicas de prebúsqueda ya propuestas; ii) el conjunto de índices de prestaciones a maximizar no era uniforme, o incluso su propia definición; iii) no había ningún estudio comparativo de algoritmos de predicción que tuviera en cuenta los costes y los beneficios de la prebúsqueda de forma conjunta; y iv) la evaluación de las técnicas propuestas se realizaba bajo cargas de trabajo muy distintas o poco significativas. Durante la investigación, hemos contribuido a homogeneizar la evaluación de prestaciones por medio del desarrollo de un entorno de simulación que reproduce detalladamente todos los aspectos que afectan a las prestaciones de la prebúsqueda. Además, hemos analizado las métricas de prestaciones utilizadas en los estudios de prebúsqueda para clarificar su definición y detectar cuáles eran las más significativas desde el punto de vista del usuario. También hemos propuesto una metodología de evaluación que considere el coste y el beneficio de la prebúsqueda de forma conjunta. Por último, se ha resaltado la importancia de utilizar cargas de trabajo actuales para evaluar las prestaciones de la prebúsqueda, ya que, en caso contrario, podríamos obtener conclusiones incorrectas. El análisis de los beneficios potenciales de cada posible arquitectura del sistema nos mostró que, potencialmente, los predictores colaborativos podrían reducir casi toda la latencia percibida por los usuarios. El primer paso para desarrollar un predictor colaborativo es hacer las predicciones desde el servidor, por lo que en esta tesis nos centramos en una arquitectura de prebúsqueda en la que el predictor de accesos está situado en el servidor web. Por otra parte, las condiciones del entorno que nos podemos encontrar en la web son también heterogéneas, por lo que la forma óptima de utilizar la prebúsqueda podría ser también distinta dependiendo de este entorno. Por ello, hemos estudiado bajo que condiciones es mejor maximizar bien el número de objetos prebuscados, bien el tamaño de dichos objetos, para obtener las máximas prestaciones. Los resultados muestran que, cuando el ancho de banda disponible por el usuario aumenta, las técnicas de prebúsqueda deberían ser más propensas a prebuscar una gran cantidad de objetos mientras que cuando se reduce el tiempo de proceso del servidor, es la cantidad de bytes prebuscados la variable que se debe maximizar. Al analizar de las técnicas de prebúsqueda existentes encontramos que, debido a la evolución que ha sufrido la Web, algunas de las técnicas que funcionaron bien hace unos años ya no obtienen las mismas prestaciones en la Web actual. Esto se debe principalmente a la gran cantidad de imágenes u objetos similares que se incluyen actualmente en cada página web. Estas imágenes interfieren notablemente en la predicción de accesos del usuario. Considerando este efecto no deseado, hemos propuesto y evaluado un nuevo algorithmo (DDG) que maneja estas características presentes en la web actual. Para crear el modelo de predicción, el algorithmo DDG diferencia los objetos entre contenedores (HTMLs) e incrustados (p.e. imágenes). Los resultados experimentales muestran que, dado un incremento de peticiones prefijado, el algoritmo DDG siempre reduce más la latencia que los algoritmos existentes. Además, estos resultados se han conseguido sin aumentar el orden de complejidad respecto a los algorithmos existentes.