Resumen El aprendizaje automático es un área de investigación que proporciona algoritmos y técnicas que son capaces de aprender automáticamente a partir de experiencias pasadas. Estas técnicas son esenciales en el área de descubrimiento de conocimiento de bases de datos (KDD), cuya fase principal es típicamente conocida como minería de datos. El proceso de KDD se puede ver como el aprendizaje de un modelo a partir de datos anteriores (generación del modelo) y la aplicación de este modelo a nuevos datos (utilización del modelo). La fase de utilización del modelo es muy importante, porque los usuarios y, muy especialmente, las organizaciones toman las decisiones dependiendo del resultado de los modelos. Por lo general, cada modelo se aprende de forma independiente, intentando obtener el mejor resultado (local). Sin embargo, cuando varios modelos se usan conjuntamente, algunos de ellos pueden depender los unos de los otros (por ejemplo, las salidas de un modelo pueden ser las entradas de otro) y aparecen restricciones. En este escenario, la mejor decisión local para cada problema tratado individualmente podría no dar el mejor resultado global, o el resultado obtenido podría no ser válido si no cumple las restricciones del problema. El área de administración de la relación con los clientes (CRM) ha dado origen a problemas reales donde la minería de datos y la optimización (global) deben ser usadas conjuntamente. Por ejemplo, los problemas de prescripción de productos tratan de distinguir u ordenar los productos que serán ofrecidos a cada cliente (o simétricamente, elegir los clientes a los que se les debería de ofrecer los productos). Estas áreas (KDD, CRM) carecen de herramientas para tener una visión más completa de los problemas y una mejor integración de los modelos de acuerdo a sus interdependencias y las restricciones globales y locales. La aplicación clásica de minería de datos a problemas de prescripción de productos, por lo general, ha considerado una visión monolítica o estática del proceso, donde uno o más productos son ofrecidos a un conjunto de clientes y se tiene que determinar la secuencia de ofertas (producto, cliente) que maximice el beneficio. Consideramos que es posible realizar una mejor personalización del proceso ajustando o adaptando varios atributos del producto para obtener mayores ganancias. Por lo tanto, presentamos una taxonomía de problemas de prescripción de productos basada en la presencia o ausencia de un tipo de atributos especiales que llamamos atributos negociables. Proponemos una solución para cada tipo de problema, basada en optimización global (combinando varios modelos en la fase de utilización de los modelos) y negociación (introduciendo nuevos conceptos, problemas y técnicas). En general, en este escenario, obtener la mejor solución global de forma analítica es intratable y usar técnicas de simulación es una manera de obtener buenos resultados a nivel global. Además, cuando se combinan varios modelos, éstos tienen que combinarse usando un criterio justo. Si para cada ejemplo tenemos su probabilidad estimada, esta probabilidad tiene que ser realista. En aprendizaje automático, el grado en el que las probabilidades estimadas se corresponden con las probabilidades reales se conoce como calibración. Retomamos el problema de la calibración de clasificadores, proponiendo un método de calibración no monotónico inspirado en los métodos basados en "binning". Por otra parte, estudiamos el papel de la calibración antes y después de combinar clasificadores probabilísticos. Y presentamos una serie de conclusiones que nos permiten recomendar varias configuraciones para el uso de la calibración en la combinación de clasificadores. Por último, antes de usar el modelo, tomando decisiones individuales para cada nuevo ejemplo, puede ser necesaria una visión global del problema, para estudiar la viabilidad del modelo o los recursos que serán necesarios. La cuantificación es una tarea de aprendizaje automático que puede ayudar a obtener esta visión global del problema. Presentamos una nueva aproximación al problema de cuantificación basada en escalar la media de la probabilidad estimada. También se analiza el impacto de tener un buen estimador de probabilidades para estos nuevos métodos de cuantificación, y la relación de la cuantificación con la calibración global. En resumen, en este trabajo, hemos desarrollado nuevas técnicas, métodos y algoritmos que se pueden aplicar durante la fase de utilización de los modelos para una mejor integración de éstos. Las nuevas contribuciones mejoran las aproximaciones anteriores, o cubren áreas que aún no habían sido estudiadas por la comunidad de aprendizaje automático. Como resultado, ahora tenemos una gama más amplia y potente de herramientas para obtener buenos resultados globales cuando combinamos varios modelos locales.