Abstract:
|
Es esencial entender que el método de Gauss se justifica porque además de proporcionar la solución más probable permite fundamentalmente la interpretación de cada variable del ajuste (residuos, observables compensados, ...[+]
Es esencial entender que el método de Gauss se justifica porque además de proporcionar la solución más probable permite fundamentalmente la interpretación de cada variable del ajuste (residuos, observables compensados, coordenadas, etc) y la obtención de recintos de error con probabilidades asociadas, cifrando su precisión y su incertidumbre con el mayor rigor posible. Nuestra pretensión básica ha sido predecir y justificar los resultados en cada una de sus fases. No tanto mejorar los resultados, que también si se les trata adecuadamente, como establecer rigurosamente su interpretación.
Los métodos de Triangulateración homogénea y de Incrementos de Coordenadas hacen posible el objetivo propuesto, ya sea con instrumentación clásica o con técnicas GNSS.
A partir de la teoría y praxis desarrollada en la presente tesis concluimos que:
1. Hay que partir, en cualquier caso, de un buen vector de observables. No parece posible mejorar en gabinete las mediciones de campo.
2. Los observables deben ser normales e independientes. No se puede presuponer la distribución normal de las mediciones, sean del tipo que sean, y además serán lo suficientemente abundantes como para testear y desechar los que se consideren sospechosos.
3. La ponderación del sistema de formas lineales debe ser homogénea. Sin discrepancias relativas en la precisión de la instrumentación y en el número de observaciones.
4. Si los estimadores de la varianza a priori provienen de la propia observación de campo se mejoran los resultados y su interpretación.
5. El rectángulo como recinto de incertidumbre o de error permite obtener la probabilidad en solitario, en grupo o simultáneamente de todos los vértices de la red local en estudio.
6. La solución libre de la red será un excelente estimador de la sensibilidad de la red en presencia, por debajo de la cual nos parece ilusorio lograr que la precisión de la red mejore, marcando un mínimo apreciable. También para hacer una valoración inicial de la calidad de los vértices a partir de la matriz varianza covarianza de las variables de la red libre. Proponemos como solución libre más apropiada la inversa generalizada recíproca con zonas de distinta significación, que no contempla la existencia de vértice sin error (vértices ¿fijos¿) sino de error mínimo.
7. Una vez resuelta la red primaria: conocidas sus coordenadas compensadas, recintos de error y probabilidades asociadas, en conjunto o individualmente, podemos hacer extensible a cualquier punto de la red la misma información, sin necesidad de trabajo de campo adicional. Constituye un método de control de calidad cartográfica.
8. A partir de la teoría y la praxis de la evolución en el tiempo de una red local y sus eventuales modificaciones podemos conocer la deformación de los vértices libres, sus recintos de error y probabilidades de comisión, alcanzando fiabilidades de 0,95-0,99, incluso más, considerando cada vértice libre en solitario, en grupo o conjuntamente con el resto de vértices.
[-]
|