Temario

  1. Métodos de región de confianza
    1. Punto de Cauchy y sus mejoras: enfoque dogleg 
    2. Solución cercanamente exacta del subproblema asociado: Caracterizaciones de solución exacta y cercanamente exactas
  2. Métodos de gradientes conjugados
    1. Métodos de gradiente y direcciones conjugadas
    2. Método lineal de gradiente conjugado: propiedades básicas, su formulación práctica, razón de convergencia y precondicionadores en la práctica
    3. Métodos no lineales de gradiente conjugado: Métodos de Fletcher-Reeves y Polak-Ribière
  3. Métodos de Newton en la práctica 
    1. Pasos de Newton inexactos
    2. Métodos de búsqueda en la línea de Newton: Newton-gradiente conjugados y Newton modificado
    3. Métodos de Newton con región de confianza: Newton-dogleg y solución exacta del subproblema de región de confianza
    4. Métodos de Newton-gradiente conjugados con región de confianza: precondicionamiento
    5. Convergencia local de los métodos de Newton y Newton con región de confianza 
  4. Métodos cuasi-Newton 
    1. Método BFGS
    2. Método de actuación simple de rango 1
    3. Método de Broyden
    4. Convergencia global y superlineal del método BFGS
    5. Métodos de continuación y homotopía
  5. Problema no lineal de mínimos cuadrados
    1. Formulación del problema: Modelación, regresión y Estadística
    2. Algoritmos para el problema no lineal de mínimos cuadrados: Métodos de Gauss-Newton, Levenberg-Marquardt e implementaciones
    3. Problemas de residuos grandes y variables separadas
    4. Problemas no lineales de mínimos cuadrados totales