siguiente nivel superior anterior contenidos
Siguiente: Introducción a los inventarios Nivel anterior: Aplicaciones de la simulación Previa: Contraste de hipótesis Montecarlo

Optimización global

Se plantea resolver heurísticamente el problema

\begin{displaymath}\left. \begin{array}{ll} \text{Min.} & f(x) \\ s.a. & x \in X
\end{array} \right\} .\end{displaymath}

Llamaremos valor incumbente en un iteración al mejor obtenido hasta dicha iteración.

a) Búsqueda aleatoria pura

Se toman puntos al azar (pero uniformemente) sobre X y nos quedamos con aquel que dé mejor valor.

b) Multicomienzo

1.
$f^* = +\infty$.
2.
Se repite N veces: se genera $x \in D(X)$ (de acuerdo con una distribución D).

Se usa x como punto de inicio de cualquier método de búsqueda local, obteniéndose xi*. Si f*(xi)<f*, entonces $f*=
f(x_i^*), \, x^*=x_i^*$.
c) Direcciones aleatorias

Se selecciona un punto de partida. Se generan direcciones aleatorias y se optimiza en cada una de esas direcciones. Para cada dirección se toma como punto de partida el óptimo obtenido con la dirección anterior.

d) Métodos que imitan procesos naturales

(i) Recocido simulado (simulated annealing)
1.
Se elige $x_1 \in X, \, f^* = f(x_1), x^* = x_1, i=1$. Se elige T1>0.
2.
Se repite el siguiente proceso el número de de iteraciones que resulte apropiado:
Se recomienda mantener Ti constante durante las primeras iteraciones y luego hacer $T_{i+1} = 0,95\cdot T_i$.

(ii) Algoritmos genéticos.

Un algoritmo genético parte de un conjunto (población) de N soluciones (individuos) que evolucionan de modo que se mantiene su tamaño.