UNIVERSIDAD DE COLIMA



Documentos relacionados
Probabilidades y Estadística (Computación) Facultad de Ciencias Exactas y Naturales Universidad de Buenos Aires Ana M. Bianco y Elena J.

ESTIMACIÓN. puntual y por intervalo

"Diseño, construcción e implementación de modelos matemáticos para el control automatizado de inventarios

Unidad II: Números pseudoaleatorios

Modificación y parametrización del modulo de Solicitudes (Request) en el ERP/CRM Compiere.

5. DISTRIBUCIONES DE PROBABILIDADES

MEDICION DEL TRABAJO

TABLA DE DECISION. Consideremos la siguiente tabla, expresada en forma genérica, como ejemplo y establezcamos la manera en que debe leerse.

Ejercicio de estadística para 3º de la ESO

Determinación de primas de acuerdo al Apetito de riesgo de la Compañía por medio de simulaciones

1.1. Introducción y conceptos básicos

Análisis y cuantificación del Riesgo

1. INTRODUCCIÓN 1.1 INGENIERÍA

ANÁLISIS DINÁMICO DEL RIESGO DE UN PROYECTO

ANÁLISIS DE VARIANZA EMPLEANDO EXCEL y WINSTATS

CAPITULO V. SIMULACION DEL SISTEMA 5.1 DISEÑO DEL MODELO

Técnicas de valor presente para calcular el valor en uso

Introducción a la Teoría de Probabilidad

Un problema sobre repetidas apuestas al azar

Unidad I. 1.1 Sistemas numéricos (Binario, Octal, Decimal, Hexadecimal)

NORMAS INTERNACIONALES Y ADQUISICION DE DATOS.

Manejo de la Información

Muestreo estadístico. Relación 2 Curso

SIMULACION. Formulación de modelos: solución obtenida de manera analítica

Tema 3: Variables aleatorias y vectores aleatorios bidimensionales

Software de Simulación aplicado a entornos de e-learning

ANÁLISIS DE DATOS NO NUMERICOS

Tema 1 con soluciones de los ejercicios. María Araceli Garín

CAPITULO I. Introducción. En la actualidad, las empresas están tomando un papel activo en cuanto al uso de sistemas y

Datos del autor. Nombres y apellido: Germán Andrés Paz. Lugar de nacimiento: Rosario (Código Postal 2000), Santa Fe, Argentina

Decisión: Indican puntos en que se toman decisiones: sí o no, o se verifica una actividad del flujo grama.

Métodos Estadísticos 2.3. Distribuciones discretas de probabilidad

Tema 1: Test de Distribuciones de Probabilidad

2. MÉTODOS, INSTRUMENTOS Y ESTRATEGIAS

UNIVERSIDAD AUTÓNOMA DE TAMAULIPAS UNIDAD ACADÉMICA MULTIDISCIPLINARIA REYNOSA-RODHE SIMULACIÓN DE SISTEMAS

Capítulo 3 Marco Metodológico.

MATEMÁTICAS ESO EVALUACIÓN: CRITERIOS E INSTRUMENTOS CURSO Colegio B. V. María (Irlandesas) Castilleja de la Cuesta (Sevilla) Página 1 de 7

Guías _SGO. Gestione administradores, usuarios y grupos de su empresa. Sistema de Gestión Online

Naturaleza binaria. Conversión decimal a binario

2 Teoría de colas o líneas de espera

by Tim Tran:

Unidad Temática 1: Unidad 3 Probabilidad Temas 6 y 7

Colegio Alexander von Humboldt - Lima. Tema: La enseñanza de la matemática está en un proceso de cambio

Ejercicios de Teoría de Colas

DE VIDA PARA EL DESARROLLO DE SISTEMAS

MODELOS DE SIMULACIÓN

Capitulo V Administración de memoria

de la empresa Al finalizar la unidad, el alumno:

Métodos generales de generación de variables aleatorias

Teoría de Colas. TC: Parte de la Investigación Operativa que estudia el comportamiento de sistemas cuyos elementos incluyen líneas de espera (colas).

Análisis de los datos

La explicación la haré con un ejemplo de cobro por $ más el I.V.A. $16.00

Análisis de Resultados

Medias Móviles: Señales para invertir en la Bolsa

Tema 3. Medidas de tendencia central Introducción. Contenido

LOGISTICA D E COMPRAS

Los elementos que usualmente componen la identidad digital son:

La presente tesis pretende que los estudiantes observen la teoría de las acciones de control

Empresa de telefonía celular: Transintelcel

Capítulo 7: Distribuciones muestrales

PRODUCTIVIDAD DE PROYECTOS DE DESARROLLO DE SOFTWARE: FACTORES DETERMINANTES E INDICADORES

Generación de números aleatorios

Consideraciones al precio de un warrant. El precio del warrant: la prima. Factores que afectan al precio de un warrant

Cifras significativas e incertidumbre en las mediciones

Explicación de la tarea 3 Felipe Guerra

ANALIZANDO GRAFICADORES

CAPITULO 4 JUSTIFICACION DEL ESTUDIO. En este capítulo se presenta la justificación del estudio, supuestos y limitaciones de

Clase 5: Variables Aleatorias y Distribuciones de Probabilidad

8.1. Introducción Dependencia/independencia estadística Representación gráfica: diagrama de dispersión Regresión...

Lección 22: Probabilidad (definición clásica)

SIMULACIÓN SIMULACIÓN DE UN JUEGO DE VOLADOS

Transformación de binario a decimal. Transformación de decimal a binario. ELECTRÓNICA DIGITAL

7. Conclusiones. 7.1 Resultados

Estimación. Intervalos de Confianza para la Media y para las Proporciones

Su éxito se mide por la pertinencia y la oportunidad de la solución, su eficacia y eficiencia.

Lección 1-Introducción a los Polinomios y Suma y Resta de Polinomios. Dra. Noemí L. Ruiz Limardo 2009

forma de entrenar a la nuerona en su aprendizaje.

UNIDADES DE ALMACENAMIENTO DE DATOS

DATA MINING EN LA BASE DE DATOS DE LA OMS KNOWLEDGE DETECTION (DETECCIÓN DEL CONOCIMIENTO) Q.F.B. JUANA LETICIA RODRÍGUEZ Y BETANCOURT

INVESTIGACIÓN DE MERCADOS

Mediante la aplicación de la metodología a los datos disponibles para este estudio, esta

Código del programa: PEMDE. Programa Experto en MANEJO DE DATOS CON EXCEL. Modalidad: Virtual. Descripción del programa

Clase 4: Probabilidades de un evento

SEDO: SOFTWARE EDUCATIVO DE MATEMÁTICA NUMÉRICA. Lic. Maikel León Espinosa.

La Tecnología líder en Simulación

Apuntes de Matemática Discreta 9. Funciones

SÍNTESIS Y PERSPECTIVAS

MUESTREO TIPOS DE MUESTREO

Inferencia Estadística

TEMA 2: Representación de la Información en las computadoras

REPASO CONCEPTOS BÁSICOS DE ESTADÍSTICA. DISTRIBUCIÓN NORMAL.


Fundación Universitaria San. Direccionamiento IP

La nueva criba de Eratóstenes Efraín Soto Apolinar 1 F.I.M.E. U.A.N.L. San Nicolás, N.L. México. efrain@yalma.fime.uanl.mx

INTRODUCCIÓN: Una Visión Global del Proceso de Creación de Empresas

K2BIM Plan de Investigación - Comparación de herramientas para la parametrización asistida de ERP Versión 1.2

LABORATORIO Nº 2 GUÍA PARA REALIZAR FORMULAS EN EXCEL

Contenidos. INFORME ENCUESTA TELEFÓNICA. Curso

Tema 2. Espacios Vectoriales Introducción

Guía Práctica para el Diseño de Proyectos Sociales

Transcripción:

UNIVERSIDAD DE COLIMA FACULTAD DE TELEMÁTICA SIMULACIÓN ESTOCÁSTICA PARA PREDICCIÓN EN LOS DEPORTES TESIS QUE PARA OBTENER EL GRADO DE MAESTRO EN CIENCIAS, ÁREA TELEMÁTICA PRESENTA ING. HUMBERTO RAMÍREZ GONZÁLEZ ASESORES PH.D. CARLOS MOISÉS HERNÁNDEZ SUÁREZ M.C. MARTÍN SANTOS VIRGEN COLIMA, COL., JUNIO DE 2001. i

Agradecimientos. El expresarme correctamente nunca ha sido mi principal destreza, así que solo espero no olvidar mencionar a ninguna persona, que de alguna forma ú otra, me apoyaron para llegar hasta aquí. A Dios, por todo lo que he recibido de él. A mis padres, que desde niño me inculcaron el estudio y su principal preocupación fue la educación de mis hermanos y mía. A mis hermanos, pues sé que siempre puedo contar con ellos. A Livier gracias por tu apoyo y compañía, han sido muy importantes. A Anelsy, mi hija, quien ocupa gran parte de mis pensamientos y por quien sé, debo superarme. A Carlos, mi mejor amigo, pues sin sus regaños, consejos y apoyo, difícilmente podría estar aquí. A mis compañeros de la maestría, creo que fue muy divertida esta etapa, y creo también, que aprendimos mucho. A Carlos Moisés, por la oportunidad que me dio, de colaborar con él y aprender muchas cosas, durante la elaboración de este trabajo. A mis maestros de la maestría, y al personal de la Facultad de Telemática, de quienes he recibido bastante apoyo desde que inicie mis estudios de maestría. Moisés, Román H., Román G., Martín, Gilberto, Erika, Raúl, Pedro, Sara, Omar, etc. Humberto Ramírez González. i

RESUMEN. Este trabajo Simulación estocástica para predicción en los deportes fue desarrollado con la finalidad de utilizar una herramienta tan poderosa y necesaria hoy en día como lo es la computadora junto con otras ciencias del conocimiento, como lo es la probabilidad y la estadística, demostrando que el campo de aplicación de la ciencia de las computadoras va mas allá de los límites que muchas veces son planteados. Uno de los objetivos de esta investigación es el poder predecir con un alto grado de confianza los resultados del torneo de fútbol mexicano de primera división, este sistema no contempla la posibilidad que tienen lo equipos de enfrentarse mediante el termino de repesca o repechaje, lo cual podría ser implementado si se quisiera incrementar el grado de confianza de los resultados. Es sabido que en un juego que es de equipo, todos los miembros tienen fundamental importancia y repercusión en el desempeño del mismo, por lo tanto cuando un equipo cambia de jugadores, no es tan importante el comportamiento que haya tenido anteriormente. Considerando este punto podemos mencionar que para la recopilación de información para este sistema, sólo deberán ser considerados los resultados acumulados del torneo que se está jugando. Para realizar las distintas pruebas del sistema se utilizaron los resultados de torneos anteriores y se fueron comparando los resultados arrojados por el sistema con el resultado de ese torneo en particular. Por último es importante hacer notar que no existe ningún método que pueda predecir totalmente el comportamiento de un sistema que tenga un comportamiento aleatorio, sin embargo es posible mediante la combinación de diversos métodos, lograr una muy buena predicción del mismo. Por ello, este i

trabajo esta enfocado a predecir el comportamiento aleatorio de un evento a través de una simulación estocástica, mediante una aplicación para el torneo de fútbol mexicano de la primera división. i

SUMMARY. This work Simulación estocástica para predicción en los deportes was developed with the intention of using a powerful and necessary tool such as the computer together with another sciences, as probability and statistics, showing that the application field of the computer science goes beyond limits that are usually stipulated. One of the objectives of this investigation, is to predict with a high accuracy the results of the Mexican football soccer s first division match, this system does not contemplate to the possibility that have the equipments to face by means of repechaje, which could be implemented to increase the accuracy of results. It is known that in a equipment game, all the members have fundamental importance and repercussion in the performance of the same one, therefore when an equipment changes its players, is not so important the behavior that it has had previously. Considering this point we can mention that for the compilation of information for this system, only accumulated results of the match being played will have to be considered. In order to make the different tests from the system, the results of previous matches were used and they went comparing the results thrown by the system with the result of that individual match. Finally, is important to make notice that does not exist any method that can predict totally the behavior of a system that has a random behavior, nevertheless is possible by means of the combination of diverse methods, to obtain a very good prediction of the same one. For that reason, this work is focused to predict the random behavior of an event through an stochastic simulation, by means of an application for the mexican soccer first division match. i

Índice No. Página Agradecimientos... i Resumen... ii Summary... iii Índice... iiii Tabla de imágenes... iiiiiiii Introducción... iiiiiiiii Objetivo... iiiiiiiiii Justificación... iiiiiiiiii Hipótesis... iiiiiiiiii I. Teoría de la probabilidad I.1. Modelo estocástico.... 1 I.2. Procesos estocásticos.... 2 I.3. Aleatorio vs. Determinístico.... 3 I.4. Algunos generadores comunes... 4 I.5. Variables aleatorias... 6 I.6. Distribución de probabilidad para variables aleatorias discretas... 7 I.6.1. Pruebas de Bernoulli.... 8 I.6.2. Distribución binomial.... 9 I.6.3. Distribución hipergeométrica.... 11 I.6.4. Distribución Poisson.... 12 I.7. Distribución de probabilidad para variables aleatorias continuas.... 13 I.7.1. Distribución uniforme.... 15 I.7.2. Distribución normal.... 15 I.7.3. Distribución exponencial.... 16 I.7.4. Distribución gamma.... 17 i

II. Simulación II.1. Método Montecarlo... 20 II.2. Simulación.... 21 II.2.1. Parámetros ambientales.... 23 II.2.2. Variables.... 23 II.2.3. Número de simulaciones.... 23 II.3. Tipos de simulación.... 24 II.3.1. Simulación discreta.... 24 II.3.2. Simulación determinística.... 24 II.3.3. Simulación estocástica.... 25 II.4. Usos de la simulación.... 25 II.4.1. Herramientas educacionales.... 26 II.4.2. Medios de análisis.... 26 II.4.3. Predictores.... 26 II.4.4. Ciencia de la computación.... 27 II.4.5. Caos y sistemas complejos.... 27 II.4.6. Realidad virtual.... 27 II.4.7. Vida artificial.... 28 II.4.8. Modelado físico y animación por computadora... 28 II.5. Antecedentes de sistemas de simulación... 28 II.6. Ventajas de la simulación.... 30 II.7. Desventajas de la simulación.... 31 II.8. Simulación de un proceso.... 32 III. Herramientas de desarrollo III.1. Matlab.... 35 III.1.1. Productos adicionales.... 36 III.1.2. Características.... 36 III.1.3. Características adicionales del producto.... 37 i

III.1.4. Gráficos y Visualización.... 37 III.1.5. Herramientas GUI y gráficas programables.... 38 III.1.6. Simulación y modelización.... 38 III.1.7. Algoritmos fundamentales:matlab y Toolboxes.... 38 III.1.8. Los beneficios de programar en Matlab.... 39 III.1.9. Conectando aplicaciones de Matlab con nuevos entornos.... 40 III.2. Simulink.... 40 III.2.1. Características.... 41 III.2.2. Características principales.... 41 III.2.3. Una extensa librería de bloques.... 42 III.2.4. Simulación.... 43 III.2.5. Modernos algoritmos de integración.... 43 III.2.6. Integración con Matlab.... 43 III.2.7. Bibliotecas de enlace dinámico dll.... 44 III.3. Lenguaje de programación Visual Basic 6.0.... 44 III.3.1. Características.... 45 III.3.2. Entorno de desarrollo integrado.... 46 IV. Sistema de simulación IV.1. Torneo de fútbol mexicano de primera división.... 49 IV.2. Metodología.... 49 IV.2.1. Simulación de un partido.... 50 IV.2.2. Simulación de una jornada.... 51 IV.2.3. Simulación del torneo.... 51 IV.3. Sistema.... 51 IV.3.1. Entrada de datos.... 52 IV.3.2. Procesamiento de Información.... 57 IV.3.2.1. Funcionamiento en modo pasivo.... 64 IV.3.2.2. Funcionamiento en modo activo.... 68 IV.3.3. Salida de información.... 69 IV.3.3.1. Salida pasiva y activa.... 69 i

IV.3.4. Solución a preguntas QUÉ PASA SÍ?.... 70 IV.4. Prueba de la hipótesis.... 71 Conclusiones... 77 Bibliografía... 81 i

Tabla de imágenes. No. Página Imagen 4.1 Captura de grupos... 53 4.2 Captura de jornadas... 54 4.3 Captura de resultados... 55 4.4 Elección del tipo de simulación... 63 4.5 Grafica de una simulación... 70 4.6 Pantalla para la simulación activa... 72 4.7 Probabilidades de clasificación en la jornada 10... 73 4.8 Simulación del encuentro Atlas vs. Puebla... 74 4.9 Simulación del encuentro León vs. América... 75 4.10 Simulación del encuentro Puebla vs. Santos... 76 4.11 Simulación del encuentro Pachuca vs. Santos... 76 i

INTRODUCCIÓN. Los avances en la tecnología llevan invariablemente a la construcción de sistemas con capas adicionales de complejidad que están formados por subsistemas aun más complejos. Con el tiempo estos sistemas llegaran a convertirse en subsistemas de otros sistemas mucho más complejos. Dentro de todo este crecimiento, los simuladores proveen un medio por el cual estos sistemas abstractos o del mundo real pueden ser comprendidos y evaluados, al duplicar el comportamiento de estos sistemas mediante hardware y/o software. Un fenómeno aleatorio que surge en un proceso (ej. el movimiento de una partícula en movimiento browniano, el crecimiento de una población, el desempeño de una red de computadoras) que se desarrolla en el tiempo de una manera controlada por medio de leyes probabilísticas se denomina proceso estocástico. Es importante mencionar que son muchos los recursos destinados al desarrollo de equipo de cómputo poderoso que sea capaz de resolver problemas complejos, problemas que también pueden ser atacados mediante la simulación del mismo. Por otro lado, el fútbol es un deporte que desde sus inicios hasta ahora ha incrementado enormemente el número de sus seguidores, y es mucho el interés que generan los torneos que se juegan a lo largo del mundo, llegándose incluso a invertir grandes cantidades de dinero en apuestas en países donde esto es legal, también forma parte del prestigio de algún medio de información el poder hacer pronósticos o predicciones de los resultados que se tendrán en un torneo con un alto grado de confianza. i

Objetivo. Desarrollar un sistema que utilice la simulación estocástica para predecir los resultados del torneo mexicano de fútbol de primera división, demostrando que la simulación es una herramienta útil para conocer el comportamiento de los sistemas, antes de que los eventos involucrados ocurran. Justificación. La simulación ha sido uno de los principales objetivos del uso de las computadoras desde sus inicios, son muchos los recursos que se han destinado al desarrollo de hardware poderoso que permita simular sistemas complejos, sin embargo es posible atacar muchos problemas mediante el uso de una PC y lenguajes de programación o utilizando software de simulación. Es muy importante cuando se va a implementar algún sistema, predecir su comportamiento y saber cuales serian las condiciones que favorecerían el desempeño del mismo, esto es posible lograrlo utilizando la simulación. Hipótesis. Después de haber hecho un análisis sobre distintos enfoques posibles para este trabajo, se propone la siguiente hipótesis: Un modelo de simulación estocástica por computadora es capaz de predecir con un alto grado de confianza, los resultados del torneo de fútbol mexicano de primera división i

CAPÍTULO I. TEORÍA DE LA PROBABILIDAD. En este capitulo se analizaran algunos conceptos básicos sobre la probabilidad y la estadística, para primeramente, comprender el comportamiento de un proceso estocástico y posteriormente poder reproducirlo. I.1. Modelo estocástico. La palabra estocástico se deriva del alfabeto griego y significa aleatorio, antónimo de determinista, que significa seguro o cierto. Un modelo determinista predice una salida dado un conjunto de circunstancias. Un modelo estocástico predice un conjunto de salidas determinadas por sus probabilidades. Cuando lanzamos una moneda al aire, es seguro que esta caerá en algún lugar, pero es incierto si caerá cara o cruz. (Howard M. Taylor, 1994) Sin embargo los fenómenos que se analizan, no son inherentemente estocásticos o deterministas, sino que es elección del observador definirlo, la elección depende del propósito del observador. (Howard M. Taylor, 1994) Para crear un modelo científico se tienen tres componentes: un fenómeno natural que es el objeto de estudio, un sistema lógico que permite realizar deducciones sobre este fenómeno, y una manera de enlazar los elementos del sistema natural que esta siendo estudiado con el sistema lógico que se utiliza para modelarlo. Para que un modelo estocástico sea útil, debe reflejar todos los aspectos que son relevantes para el problema sobre el que se esta trabajando del fenómeno que 1

esta siendo estudiado, además, el modelo debe realizar cálculos y permitir hacer deducciones de importantes predicciones o implicaciones sobre dicho fenómeno. Muchos sistemas tienen un comportamiento estocástico y por lo tanto deben ser modelados mediante elementos estocásticos, esto significa que en estos modelos de simulación estocástica se utilizaran distribuciones probabilísticas. Conforme la simulación avanza, se toman muestras de estas distribuciones para proveer un comportamiento estocástico. I.2. Procesos estocásticos. Los procesos estocásticos son formas de cuantificar las relaciones dinámicas de secuencias de eventos aleatorios. Estos juegan un papel importante en muchas áreas de las ciencias naturales y de la ingeniería. Pueden ser utilizados para analizar la variabilidad inherente en los procesos médicos y biológicos y para proveer nuevas perspectivas, modelos, metodologías, e intuición para apoyar en estudios estadísticos y matemáticos. Un fenómeno aleatorio que surge en un proceso (ej. el movimiento de una partícula en movimiento browniano, el crecimiento de una población, el desempeño de una red de computadoras, la dispersión de un virus en una población) que se desarrolla en el tiempo de una manera controlada por medio de leyes probabilísticas se denomina proceso estocástico. Para entender mejor este concepto analizaremos la definición del movimiento Browniano, (el movimiento browniano es el movimiento constante errático de pequeñas partículas suspendidas en un fluido o en gas. El movimiento inherente del fluido ocasiona que las partículas suspendidas sean golpeadas de forma aleatoria. Este impacto ocasiona que las partículas se muevan, por estas razones es prácticamente imposible conocer la posición de una partícula en un momento determinado). 2

Así pues un proceso estocástico es una familia de variables aleatorias Xt, donde t es un parámetro de un conjunto adecuado de índices. Por conveniencia se escribe X(t) en lugar de Xt. Normalmente el índice t corresponde a unidades discretas de tiempo, y el conjunto de índices es t={0,1,2,3, }. De esta forma Xt puede representar el resultado de lanzar sucesivamente una moneda varias veces, la respuesta repetida de una persona en un experimento de aprendizaje, o las observaciones sucesivas de alguna característica en una población. (Howard M Taylor, 1994) Los procesos aleatorios se distinguen por su espacio estático, o el rango de posibles valores para la variable aleatoria Xt, por su conjunto de índices t y por las relaciones de dependencia entre las variables aleatorias Xt. I.3. Aleatorio vs. Determinístico. Se ha mencionado hasta este punto la palabra aleatorio, pero como se obtienen estas variables?. Lo primero que se necesita para la simulación estocástica es una fuente de aleatoriedad. Este punto es muy importante ya que muchas de las funciones llamadas generadoras de números aleatorios incluidas en muchos lenguajes de programación están muy lejos del concepto de aleatoriedad y esto ha traído como consecuencia la invalidez de muchos estudios. (Brian D. Ripley, 1987) Parece perverso utilizar una computadora, la mas precisa y determinista de todas las maquinas concebidas por la mente humana, para producir números aleatorios. (William H. Press, Brian P. Flannery, Saul A. Teukolsky, William T. Vetterling, 1988) Todas las funciones de uso común son en realidad pseudo-aleatorias, con esto queremos decir que su comportamiento es determinista pero intenta imitar las 3

propiedades de una secuencia de variables aleatorias independientes uniformemente distribuidas. Solo en ciertas y muy pocas ocasiones se requiere de variables aleatorias independientes distribuidas uniformemente tal como son proporcionadas por los métodos de generación de las computadoras. Sin embargo estas representan una fuente útil de aleatoriedad que puede ser cambiada a cualquier forma. La simulación fue uno de los primeros usos de las computadoras digitales. Los pioneros de la computación notaron que los dispositivos físicos no se mezclaban bien con las computadoras digitales. Aun cuando tablas de números aleatorios estaban disponibles en cintas o tarjetas perforadas, éstas eran demasiado lentas y complicadas. Así que se requirió buscar formas sencillas de generar secuencias haphazard, y se consideraron diversos esquemas recursivos no lineales. Uno de los primeros fue el método de la mitad del cuadrado de Von Neumann, que trabaja de la siguiente forma: supongamos que se requiere una secuencia de números de cuatro dígitos decimales. Comenzando con 8653, se eleva al cuadrado (74874409) y se extrae la parte del medio 8744. Esto se repite para obtener. 8653,8744,4575,9306,6016,1922,6940, Esta es una secuencia determinista que parece aleatoria. I.4. Algunos generadores comunes El método de la mitad del cuadrado y otros desarrollados por la misma época fueron prontamente rechazados como generadores de números pseudo aleatorios, pero un método de esa era sobrevivió. Se desarrollaron experimentos con este método congruente 4

U i au i 1 mod1 que imita el efecto de una ruleta, el multiplicador a debe ser grande. En práctica esta fórmula debe ser procesada en aritmética de precisión finita, así que es usual generar enteros X i X i ax i 1 mod M y ajustar U donde a y M son enteros. Esta fórmula y sus variantes están ahora i X i M muy difundidas. Existen otros generadores implementados en las populares microcomputadoras, aparentemente sin referencia a literatura existente. Las secuencias producidas por todos estos generadores siguen una estructura. Se han realizado muchos estudios para identificar esa estructura y determinar sus consecuencias. Cualquier generador puede ser probado empíricamente aplicando pruebas estadísticas para determinar la independencia y uniformidad de (U 1,,U N ) para un valor grande de N. Sin embargo esto puede consumir mucho tiempo y además que deja la posibilidad de que existe una estructura que no pudo ser detectada. (Brian D. Ripley, 1987) Cabe mencionar que los algoritmos más complejos no son necesariamente más aleatorios que los más simples. Por lo que muchos autores recomiendan utilizar algoritmos simples y bien entendidos dentro de los cuales encontraremos algún generador de números pseudo aleatorio suficientemente bueno para los propósitos específicos. 5

I.5. Variables aleatorias En este punto mencionaremos las principales funciones de distribución probabilísticas, comenzaremos por mencionar que existen dos tipos funciones de distribución: las discretas y las continuas. Una variable aleatoria discreta solo puede tener valores observados en puntos aislados a lo largo de una escala. Los valores se expresan normalmente como números enteros. Como ejemplo tenemos el número de personas en un hogar, el número de artículos en un inventario, la cantidad de goles por equipo en un encuentro, etc. Una variable aleatoria continua puede superponer un valor en cualquier punto fraccionario de un intervalo especificado. Como ejemplo tenemos el peso de un embarque, la hora de salida de un vuelo, el número promedio de personas en una comunidad. Una vez que tenemos un conjunto de números pseudo aleatorios es necesario generar variables independientes X 1,X 2, con una función de distribución F dada o una función de densidad de probabilidad (pdf) f. Se asume que tenemos acceso al conjunto de muestras independientes aleatorias de la distribución uniforme en (0,1). Aquí la tarea consiste en transformar (U i ) a (X i ). En muchos casos se tienen algoritmos que facilitan esto. Aunque no existe un mejor método que sea el universal para esta tarea, existen diferentes métodos que pueden ser implementados. Una variable aleatoria es un evento numérico cuyo valor se determina mediante un proceso al azar. Cuando se asignan valores de probabilidad a todos los valores numéricos de una variable aleatoria X, ya sea mediante un listado o a través 6

de una función matemática, se obtiene como resultado una distribución de probabilidad. La suma de las probabilidades para todos los resultados numéricos posibles debe ser igual a uno, como se mencionó anteriormente. Para seleccionar el algoritmo con que será generada la lista de variables aleatorias es necesario considerar lo siguiente: El método debe ser sencillo de entender y programar. Es muy fácil tener errores mientras se implementan métodos sofisticados. Los programas producidos deben ser compactos. Esto es importante básicamente con equipos pequeños pero pueden reducir mucho tiempo en la implementación y documentación en lenguajes interpretados. El código final debe ser ejecutado razonablemente rápido. Este punto ha sido enfatizado mucho al punto de excluir los dos anteriores. Es importante sobre todo en donde el tiempo de proceso es muy costoso. Los algoritmos utilizaran los números pseudo aleatorios y no deberán acentuar las deficiencias de estos. Esta demostrado que la velocidad de los algoritmos varía sorprendentemente dependiendo del sistema y del lenguaje en que sean implementados. I.6. Distribución de probabilidad para variables aleatorias discretas Como se mencionó antes, este tipo de variables se representan normalmente con valores enteros, por esto, para este tipo de variables se pueden listar todos los valores numéricos posibles de la variable en una tabla junto con sus probabilidades correspondientes. Una tabla, fórmula o gráfica que proporcione tales probabilidades será una distribución de probabilidad para la variable aleatoria. 7

En esta distribución de probabilidad aparecen todos los posibles valores que puede tomar la variable junto con su correspondiente probabilidad de que ocurra ese número de eventos. Así pues la distribución de probabilidad para una variable aleatoria discreta Y es una tabla, gráfica o fórmula que da la probabilidad p(y) asociada a cada posible valor de y. La distribución de probabilidad p(y) para una variable aleatoria discreta debe satisfacer dos propiedades. Primero dado que p(y) es una probabilidad, debe asumir un valor en el intervalo 0 p(y) 1. Segundo, la suma de los valores de p(y) para todos los valores de y debe ser igual a uno. De esto se desprende que los valores que y puede asumir representan diferentes conjuntos de eventos simples y son, por lo tanto, eventos mutuamente excluyentes. Existen diversas distribuciones estándar de probabilidades que pueden utilizarse como modelos para una amplia gama de variables aleatorias discretas en una aplicación. I.6.1. Pruebas de Bernoulli. Varias de las distribuciones de probabilidad que serán analizadas se basan en experimentos o procesos en los que se realiza una secuencia de pruebas llamadas pruebas de Bernoulli. Una prueba de Bernoulli tiene uno de dos resultados mutuamente exclusivos, que por lo regular se denotan como éxito y fracaso. Un proceso Bernoulli es un proceso de muestreo en el que: 8

1. Solo son posibles dos resultados mutuamente excluyentes en cada ensayo u observación. Por conveniencia a estos resultados se les denomina como éxito y fracaso. 2. Los resultados del conjunto de ensayos u observaciones constituyen eventos independientes. 3. La probabilidad de éxito que se denota mediante p, permanece constante de un ensayo a otro, por lo que se considera un proceso estacionario. Aún cuando una variable aleatoria de Bernoulli tiene por sí sola poco interés en aplicaciones, la realización de una serie de pruebas Bernoulli conduce a varias distribuciones de probabilidad discretas bastante útiles. Considerar 1 en exito S y 0 en fracaso F Distribución de probabilidad para una prueba p( y) donde p p q 1 p q y 1 y una probabilidad prueba ( y 0,1) de éxito donde de Bernoulli I.6.2. Distribución binomial. La distribución binomial es una distribución discreta de probabilidad aplicable como modelo a diversas situaciones de toma de decisiones, siempre y cuando pueda suponerse que el proceso de muestreo se ajusta a un proceso Bernoulli. Puede utilizarse la distribución Binomial para determinar la probabilidad de obtener un número determinado de éxitos en un proceso Bernoulli. Para esto se 9

requieren tres valores, el número específico de éxitos, el número de ensayos u observaciones y la probabilidad de éxito de cada ensayo. Las características que definen una variable aleatoria binomial son las siguientes: El experimento consiste en la suma de n pruebas de Bernoulli idénticas e independientes. ó Cada prueba tiene únicamente dos posibles resultados. Éxito y Fracaso. La probabilidad de éxito y la probabilidad de fracaso se mantienen constantes a lo largo de todas las pruebas, además la suma de estas dos probabilidades es igual a uno. Las pruebas son independientes, lo que significa que el resultado de cualquiera de las pruebas no influye en el resultado que se obtendrá en alguna otra. Distribución de probabilidad para una binomial n y n y p( y) p q y 0,1,2,3,4,..., n y donde p probabilidad de éxito en una prueba q 1 p n número de pruebas y número deéxitos en n pruebas n n! y y!( n y)! 10

I.6.3. Distribución hipergeométrica. Cuando se muestrea una población finita de éxitos y fracasos, los supuestos de un experimento binomial se satisfacen con exactitud solo sí el resultado de cada prueba se observa y luego se reincorpora a la población antes de hacerse la siguiente observación. Este método de muestreo se denomina muestreo con reemplazo. Sin embargo en la práctica lo usual es utilizar muestreo sin reemplazo, es decir, seleccionamos al azar n elementos diferentes de entre los N elementos de la población. Cuando el muestreo se realiza sin reemplazo para cada uno de los elementos que se toman de una población finita de elementos, no se puede aplicar el proceso Bernoulli debido a que existe un cambio en la probabilidad de éxitos al ir extrayendo elementos de la población. En este tipo de situaciones lo adecuado es utilizar la distribución hipergeométrica. Las características que definen una variable aleatoria hipergeométrica y su distribución de probabilidad se resumen a continuación: El experimento consiste en extraer al azar y sin sustitución n elementos de un conjunto de N elementos, r de los cuales son éxitos y N-r de los cuales son fracasos.. Si X es el número designado de éxitos, N es el número de elementos de la población, r es el número total de éxitos incluidos en la población y n es el número de elementos de la muestra, la fórmula para determinar las probabilidades hipergeométricas es: 11

Distribución de probabilidad hipergeométrica r N r Máximo 0, n ( N r),..., y n y p y ( ) y Mínimo r, n N n donde N r número total de elementos número de resultados S enlos N elementos n número de elementos extraidos y número de resultados S enlos nelementos I.6.4. Distribución Poisson. La distribución de probabilidad de Poisson, así llamada en honor del matemático francés S.D.Poisson proporciona un modelo para la frecuencia relativa del número de eventos poco comunes que ocurren en una unidad de tiempo, área, volúmen, etc. Puede utilizarse la distribución Poisson para determinar la probabilidad de que ocurra un número designado de eventos, cuando estos ocurren en un espacio de tiempo continuo. A este proceso se le denomina proceso Poisson; es similar a un proceso Bernoulli excepto en que los eventos ocurren en un espacio continuo como puede ser un periodo de tiempo en vez de ocurrir en ensayos u observaciones fijas. Un ejemplo es el número de llamadas que entran en un conmutador en determinada hora, o la cantidad de goles que puede meter un equipo. Las características que definen un proceso Poisson son las siguientes: 1. El experimento consiste en contar el número de veces que ocurre un evento en particular durante una unidad de tiempo dada, o en un área o volumen. 12

2. La probabilidad de que un evento ocurra en una unidad dada de tiempo, área o volumen, es la misma para todas las unidades. 3. El número de eventos que ocurren en una unidad de tiempo, área o volúmen es independiente del número de los que ocurren en otras unidades. 4. El número medio de eventos en cada unidad se denota por la letra griega lambda,. Solo se requiere un valor para determinar la probabilidad de que ocurra un número designado de eventos en un proceso Poisson: el número promedio a largo plazo de eventos para el tiempo o dimensión especifico de interés. Por lo general esta medida se denomina mediante la letra griega lambda. Distribución de probabilidad para una Poisson y e p( y) y 0,1,2,3,... y! donde número medio deeventos enunaunidad detiempo área ovolumén e cons tan te de Euler 2.71828... I.7. Distribución de probabilidad para variables aleatorias continuas. Para una variable aleatoria continua no es posible listar todos los posibles valores fraccionarios de la variable ya que el número de posibles valores es infinito, por lo tanto, las probabilidades se determinan a través de una función matemática y su representación es de manera gráfica mediante una función de densidad de probabilidad o curva de probabilidad. La diferencia entre una variable aleatoria continua y una discreta se basa en la diferencia entre sus funciones de distribución acumulativa. 13

La función de distribución acumulativa F(y 0 ) para una variable aleatoria y es igual a la probabilidad F(y 0 ) = P(y y 0 ) Esto es, la función de distribución acumulativa es la suma acumulativa de p(y), desde el valor más pequeño que y pueda asumir, hasta un valor de y 0. Cuando los datos representan mediciones de una variable continua y la cantidad de datos es muy grande, podemos reducir la anchura de los intervalos hasta que la distribución se vea como una curva continua, lo cual es conocido como función de densidad de probabilidad. Si F( y) es la función de distribución acumulativa entonces la función de densidad f ( y) df( y) f ( y) dy para y es para una variable continua y, Existen diversas distribuciones continuas de probabilidad comunes que son aplicables como modelos a una amplia gama de variables continuas en determinadas circunstancias. Una variable aleatoria continua y es una que tiene las siguientes tres propiedades: 1. y adopta un número infinito, imposible de contar, de valores en un subconjunto del intervalo (-, ). 14

2. La función de distribución acumulativa F(y), es continua. La función de distribución acumulativa para una variable y es F(y 0 ) = P (y y 0 ). 3. La probabilidad de que y sea igual a un valor en particular es cero. En el caso de las distribuciones continuas de probabilidad, sólo es posible determinar un valor de probabilidad para un intervalo de valores dado. Si en este tipo de variable se quiere obtener la probabilidad de un valor especifico es cero, pues recordando el espacio para este tipo de variables es el de los números reales, y la probabilidad es igual a 1/(número de elementos) entonces se tiene 1/( ) por lo que la probabilidad es cero. I.7.1. Distribución uniforme. Suponga que selecciona al azar un número y representado por un punto en el intervalo a y b. La función de densidad de y se representa gráficamente como un rectángulo. Como se debe asegurar que el área del rectángulo sea uno, la altura de éste es 1/(b-a). Función de densidad para una variable uniforme 1 si a y b f ( y) b a 0 en cualquier otro punto I.7.2. Distribución normal. Esta función de densidad fue propuesta por K. F. Gauss como modelo para la distribución de frecuencia relativa de errores, como los errores de medición. La distribución normal de probabilidad es una distribución continua de probabilidad que es simétrica. Con frecuencia se describe a la curva de probabilidad que representa a la distribución normal como una campana. 15

Esta distribución es muy importante por tres razones principales: 1. Las mediciones que se obtienen en muchos procesos aleatorios tienen esta clase de distribución. 2. Con frecuencia pueden utilizarse distribuciones normales para aproximar otras distribuciones de probabilidad tal como las distribuciones binomial y Poisson. 3. Las distribuciones de estadísticas como la media muestral y la proporción muestral tienen distribución normal cuando el tamaño de la muestra es grande. Función de densidad para una variable normal 1 2 2 ( y ) /(2 ) f ( y) e y 2 donde media de la variable 2 varianza de la variable I.7.3. Distribución exponencial. Si se presentan eventos en el contexto de un proceso Poisson, entonces la longitud del tiempo o espacio entre eventos sucesivos tiene una distribución exponencial de probabilidad. Como el tiempo o el espacio son continuos, una medición de este tipo es una variable aleatoria continua. Como los procesos Poisson son estacionarios, y se tiene una probabilidad igual de que el evento ocurra a todo lo largo del periodo relevante de tiempo, la distribución exponencial se aplica siempre y cuando lo que interesa sea el tiempo o espacio hasta la ocurrencia del primer evento, o el tiempo entre dos eventos 16

sucesivos, o el tiempo que transcurre hasta que se presenta el primer evento después de cualquier punto elegido al azar. I.7.4. Distribución gamma. Muchas variables aleatorias, como la duración de la vida útil de una computadora, solo pueden asumir valores no negativos. Las distribuciones de frecuencia relativa de datos de este tipo a menudo se pueden modelar mediante funciones de densidad tipo Gamma. La fórmula para la función de densidad tipo gamma tiene dos parámetros, uno llamado parámetro de escala, que refleja el tamaño de las unidades en que se mide y el otro parámetro recibe el nombre de parámetro de forma; este permite cambiar la forma de la distribución. Es muy utilizada esta distribución para determinar cuando ocurrirá el siguiente evento. En sí, una distribución gamma es la suma de n distribuciones exponenciales. Función de densidad para una variable Gamma y 1 y e si 0 y ; 0; 0 f ( y) ( ) 0 en cualuier otro punto donde ( ) 0 y 1 e y dy 17

18

CAPÍTULO II. SIMULACIÓN. La simulación se originó con los trabajos de John Von Newman y Stanislaw Ulam a fines de la década de 1950. (Thierauf, Robert J., 1990) Jhon Von Newman y Stanislaw Ulam, en sus trabajos unieron técnicas estadísticas con el análisis de Montecarlo para resolver problemas de blindaje nuclear. Dado que el costo de estos experimentos era muy alto, además de lo complejo que resultaban, se las ingeniaron para simular este proceso. Los avances en la tecnología llevan invariablemente a la construcción de sistemas con capas adicionales de complejidad que están formados por subsistemas aun más complejos. Con el tiempo estos sistemas llegaran a convertirse en subsistemas de otros sistemas mucho más complejos. Dentro de todo este crecimiento, los simuladores proveen un medio por el cual estos sistemas abstractos o del mundo real pueden ser comprendidos y evaluados, al duplicar el comportamiento de estos sistemas mediante hardware y/o software. Los primeros usos de las computadoras digitales fueron en el campo de la simulación, y existe una gran cantidad de trabajos en que se utiliza la simulación por computadora con diversos fines. Aún ahora se destinan muchos recursos tanto económicos como humanos para la elaboración de supercomputadoras que puedan realizar cálculos complejos que se requieren para simular procesos. Una orientación que ha tenido la simulación en los últimos años y para la cual se destinan muchos recursos es en la probabilidad en un juego, el cual aunque 19

muchas veces tiende a tener un enfoque ilegal, también puede ser considerado como un tema de investigación. Existen muchos factores que deben de ser considerados al momento de emplear esta disciplina y todos serán tratados en este trabajo, desde los requerimientos que se deben cumplir antes de poder simular hasta la interpretación de los resultados obtenidos mediante la simulación del sistema, pasando por los pasos para desarrollar el modelo a ser estudiado. II.1. Método Montecarlo Von Newman y Ulam estaban realizando trabajos secretos en el laboratorio los Álamos y utilizaron como nombre clave para estos trabajos Montecarlo. Básicamente el método Montecarlo es una técnica de simulación en que se crean funciones de distribución estadística, utilizando una serie de números aleatorios. (Thierauf, Robert J., 1990) El objetivo principal de todo estudio de simulación es proveer la estimación de uno o más valores esperados, pero el hecho de trabajar con probabilidades siempre impone un margen de error en los resultados. La prueba de Montecarlo es una técnica que permiten reducir la varianza y con esto reducir el margen de error del experimento. En el diseño de un experimento de simulación se debe considerar que para mejorar su efectividad requiere un costo dado, costo que puede ser reducido afectando la efectividad del experimento. Esto es, el tiempo de cómputo puede ser estimado al momento del diseño para reducir costos. Esto considerando que se requieren grandes incrementos en el poder y tiempo de cómputo para producir incrementos moderados en la precisión del experimento. Por ello es necesario utilizar algunas otras técnicas, muchas de ellas basadas en teorías de muestreo, para poder 20

reducir la varianza, dado que la reducción de varianza está directamente relacionada con la reducción de costos y así no afectar directamente a la precisión del experimento. II.2. Simulación. Los modelos de simulación representan la realidad, la simulación la imita. (Sasieni, Yaspan, Friedman, 1982) Muchas veces tenemos la necesidad de implementar un sistema sin tener la certeza de cuáles serían las condiciones y parámetros con que obtendríamos un mejor rendimiento y resulta demasiado costoso implementarlo y realizar cambios físicos al sistema una vez puesto en marcha. En otras ocasiones se requiere calcular y obtener algún resultado de una operación muy compleja que implica demasiado tiempo y estudio, por lo que es conveniente contar con algún método alternativo que proporcione una solución muy cercana a la óptima. En éstos y otros casos se puede trabajar estos sistemas mediante la simulación por computadora, que ha sido utilizada desde hace mucho tiempo como una herramienta importante para la toma de decisiones al momento de implementar un sistema. Comenzaremos por entender el concepto de simulación, y porqué y cuándo es importante simular, además mencionaremos los requerimientos y los parámetros necesarios para poder aplicar esta herramienta de tal forma que se obtengan resultados útiles para el propósito que se requiere. Simular es el proceso de diseñar un modelo de un sistema real y realizar experimentos con este modelo con el propósito de entender el comportamiento del sistema o de evaluar distintas estrategias para la operación del sistema. 21

Así pues simular es reproducir un evento, suceso o situación con sus condiciones normales ya sea para conocer el comportamiento o para entrenamiento. Existen muchos métodos para realizar simulaciones, de igual forma existen muchas áreas a las que se puede aplicar la simulación y existen muchos trabajos sobre simulación al igual que simuladores. La importancia de la simulación se basa en ayudar a reducir costos, ayudar al entrenamiento, permitir predecir el comportamiento de un evento, esto debido a que en algunos casos resulta muy caro reproducir el evento de manera real, o incluso el suceso puede no haberse presentado aún, por lo que se desconoce la forma y el comportamiento que presentará dicho evento; también es útil la simulación para obtener resultados probabilísticos que resultan demasiado complejos y en los que no se requiere conocer el resultado exacto, pero sí tener una muy buena aproximación. Los pilotos antes de subirse y volar un avión de verdad, además de sus estudios deben pasar muchas horas y pruebas en simuladores, donde se reproducen muchas condiciones que se presentarían en una situación real; de esta manera los pilotos se entrenan para cuando son enviados verdaderamente a volar un avión. Cuando se diseña una red de computadoras se puede crear un modelo que simule el comportamiento que tendría la red incluso trabajando con grandes cargas, con ésto se pueden modificar algunas variables hasta lograr tener un comportamiento deseado. Es más sencillo y menos costoso realizar cambios a un modelo que realizar los cambios físicamente sobre el modelo real. Cuando se realiza la simulación de un evento es necesario conocer algunos puntos que dependiendo del modelo y del punto de vista del observador pueden ser relevantes o no. Algunos ejemplos de estos puntos se mencionan a continuación: 22

II.2.1. Parámetros ambientales. Estos parámetros son aquellos valores o condiciones que influyen en el comportamiento del evento, ya sea temperatura, conocimiento de información extra, etc. Mientras mayor cantidad de información y condiciones sean consideradas, mejores serán los resultados que arroje la simulación. En el caso de una red de computadoras debemos considerar aspectos como el tipo de información que será utilizada. II.2.2. Variables. Estos son los valores sobre los cuales tenemos control y que representan las características que tendrá el simulador, el valor que tienen puede ser modificado para buscar nuevas alternativas y obtener otro tipo de resultados hasta obtener lo que se quiere y determinar cuál es la solución factible a ser implementada. En algunos casos no se presenta este elemento de la simulación sobre todo cuando se trata de predecir el comportamiento de algo que no se sabe exactamente como ocurre. En el ejemplo que se ha estado tratando de la red de computadoras, podemos mencionar algunas variables tales como el número de computadoras que estarán interconectadas, también la velocidad de los dispositivos de red, la ubicación de los concentradores, etc. II.2.3. Número de simulaciones. Este valor es muy importante sobre todo en el estudio de procesos estocásticos, (que serán tratados mas adelante), dado que existe un cierto grado de aleatoriedad y no siempre se obtiene el mismo resultado, podemos valernos de este 23

parámetro que al ser muy grande los resultados tienden a acercarse a los valores óptimos o exactos. II.3. Tipos de simulación. El simular un proceso provee un amplio entendimiento de los procesos físicos que están siendo modelados. Existen distintos tipos de simulación, para la clasificación se pueden considerar muchos aspectos tales como, la naturaleza del sistema a ser modelado, si la simulación considerara o no el tiempo, y la más importante que se debe al comportamiento del sistema a ser modelado. II.3.1. Simulación discreta. Una simulación de eventos discretos es la que utiliza una técnica de siguiente evento para controlar el comportamiento del modelo. Muchas de las aplicaciones de la simulación discreta envuelven sistemas de colas de uno u otro tipo. La estructura de colas es obvia cuando se tiene una cola de trabajos esperando a ser procesados. Consideremos también clientes en una cola dentro de un banco esperando a ser atendidos. II.3.2. Simulación determinística. En muchas ocasiones se tienen sistemas que funcionan basándose en estados, como es el caso de los autómatas de estados finitos. En este caso se conoce de antemano el comportamiento del sistema cuando este se encuentra en cualquiera de los posibles estados con que cuenta, sin embargo es útil simular este tipo de sistemas pues ayudan a verificar entre otras cosas el orden de los estados; a este tipo de simulación se le conoce como determinista. 24

II.3.3. Simulación estocástica. Muchos sistemas tienen un comportamiento estocástico y por lo tanto deben ser modelados mediante elementos estocásticos, esto significa que en estos modelos de simulación estocástica se utilizaran distribuciones probabilísticas. Conforme la simulación avanza, se toman muestras de estas distribuciones para proveer un comportamiento estocástico. Un fenómeno aleatorio que surge en un proceso (ej. el movimiento de una partícula en movimiento browniano, el crecimiento de una población, el desempeño de una red de computadoras) que se desarrolla en el tiempo de una manera controlada por medio de leyes probabilísticas se denomina proceso estocástico. Esta es la principal clasificación que se tiene para la simulación y se da en función del comportamiento del sistema, a partir de aquí existen otras clasificaciones que se originan por la naturaleza de los eventos y el campo a que esta enfocada, así como también existen clasificaciones dependiendo de sí el tiempo es factor crucial en el sistema. II.4. Usos de la simulación. Ahora que se analizaran los usos de la simulación es necesario hacer énfasis sobre el enfoque de este trabajo, que es sobre la simulación por computadora. La simulación por computadora es la disciplina de diseñar un modelo de un sistema físico teórico o actual, ejecutar el modelo en una computadora digital, y analizar los resultados de la ejecución. La simulación encierra el principio de Aprender haciendo Para aprender de un sistema primero debemos desarrollar un modelo y ejecutarlo. La simulación por computadora es el equivalente electrónico de esto. Es un campo altamente interdisciplinario que puede ser utilizado de igual forma en el gobierno, industria, ingeniería, medicina, etc. 25

La simulación por computadora envuelve la experimentación de un modelo de algún sistema basado en una computadora. El modelo es utilizado como un medio para la experimentación, muchas veces se realiza en una forma de prueba y error con el objeto de demostrar los efectos de algunas políticas. El campo de aplicación que tiene la simulación es muy vasto, ya que puede ser aplicada a cualquier disciplina, entre sus usos mencionaremos los siguientes. II.4.1. Herramientas educacionales. Mediante la simulación es posible aprender a manejar un vehículo sin los riesgos que implica el aprender con un vehículo de verdad. En la armada de muchos países se utilizan simuladores de vuelo y los cadetes son sometidos a muchas horas de entrenamiento en ellos antes de sean llevados a un avión de verdad. Sin embargo se deben realizar simuladores muy reales de manera que se tenga un comportamiento muy apegado al que se tendría en una situación real, y este tipo de simuladores resultan muy costosos. II.4.2. Medios de análisis. Cuando se simula un sistema, mientras mayor sea el número de simulaciones mayor será el acercamiento que tenga en comportamiento con un sistema real, por lo que se podrán observar los elementos y componentes críticos que deben ser analizados, los cuellos de botella y los posibles resultados del sistema. Con esta información es posible plantear soluciones y medidas de seguridad. II.4.3. Predictores. Este punto es el enfoque de este trabajo. Es posible pronosticar comportamientos y ayudar con esto a planear futuros desarrollos. Puede ser utilizada la simulación para evaluar el desarrollo de todo un conjunto de eventos de un 26

sistema a partir de datos que representen el comportamiento que se ha tenido hasta el momento de simular, y con información referente al orden del desarrollo futuro del sistema, simular para obtener resultados del comportamiento que se espera tendrá dicho sistema al momento de que se vayan presentado estos eventos individuales. II.4.4. Ciencia de la computación. La simulación es la lengua franca de la ciencia de la computación. La ciencia de la computación envuelve el uso de computadoras especialmente supercomputadoras para visualización y simulación de fenómenos complejos a larga escala. El énfasis en las supercomputadoras esta realmente enfocada a la simulación, la cual requiere hardware de computo veloz. Los estudios van desde simulaciones de N cuerpos, dinámica molecular, predicción de clima, y análisis de elementos finitos y estos están limitados por la ciencia de la computación. II.4.5. Caos y sistemas complejos. La idea de que se puede observar complejidad dentro de un modelo determinista de estructura simple es de interés técnico fundamental. Además, muchos de los modelos que envuelven comportamiento caótico nos llevan a formas estáticas de análisis. La simulación debe ser utilizada para proveer una vista mas detallada del sistema. Los lenguajes de simulación en un futuro trabajaran junto con rutinas y lenguajes de manipulación simbólica de manera que el sistema pueda ser analizado con cada herramienta disponible. (tanto analítica como iterativa.) II.4.6. Realidad virtual. El empuje en la investigación de realidad es incluir el análisis en un mundo simulado mediante el uso de dispositivos tales como visores, guantes de datos, sensores y elementos de retroalimentación. Aunque la realidad virtual es vista como un sinónimo de las interfaces de hardware máquina-humano, la tecnología debe 27

incorporar métodos para construir mundos digitales o virtuales que sean efectivos. La construcción de mundos virtuales es sobre lo que trata la simulación por computadora. II.4.7. Vida artificial. Un experimento de vida artificial es aquel donde un programa de computadora es escrito para simular formas de vida artificial, que a menudo incluyen comportamientos tales como reproducción genética y mutación. II.4.8. Modelado físico y animación por computadora. Dentro de la graficación por computadora se ha dado un empuje en dirección del modelado físico. Consideremos la forma en que la animación por computadora ha sido realizada en el pasado. Las primeras animaciones por computadoras fueron realizadas en hojas individuales de papel o celuloide. Cuando una serie de hojas es transferida y filmada se tiene una velocidad de al menos 24 cuadros por segundo, se percibe una ilusión de movimiento. Desde una perspectiva de la simulación, las hojas reflejan un tipo declarativo de modelo similar a un autómata de estado finito con un estado por hoja. Además, los primeros modelos de animación fueron autómatas de estados finitos. II.5. Antecedentes de sistemas de simulación Desde que se crearon las computadoras, estas fueron utilizadas primeramente en la simulación, los campos en que fueron aplicados estos sistemas de simulación tuvieron que ver principalmente con aspectos bélicos. Es posible calcular con mucha exactitud después de varias pruebas, los parámetros necesarios para el correcto lanzamiento de un proyectil. 28