UNIVERSIDAD NACIONAL AUTÓNOMA DE MÉXICO FACULTAD DE INGENIERÍA T E S I S. QUE PARA OBTENER EL TÍTULO DE: Ingeniero en Computación P R E S E N T A :

Tamaño: px
Comenzar la demostración a partir de la página:

Download "UNIVERSIDAD NACIONAL AUTÓNOMA DE MÉXICO FACULTAD DE INGENIERÍA T E S I S. QUE PARA OBTENER EL TÍTULO DE: Ingeniero en Computación P R E S E N T A :"

Transcripción

1 UNIVERSIDAD NACIONAL AUTÓNOMA DE MÉXICO FACULTAD DE INGENIERÍA Sistema de consulta basado en inteligencia de negocios para el análisis de la información derivada de la evaluación al desempeño de los profesores de la Facultad de Ingeniería, UNAM T E S I S QUE PARA OBTENER EL TÍTULO DE: Ingeniero en Computación P R E S E N T A : Alan Jesús Pérez Shibayama Iván Arellano García DIRECTORA DE TESIS: Ing. Gabriela Betzabé Lizárraga Ramírez

2 Prólogo... 4 Situación Actual... 5 Planteamiento del problema... 5 Objetivo General CAPÍTULO I. Marco Teórico Datos, información y conocimiento Datos Información Conocimiento Base de Datos Diccionario de datos Sistema Gestor de Bases de Datos Extracción, transformación y consolidación de datos (ETL) Extracción de datos Transformación de datos Consolidación de Datos Data Warehouse (Almacén de datos) Modelo estrella Modelo copo de nieve Arquitectura Cliente-Servidor CAPÍTULO II. Generalidades del concepto de Inteligencia de Negocios Introducción a la Inteligencia de Negocios Breve historia de la Inteligencia de Negocios CAPÍTULO III. IBM Data Stage e IBM Cognos como herramientas de Inteligencia de Negocios IBM Data Stage IBM Data Stage Administrator IBM Data Stage Designer IBM Data Stage Director IBM Data Stage Manager IBM Cognos

3 IBM Cognos Connection IBM Cognos Query Studio IBM Cognos Report Studio IBM Cognos Analysis Studio IBM Cognos Transformer IBM Cognos Framework Manager CAPÍTULO IV. Desarrollo del proyecto Requerimiento Análisis Diseño del Data Warehouse Implementación del proceso ETL Tarea para la extracción de los datos proporcionados por la Facultad de Ingeniería de la UNAM Tarea para la actualización de la tabla DIVISIONES Tarea para la actualización de la tabla DEPARTAMENTOS Tarea para la actualización de la tabla PROFESORES Tarea para la actualización de la tabla ASIGNATURAS Tarea para la actualización de la tabla SEMESTRES Tarea para la actualización de la tabla HECHOS Implementación de un modelo con IBM Cognos Framework Manager Elaboración de un modelo de metadatos Generación y publicación de un paquete de metadatos Consultando la información de las encuestas a profesores de la Facultad de Ingeniería de la UNAM Reporte analítico para Directivos Main Report División Detail Report Departamento Detail Report Asignatura Detail Report Profesores Detail Report - Detalle Profesores Reporte analítico para Profesores Main Report - Reporte Profesores

4 Generación de un cubo de información por medio de IBM Cognos Transformer Creación del cubo de información Consultando la información contenida en el cubo de información por medio de IBM Cognos Analysis Studio Conclusiones Áreas de oportunidad del proyecto Índice de Figuras Bibliografía

5 Prólogo Las universidades presentan estructuras rígidas y son presionadas por el entorno cambiante, lo que afecta la calidad en ellas. Las Tecnologías de la Información (TI) son indiscutiblemente herramientas indispensables para generar ventaja competitiva. Es posible aprovechar las características de las TI y utilizar modelos de autoevaluación para mejorar la gestión de la calidad en las universidades. La Inteligencia de Negocios es un modelo que puede ser aplicado a instituciones de educación superior para mejorar la gestión de la calidad en ellas. En este trabajo se propone la implementación de un modelo de inteligencia de negocios que, haciendo uso de las tecnologías de información y basado en un conjunto de encuestas aplicadas a los alumnos para la evaluación del personal docente de la Facultad de Ingeniería (FI) de la UNAM, permita tanto a los profesores, como a los directivos, identificar fortalezas y debilidades tales como su capacitación, puntualidad, motivación, término del temario y desempeño al momento de impartir cátedra al alumnado, facilitando así la gestión de la calidad y la toma de decisiones en la FI de la UNAM. 4

6 Situación Actual Durante las últimas semanas de clases de cada semestre, en la Facultad de Ingeniería de la UNAM, son aplicadas a los alumnos una serie de preguntas relacionadas con el desempeño de cada profesor a lo largo del semestre, estas encuestas son capturadas y consolidadas dentro de archivos Excel, de estos archivos Excel es posible generar reportes que muestran los resultados obtenidos en el semestre inmediato anterior y son entregados de forma personal y en físico a cada uno de los profesores El objetivo de hacer un análisis a los datos proporcionados por los alumnos con relación al desempeño de cada uno de los profesores, es ofrecer un reporte que le permita a los docentes identificar fortalezas y debilidades al impartir cada una de sus asignaturas correspondientes. Planteamiento del problema En la Facultad de Ingeniería de la UNAM son aplicadas a los alumnos una serie de encuestas, con el objetivo de evaluar el desempeño de los profesores a lo largo del curso, dichas encuestas son capturadas y analizadas. Posteriormente, los resultados arrojados son entregados de forma personal y en físico a cada uno de los profesores y directivos. Para los profesores los resultados cumplen con su cometido, pues sirven como parámetros para observar fortalezas y debilidades al impartir clases, sin embargo, no existe una aplicación en línea y en tiempo real que les permita evaluar e identificar visualmente el desempeño a los largo de todos y cada uno de los cursos en los diferentes semestres donde se impartió cátedra, con ello sería fácil identificar si las acciones correctivas que están tomando son las indicadas. Para los directivos, al igual que los profesores, no existe una aplicación en línea y en tiempo real que permita evaluar el desempeño de cada uno de los profesores a lo largo de los semestres impartidos, además de no contar con reportes personalizados que permitan hacer comparativos y establezcan indicadores, con ello sería fácil identificar si los profesores están tomando medidas para mejorar la calidad de sus clases o bien si han tenido algún retroceso. Objetivo General Desarrollar una aplicación que permita: - A los directivos, tener acceso a un reporte analítico y comparativo de todos y cada uno de los profesores a lo largo de los diferentes cursos en los diferentes semestres donde se impartió cátedra, además de permitirles elaborar consultas personalizadas en base a un cubo de 5

7 información, el cual permitirá hacer las consultas con mayor velocidad y utilizar las funcionalidades que nos provee. - A los profesores, tener acceso a un reporte analítico de su desempeño particular a lo largo de los diferentes cursos impartidos en los diferentes semestres donde impartió cátedra. 6

8 1. CAPÍTULO I. Marco Teórico A continuación se detallan algunos de los conceptos que a lo largo de este proyecto son mencionados y de gran importancia para el entendimiento del mismo Datos, información y conocimiento Primero es importante mencionar la diferencia que existe entre los datos, la información y el conocimiento, pues aunque de primera instancia aparentan tener un significado parecido, existe una diferencia al referirnos a ellos Datos Los datos [1] son la mínima unidad semántica, y se corresponden con elementos primarios de información que por sí solos son irrelevantes como apoyo a la toma de decisiones. También se pueden ver como un conjunto discreto de valores, que no dicen nada sobre el porqué de las cosas y no son orientativos para la acción. Un número telefónico o un nombre de una persona, por ejemplo, son datos que, sin un propósito, una utilidad o un contexto no sirven como base para apoyar la toma de una decisión. Los datos pueden ser una colección de hechos almacenados en algún lugar físico como un papel, un dispositivo electrónico, o la mente de una persona. En este sentido las tecnologías de la información han aportado mucho a la recopilación de datos Información La información [1] se puede definir como un conjunto de datos procesados y que tienen un significado (relevancia, propósito y contexto), y que por lo tanto son de utilidad para quién debe tomar decisiones, al disminuir su incertidumbre. Los datos se pueden transformar en información añadiéndoles valor: - Contextualizando: Se sabe en qué contexto y para qué propósito se generaron. - Categorizando: Se conocen las unidades de medida que ayudan a interpretarlos. - Calculando: Los datos pueden haber sido procesados matemática o estadísticamente. - Corrigiendo: Se han eliminado errores e inconsistencias de los datos. - Condensando: Los datos se han podido resumir de forma más concisa (agregación). 7

9 Por tanto, la información es capaz de cambiar la forma en que el receptor percibe algo, impactando sobre sus juicios de valor y sus comportamientos Conocimiento El conocimiento [1] es una mezcla de experiencia, valores, información, que sirve como marco para la incorporación de nuevas experiencias e información, y es útil para la acción. Se origina y aplica en la mente de los conocedores. En las organizaciones con frecuencia no sólo se encuentra dentro de documentos o almacenes de datos, sino que también está en rutinas organizativas, procesos, prácticas y normas. El conocimiento se deriva de la información, así como la información se deriva de los datos. Para que la información se convierta en conocimiento es necesario realizar acciones como: - Comparación con otros elementos. - Predicción de consecuencias. - Búsqueda de conexiones. - Conversación con otros portadores de conocimiento Base de Datos Para todos los proyectos de Inteligencia de Negocios es importante contar con un repositorio que nos permita almacenar todos y cada uno de los datos de interés, a este almacén se le conoce como base de datos y podemos definirlo de la siguiente manera: Una base de datos es un almacén que nos permite guardar grandes cantidades de datos de forma organizada para que luego sean encontrados y utilizados fácilmente Diccionario de datos Un diccionario de datos es un conjunto de metadatos que contiene las características lógicas y puntuales de los datos considerados dentro de la Base de Datos, ayuda a identificar los procesos donde se emplean los datos y los sitios donde se necesita el acceso inmediato a la información, se desarrolla durante el análisis de flujo de datos y auxilia a los analistas que participan en la determinación de los requerimientos del sistema. [2] 8

10 1.4. Sistema Gestor de Bases de Datos Otro concepto importante a considerar dentro del ámbito de las bases de datos es el Sistema Gestor de Bases de Datos (SGBD), el cual se define como el conjunto de programas que acceden y gestionan una colección de datos relacionados entre sí. [3] Para nuestro proyecto utilizaremos ORACLE data base express edition 10g como nuestro SGBD Extracción, transformación y consolidación de datos (ETL) En ocasiones los datos se encuentran en diferentes fuentes, o bien no se encuentran del todo bien definidos y además es necesario ubicarlos en nuevos repositorios de datos, para ello es necesario definir los conceptos de Extracción, Transformación y Carga de datos, frecuentemente abreviado ETL (por sus siglas en inglés Extract, Transform and Load). Un proceso ETL permite a una organización mover datos desde múltiples fuentes, reformatearlos, limpiarlos y cargarlos en otra base de datos, data warehouse, o en otro sistema operacional para apoyar un proceso de organización [4] Extracción de datos La primera fase del proceso ETL consiste en extraer los datos desde los sistemas de origen. La mayoría de los proyectos de almacenamiento de datos fusionan datos provenientes de diferentes sistemas de origen. Cada sistema separado puede usar una organización diferente de los datos o formatos distintos. Los formatos de las fuentes normalmente se encuentran en bases de datos relacionales o archivos planos, pero pueden incluir bases de datos no relacionales u otras estructuras diferentes. La extracción convierte los datos a un formato preparado para iniciar el proceso de transformación. Una parte intrínseca del proceso de extracción es la de analizar los datos extraídos, de lo que resulta una revisión que verifica si los datos cumplen la pauta o estructura que se esperaba. De no ser así los datos son rechazados. Un requerimiento importante que se debe exigir a la tarea de extracción es que esta cause un impacto mínimo en el sistema origen. Si el proceso de extracción es largo y complicado, el sistema origen se podría colapsar, provocando que éste no pueda utilizarse con normalidad para su uso cotidiano. Por esta razón, en sistemas grandes las operaciones de extracción suelen programarse en horarios o días donde este impacto sea nulo o mínimo. [4] 9

11 Transformación de datos La segunda fase de un proceso ETL se conoce como transformación de datos, es en esta fase donde se aplican una serie de reglas de organización o funciones sobre los datos extraídos para convertirlos en datos que serán cargados. [4] Algunas fuentes de datos requerirán alguna pequeña manipulación de los datos. No obstante en otros casos puede ser necesario aplicar diversas transformaciones, a continuación se mencionan solo algunas: - Seleccionar solo ciertas columnas para su carga (ej. Columnas con valores nulos no deben ser cargadas) - Traducir códigos (ej. Si la fuente almacena un 1 para hombres y una 2 para mujeres el destino deberá almacenar un H para hombres y un M para mujeres) - Obtener nuevos valores calculados (ej. Total venta = cantidad * precio ) - Unir datos de múltiples fuentes - Generación de campos clave en el destino - La aplicación de cualquier forma, simple o compleja de validación de datos, y la consiguiente aplicación de la acción que en cada caso se requiera: o Datos correctos: Entregar datos a la siguiente etapa o Datos erróneos: Ejecutar políticas de tratamiento de excepciones (ej. Rechazar un registro completo, dar valor nulo a campo erróneo) Consolidación de Datos La tercera y última fase de un proceso ETL se conoce como consolidación o carga de datos, es en ésta etapa en donde todos los datos seleccionados en la fase de transformación son cargados en la fuente destino. Es importante mencionar que en esta etapa ya se debe tener bien definido un modelo de datos, es decir, un conjunto de herramientas conceptuales para describir datos, sus relaciones, su significado y sus restricciones de consistencia. Dependiendo de los requerimientos de la organización, este proceso puede abarcar una amplia variedad de acciones diferentes. En algunas bases de datos se sobrescribe la información antigua con nuevos datos. [4] La siguiente figura describe de manera general el flujo que sigue un proceso de ETL. 10

12 Figura 1 Diagrama con las fases de un proceso ETL 1.6. Data Warehouse (Almacén de datos) Una vez definidos los conceptos básicos de Bases de Datos podemos hablar de un nuevo concepto, data warehouse (DW), el cual, si bien es una Base de Datos, es una colección de datos orientada a un determinado ámbito, integrado y variable en el tiempo, que ayuda a la toma de decisiones en la entidad en la que se utiliza. Los data warehouse mantienen un historial de los registros de manera que se puede hacer una auditoría de los mismos y disponer de un rastreo de toda la historia de un valor a lo largo del tiempo Modelo estrella El modelo estrella es una de las estructuras bajo la cual se guía la creación de un data warehouse y es el más sencillo en estructura. Consiste en un modelo con una tabla centralizada, denominada tabla de hechos, que contiene los datos para el análisis, rodeada de varias dimensiones, las cuales contienen información descriptiva. Lo característico del modelo de estrella es que sólo existe una dimensión para cada dimensión. 11

13 Este modelo es ideal por su simplicidad y velocidad para ser usado en análisis multidimensionales, además de permitir acceder tanto a datos agregados como de detalle Modelo copo de nieve El modelo copo de nieve es una variedad más compleja del modelo estrella. Lo que distingue a la estructura en copo de nieve del modelo estrella, es que las dimensiones en este modelo representan relaciones normalizadas y forman parte de un modelo relacional de base de datos. El uso más común de este tipo de arquitectura es cuando las dimensiones están muy grandes o complejas y es muy difícil representar los datos en esquema estrella Arquitectura Cliente-Servidor Una de las incógnitas que existe por lo regular al desarrollar un proyecto de Inteligencia de Negocios es la manera en que los datos van a ser consultados, es aquí donde el concepto de arquitectura toma gran relevancia y existen diferentes tipos de arquitecturas que permiten realizar dicha tarea, sin embargo, una de las más comunes es la arquitectura cliente-servidor. La arquitectura cliente-servidor es un modelo de aplicación distribuida en el que las tareas se reparten entre los proveedores de recursos o servicios, llamados servidores, y los demandantes, llamados clientes. Un cliente o usuario realiza peticiones, el servidor, quien le da respuesta. Figura 2 Diagrama de arquitectura Cliente-Servidor 12

14 2. CAPÍTULO II. Generalidades del concepto de Inteligencia de Negocios 2.1. Introducción a la Inteligencia de Negocios Howard Dresner propuso la Inteligencia de Negocios como un término general para describir los conceptos y métodos para mejorar la toma de decisiones organizacionales mediante el uso de sistemas basados en hechos de apoyo. [6] Desde un punto de vista asociado directamente con las tecnologías de la información, podemos definir Inteligencia de Negocios como el conjunto de metodologías, aplicaciones y tecnologías que permiten reunir, depurar y transformar datos de los sistemas transaccionales e información desestructurada en información estructurada, para su explotación o para su análisis y conversión en conocimiento, dando así soporte a la toma de decisiones sobre de la organización. [7] 2.2. Breve historia de la Inteligencia de Negocios En un tiempo, las organizaciones dependían de sus departamentos de sistemas de información para proporcionarles reportes estándar y personalizados. Esto ocurrió en los días de los mainframes y minicomputadoras, cuando la mayoría de los usuarios no tenía acceso directo a las micro computadoras. Sin embargo, esto comenzó a cambiar en los años 70 s cuando los sistemas basados en servidores se convirtieron en una realidad. Aun así estos sistemas eran usados principalmente para transacciones de negocios y sus capacidades de realizar reportes se limitaba a un número predefinido de ellos. Los sistemas de información se sobrecargaban y los usuarios tenían que esperar por días o semanas para obtener sus reportes en caso que requirieran reportes distintos a los estándares disponibles. Algunos de los hitos históricos que nos han llevado hasta la situación actual del concepto de Inteligencia de Negocios son los siguientes: : Introducción del concepto de base de datos relacionales. [8] s: Desarrollo de las primeras bases de datos y las primeras aplicaciones empresariales (JD Edwards, Siebel). Estas aplicaciones permitieron realizar Entrada de datos en los sistemas, aumentando la información disponible, pero no fueron capaces de ofrecer un acceso rápido y fácil a dicha información. [8] 13

15 - 1980s: Creación del concepto Data warehouse, y aparición de los primeros sistemas de reporteo. A pesar de todo, seguía siendo complicado y funcionalmente pobre. Existían relativamente potentes sistemas de bases de datos pero no había aplicaciones que facilitaran su explotación. [8] : Introducción del término de Inteligencia de Negocios. [8] s: Proliferación de múltiples aplicaciones de Inteligencia de Negocios s: Consolidación de las aplicaciones de Inteligencia de Negocios en plataformas de Inteligencia de Negocios (Oracle, SAP, IBM, Microsoft). [8] 14

16 3. CAPÍTULO III. IBM Data Stage e IBM Cognos como herramientas de Inteligencia de Negocios En el ámbito de Inteligencia de Negocios existen una gran cantidad de compañías que nos ofrecen soluciones completas para el desarrollo de un proyecto de Inteligencia de Negocios, algunas de dichas compañías son: - SAP - Pentaho - Oracle - Micro Strategy - IBM Decidimos trabajar con las herramientas de IBM por 2 razones, la primera es que ambas herramientas cuentan con interfaces sencillas que permiten la realización de tareas específicas y complejas de una forma simple, ordenada y sobre todo eficaz, la segunda es por ser herramientas dominantes dentro del mercado de Inteligencia de Negocios. IBM Data Stage provee una interfaz para la realización del proceso ETL, mientras que IBM Cognos provee las herramientas para el análisis de la información IBM Data Stage Como mencionamos anteriormente IBM cuenta con 2 herramientas para realizar tareas específicas, en el caso de tareas relacionadas con la extracción, transformación y carga de datos nos provee la herramienta IBM Data Stage en su versión Originalmente bajo el nombre de Ardent DataStage, para luego ser adquirido por Ascential en el año 2001 y comprado por IBM en el año 2005, IBM Data Stage es un set de herramientas que permiten la extracción, integración y transformación de altos volúmenes de datos desde estructuras simples hasta muy complejas. Basado en una arquitectura cliente-servidor, IBM Data Stage es administrado y configurado por medio de 4 herramientas cliente: - IBM Data Stage Administrator IBM Data Stage Designer

17 - IBM Data Stage Director IBM Data Stage Manager IBM Data Stage Administrator IBM Data Stage Administrator es una interfaz muy sencilla que permite crear, modificar, eliminar, configurar y administrar los diferentes proyectos contenidos dentro del Servidor de IBM Data Stage En la siguiente figura podemos apreciar la interfaz de esta herramienta cliente, donde se encuentra nuestro proyecto nombrado TESIS. Figura 3 Interfaz IBM Data Stage Administrator IBM Data Stage Designer IBM Data Stage Designer es la interfaz utilizada para crear y diseñar tareas Data Stage, adicionalmente también nos permite compilar y ejecutar dichas tareas Data Stage. Básicamente la interfaz consta de 3 secciones como podemos apreciar en la figura 4, del lado izquierdo se encuentra el repositorio de objetos creados y una paleta con los objetos disponibles para usar, mientras que nuestra área de trabajo se encuentra del lado derecho. 16

18 IBM Data Stage Director Figura 4 Interfaz IBM Data Stage Designer IBM Data Stage Director es la interfaz utilizada para validar, calendarizar, ejecutar y monitorizar tareas Datastage. En la figura 5 podemos observar la interfaz utilizada por esta herramienta, donde se localizarán todos las tareas o secuencias creadas con información relevante, como la fecha y el tiempo de ejecución de cada objeto, así como su descripción y su estatus. Figura 5 Interfaz IBM Data Stage Administrator

19 IBM Data Stage Manager IBM Data Stage Manager es la interfaz usada para visualizar y editar el contenido del repositorio, además de importar o exportar tareas Data Stage. Como se puede apreciar en la figura 6, la interfaz está dividida en 2 secciones, del lado izquierdo se encuentran los tipos de objetos utilizables por IBM Data Stage 7.5.2, mientras que en el lado derecho se localizan los objetos existentes en el repositorio. Figura 6 Interfaz IBM Data Stage Manager IBM Cognos Para la explotación de la información IBM nos provee de la herramienta IBM Cognos , la cual es una de las herramientas más utilizadas en la actualidad en cuanto a la realización de proyectos de Inteligencia de Negocios se refiere. De acuerdo con la siguiente figura (Cuadrante mágico de Gartner), la solución para Inteligencia de Negocios proveída por IBM es bastante completa, manejable y una de las líderes del mercado. El Cuadrante mágico de Gartner proporciona de manera gráfica un posicionamiento competitivo de cuatro tipos de proveedores de tecnología: [9] Líderes: Ejecutan bien en contra de su visión actual y están en buena posición para mañana. [9] 18

20 Visionarios: Comprenden dónde va el mercado o tienen una visión para el cambio de las reglas del mercado, pero aún no ejecutan bien. [9] Buena Posición: Centran su éxito en un pequeño segmento, pero están fuera de foco y no son muy innovadores. [9] Retadores: Ejecutan bien hoy o pueden llegar a dominar una gran parte del mercado, pero no tienen claro hacia dónde se dirige el mercado. [9] Figura 7 Cuadrante mágico de Gartner Inc [9] IBM Cognos a su vez es una suite con diferentes aplicaciones orientadas a cubrir un tipo de necesidad, la mayoría de ellas se maneja 100% desde un explorador Web, tanto para desarrollar o diseñar informes como para consultarlos o realizar tareas de análisis. Entre las principales herramientas que maneja la suite se encuentran las siguientes: IBM Cognos Connection IBM Cognos Connection es el portal y el punto de acceso a todos los datos disponibles dentro de IBM Cognos , en él es posible crear informes, análisis, consultas, accesos directos y visualizar cada uno de los paquetes existentes, incluso es posible personalizar este portal de acuerdo a las necesidades de la organización, incluyendo URLs. En la figura 8 se presenta la interfaz del portal de IBM Cognos Connection , en donde podemos observar las diferentes herramientas con las que cuenta la solución. 19

21 IBM Cognos Query Studio Figura 8 Interfaz IBM Cognos Connection Es la herramienta más simple, y se podría considerar más bien como un complemento. Su objetivo es permitir al usuario realizar consultas sencillas para resolver rápidamente cuestiones puntuales que le puedan surgir. Permite acceder a la misma estructura de datos que utilizan las otras herramientas, tanto si se trata de un modelo relacional como si la estructura es dimensional. Con IBM Cognos Query Studio se puede crear un informe en segundos arrastrando campos desde el explorador de datos hasta el área de diseño de informes. Permite también aplicar filtros, ordenaciones, operaciones de agrupación de datos e incluso crear gráficas. La figura 9 muestra la interfaz de esta herramienta, dividida en 2 secciones, del lado izquierdo se encuentran los objetos de consulta mientras que del lado derecho se encuentra el área de trabajo. Todas las opciones para realizar cálculos o insertar gráficos y formato se encuentran en la barra de herramientas localizada en la parte superior. Figura 9 Interfaz IBM Cognos Query Studio 20

22 IBM Cognos Report Studio Es la aplicación principal para la creación de informes. Se asemeja a IBM Cognos Query Studio , pero es mucho más completa. Existen diferentes tipos de gráficas que se pueden incluir en los informes, mostrar de manera individualizada o guardar para formar parte de un cuadro de mando que se mostraría en el portal. Las opciones de utilización de parámetros son también bastante completas y como en todos estos tipos de herramientas, se pueden definir filtros, ordenar, agrupar y trabajar con agregados, crear subtotales, campos calculados y formateados condicionales. Estos objetos pueden ser de diferentes tipos: origen de datos, datos específicos del informe y herramientas de diseño. Cada objeto que se incrusta en el informe tiene sus propiedades configurables, y mediante estas se puede llegar a un nivel muy alto de personalización, tanto en los datos que se muestran como en el diseño del formato. Se puede trabajar tanto con estructuras de datos relacionales como con estructuras dimensionales, sólo hay que tener en cuenta que en función del tipo de origen existen diferencias en cuanto a las propiedades aplicables a los datos, e incluso en cuanto al comportamiento en el área de diseño. Aunque no es obligatorio hacerlo así, para mostrar datos de estructura dimensional, lo más apropiado es utilizar informes de tipo tabla de referencias cruzadas. A continuación, en la figura 10, se muestra la interfaz de esta herramienta, a la izquierda muestra un explorador de objetos desde el que se puede acceder a la estructura de datos, y a otros objetos insertables en los informes. A la derecha se encuentra el área de diseño del informe, donde se pueden arrastrar estos objetos e ir componiendo así la estructura. Figura 10 Interfaz IBM Cognos Report Studio

23 IBM Cognos Analysis Studio IBM Cognos Analysis Studio tiene una función similar a IBM Cognos Query Studio , pero para orígenes multidimensionales. Esta herramienta permite la navegación por estructuras multidimensionales como cubos OLAP. También puede trabajar con orígenes de datos relacionales, siempre que estén modelados dimensionalmente desde IBM Cognos Framework Manager El objetivo principal de este software es permitir que el analista de la organización pueda navegar por los datos cargados en las estructuras dimensionales sin depender del soporte del área de tecnologías de información. Utilizando IBM Cognos Analysis Studio un usuario de negocio puede realizar análisis complejos y comparativos de datos para descubrir tendencias, riesgos y oportunidades. El área de trabajo es similar a la de IBM Cognos Query Studio e IBM Cognos Report Studio y las opciones estándar para la creación de informes son muy similares a las de IBM Cognos Query Studio , con aplicación de filtros, ordenaciones, operaciones de agrupación de datos, creación de gráficas, etc. Además ofrece funcionalidades más orientadas a orígenes dimensionales, como la navegación con drill up / drill down, o la creación de filtros de contexto. En la figura 11, de la misma forma que las herramientas anteriores, a la izquierda muestra un explorador de objetos desde el que se puede acceder a la estructura de datos, y a otros objetos insertables en los informes. A la derecha se encuentra el área de diseño del informe, donde se pueden arrastrar estos objetos e ir componiendo así la estructura. Figura 11 Interfaz IBM Cognos Analysis Studio

24 IBM Cognos Transformer Las herramientas mencionadas anteriormente permiten acceder a cubos OLAP como origen de datos. IBM Cognos Transformer es la herramienta que permite construir cubos OLAP. Aunque las herramientas de reporteo de IBM Cognos pueden trabajar en ROLAP y atacar bases de datos relacionales, para realizar tareas analíticas lo más eficiente suele ser utilizar un cubo OLAP como origen de datos, es decir, trabajar en MOLAP. Con un volumen de datos controlado los tiempos de respuesta en la utilización de los informes pueden ser mucho mejores. Con IBM Cognos Transformer se definen los orígenes de datos, se modela la estructura multidimensional que va a conformar el cubo, se valida, y se procede a la construcción del mismo. Esta herramienta se instala en modo cliente, no se accede por web. Se utiliza de manera independiente para generar los cubos, que es lo que utilizan el resto de las herramientas web de IBM Cognos En la figura 12 se muestra la interfaz de esta herramienta, la cual es un poco más compleja, en ella se puede apreciar nuestra fuente de datos, las métricas definidas, el mapa de dimensiones y una vista previa de las categorías, así como el nombre del cubo que posteriormente será publicado dentro de IBM Cognos Connection Figura 12 Interfaz IBM Cognos Transformer

25 IBM Cognos Framework Manager IBM Cognos Framework Manager es quizás la herramienta más importante, pues en ella es donde se lleva a cabo el modelado de los metadatos. Los metadatos pueden ser modelados relacionalmente, similar a cómo las tablas de base de datos están unidas entre sí, o dimensionalmente, lo que significa que los datos pueden ser representados en jerarquías con niveles. Generalmente los metadatos son organizados en arboles de jerarquías, esto con el propósito de desplegar de la manera más entendible y simple a los usuarios. IBM Cognos Framework Manager , además, cuenta con un sofisticado sistema de seguridad, por lo que puede restringir los elementos sensibles a determinados usuarios, grupos de usuarios o usuarios asignados a particulares "roles", por ejemplo, Administradores. Un modelado de metadatos bien definido y correctamente elaborado permite la generación de informes más rápida y evita posibles errores y duplicidades. En la figura 13 se observa la interfaz de esta herramienta, del lado izquierdo se localizan los objetos a modelar, las fuentes de datos y los paquetes que serán publicados in IBM Cognos Connection , en la parte central se localiza el área de modelado donde se establecen las relaciones de nuestros objetos y del lado derecho un panel con las propiedades de cada uno de ellos. Figura 13 Interfaz IBM Framework Manager

26 4. CAPÍTULO IV. Desarrollo del proyecto 4.1. Requerimiento Se requiere la implementación de un sistema de Inteligencia de Negocio con los datos de las encuestas aplicadas a los alumnos para la evaluación del desempeño de los profesores de la Facultad de Ingeniería de la UNAM a lo largo de los diferentes semestres donde se impartió cátedra Análisis En la figura 14 podemos observar los pasos o fases que deben considerarse al desarrollar un proyecto de Inteligencia de Negocio. Aplicado a nuestra problemática, la fuente de información será un archivo Excel que contiene los datos provenientes de las encuestas aplicados al alumnado para evaluar a los profesores proporcionado por la Facultad de Ingeniería de la UNAM, el cual, por medio de un proceso de ETL diseñado en IBM Data Stage 7.5.2, será almacenado en nuestro Data Warehouse, una vez en nuestro Data Warehouse, los datos serán explotados por las herramientas de IBM Cognos para la realización tanto de los reportes analíticos, como del cubo de información. ETL Almacén de Datos Figura 14 Fases en un proyecto de Inteligencia de Negocios 25

27 4.3. Diseño del Data Warehouse Lo primero a realizar en el modelado de las diferentes tablas consideradas para nuestro proyecto, es el diseño de nuestro Data Warehouse, en la figura 15 se puede observar el diagrama del modelo estrella propuesto para este trabajo. El modelo estrella expuesto está compuesto por 5 dimensiones, cada tabla consta a su vez de una llave primaria y al menos un campo descriptivo, mientras que la tabla de hechos cuenta con todas las métricas que serán utilizadas para el análisis de datos y todas y cada una de las llaves primarias de las tablas. Figura 15 Modelo físico estrella del Data Warehouse propuesto Es posible también notar que todas las dimensiones tienen establecidas la siguiente relación con la tabla de hechos: - Cada elemento de la tabla de hechos puede tener únicamente un valor en la dimensión. (1,1) - Cada elemento de la dimensión puede tener uno o más valores en la tabla de hechos (1,n) 26

28 Diccionario de datos Una vez definido nuestro modelo de datos, es necesario contar con un diccionario de datos donde se describen las entidades y los atributos involucrados en nuestro modelo estrella: - Tabla DIVISIONES La tabla DIVISIONES almacena la información correspondiente a las divisiones existentes en la Facultad de Ingeniería de la UNAM. La clave de la división funge como nuestra llave primaria y cuenta con una columna referente al nombre de cada división.. A continuación se presenta el código SQL que muestra las columnas que conforman la tabla DIVISIONES, además del esquema al que pertenece dicha tabla, tipo de dato, si permite nulos y algunos comentarios como aprecia en la figura 16. Figura 16 Descripción tabla DIVISIONES - Tabla DEPARTAMENTOS La tabla DEPARTAMENTOS almacena la información correspondiente a los departamentos existentes en la Facultad de Ingeniería de la UNAM. La clave del departamento funge como nuestra llave primaria y cuenta con una columna referente al nombre de cada departamento. A continuación se presenta el código SQL que muestra las columnas que conforman la tabla DEPARTAMENTOS, además del esquema al que pertenece dicha tabla, tipo de dato, si permite nulos y algunos comentarios como se aprecia en la figura

29 Figura 17 Descripción tabla DEPARTAMENTOS - Tabla PROFESORES La tabla PROFESORES almacena la información correspondiente a los profesores existentes en la Facultad de Ingeniería de la UNAM. El RFC del profesor funge como nuestra llave primaria y cuenta con una columna referente al nombre de cada profesor. A continuación se presenta el código SQL que muestra las columnas que conforman la tabla PROFESORES, además del esquema al que pertenece dicha tabla, tipo de dato, si permite nulos y algunos comentarios como se aprecia en la figura 18. Figura 18 Descripción tabla PROFESORES 28

30 - Tabla ASIGNATURAS La tabla ASIGNATURAS almacena la información correspondiente a las asignaturas existentes en la Facultad de Ingeniería de la UNAM. La clave de la asignatura funge como nuestra llave primaria y cuenta con una columna referente al nombre de cada asignatura, así como una columna que especifica si la asignatura en turno es de tipo teoría o práctica. A continuación se presenta el código SQL que muestra las columnas que conforman la tabla ASIGNATURAS, además del esquema al que pertenece dicha tabla, tipo de dato, si permite nulos y algunos comentarios como se aprecia en la figura 19. Figura 19 Descripción tabla ASIGNATURAS - Tabla SEMESTRES La tabla SEMESTRES almacena la información correspondiente a todos los semestres de cada año donde las encuestas a los profesores fueron aplicadas. El id semestre funge como nuestra llave primaria y cuenta con una columna referente al año, así como una columna con información al número de semestre. A continuación se presenta el código SQL que muestra las columnas que conforman la tabla SEMESTRES, además del esquema al que pertenece dicha tabla, tipo de dato, si permite nulos y algunos comentarios como se aprecia en la figura

31 Figura 20 Descripción tabla SEMESTRES - Tabla HECHOS La tabla HECHOS almacena únicamente las métricas (calificaciones, promedios, etc) y como habíamos mencionado antes, las llevas primarias de las dimensiones, las cuales fungen como llave primaria para esta tabla. A continuación se presenta el código SQL que muestra las columnas que conforman la tabla HECHOS, además del esquema al que pertenece dicha tabla, tipo de dato, si permite nulos y algunos comentarios como se aprecia en la figura

32 Figura 21 Descripción tabla HECHOS 31

33 4.4. Implementación del proceso ETL Ahora que las tablas de nuestro proyecto están consideradas en el modelo estrella es necesario definir los diferentes procesos que permitan la consolidación de los datos en ellas. Para nuestro proyecto y por medio de la herramienta IBM Data Stage se generará una tarea para cada una de las tablas involucradas en el modelo estrella previamente planteado, además de una secuencia global que ejecuta de forma automática todos y cada uno de las diferentes tareas involucradas en este proyecto, con el objetivo de ser calendarizado y ejecutado cada semestre y permita la actualización de la información. En la figura 22 se puede apreciar el flujo de la secuencia global, es importante mencionar que el orden de los objetos en dicha secuencia es el orden de ejecución de cada uno de ellos. Figura 22 Secuencia_Carga_Total - Actualización de la fuente de datos proporcionada por la FI de la UNAM - Actualización de la tabla DIVISIONES - Actualización de la tabla DEPARTAMENTOS - Actualización de la tabla PROFESORES - Actualización de la tabla ASIGNATURAS - Actualización de la tabla SEMESTRES - Actualización de la tabla HECHOS 32

34 Tarea para la extracción de los datos proporcionados por la Facultad de Ingeniería de la UNAM El primer paso es definir nuestra fuente de datos y elaborar una tarea que nos permita almacenarlos en nuestra base de datos. Los datos proporcionados por la Facultad de Ingeniería de la UNAM correspondientes a las encuestas a profesores están contenidos dentro de un archivo Excel, por lo que podemos definir que nuestro origen de datos, en primera instancia, será este documento Excel, sin embargo, es necesario almacenar esta información dentro de nuestra base de datos, para ello se creará una tabla que se encargará de guardar la información exactamente igual a como viene de nuestro archivo Excel, este proceso se realizara por medio de una tarea simple en la interfaz de diseño de IBM Data Stage La tabla que almacenará esta información tendrá el nombre de TB_ENCUESTAS_PROFESORES. Como podemos observar en la figura 23 la tarea Carga_CSV_A_BD consiste únicamente en localizar el archivo Excel y cargarlo directamente a la tabla TB_ENCUESTAS_PROFESORES. El archivo Excel está ubicado en la ruta: C:\Ascential\DataStage\Projects\TESIS\BASES DE DATOS.csv, donde se encuentra instalado el servidor de IBM Data Stage 7.5.2, mientras que la tabla TB_ENCUESTAS_PROFESORES se encuentra dentro nuestra base de datos. Figura 23 Tarea Carga_CSV_A_BD 33

35 Es importante mencionar que el archivo Excel debe seguir la siguiente estructura de columnas: Numero de columna Nombre de columna 1 SEC 2 DIV 3 DEP 4 ASIG 5 GPO 6 TIPO 7 NP 8 NOMBRE_ASIGNATURA 9 ID_PROFESOR 10 NOMBRE_PROF 11 INSCRITOS 12 ENCUESTADOS 13 RECEPCION 14 CAL_PROF 15 CAL_ALUM 16 SEMESTRE 17 P01 18 P02 19 P03 20 P04 21 P05 22 P06 23 P07 24 P08 25 P09 26 P10 27 P11 28 P12 29 P13 30 P14 31 P15 32 P16 33 P17 34 P18 35 P19 36 P20 37 P21 38 P22 39 P23 34

36 40 P24 41 P25 42 P26 43 P27 44 P28 45 P29 46 CC1 47 CC2 48 CC3 49 CC4 50 CC5 51 CC6 52 CC7 53 CALIFICACION 54 NOM_DIV 55 NOM_DEP Tabla 1 Estructura archivo fuente En caso que el archivo Excel no siga con la estructura descrita en la Tabla 1, la tarea al ser ejecutada, abortará y no hará la carga de los datos a la tabla temporal TB_ENCUESTAS_PROFESORES Tarea para la actualización de la tabla DIVISIONES Una vez almacenada la información de las encuestas en nuestra base de datos lo que prosigue es cargar, basados en la tabla ENCUESTAS_PROFESORES, las diferentes dimensiones y la tabla de hechos con la información concerniente a cada una de ellas. Para hacer la carga de la información a nuestra tabla DIVISIONES se creó la tarea Carga_DIVISIONES, la cual selecciona la clave de cada división con su descripción, en este caso el nombre de la división, y las almacena en la tabla DIVISIONES. Como podemos apreciar en la figura 24 la tarea Carga_DIVISIONES consta de 3 etapas: 35

37 Figura 24 Tarea Carga_DIVISIONES - TB_ENCUESTAS_PROFESORES Objeto tipo Base de Datos ORACLE que funge como nuestro origen de datos para esta tarea, en este objeto se definen los parámetros para la conexión a nuestra base de datos para la tabla ENCUESTAS_PROFESORES, además se especifican, por medio de una consulta descrita en la figura 25, las columnas de interés para nuestra tabla destino DIVISIONES. Figura 25 Objeto Base de Datos Origen para la tarea Carga_DIVISIONES 36

38 - Mapeo Objeto tipo transformación que nos permite hacer el mapeo y la homologación de los tipos de datos entre nuestro origen de datos TB_ENCUESTAS_PROFESORES y nuestro destino TB_DIVISIONES. En la figura 26 se muestra el mapeo establecido. Figura 26 Objeto transformación para la tarea Carga_DIVISIONES - TB_DIVISIONES Objeto tipo Base de Datos ORACLE que funge como nuestro destino de datos para esta tarea, en este objeto, como se muestra en la figura 27, se definen los parámetros para la conexión a nuestra base de datos para la tabla DIVISIONES, así como el tipo de carga de datos a realizar, en nuestro caso y basados en la llave primaria de dicha tabla, el tipo de carga de datos consiste en primero actualizar datos existentes y después insertar nuevos datos. 37

39 Figura 27 Objeto Base de Datos destino para la tarea Carga_DIVISIONES Tarea para la actualización de la tabla DEPARTAMENTOS Para hacer la carga de la información a nuestra tabla DEPARTAMENTOS se creó la tarea Carga_DEPARTAMENTOS, la cual selecciona la clave de cada departamento con su descripción, en este caso el nombre del departamento, y las almacena en la tabla DEPARTAMENTOS. Como podemos apreciar en la figura 28 la tarea Carga_DEPARTAMENTOS consta de 3 etapas: Figura 28 Tarea Carga_DEPARTAMENTOS 38

40 - TB_ENCUESTAS_PROFESORES Objeto tipo Base de Datos ORACLE que funge como nuestro origen de datos para esta tarea, en este objeto se definen los parámetros para la conexión a nuestra base de datos para la tabla ENCUESTAS_PROFESORES, además se especifican, por medio de una consulta descrita en la figura 29, las columnas de interés para nuestra tabla destino DEPARTAMENTOS. Figura 29 Objeto de Base de Datos Origen para la tarea Carga_DEPARTAMENTOS - Mapeo Objeto tipo transformación que nos permite hacer el mapeo y la homologación de los tipos de datos entre nuestro origen de datos TB_ENCUESTAS_PROFESORES y nuestro destino TB_DEPARTAMENTOS. En la figura 30 se muestra el mapeo establecido. Figura 30 Objeto transformación para la tarea Carga_DEPARTAMENTOS 39

41 - TB_DEPARTAMENTOS Objeto tipo Base de Datos ORACLE que funge como nuestro destino de datos para esta tarea, en este objeto, como se muestra en la figura 31, se definen los parámetros para la conexión a nuestra base de datos para la tabla DEPARTAMENTOS, así como el tipo de carga de datos a realizar, en nuestro caso y basados en la llave primaria de dicha tabla, el tipo de carga de datos consiste en primero actualizar datos existentes y después insertar nuevos datos. Figura 31 Objeto de Base de Datos destino para la tarea Carga_DEPARTAMENTOS Tarea para la actualización de la tabla PROFESORES Para hacer la carga de la información a nuestra tabla PROFESORES se creó la tarea Carga_PROFESORES, la cual selecciona únicamente el identificador de cada profesor con su descripción, en este caso el nombre del profesor, y las almacena en la tabla PROFESORES. Como podemos apreciar en la figura 32 la tarea Carga_PROFESORES consta de 3 etapas: Figura 32 Tarea Carga_PROFESORES 40

42 - TB_ENCUESTAS_PROFESORES Objeto tipo Base de Datos ORACLE que funge como nuestro origen de datos para esta tarea, en este objeto se definen los parámetros para la conexión a nuestra base de datos para la tabla ENCUESTAS_PROFESORES, además se especifican, por medio de una consulta mostrada en la figura 33, las columnas de interés para nuestra tabla destino PROFESORES. Figura 33 Objeto de Base de Datos origen para la tarea Carga_DEPARTAMENTOS - Mapeo Objeto tipo transformación que nos permite hacer el mapeo y la homologación de los tipos de datos entre nuestro origen de datos TB_ENCUESTAS_PROFESORES y nuestro destino TB_PROFESORES. En la figura 34 se muestra el mapeo establecido. Figura 34 Objeto transformación para la tarea Carga_PROFESORES 41

43 - TB_PROFESORES Objeto tipo Base de Datos ORACLE que funge como nuestro destino de datos para esta tarea, en este objeto, como se muestra en la figura 35, se definen los parámetros para la conexión a nuestra base de datos para la tabla PROFESORES, así como el tipo de carga de datos a realizar, en nuestro caso y basados en la llave primaria de dicha tabla, el tipo de carga de datos consiste en primero actualizar datos existentes y después insertar nuevos datos. Figura 35 Objeto de Base de Datos destino para la tarea Carga_PROFESORES Tarea para la actualización de la tabla ASIGNATURAS Para hacer la carga de la información a nuestra tabla ASIGNATURAS se creó la tarea Carga_ASIGNATURAS, la cual selecciona la clave de la asignatura con su descripción, en este caso el nombre del profesor y el tipo de asignatura, y las almacena en la tabla ASIGNATURAS. Como podemos apreciar en la figura 36 la tarea Carga_ASIGNATURAS consta de 3 etapas: Figura 36 Tarea Carga_ASIGNATURAS 42

44 - TB_ENCUESTAS_PROFESORES Objeto tipo Base de Datos ORACLE que funge como nuestro origen de datos para esta tarea, en este objeto se definen los parámetros para la conexión a nuestra base de datos para la tabla ENCUESTAS_PROFESORES, además se especifican, por medio de una consulta mostrada en la figura 37, las columnas de interés para nuestra tabla destino ASIGNATURAS. Figura 37Objeto de Base de Datos origen para la tarea Carga_ASIGNATURAS - Mapeo Objeto tipo transformación que nos permite hacer el mapeo y la homologación de los tipos de datos entre nuestro origen de datos TB_ENCUESTAS_PROFESORES y nuestro destino TB_ASIGNATURAS. La figura 38 muestra el mapeo establecido. Figura 38 Objeto transformación para la tarea Carga_ASIGNATURAS 43

45 - TB_ASIGNATURAS Objeto tipo Base de Datos ORACLE que funge como nuestro destino de datos para esta tarea, en este objeto, como se muestra en la figura 39, se definen los parámetros para la conexión a nuestra base de datos para la tabla PROFESORES, así como el tipo de carga de datos a realizar, en nuestro caso y basados en la llave primaria de dicha tabla, el tipo de carga de datos consiste en primero actualizar datos existentes y después insertar nuevos datos. Figura 39 Objeto de Base de Datos destino para la tarea Carga_ASIGNATURAS Tarea para la actualización de la tabla SEMESTRES Para hacer la carga de la información a nuestra tabla SEMESTRES se creó la tarea Carga_SEMESTRES, la cual selecciona el identificador para cada semestre y su descripción, en este caso el año y el número de semestre, y las almacena en la tabla SEMESTRES. Como podemos apreciar en la figura 40 la tarea Carga_SEMESTRES consta de 3 etapas: Figura 40 Tarea Carga_SEMESTRES 44

46 - TB_ENCUESTAS_PROFESORES Objeto tipo Base de Datos ORACLE que funge como nuestro origen de datos para esta tarea, en este objeto se definen los parámetros para la conexión a nuestra base de datos para la tabla ENCUESTAS_PROFESORES, además se especifican, por medio de una consulta mostrada en la figura 41, las columnas de interés para nuestra tabla destino SEMESTRES. Figura 41 Objeto de Base de Datos origen para la tarea Carga_SEMESTRES - Mapeo Objeto tipo transformación que nos permite hacer el mapeo y la homologación de los tipos de datos entre nuestro origen de datos TB_ENCUESTAS_PROFESORES y nuestro destino TB_SEMESTRES. En la figura 42 se muestra el mapeo establecido. Figura 42 Objeto transformación para la tarea Carga_SEMESTRES 45

47 - TB_SEMESTRES Objeto tipo Base de Datos ORACLE que funge como nuestro destino de datos para esta tarea, en este objeto, como se muestra en la figura 43, se definen los parámetros para la conexión a nuestra base de datos para la tabla SEMESTRES, así como el tipo de carga de datos a realizar, en nuestro caso y basados en la llave primaria de dicha tabla, el tipo de carga de datos consiste en primero actualizar datos existentes y después insertar nuevos datos. Figura 43 Objeto de Base de Datos destino para la tarea Carga_SEMESTRES Tarea para la actualización de la tabla HECHOS Para hacer la carga de la información a nuestra tabla HECHOS se creó la tarea Carga_HECHOS, la cual selecciona todas las métricas de interés necesarias para el análisis de la información, así como de todas y cada una de los identificadores de las tablas dimensiones. Como podemos apreciar en la figura 44 la tarea Carga_HECHOS consta de 3 etapas: Figura 44 Tarea Carga_HECHOS 46

48 - TB_ENCUESTAS_PROFESORES Objeto tipo Base de Datos ORACLE que funge como nuestro origen de datos para esta tarea, en este objeto se definen los parámetros para la conexión a nuestra base de datos para la tabla ENCUESTAS_PROFESORES, además se especifican, por medio de una consulta mostrada en la figura 45, las columnas de interés para nuestra tabla destino HECHOS. Figura 45 Objeto de Base de Datos origen para la tarea Carga_HECHOS - Mapeo Objeto tipo transformación que nos permite hacer el mapeo y la homologación de los tipos de datos entre nuestro origen de datos TB_ENCUESTAS_PROFESORES y nuestro destino TB_HECHOS. La figura 46 muestra el mapeo establecido. Figura 46 Objeto transformación para la tarea Carga_HECHOS 47

49 - TB_HECHOS Objeto tipo Base de Datos ORACLE que funge como nuestro destino de datos para esta tarea, en este objeto, como se muestra en la figura 47, se definen los parámetros para la conexión a nuestra base de datos para la tabla HECHOS, así como el tipo de carga de datos a realizar, en nuestro caso y basados en la llave primaria de dicha tabla, el tipo de carga de datos consiste en primero actualizar datos existentes y después insertar nuevos datos. Es importante mencionar que para la creación de la llave primaria para la tabla HECHOS, además de considerar los identificadores de las dimensiones, se añadió la columna del grupo como parte de dicha llave primaria, esto debido a que un profesor puede dar uno o más grupos para una asignatura en un determinado semestre, de esta forma se garantiza que el registro es único dentro de la tabla HECHOS. Figura 47 Objeto de Base de Datos destino para la tarea Carga_HECHOS 4.5. Implementación de un modelo con IBM Cognos Framework Manager El proceso de modelar la información dentro de IBM Cognos también conlleva una serie de pasos que tienen como objetivo principal evitar que la información mostrada sea errónea e inconsistente, además de facilitar la administración de la misma. A continuación los pasos sugeridos para la realización de este proyecto: 48

50 Elaboración de un modelo de metadatos Una de las mejores prácticas en el modelado de metadatos dentro de IBM Cognos Framework Manager es la generación de 3 capas que permitan mantener un orden y un control sobre todos los objetos de un proyecto. [10] En la figura 48 se pueden apreciar las 3 capas utilizadas para nuestro: Figura 48 Organización de metadatos en IBM Cognos Framework Manager Capa de BD: En esta capa están alojados los metadatos exactamente igual a como se encuentran en la Base de Datos. Aquí se generan las relaciones entre los objetos involucrados en el modelo. - Capa intermedia: En esta capa es donde son realizados todos los cálculos y filtros, además de la organización de todos los objetos involucrados en el modelo de metadatos. - Capa de Presentación: En esta capa son definidos los objetos que serán presentados o visualizados dentro del paquete de metadatos. 49

51 Los metadatos en IBM Cognos Framework Manager son organizados como jerarquías, como se puede ver en la Figura 48. El nivel más bajo de la jerarquía se denomina Elemento de Consulta, este objeto representa una columna en una tabla. Ej. Nombre Asignatura El siguiente nivel de la jerarquía se denomina Objeto de Consulta, este objeto es el encargado de agrupar 1 o más Elementos de consulta. Ej. Asignaturas contiene Nombre Asignatura, Tipo asignatura y Clave Asignatura. Por último, el nivel más alto de la jerarquía se denomina Espacio de nombre, este objeto es el encargado de agrupar 1 o más Objetos de Consulta. Ej. Capa Intermedia contiene Dim Asignaturas, Dim Profesores, Dim Semestres, Dim Divisiones, Dim Departamentos y Hechos. A continuación se detallan las relaciones establecidas dentro de nuestro modelo de metadatos: Figura 49 Relación HECHOS-ASIGNATURAS 50

52 Figura 50 Relación HECHOS-DEPARTAMENTOS Figura 51 Relación HECHOS-DIVISIONES Figura 52 Relación HECHOS-PROFESORES 51

53 Figura 53 Relación HECHOS-SEMESTRES Generación y publicación de un paquete de metadatos Como mencionamos anteriormente la mayor parte de las herramientas de la suite de IBM Cognos son ejecutadas y administradas por el portal de IBM Cognos Connection , por lo tanto, nuestro modelo de metadatos creado dentro de IBM Cognos Framework Manager tendrá que ser generado y posteriormente publicado dentro del portal, de esta forma las herramientas para el análisis de la información podrán hacer uso de dicho modelo de metadatos. Es importante mencionar la diferencia entre un modelo de metadatos y un nuevo concepto, un paquete de metadatos. Un modelo de metadatos es un diseño lógico de todos y cada uno de los objetos involucrados en el mismo, mientras que un paquete de metadatos representa todos los elementos que serán visualizados dentro de nuestro portal de IBM Cognos Connection Los paquetes de metadatos son generados a partir de un modelo de metadatos. En el caso de nuestro proyecto únicamente la Capa de Presentación será incluida dentro de nuestro paquete de metadatos, pues esta capa contiene los elementos necesarios para la generación de los reportes analíticos. La figura 54 muestra los elementos incluidos dentro del paquete a publicar en IBM Cognos Connection

54 Figura 54 Generación del paquete de metadatos dentro de IBM Cognos Framework Manager Una vez generado el paquete de metadatos lo que necesitamos es publicarlo dentro de nuestro portal de IBM Cognos Connection10.1.1, con esto nuestro modelo estará disponible para las herramientas de la suite de IBM Cognos La figura 55 nos muestra el paquete publicado dentro del portal de IBM Cognos Connection Figura 55 Paquete de metadatos TESIS_Encuestas dentro de IBM Cognos Connection

55 4.6. Consultando la información de las encuestas a profesores de la Facultad de Ingeniería de la UNAM Uno de los objetivos de este proyecto de Inteligencia de Negocios es la creación de 2 reportes analíticos, un reporte analítico para directivos y un reporte analítico para profesores, donde se puedan hacer consultas a cerca de los resultados obtenidos de las encuestas a profesores de la Facultad de Ingeniería de la UNAM. Ambos reportes serán desarrollados por medio de IBM Cognos Report Studio y almacenados dentro de nuestro portal de IBM Cognos Connection para su consulta Reporte analítico para Directivos El reporte analítico para directivos tendrá como objetivo mostrar a los usuarios un comparativo que partirá desde lo más general (Información a nivel División) hasta lo más específico (Información a nivel profesor), heredando todos y cada uno de los diferentes parámetros que en el trascurso de las diferentes consultas se vayan eligiendo, para ello se elaboraron los siguientes 5 reportes: Main Report División Detail Report Departamento Detail Report Asignatura Detail Report Profesores Detail Report - Detalle Profesores Como podemos observar, cada uno de los reportes están antecedidos por un número secuencial, esta secuencia es la que se seguirá una vez que el reporte principal sea ejecutado Main Report División Este reporte (Figura 56) deberá ser el primero en ser ejecutado y en él se mostrará el primer comparativo, el cual consiste en una relación entre el promedio tanto de los profesores y alumnos de las diferentes divisiones con las que cuenta la facultad de ingeniería de la UNAM. 54

56 Figura 56 Main Report División El reporte cuenta con un parámetro para la selección del semestre (?P_Smestre?) y con un parámetro para la división (?P_Division?), el primero puede ser elegido por medio de la lista desplegable, mientras que el segundo se podrá elegir cuando el usuario presione sobre una de las barras dentro de la gráfica. Ambos parámetros serán heredados al reporte 2 - Detail Report Departamento filtrando la información de acuerdo a ambos criterios. Un aspecto importante a mencionar es que de forma predeterminada el reporte, de primera instancia, filtra el último semestre cargado dentro de nuestra base de datos, sin embargo, este valor puede ser cambiado las veces que sea necesario Detail Report Departamento Este reporte (Figura 57) tiene como objetivo hacer un comparativo entre el promedio tanto de los profesores y alumnos de los diferentes departamento con los que cuenta la facultad de ingeniería de la UNAM, filtrando los parámetros heredados del Main Report División, es decir, va a mostrar el semestre y únicamente los departamentos correspondientes a la división elegidos. 55

57 Figura 57 Detail Report Departamento Adicionalmente el reporte Detail Report - Departamento considera un nuevo parámetro (?P_Departamento?), el cual hace referencia a los departamentos que serán heredados al siguiente reporte junto con el semestre y la división. En este reporte el semestre nuevamente podrá ser seleccionado sin necesidad de regresar al reporte principal Main Report División y de igual forma será heredado, asimismo el reporte finaliza la consulta una vez que el usuario elige el departamento de interés Detail Report Asignatura Este reporte (Figura 58) entra en un poco más de detalle y hace un comparativo entre el promedio tanto de los profesores como de los alumnos con las diferentes asignaturas dentro del semestre, división y departamentos seleccionados anteriormente. 56

58 Figura 58 Detail Report Asignatura Adicionalmente es necesario considerar dos nuevos parámetros, uno corresponde a el nombre de la asignatura (?P_Asignatura?) y el otro corresponde a el tipo de la asignatura (?P_Tipo_Asignatura?), dichos parámetros de igual forma serán heredados al siguiente reporte, el primero eligiendo una de las asignaturas de interés en la gráfica de barras y el segundo por medio de la lista desplegable para el tipo de asignatura Detail Report Profesores En el reporte Detail Report Profesores (Figura 59) se hace un comparativo específico para cada profesor de la asignatura seleccionada en el reporte Detail Report Asignatura, filtrando y heredando todos los parámetros elegidos. 57

59 Figura 59 Detail Report Profesores Adicionalmente es necesario considerar un nuevo parámetro (?P_Profesor?), que corresponde al nombre del profesor y el cual será filtrado al último reporte de detalle Detail Report - Detalle Profesores El reporte Detail Report - Detalle Profesores (Figura 60) es el reporte más detallado y muestra, para el profesor seleccionado en el reporte Detail Report Profesores, la calificación que obtuvo en cada una de las preguntas contenidas dentro de la encuesta. Figura 60 Detail Report - Detalle Profesores 58

60 Reporte analítico para Profesores El reporte analítico para Profesores tiene como objetivo mostrar de manera específica el resultado obtenido para cada profesor durante los diferentes semestres impartidos, para ello será necesaria la elaboración de los siguientes reportes: Main Report - Reporte Profesores Detail Report - Reporte Profesores Detalle Nuevamente podemos observar que cada uno de los reportes está antecedido por un número secuencial, esta secuencia es la que se seguirá una vez que el reporte principal sea ejecutado Main Report - Reporte Profesores Este reporte deberá ser el primero en ser ejecutado y como se muestra en la figura 61, pedirá al profesor ingresar su RFC a 10 dígitos y el semestre que desea consultar, de esta forma será posible consultar únicamente la información que corresponda a dicho RFC. Figura 61 Página de consulta Main Report - Reporte Profesores Una vez seleccionados los 2 parámetros el reporte Main Report Reporte Profesores (Figura 62) mostrará todas las asignaturas que el profesor haya impartido en el semestre seleccionado, incluyendo la división, departamento y el grupo al que pertenecen, además del promedio obtenido en las encuestas 59

61 aplicadas a los alumnos. Adicionalmente se mostrará un gráfico que muestra un comparativo de los promedios obtenidos a lo largo de los últimos 6 semestres para cada una de las asignaturas. Figura 62 Main Report - Reporte Profesores El reporte Main Report Reporte Profesores utiliza 3 parámetros, el primero es el identificador del profesor (?P_Profesor?), el cual puede ser introducido únicamente al ejecutar el reporte y corresponde al RFC a 10 dígitos, el segundo parámetro es el semestre (?P_Semestre?), el cual puede ser seleccionado al ejecutar el reporte o bien utilizando el menú desplegable durante la consulta del reporte, y por último, el parámetro correspondiente a la asignatura (?P_Asignatura?), el cual permite realizar la consulta a un nivel de detalle más específico, pues permitirá desplegar el resultado obtenido para cada una de las preguntas aplicadas dentro de la encuesta a los alumnos. Los 3 parámetros son heredados al reporte Detail Report - Reporte Profesores Detalle (Figura 63) y son utilizados para filtrar la información, una vez en el reporte de detalle sólo el parámetro correspondiente al semestre puede ser nuevamente seleccionado. 60

62 Figura 63 Detail Report - Reporte Profesores Detalle Generación de un cubo de información por medio de IBM Cognos Transformer Antes de generar el cubo de información con la información de las encuestas a profesores es importante mencionar la diferencia de hacer las consultas a los datos basados en un modelo de IBM Cognos Framework Manager y un cubo generado en IBM Cognos Transformer El primero hace las consultas en tiempo real, es decir, una vez que el reporte obtiene los parámetros de la consulta, IBM Cognos Framework Manager funge como un intermediario entre la base de datos y el reporte obteniendo así la información de interés, mientras que un cubo de información consolida dicha información de interés, con el objetivo de hacer las consultas únicamente al cubo, mejorando el tiempo de respuesta en casos donde se maneje demasiada información. Por supuesto el cubo de información tendrá que tener a su vez un diseño propio donde se consideren los datos deseados y tendrá que ser generado cada vez que sea necesario actualizar la información en él, sin embargo este proceso también puede ser automatizado sin la necesidad de hacer alguna tarea manualmente. Para iniciar el diseño de nuestro cubo de información es necesario primero definir la fuente de datos, IBM Cognos transformer nos permite utilizar nuestro modelo de IBM Cognos Framework Manager como fuente de datos, con ello nos aseguramos que los datos mostrados en el cubo de información consideren las relaciones y la cardinalidad que previamente se definieron para nuestro modelo de datos. 61

63 Creación del cubo de información Una vez que nuestro modelo de datos es importado en IBM Cognos Transformer es necesario hacer el diseño de nuestro cubo de información, esto con el fin de establecer la jerarquía de los atributos dentro de nuestras dimensiones y las métricas que podrán relacionarse con dichas dimensiones. Las dimensiones son elementos fundamentales en un cubo de información y su principal función es describir las métricas existentes en el modelo. Dentro de las dimensiones vamos a distinguir los atributos y las jerarquías definidas, partiendo del atributo más general hasta el atributo más específico. Para nuestro modelo de datos consideramos 2 dimensiones: - Dimensión Semestre (Figura 64) Esta dimensión cuenta con un nivel para el año y un nivel para el semestre, jerarquizados en ese orden. Figura 64 Dimensión Semestre - Dimensión División (Figura 65) Esta dimensión considera la estructura con la cual son organizadas todas y cada una de las materias impartidas en la Facultad de Ingeniería de la UNAM, partiendo de lo más general (Divisiones) hasta lo más específico (Profesores). 62

64 Figura 65 Dimensión División En el caso de las métricas, son consideradas las 29 preguntas contenidas en la encuesta, además del promedio obtenido tanto por los profesores como los alumnos. Una vez que nuestro cubo de información fue diseñado es necesario nuevamente publicar y generar dicho cubo dentro de nuestro portal de IBM Cognos Connection , de esta forma los usuarios podrán acceder a él. En la figura 66 se puede observar que el Cubo Encuestas Profesores ha sido generado. Figura 66 Generación cubo Encuestas Profesores 63

65 Consultando la información contenida en el cubo de información por medio de IBM Cognos Analysis Studio El objetivo principal de la creación de un cubo de información es el permitir a los directivos de la Facultad de Ingeniería de la UNAM crear consultas personalizadas en tiempo real, que les permitan visualizar y comparar los resultados obtenidos por cada uno de los profesores a lo largo de los diferentes semestres, para ello se hará uso de la herramienta IBM Cognos Analysis Studio , localizada dentro de nuestro portal de IBM Cognos Connection Al ejecutar la herramienta IBM Cognos Analysis Studio únicamente será necesario elegir como origen de datos el cubo que previamente generamos y publicamos dentro de IBM Cognos Connection por medio de IBM Cognos Transformer Dentro de IBM Cognos Analysis Studio los usuarios podrán crear consultas únicamente arrastrando y soltando los objetos de interés dentro del área de trabajo de la interfaz, crear filtros, cálculos e incluso crear gráficos. En la figura 67 se presenta una consulta simple a nuestro cubo Encuestas Profesores. Figura 67 Interfaz IBM Cognos Analysis Studio

Almacén de datos - concepto. Arquitectura de un sistema de almacén de datos

Almacén de datos - concepto. Arquitectura de un sistema de almacén de datos Almacén de datos - concepto Almacén de datos (Bodega de Datos, Data warehouse) es una integrada colección de datos que contiene datos procedentes de sistemas del planeamiento del recurso de la empresa

Más detalles

Tecnologías de Información y Comunicación II CLASE 10

Tecnologías de Información y Comunicación II CLASE 10 Tecnologías de Información y Comunicación II CLASE 10 Medidas Una medida es un tipo de dato cuya información es usada por los analistas (usuarios) en sus consultas para medir la perfomance del comportamiento

Más detalles

CAPÍTULO 2 DATA WAREHOUSES

CAPÍTULO 2 DATA WAREHOUSES CAPÍTULO 2 DATA WAREHOUSES Un Data Warehouse (DW) es un gran repositorio lógico de datos que permite el acceso y la manipulación flexible de grandes volúmenes de información provenientes tanto de transacciones

Más detalles

Oracle vs Oracle por Rodolfo Yglesias Setiembre 2008

Oracle vs Oracle por Rodolfo Yglesias Setiembre 2008 Oracle vs Oracle por Rodolfo Yglesias Setiembre 2008 Introducción Aunque la estrategia de adquisiciones que Oracle ha seguido en los últimos años siempre ha buscado complementar y fortalecer nuestra oferta

Más detalles

Base de datos II Facultad de Ingeniería. Escuela de computación.

Base de datos II Facultad de Ingeniería. Escuela de computación. 2 Base de datos II Facultad de Ingeniería. Escuela de computación. Base de datos II. Guía 6 3 Introducción Este manual ha sido elaborado para orientar al estudiante de Bases de datos II en el desarrollo

Más detalles

Tecnologías de Información y Comunicación II.

Tecnologías de Información y Comunicación II. INGENIERÍA EN INFORMÁTICA Tecnologías de Información y Comunicación II. INFORME: ETL y Modelo Estrella. NOMBRE : Ruben Chura, Andony Pavez. CARRERA : Ingeniería en Informática. ASIGNATURA : Tecnologías

Más detalles

Inteligencia de Negocios Introducción. Por Elizabeth León Guzmán, Ph.D. Profesora Ingeniería de Sistemas Grupo de Investigación MIDAS

Inteligencia de Negocios Introducción. Por Elizabeth León Guzmán, Ph.D. Profesora Ingeniería de Sistemas Grupo de Investigación MIDAS Inteligencia de Negocios Introducción Por Elizabeth León Guzmán, Ph.D. Profesora Ingeniería de Sistemas Grupo de Investigación MIDAS Agenda 1.Introducción 2.Definición 3.ETL 4.Bodega de Datos 5.Data Mart

Más detalles

INTELIGENCIA DE NEGOCIOS CON SQL SERVER 2008 R2

INTELIGENCIA DE NEGOCIOS CON SQL SERVER 2008 R2 Programa de Capacitación y Certificación. INTELIGENCIA DE NEGOCIOS CON SQL SERVER 2008 R2 Contenido PERFIL DE UN ESPECIALISTA EN BASES DE DATOS.... 3 6231. MANTENIENDO UNA BASE DE DATOS DE SQL SERVER 2008

Más detalles

Sistema de análisis de información. Resumen de metodología técnica

Sistema de análisis de información. Resumen de metodología técnica Sistema de análisis de información Resumen de metodología técnica Tabla de Contenidos 1Arquitectura general de una solución de BI y DW...4 2Orígenes y extracción de datos...5 2.1Procesos de extracción...5

Más detalles

Business Information Warehouse Manual SAP BW Business Information Warehouse

Business Information Warehouse Manual SAP BW Business Information Warehouse Manual SAP BW Business Information Warehouse Manual SAP BW / BI Business Information Warehouse Página 1 Confidencialidad Este documento es propiedad de E-SAP (CVOSOFT) por lo tanto, no podrá ser publicado

Más detalles

CAPÍTULO 4 IMPLEMENTACIÓN DE SARP. Este capítulo describe los detalles de la implementación de SARP. Una vez explicado el

CAPÍTULO 4 IMPLEMENTACIÓN DE SARP. Este capítulo describe los detalles de la implementación de SARP. Una vez explicado el CAPÍTULO 4 IMPLEMENTACIÓN DE SARP Este capítulo describe los detalles de la implementación de SARP. Una vez explicado el diseño del sistema SARP (ver Capítulo 3) es posible realizar su implementación.

Más detalles

Business Intelligence

Business Intelligence Business Intelligence Definición Business Intelligence es una aproximación estratégica para identificar, vigilar, comunicar y transformar, sistemáticamente, signos e indicadores en información activa en

Más detalles

Tecnologías de la Información en la Gestión Empresarial

Tecnologías de la Información en la Gestión Empresarial Tecnologías de la Información en la Gestión Empresarial 1 Sesión No.8 Nombre: Procesos de Negocio y Gestión en Business Intelligence Objetivo: Al término de la sesión, el alumno ilustrará un proceso de

Más detalles

SQL Server 2014 Implementación de una solución de Business Intelligence (SQL Server, Analysis Services, Power BI...)

SQL Server 2014 Implementación de una solución de Business Intelligence (SQL Server, Analysis Services, Power BI...) Prólogo 1. A quién se dirige este libro? 15 2. Requisitos previos 15 3. Objetivos del libro 16 4. Notación 17 Introducción al Business Intelligence 1. Del sistema transaccional al sistema de soporte a

Más detalles

Business Intelligence.

Business Intelligence. Business Intelligence. Qué es inteligencia de negocios? Es el proceso de analizar los bienes o datos acumulados en la empresa y extraer una cierta inteligencia o conocimiento de ellos. Dentro de la categoría

Más detalles

Comunicación para Tecnimap 2010. Contenido: 1. Itourbask como elemento de un Sistema de Gestión de Destino Turístico 2. El Data Mart de Itourbask

Comunicación para Tecnimap 2010. Contenido: 1. Itourbask como elemento de un Sistema de Gestión de Destino Turístico 2. El Data Mart de Itourbask Comunicación para Tecnimap 2010. EL BI APLICADO AL ANÁLISIS DE LAS VISITAS TURÍSTICAS Contenido: 1. Itourbask como elemento de un Sistema de Gestión de Destino Turístico 2. El Data Mart de Itourbask Autor:

Más detalles

Arquitectura para análisis de información. Zombi es una arquitectura que proporciona de manera integrada los componentes

Arquitectura para análisis de información. Zombi es una arquitectura que proporciona de manera integrada los componentes Capítulo 4 Arquitectura para análisis de información propuesta 4.1 Arquitectura Zombi es una arquitectura que proporciona de manera integrada los componentes necesarios para el análisis de información

Más detalles

DATA WAREHOUSE DATA WAREHOUSE

DATA WAREHOUSE DATA WAREHOUSE DATA WAREHOUSE DATA WAREHOUSE Autor: Roberto Abajo Alonso Asignatura: Sistemas Inteligentes, 5º Curso Profesor: José Carlos González Dep. Ing. Sistemas Telemáticos, E.T.S.I. Telecomunicación Universidad

Más detalles

SQL SERVER 2008 R2 BI 07/07/2010 BUSINESS INTELLIGENCE

SQL SERVER 2008 R2 BI 07/07/2010 BUSINESS INTELLIGENCE Todo en la vida comienza con código VII Encuentro Desarrolladores Microsoft BUSINESS INTELLIGENCE Ana María Bisbé York Servicios Profesionales VII Encuentro Desarrolladores Microsoft Todo en la vida comienza

Más detalles

INFORME TECNICO PREVIO A DE EVALUACION DE SOFTWARE Nº 001-2008-REGIONCALLAO/GGR/OSIE

INFORME TECNICO PREVIO A DE EVALUACION DE SOFTWARE Nº 001-2008-REGIONCALLAO/GGR/OSIE INFORME TECNICO PREVIO A DE EVALUACION DE SOFTWARE Nº 001-2008-REGIONCALLAO/GGR/OSIE 1.GERENCIA: Gerencia General Regional. 2.OFICINA: Oficina de stemas, Informática y Estadística. 3. RESPONSABLES DE LA

Más detalles

APOYO PARA LA TOMA DE DECISIONES

APOYO PARA LA TOMA DE DECISIONES APOYO PARA LA TOMA DE DECISIONES Cátedra: Gestión de Datos Profesor: Santiago Pérez Año: 2006 Bibliografía: Introducción a las Bases de Datos. DATE - 1 - 1. INTRODUCCION APOYO PARA LA TOMA DE DECISIONES

Más detalles

Botón menú Objetivo de la Minería de datos.

Botón menú Objetivo de la Minería de datos. Titulo de Tutorial: Minería de Datos N2 Botón menú: Introducción. Las instituciones y empresas privadas coleccionan bastante información (ventas, clientes, cobros, pacientes, tratamientos, estudiantes,

Más detalles

CARPETAS Y CONCEPTOS Bienvenidos a la sencillez

CARPETAS Y CONCEPTOS Bienvenidos a la sencillez ADAIO: GESTOR DOCUMENTAL adaio es un potente sistema de gestión documental preparado para adaptarse con facilidad a las necesidades de empresas de cualquier tamaño y sector. Teniendo en cuenta la estructura

Más detalles

SolucionesAnalíticas con Pentaho.

SolucionesAnalíticas con Pentaho. SolucionesAnalíticas con Pentaho. Objetivo Obtener experiencia práctica con los siguientes componentes de la plataforma Pentaho: Pentaho Data Integration (Kettle) Pentaho Analysis Services (Mondrian) Pentaho

Más detalles

DATAWAREHOUSE Y DATAMINING: NUEVAS HERRAMIENTAS DE ANÁLISIS DE CLIENTES APLICADAS EN EL MARKETING ACTUAL

DATAWAREHOUSE Y DATAMINING: NUEVAS HERRAMIENTAS DE ANÁLISIS DE CLIENTES APLICADAS EN EL MARKETING ACTUAL Servicio Regional de Empleo CONSEJERÍA DE EMPLEO Y MUJER Comunidad de Madrid Curso Básico de MicroStrategy Desktop 07 de Marzo de 2.005 CÓDIGO: 04/5213 CURSO COFINANCIADO POR LA CONSEJERÍA DE EMPLEO Y

Más detalles

PROYECTO DE TESIS DIEGO GALLARDO. ESPEL - Diego Gallardo

PROYECTO DE TESIS DIEGO GALLARDO. ESPEL - Diego Gallardo PROYECTO DE TESIS DIEGO GALLARDO TEMA DISEÑO E IMPLEMENTACIÓN DE UN SISTEMA DE ADMINISTRACIÓN DE TIEMPOS EN PROYECTOS DE DESARROLLO DE SOFTWARE Y CONTROL DE DESEMPEÑO MEDIANTE CUBOS DE INFORMACIÓN PARA

Más detalles

Cuadrante Mágico de Gartner para BI 2013 vs. 2014

Cuadrante Mágico de Gartner para BI 2013 vs. 2014 Cuadrante Mágico de Gartner para BI 2013 vs. 2014 Challengers Leaders Challengers Leaders Niche Players Visionaries Niche Players Visionaries Cuadrante Mágico de Gartner SGBD y Sistemas de Data WareHouse

Más detalles

1.1.- Objetivos de los sistemas de bases de datos 1.2.- Administración de los datos y administración de bases de datos 1.3.- Niveles de Arquitectura

1.1.- Objetivos de los sistemas de bases de datos 1.2.- Administración de los datos y administración de bases de datos 1.3.- Niveles de Arquitectura 1. Conceptos Generales 2. Modelo Entidad / Relación 3. Modelo Relacional 4. Integridad de datos relacional 5. Diseño de bases de datos relacionales 6. Lenguaje de consulta estructurado (SQL) 1.1.- Objetivos

Más detalles

SISTEMA DE INFORMACION DE GESTION DE TARJETAS DE CREDITO USANDO DATA MART E INTELIGENCIA DE NEGOCIOS PARA EL AREA COMERCIAL DEL BANCO RIPLEY PERU

SISTEMA DE INFORMACION DE GESTION DE TARJETAS DE CREDITO USANDO DATA MART E INTELIGENCIA DE NEGOCIOS PARA EL AREA COMERCIAL DEL BANCO RIPLEY PERU SISTEMA DE INFORMACION DE GESTION DE TARJETAS DE CREDITO USANDO DATA MART E INTELIGENCIA DE NEGOCIOS PARA EL AREA COMERCIAL DEL BANCO RIPLEY PERU AGENDA INTRODUCCION PLANTEAMIENTO METODOLOGICO ANTECEDENTES

Más detalles

Sistemas de Información 12/13 La organización de datos e información

Sistemas de Información 12/13 La organización de datos e información 12/13 La organización de datos e información Departamento Informática e Ingeniería de Sistemas Universidad de Zaragoza (raqueltl@unizar.es) " Guión Introducción: Data Warehouses Características: entornos

Más detalles

Business Intelligence

Business Intelligence Business Intelligence Metodología > 1 Implantación tecnológica de un balanced scorecard Precio 1.000 Este curso introduce al alumno en la metodología de BSC y su implantación tecnológica para el seguimiento

Más detalles

Monografía de Adscripción a DAD Diseño y Administración de Datos. TENDENCIAS DE BI Business Intelligence LIC. LUIS ALFONSO CUTRO. 2884cutro FACENA 1

Monografía de Adscripción a DAD Diseño y Administración de Datos. TENDENCIAS DE BI Business Intelligence LIC. LUIS ALFONSO CUTRO. 2884cutro FACENA 1 TENDENCIAS DE BI Business Intelligence LIC. LUIS ALFONSO CUTRO 2884cutro FACENA 1 TEMARIO 1. Prólogo de la Monografía 2. Introducción al mundo del Business Intelligence. 3. Qué es Business Intelligence..

Más detalles

Licencia GNU FDL. Detalle del cambio. Ing. Bernabeu Ricardo Dario, Ing. García Mattío Mariano Alberto. Versión incial. 05/11/2009

Licencia GNU FDL. Detalle del cambio. Ing. Bernabeu Ricardo Dario, Ing. García Mattío Mariano Alberto. Versión incial. 05/11/2009 Licencia GNU FDL Copyright 2009 Ing. Bernabeu Ricardo Dario, Ing. García Mattío Mariano Alberto. Se otorga permiso para copiar, distribuir y/o modificar este documento bajo los términos de la Licencia

Más detalles

Diseño del Sistema de Información

Diseño del Sistema de Información Diseño del Sistema de Información ÍNDICE DESCRIPCIÓN Y OBJETIVOS...2 ACTIVIDAD DSI 1: DEFINICIÓN DE LA ARQUITECTURA DEL SISTEMA...7 Tarea DSI 1.1: Definición de Niveles de Arquitectura...9 Tarea DSI 1.2:

Más detalles

SAP Crystal Solutions

SAP Crystal Solutions SAP Crystal Solutions SAP Crystal Solutions NOVEDADES EN 2011 CONTENIDO ^ 4 Novedades de SAP Crystal Server 2011 4 Exploración de datos guiada 5 Experiencia de usuario atractiva 5 Panel de consultas comunes

Más detalles

Curso de Pentaho. Business Intelligence and Data Warehousing with Pentaho

Curso de Pentaho. Business Intelligence and Data Warehousing with Pentaho Curso de Pentaho Business Intelligence and Data Warehousing with Pentaho Descripción: Pentaho proporciona inteligencia de negocios (BI) y soluciones de almacenamiento de datos (dataware house) a una fracción

Más detalles

Microsoft SQL Server Conceptos.

Microsoft SQL Server Conceptos. Microsoft Conceptos. Microsoft 2005 es una plataforma de base de datos a gran escala de procesamiento de transacciones en línea (OLTP) y de procesamiento analítico en línea (OLAP). La siguiente tabla muestra

Más detalles

www.itconsulting.com.bo B. Las palmas C./ San Miguel#420 Telf. Of.: 591-3-3210356 Cel.76364838 Santa Cruz - Bolivia

www.itconsulting.com.bo B. Las palmas C./ San Miguel#420 Telf. Of.: 591-3-3210356 Cel.76364838 Santa Cruz - Bolivia Señor(a): CLIENTE Presente.- Santa Cruz, 14 Noviembre del 2012 REF.: COTIZACION ESPECIALISTA EN ANALISIS DE DATOS & INTELIGENCIA DE NEGOCIOS EN EXCEL 2007-2010 Distinguido Señores: Consultores en Tecnologías

Más detalles

CUALIFICACIÓN SISTEMAS DE GESTIÓN DE INFORMACIÓN PROFESIONAL. Nivel 3. Versión 5 Situación RD 1201/2007 Actualización

CUALIFICACIÓN SISTEMAS DE GESTIÓN DE INFORMACIÓN PROFESIONAL. Nivel 3. Versión 5 Situación RD 1201/2007 Actualización Página 1 de 16 CUALIFICACIÓN SISTEMAS DE GESTIÓN DE INFORMACIÓN PROFESIONAL Familia Profesional Informática y Comunicaciones Nivel 3 Código IFC304_3 Versión 5 Situación RD 1201/2007 Actualización Competencia

Más detalles

MS_10777 Implementing a Data Warehouse with Microsoft SQL Server 2012

MS_10777 Implementing a Data Warehouse with Microsoft SQL Server 2012 Implementing a Data Warehouse with Microsoft SQL Server 2012 www.ked.com.mx Av. Revolución No. 374 Col. San Pedro de los Pinos, C.P. 03800, México, D.F. Tel/Fax: 52785560 Introducción Almacenes de datos

Más detalles

SAP BusinessObjects Edge BI, paquete estándar La opción de Business Intelligence favorita de las empresas en crecimiento

SAP BusinessObjects Edge BI, paquete estándar La opción de Business Intelligence favorita de las empresas en crecimiento Soluciones SAP para pequeñas y medianas empresas SAP BusinessObjects Edge BI, paquete estándar La opción de Business Intelligence favorita de las empresas en crecimiento SAP BusinessObjects Edge BI, paquete

Más detalles

Diseño del Sistema de Información

Diseño del Sistema de Información Diseño del Sistema de Información ÍNDICE DESCRIPCIÓN Y OBJETIVOS... 2 ACTIVIDAD DSI 1: DEFINICIÓN DE LA ARQUITECTURA DEL SISTEMA... 7 Tarea DSI 1.1: Definición de Niveles de Arquitectura... 9 Tarea DSI

Más detalles

Unidad didáctica 2: Metodologías de desarrollo de Bases de Datos. Unidad didáctica 1: Fase de análisis de requisitos Modelo E/R

Unidad didáctica 2: Metodologías de desarrollo de Bases de Datos. Unidad didáctica 1: Fase de análisis de requisitos Modelo E/R índice Módulo A Unidad didáctica 1: Introducción a las Bases de Datos Unidad didáctica 2: Metodologías de desarrollo de Bases de Datos 3 19 Módulo B Unidad didáctica 1: Fase de análisis de requisitos Modelo

Más detalles

Contenido XIII. Capítulo 1. Capítulo 2. Alfaomega. Bases de datos - Reinosa, Maldonado, Muñoz, Damiano, Abrutsky

Contenido XIII. Capítulo 1. Capítulo 2. Alfaomega. Bases de datos - Reinosa, Maldonado, Muñoz, Damiano, Abrutsky XIII Contenido Capítulo 1 Estructura y tipos de bases de datos...1 1.1 Introducción... 2 1.2 Definición de base de datos... 3 1.3 Sistema de Gestión de Bases de Datos... 4 1.4 Usuarios de la base de datos...

Más detalles

Inventario de Ne gocio

Inventario de Ne gocio Gobierno Corporativo, Gestión del Riesgo y Gestión del Cumplimiento, son las tres visiones que integralmente conforman el marco conceptual ORCA Software GRC Suite. La plataforma provee mecanismos para

Más detalles

Técnico Profesional en SQL Server 2014: Especialista Business Intelligence

Técnico Profesional en SQL Server 2014: Especialista Business Intelligence Técnico Profesional en SQL Server 2014: Especialista Business Intelligence TITULACIÓN DE FORMACIÓN CONTINUA BONIFICADA EXPEDIDA POR EL INSTITUTO EUROPEO DE ESTUDIOS EMPRESARIALES Técnico Profesional en

Más detalles

Manual imprescindible SQL Server 2012 (c) Francisco Charte Ojeda

Manual imprescindible SQL Server 2012 (c) Francisco Charte Ojeda Manual imprescindible SQL Server 2012 (c) Francisco Charte Ojeda Agradecimientos Introducción Gestores de bases de datos Servidores de bases de datos Microsoft SQL Server 2012 Qué puede hacer con SQL Server

Más detalles

UNIVERSIDAD CENTRAL DE VENEZUELA FACULTAD DE CIENCIAS COORDINACIÓN DE EXTENSIÓN

UNIVERSIDAD CENTRAL DE VENEZUELA FACULTAD DE CIENCIAS COORDINACIÓN DE EXTENSIÓN UNIVERSIDAD CENTRAL DE VENEZUELA FACULTAD DE CIENCIAS COORDINACIÓN DE EXTENSIÓN PROPUESTA PARA INTRODUCIR CURSOS DE EXTENSIÓN, DIPLOMADOS, SERVICIOS Y ACTUALIZACIONES TÉCNICAS Y PROFESIONALES Nombre (s)

Más detalles

UNIDAD 2: Abstracción del Mundo real Al Paradigma Orientado a Objetos

UNIDAD 2: Abstracción del Mundo real Al Paradigma Orientado a Objetos 2.1. Principios básicos del Modelado de Objetos UNIDAD 2: Abstracción del Mundo real Al Paradigma Orientado a Objetos Hoy en día muchos de los procesos que intervienen en un negocio o empresa y que resuelven

Más detalles

10778 Implementing Data Models and Reports with Microsoft SQL Server 2012

10778 Implementing Data Models and Reports with Microsoft SQL Server 2012 10778 Implementing Data Models and Reports with Microsoft SQL Server 2012 Introducción Inteligencia de negocio (BI) se está convirtiendo incrementalmente importante para compañías de diferentes tamaños

Más detalles

Business Intelligence

Business Intelligence 2012 Business Intelligence Agenda Programas Diferencias de OLTP vs OLAP Arquitectura de una solución de BI Tecnologías Microsoft para BI Diferencias entre OLTP v/s OLAP Alineación de Datos OLTP Datos organizados

Más detalles

CAPÍTULO V PROPUESTA DE LA SOLUCIÓN

CAPÍTULO V PROPUESTA DE LA SOLUCIÓN CAPÍTULO V PROPUESTA DE LA SOLUCIÓN 5.1 Introducción En los últimos tres años la entidad financiera ha venido sufriendo cambios que le han permitido crecer y pasar de ser una Sociedad Financiera a un Banco

Más detalles

Cátedra: BI Business Intelligence. Asignatura BI Business Intelligence Ciclo Lectivo 2012 Vigencia del Ciclo lectivo 2012.

Cátedra: BI Business Intelligence. Asignatura BI Business Intelligence Ciclo Lectivo 2012 Vigencia del Ciclo lectivo 2012. Asignatura BI Business Intelligence Ciclo Lectivo 2012 Vigencia del Ciclo lectivo 2012 programa Plan 2008 Área Complementaria Carga horaria semanal Anual/ cuatrimestral Coordinador de Cátedra Objetivos

Más detalles

INTELIGENCIA DE NEGOCIOS

INTELIGENCIA DE NEGOCIOS INTELIGENCIA DE NEGOCIOS En tiempos de incertidumbre financiera, la toma de decisiones basada en información es crucial para sobrevivir en el mundo de los negocios. Empresas de todas las industrias dependen

Más detalles

ASIGNATURA: Tecnologías de Información y Comunicación II

ASIGNATURA: Tecnologías de Información y Comunicación II ASIGNATURA: Tecnologías de Información y Comunicación II 53 HORAS DESCRIPCIÓN DE LA ASIGNATURA: Esta asignatura proporciona al alumno las competencias y herramientas teóricas necesarias para la aplicación

Más detalles

Plantillas Empresariales de ibaan Decision Manager. Guía del usuario de BAAN IVc Inventory 2.0

Plantillas Empresariales de ibaan Decision Manager. Guía del usuario de BAAN IVc Inventory 2.0 Plantillas Empresariales de ibaan Decision Manager Guía del usuario de BAAN IVc Inventory 2.0 Una publicación de: Baan Development B.V. P.O.Box 143 3770 AC Barneveld Países Bajos Impreso en los Países

Más detalles

MEJORA EN LA EFICIENCIA OPERACIONAL: AUDI AG

MEJORA EN LA EFICIENCIA OPERACIONAL: AUDI AG MEJORA EN LA EFICIENCIA OPERACIONAL: AUDI AG NECESIDADES DEL NEGOCIO Vender vehículos de lujo bajo demanda en un negocio desafiante, especialmente desde la perspectiva de recopilación de datos, ya que

Más detalles

Unidad 1. Introducción a los conceptos de Bases de Datos

Unidad 1. Introducción a los conceptos de Bases de Datos Unidad 1 Introducción a los conceptos de Bases de Datos 1.1 Definición de Base de Datos Dato: Conjunto de caracteres con algún significado, pueden ser numéricos, alfabéticos, o alfanuméricos. Información:

Más detalles

Una base de datos es una colección de información ordenada e interrelacionada que es de importancia para una empresa.

Una base de datos es una colección de información ordenada e interrelacionada que es de importancia para una empresa. BASES DE DATOS Una base de datos es una colección de información ordenada e interrelacionada que es de importancia para una empresa. La creación de una base de datos debe ser realizada cuidadosamente procurando

Más detalles

Cuadro de mando para el análisis de la información de Extranjería del Ministerio de Administraciones Públicas

Cuadro de mando para el análisis de la información de Extranjería del Ministerio de Administraciones Públicas Cuadro de mando para el análisis de la información de Extranjería del Ministerio de Administraciones Públicas José Antonio Peláez Ruiz Ministerio de Administraciones Públicas Alfonso Martín Murillo BG&S

Más detalles

SAP Crystal Solutions

SAP Crystal Solutions SAP Crystal Solutions SAP Crystal Solutions NOVEDADES EN 2011 CONTENIDO 4 Novedades de SAP Crystal Server 2011 4 Exploración guiada de datos 5 Experiencia de usuario atractiva 5 Panel común de consultas

Más detalles

PONTIFICIA UNIVERSIDAD CATÓLICA DEL ECUADOR FACULTAD DE INGENIERÍA ESCUELA DE SISTEMAS DISERTACIÓN DE TESIS PREVIO A LA OBTENCIÓN DEL TÍTULO DE

PONTIFICIA UNIVERSIDAD CATÓLICA DEL ECUADOR FACULTAD DE INGENIERÍA ESCUELA DE SISTEMAS DISERTACIÓN DE TESIS PREVIO A LA OBTENCIÓN DEL TÍTULO DE PONTIFICIA UNIVERSIDAD CATÓLICA DEL ECUADOR FACULTAD DE INGENIERÍA ESCUELA DE SISTEMAS DISERTACIÓN DE TESIS PREVIO A LA OBTENCIÓN DEL TÍTULO DE INGENIERO EN SISTEMAS GUÍA PARA IMPLEMENTAR UNA SOLUCION

Más detalles

Sistemas de Información para la Gestión. UNIDAD 2: RECURSOS DE TI Información y Aplicaciones

Sistemas de Información para la Gestión. UNIDAD 2: RECURSOS DE TI Información y Aplicaciones UNIDAD 2: RECURSOS DE TI Información y Aplicaciones UNIDAD 2: RECURSOS DE TI Información y Aplicaciones 1. La Información: Propiedades de la Información. Sistemas de Información. Bases de Datos. 2. Administración

Más detalles

Estos documentos estarán dirigidos a todas las personas que pertenezcan a equipos de implementación de Oracle BI, incluyendo a:

Estos documentos estarán dirigidos a todas las personas que pertenezcan a equipos de implementación de Oracle BI, incluyendo a: Oracle Business Intelligence Enterprise Edition 11g. A lo largo de los siguientes documentos trataré de brindar a los interesados un nivel de habilidades básicas requeridas para implementar efectivamente

Más detalles

Tema 3: Bases de datos en Entorno Web

Tema 3: Bases de datos en Entorno Web Tema 3: Bases de datos en Entorno Web 1. Introducción. Un sistema de bases de datos proporciona un control centralizado de los datos. Esto contrasta con la situación que prevalece actualmente, donde a

Más detalles

Guía para la evaluación de plataformas de Business Intelligence. Sistema de Información Social

Guía para la evaluación de plataformas de Business Intelligence. Sistema de Información Social Guía para la evaluación de plataformas de Business Intelligence Sistema de Información Social Octubre de 2012 Historial de Creación Fecha Versión Descripción Autor 31/10/2012 1.0 Guía para la evaluación

Más detalles

Facultad de Ciencias Económicas. Departamento de Sistemas. Asignatura: INTELIGENCIA DE NEGOCIOS. Plan 1997

Facultad de Ciencias Económicas. Departamento de Sistemas. Asignatura: INTELIGENCIA DE NEGOCIOS. Plan 1997 UNIVERSIDAD DE BUENOS AIRES Facultad de Ciencias Económicas Departamento de Sistemas Asignatura: INTELIGENCIA DE NEGOCIOS Código: 715 Plan 1997 Cátedra: DEPARTAMENTO DE SISTEMAS Carrera: Licenciado en

Más detalles

Cómo ganar con una solución intuitiva de Business Intelligence para las medianas empresas

Cómo ganar con una solución intuitiva de Business Intelligence para las medianas empresas Resumen de producto SAP Soluciones SAP para pequeñas y medianas empresas SAP BusinessObjects Business Intelligence, Edge Edition Objetivos Cómo ganar con una solución intuitiva de Business Intelligence

Más detalles

CAPITULO 1. Introducción a los Conceptos Generales de Bases de Datos Distribuidas

CAPITULO 1. Introducción a los Conceptos Generales de Bases de Datos Distribuidas CAPITULO 1 Introducción a los Conceptos Generales de 1.1 Preliminares Las empresas necesitan almacenar información. La información puede ser de todo tipo. Cada elemento informativo es lo que se conoce

Más detalles

Unidad III Modelamiento Multidimencional. Tecnología DATAWAREHOUSE

Unidad III Modelamiento Multidimencional. Tecnología DATAWAREHOUSE Unidad III Modelamiento Multidimencional Tecnología DATAWAREHOUSE Datawarehouse Colección de datos integrados, variantes en el tiempo, no volátiles, orientados a temas de interés para la gestión de una

Más detalles

UNIVERSIDAD NACIONAL MAYOR DE SAN MARCOS (Universidad del Perú, DECANA DE AMÉRICA) SYLLABO

UNIVERSIDAD NACIONAL MAYOR DE SAN MARCOS (Universidad del Perú, DECANA DE AMÉRICA) SYLLABO UNIVERSIDAD NACIONAL MAYOR DE SAN MARCOS (Universidad del Perú, DECANA DE AMÉRICA) FACULTAD DE INGENIERIA DE SISTEMAS E INFORMATICA Escuela Académico Profesional de Ingeniería de Sistemas 1. ESPECIFICACIONES

Más detalles

Introducción a Bases de Datos

Introducción a Bases de Datos de a M. -Tastets Universidad de Concepción,Chile www.inf.udec.cl\ andrea andrea@udec.cl II Semestre - 2007 y del s: Sistemas de y del s: de y del s: Objetivos de la Unidad Dar a conocer las características,

Más detalles

DATAMART PASO A PASO WWW.RUEDATECNOLOGICA.COM

DATAMART PASO A PASO WWW.RUEDATECNOLOGICA.COM DATAMART PASO A PASO WWW.RUEDATECNOLOGICA.COM Historial de revisiones Versión Fecha Autor: Descripción del cambio 1.0 31/08/2007 Rayner Huamantumba. Manual para diseño y desarrollo de Datamart INDICE 1-

Más detalles

CREACIÓN DE PROYECTOS DE BUSINESS INTELLIGENCE CON SQL SERVER. 40 horas 60 días

CREACIÓN DE PROYECTOS DE BUSINESS INTELLIGENCE CON SQL SERVER. 40 horas 60 días CREACIÓN DE PROYECTOS DE BUSINESS INTELLIGENCE CON SQL SERVER DURACIÓN DÍAS DE CONEXIÓN 40 horas 60 días CONTACTO: formacion@fgulem.es El Campus Virtual ha sido concebido con una metodología dinámica e

Más detalles

Data Warehousing - Marco Conceptual

Data Warehousing - Marco Conceptual Data Warehousing - Marco Conceptual Carlos Espinoza C.* Introducción Los data warehouses se presentan como herramientas de alta tecnología que permiten a los usuarios de negocios entender las relaciones

Más detalles

Alicia Iriberri Dirección de Tecnologías de Información. I.- Definición del foco estratégico

Alicia Iriberri Dirección de Tecnologías de Información. I.- Definición del foco estratégico Alicia Iriberri Dirección de Tecnologías de Información I.- Definición del foco estratégico II.- Establecimiento de mediciones a través del Balanced Scorecard (Tablero de Comando) III.- Despliegue del

Más detalles

Manual para capacitación del usuario

Manual para capacitación del usuario Manual para capacitación del usuario Preparado para: Educación Continua Administrador CRM/Usuario final Proyecto: CRM Educación Continua Preparado por: Ana Laura Félix Sergio Caballero Tabla de Contenido

Más detalles

COMO DISMINUIR LOS RIESGOS DE LOS PROCESOS DE ETL EN EL PROYECTO DE INTELIGENCIA DE NEGOCIOS EN UNA EMPRESA DE TRANSORTE

COMO DISMINUIR LOS RIESGOS DE LOS PROCESOS DE ETL EN EL PROYECTO DE INTELIGENCIA DE NEGOCIOS EN UNA EMPRESA DE TRANSORTE COMO DISMINUIR LOS RIESGOS DE LOS PROCESOS DE ETL EN EL PROYECTO DE INTELIGENCIA DE NEGOCIOS EN UNA EMPRESA DE TRANSORTE LYDA DIANA HENAO DORADO 200110075010 Trabajo de Grado Asesor LUIS FELIPE ROSSO RICAURTE

Más detalles

CAPITULO 3 DISEÑO. El diseño del software es el proceso que permite traducir los requisitos

CAPITULO 3 DISEÑO. El diseño del software es el proceso que permite traducir los requisitos 65 CAPITULO 3 DISEÑO 3.1. DISEÑO El diseño del software es el proceso que permite traducir los requisitos analizados de un sistema en una representación del software. 66 Diseño procedural Diseño de la

Más detalles

ANEXO A - Plan de Proyecto. 1. - EDT de la solución EDT GENERAL DEL PROYECTO1

ANEXO A - Plan de Proyecto. 1. - EDT de la solución EDT GENERAL DEL PROYECTO1 ANEXO A - Plan de Proyecto 1. - EDT de la solución EDT GENERAL DEL PROYECTO1 2.- Diagrama de Gantt de la Solución DIAGRAMA DE GANTT- FASE INICIAL DOCUMENTACION Y ANALISIS2 DIAGRAMA DE GANTT- FASE FINAL

Más detalles

SIGFE 2.0. Principales beneficios para la gestión, la operación y el control de los recursos públicos

SIGFE 2.0. Principales beneficios para la gestión, la operación y el control de los recursos públicos SIGFE 2.0 Principales beneficios para la gestión, la operación y el control de los recursos públicos Andrés Alarcón Jefe Área Mantenimiento SIGFE 2.0 División de Tecnologías de la Información DIPRES SIGFE

Más detalles

CURSO INTENSIVO DE INTRODUCCIÓN A LA PROGRAMACIÓN EN ANDROID

CURSO INTENSIVO DE INTRODUCCIÓN A LA PROGRAMACIÓN EN ANDROID CURSO INTENSIVO DE INTRODUCCIÓN A LA PROGRAMACIÓN EN ANDROID Del 26 al 30 de enero del 2015 Impartido por Santiago Tapia Fernández, profesor del Departamento de Automática, Ingeniería Electrónica e Informática

Más detalles

DATATUR Almacén de Datos para el Análisis y Difusión de la Información Estadística del Turismo en España

DATATUR Almacén de Datos para el Análisis y Difusión de la Información Estadística del Turismo en España DATATUR Almacén de Datos para el Análisis y Difusión de la Información Estadística del Turismo en España Jorge Rubio Navarro 1 José Manuel Salinas 2 1. Subdirector General Adjunto de Promoción Turística

Más detalles

Guía práctica SQL Server 2008

Guía práctica SQL Server 2008 Guía práctica SQL Server 2008 (c) Francisco Charte Ojeda Introducción Microsoft SQL Server 2008 Qué puede hacer con SQL Server 2008? Qué necesita saber para usar SQL Server 2008? Cómo usar este libro Estructura

Más detalles

TECNOLOGÍA SOFTWARE PARA EL DESARROLLO DE SISTEMAS DE INFORMACIÓN. Sistemas Informacionales (BI Business Intelligence) Sonia Marrero Cáceres

TECNOLOGÍA SOFTWARE PARA EL DESARROLLO DE SISTEMAS DE INFORMACIÓN. Sistemas Informacionales (BI Business Intelligence) Sonia Marrero Cáceres TECNOLOGÍA SOFTWARE PARA EL DESARROLLO DE SISTEMAS DE INFORMACIÓN Sistemas Informacionales (BI Business Intelligence) Sonia Marrero Cáceres Sistemas Informacionales Sistemas informacionales: Sistemas de

Más detalles

J5 Logs - Aplicaciones para Operaciones

J5 Logs - Aplicaciones para Operaciones J5 Logs - Aplicaciones para Operaciones Cuaderno de Novedades de Operación El Cuaderno de Novedades de Operación de j5 es la aplicación utilizada para registrar todos y cada uno de los eventos operativos

Más detalles

Primeros pasos hacia la Inteligencia de Negocios: Almacenes de datos (DataWareHouse), Herramientas ETL(PDI), Procesamiento analítico en línea.

Primeros pasos hacia la Inteligencia de Negocios: Almacenes de datos (DataWareHouse), Herramientas ETL(PDI), Procesamiento analítico en línea. Primeros pasos hacia la Inteligencia de Negocios: Almacenes de datos (DataWareHouse), Herramientas ETL(PDI), Procesamiento analítico en línea. Introducción Una solución de Business Intelligence parte de

Más detalles

ELEMENTO I INTRODUCCION A LOS SISTEMAS DE BASES DE DATOS

ELEMENTO I INTRODUCCION A LOS SISTEMAS DE BASES DE DATOS Base de Datos ELEMENTO I INTRODUCCION A LOS SISTEMAS DE BASES DE DATOS Una base de datos es un conjunto de elementos de datos que se describe a sí mismo, con relaciones entre esos elementos, que presenta

Más detalles

Portafolio de soluciones BO Plataforma Tecnológica Única

Portafolio de soluciones BO Plataforma Tecnológica Única Portafolio de soluciones BO Plataforma Tecnológica Única Noviembre, 2011 Agenda Objetivo Oferta de Valor Portafolio de Productos Enterprise Information Management Information Discovery and Delivery Preguntas

Más detalles

UNIVERSIDAD ALBERT EINSTEIN FACULTAD DE INGENIERIA

UNIVERSIDAD ALBERT EINSTEIN FACULTAD DE INGENIERIA UNIVERSIDAD ALBERT EINSTEIN FACULTAD DE INGENIERIA Estudio de las herramientas TOAD y DBArtisan para la administración e integración de bases de datos relacionales. PREVIA OPCION AL TÍTULO DE: INGENIERO

Más detalles

PORTFOLIO APLICA.DÀT. Business Intelligence. Que veo y que hay

PORTFOLIO APLICA.DÀT. Business Intelligence. Que veo y que hay Soluciones de Gestión para extraer provecho de los datos. (Business Intelligence, Cuadro de Mando i Calidad de datos) Que veo y que hay PORTFOLIO Business Intelligence Tiene infinidad de datos. No tiene

Más detalles

SISTEMAS DE GESTIÓN DE BASE DE DATOS SGBD / DBMS

SISTEMAS DE GESTIÓN DE BASE DE DATOS SGBD / DBMS Universidad de Carabobo Facultad Experimental de Ciencias y Tecnología Departamento de Computación Unidad Académica Base de Datos SISTEMAS DE GESTIÓN DE BASE DE DATOS SGBD / DBMS Integrantes: Fidel Gil

Más detalles

Arquitectura Empresarial. Ministerio de Salud

Arquitectura Empresarial. Ministerio de Salud Arquitectura Empresarial Ministerio de Salud Arquitectura de TI - Arquitectura de Aplicaciones Versión 1.1 Versión 1.1 Página: 1 of 34 Tabla de Contenido 1. INTRODUCCIÓN... 3 2. ARQUITECTURA DE APLICACIONES...

Más detalles

Aplicaciones Web que Permitan Administrar Portafolios para Gestionar el Aprendizaje

Aplicaciones Web que Permitan Administrar Portafolios para Gestionar el Aprendizaje Escuela Universitaria de Ingeniería Industrial, Informática y Sistemas Área de Computación e Informática Universidad Tarapacá Arica Aplicaciones Web que Permitan Administrar Portafolios para Gestionar

Más detalles

Volver. Miguel Ángel De La Cruz Carrasco Asesor Técnico de Bases de Datos Consejería de Obras Públicas y Transportes de la Junta de Andalucía

Volver. Miguel Ángel De La Cruz Carrasco Asesor Técnico de Bases de Datos Consejería de Obras Públicas y Transportes de la Junta de Andalucía PROYECTO ALMACÉN DE LA CONSEJERÍA DE OBRAS PÚBLICAS Y TRANSPORTES DE LA JUNTA DE ANDALUCÍA, COMO PLATAFORMA PARA LA INTEGRACIÓN Y EL ANÁLISIS DE LOS DATOS Asesor Técnico de Bases de Datos Consejería de

Más detalles

BASES DE DATOS MIS 308

BASES DE DATOS MIS 308 2. MODELOS DE DATOS Introducción 2.1 Entidad relación 2.2 Jerárquico 2.3 De red 2.4 Relacional Introducción Hoy en día las empresas manejan una gran cantidad de datos. Cualquier empresa que se precie debe

Más detalles

Introducción a los sistemas de Bases de datos. Profesor: Msc. MIGUEL ANGEL NIÑO ZAMBRANO

Introducción a los sistemas de Bases de datos. Profesor: Msc. MIGUEL ANGEL NIÑO ZAMBRANO Capitulo 1 Introducción a los sistemas de Bases de datos Profesor: Msc. MIGUEL ANGEL NIÑO ZAMBRANO Programación: Tiempo Tópico 60 minutos Diapositivas y ejemplos 60 minutos Lecturas - Taller 120 minutos

Más detalles