Business Intelligence en la Estadística

Tamaño: px
Comenzar la demostración a partir de la página:

Download "Business Intelligence en la Estadística"

Transcripción

1 Business Intelligence en la Estadística Beltrán Pascual, Mauricio Jiménez Galán, Diego Martínez García, José Antonio Instituto de Estadística de La Rioja (http://www.larioja.org/estadistica) Resumen: La Base de Datos Multidimensional de La Rioja utiliza la tecnología Business Intelligence a través de la herramienta informática Pentaho, en torno a la cual se aglutina información estadística referida al Comercio Exterior, encuestas y datos municipales de esta comunidad autónoma. Gracias a la navegación OLAP (On Line Analytical Processing) se permite la consulta personalizada de los datos, que el usuario puede adaptar a sus necesidades concretas sin necesidad de conocimientos informáticos. Como valor añadido, aportamos la posibilidad de crear gráficos y mapas tanto en Comercio Exterior como en datos municipales y un servicio de suscripción a noticias sobre la actualización de datos mediante RSS. La consulta de la información se hace vía web y permite tener varios usuarios con distintos roles y privilegios en función de la información a la que se tiene acceso. La adición de datos se realiza a través de procesos de carga automatizados, transformando ficheros de microdatos en datos entendibles para el usuario. En la actualidad también se está desarrollando la automatización de informes mediante herramientas de Reporting y la utilización del Data Mining a través del programa Weka. Palabras claves: Business Intelligence, Pentaho, OLAP, Data Warehouse, Data Mining, Weka

2 ÍNDICE 1) Conceptos y definición de Business Intelligence. 2) Definición de Pentaho. 3) Data Warehouse y Base de Datos Multidimensional. 4) Herramienta ETL. 5) Cubos OLAP y Pentaho Design Studio. 6) Creación de informes y Pentaho Reporting. 7) Técnicas de Minería de Datos. 8) Un ejemplo de minería de datos aplicado a los municipios de La Rioja. 1. Conceptos y definición de Business Intelligence Las organizaciones de estadística y servicios de estudios, tanto públicos como privados, han ido acumulando una ingente cantidad de datos, sin reparar, muchas veces, en su total utilidad práctica y en la valiosa información que se esconde detrás de los datos. Por ello, actualmente es imprescindible su procesamiento con el fin de disponer de información estadística oportuna, accesible y clara, que aporte un amplio conocimiento de la realidad y permita apoyar y monitorizar la toma de decisiones en aspectos relacionados con el diseño e implementación de actuaciones encaminadas a optimizar múltiples aspectos de nuestra realidad socio-económica. El Business Intelligence (en adelante BI), en un sentido amplio, se puede afirmar que es la clave para llevar a las organizaciones al éxito, dado que implica unir a las personas, a la información y a la tecnología en un marco de referencia común para buscar soluciones con la implicación de todos los agentes y los medios disponibles. Se podría decir que es un concepto multifacético que se utiliza para distinguir un amplio rango de tecnologías, plataformas de software, desarrollos informáticos y procesos. Va dirigido a cumplir tres diferentes objetivos: tomar mejores decisiones de forma rápida, convertir los datos en información útil, accesible y valiosa y utilizar un método razonable para la gestión de la organización de acuerdo, evidentemente, con los fines que marca su función. Las organizaciones de estadística se encuentran en un lugar privilegiado para abordar el salto cualitativo que la sociedad ya está vislumbrando: el paso de la sociedad de la información a la sociedad del conocimiento. En este proceso estas instituciones son actores singulares ya que disponen de la visión, de la información, de los métodos y de los recursos humanos para llevar a cabo esta función y trasladarla a buen puerto. Desde una óptica más orientada a la gestión informática, las aplicaciones de BI son herramientas de soporte de decisiones que permiten en tiempo real, el acceso interactivo, el análisis y la manipulación de información crítica para la empresa. Estas aplicaciones proporcionan a los usuarios un mayor entendimiento que les permite identificar las oportunidades y los problemas de los negocios. Los usuarios son capaces de acceder y apalancar una vasta cantidad de información y analizar sus relaciones y entender las

3 tendencias que últimamente están apoyando las decisiones de los negocios. Estas herramientas previenen una potencial pérdida de conocimiento dentro de la empresa que resulta de una acumulación masiva de información que no es fácil de leer o de usar. Las herramientas de software de BI son usadas para acceder a los datos de los negocios y proporcionar informes, análisis, visualizaciones y alertas a los usuarios. La gran mayoría de las herramientas de BI son usadas por usuarios finales para acceder, analizar e informar sobre las estructuras que se esconden en los datos que más frecuentemente residen en Data Warehouse, Data Marts y almacenes de datos operacionales. Los desarrolladores de aplicaciones usan plataformas de BI para desarrollar y desplegar aplicaciones (las cuales no son consideradas herramientas de BI). Las plataformas de BI se usan principalmente para analizar aplicaciones complejas con muchos cálculos (por ejemplo, rentabilidad de un producto) o para crear aplicaciones amigables para usuarios ocasionales. Durante el periodo formativo, las organizaciones han descubierto activamente nuevas maneras de usar sus datos para apoyar la toma de decisiones, realizar una optimización de procesos y elaborar reportes operacionales. Y durante esta era de invenciones, los desarrolladores de tecnología de BI han construido nichos de software para implementar cada nuevo patrón de aplicaciones que las compañías inventan. Estos patrones de aplicación dan lugar a productos de software centrados exclusivamente en cinco estilos de BI tales como: - Reporte empresarial. Los reportes escritos son usados para generar reportes estáticos altamente formateados destinados a ampliar su distribución con mucha gente. - Cubos de análisis. Los cubos basados en herramientas de BI son usados para proveer capacidades analíticas a los administradores de negocios. - Vistas Ad Hoc Query y análisis. Las herramientas OLAP relacionales son usadas para permitir a los expertos visualizar la base de datos y ver cualquier respuesta y convertirla en información transaccional de bajo nivel. - Data Mining y análisis estadísticos. Son herramientas usadas para desempeñar modelado predictivo o para descubrir la relación causa efecto entre dos métricas. - Entrega de informes y alertas. Los motores de distribución de informes son también son usas para este fin de forma mucho más eficiente y completa. 2. Definición de Pentaho. La plataforma Open Source Pentaho Business Intelligence cubre muy amplias necesidades de análisis de los datos y de la realización de informes. Las soluciones de Pentaho están escritas en Java y tienen un ambiente de implementación también basado en Java. Esto hace que Pentaho sea una solución muy flexible para cubrir una extensa gama de necesidades, tanto las típicas como las sofisticadas y especificas. Los módulos de la plataforma Pentaho BI son: - Integración de Datos - se realiza con una herramienta Kettle ETL (Pentaho Data Integration) que permite implementar los procesos ETL. Últimamente Pentaho lanzó una nueva versión - PDI 3.0 que marcó un gran paso adelante en OSBI ETL y que hizo de Pentaho Data Integration una alternativa interesante para las herramientas comerciales.

4 - Diseño de cubos OLAP - mediante Pentaho Design Studio se facilita el tratamiento de los archivos XML que definen la estructura de los cubos y las consultas que facilitan el acceso a zonas de datos concretos. - Reporting - este módulo para crear informes ofrece la solución adecuada a las necesidades de distintos usuarios. Pentaho Reporting es una solución basada en el proyecto JFreeReport, que permite generar informes de forma ágil y con gran capacidad. Además, posibilita la distribución de los resultados del análisis en múltiples formatos. Concretamente, todos los informes incluyen la opción de imprimir o exportar a formato PDF, XLS, HTML y texto. Los reportes Pentaho permiten también la programación de tareas y la ejecución automática de informes con una determinada periodicidad.

5 El aspecto final de un informe hecho con Pentaho sería el siguiente: - Análisis - Pentaho Análisis suministra a los usuarios un sistema avanzado de análisis de información. Con el uso de las tablas dinámicas (pivot tables, crosstabs), generadas por Mondrian y JPivot, el usuario puede navegar por los datos, ajustando su visión, los filtros de visualización, añadiendo o quitando los campos de agregación. Los datos pueden ser representados en una forma de SVG o Flash, los dashboards widgets, o también integrados con los sistemas de minería de datos y los portales web (portlets). Además, con el Microsoft Excel Analysis Services, se puede analizar los datos dinámicos en Microsoft Excel (usando la conexión a OLAP server Mondrian). - Dashboards - todos los componentes del módulo Pentaho Reporting y Pentaho Análisis pueden formar parte de un Dashboard. En Pentaho Dashboards es muy fácil incorporar una gran variedad de tipos de gráficos, tablas y velocímetros (dashboard widgets) e integrarlos con los Portlets JSP, donde podrá visualizar informes, gráficos y análisis OLAP.

6 - Data Mining - la minería de datos en Pentaho se realiza con el programa Weka. 3. Data Warehouse y Base de datos Multidimensional Según la definición clásica, un Data Warehouse es una base de datos corporativa que se caracteriza por integrar y depurar información de una o más fuentes, para luego procesarla permitiendo su análisis desde infinidad de perspectivas y con grandes velocidades de respuesta. La creación de un Data Warehouse representa en la mayoría de las ocasiones el primer paso, desde el punto de vista técnico, para implantar una solución completa y fiable de BI. La ventaja principal de este tipo de bases de datos radica en las estructuras en las que se almacena la información (modelos de tablas en estrella, en copo de nieve, cubos relacionales... etc.). Este tipo de persistencia de la información es homogénea y fiable, y permite la consulta y el tratamiento jerarquizado de la misma (siempre en un entorno diferente a los sistemas operacionales).

7 Fuente: Elaboración propia El término Data Warehouse fue acuñado por primera vez por Bill Inmon, y se traduce literalmente como almacén de datos. No obstante, y como cabe suponer, es mucho más que eso. Según definió el propio Bill Inmon, un Data Warehouse se caracteriza por ser: Integrado: los datos almacenados en el Data Warehouse deben integrarse en una estructura consistente, por lo que las inconsistencias existentes entre los diversos sistemas operacionales deben ser eliminadas. La información suele estructurarse también en distintos niveles de detalle para adecuarse a las distintas necesidades de los usuarios. Temático: sólo los datos necesarios para el proceso de generación del conocimiento del negocio se integran desde el entorno operacional. Los datos se organizan por temas para facilitar su acceso y entendimiento por parte de los usuarios finales. Por ejemplo, todos los datos sobre clientes pueden ser consolidados en una única tabla del Data Warehouse. De esta forma, las peticiones de información sobre clientes serán más fáciles de responder dado que toda la información reside en el mismo lugar. Histórico: el tiempo es parte implícita de la información contenida en un Data Warehouse. En los sistemas operacionales, los datos siempre reflejan el estado de la actividad del negocio en el momento presente. Por el contrario, la información almacenada en el Data Warehouse sirve, entre otras cosas, para realizar análisis de tendencias. Por lo tanto, el Data Warehouse se carga con los distintos valores que toma una variable en el tiempo para permitir comparaciones. No volátil: el almacén de información de un Data Warehouse existe para ser leído, pero no modificado. La información es por tanto permanente. De modo que, la actualización del Data Warehouse significa la incorporación de los últimos valores que tomaron las distintas variables contenidas en él sin ningún tipo de acción sobre lo que ya existía.

8 La adaptación de este modelo típico de la empresa a las características y necesidades de un instituto de estadística no precisa de grandes modificaciones. Las fuentes de información son muchas y se ajustan a diferentes formatos. La utilidad de los procesos ETL mantiene su importancia y el Data Warehouse o almacén de datos sigue siendo aquí el núcleo básico para contener la información estadística que permitirá obtener productos más elaborados. Fuente: Elaboración propia El Data Warehouse de La Rioja está ubicado físicamente en la base de datos Oracle. Se divide en tres apartados: Municipal, Comercio Exterior y Encuestas. En el apartado Municipal se aglutina información estadística referida a población, catastro, equipamiento, presupuestos, movimiento natural de la población, empleo, turismo, deporte, educación, agricultura y ganadería de nuestra comunidad autónoma. Su consulta permite estudiar el comportamiento de dichos datos a través del tiempo, además de ilustrarlos con elementos gráficos. La información sobre el Comercio Exterior se divide en dos partes en función del ámbito temporal sujeto a estudio. De esta forma se permite el análisis mensual, que facilita el acercamiento más actualizado, y el anual, que hace posible la observación de este fenómeno con una perspectiva más amplia. En el acceso web, como sucede en el apartado municipal, el usuario dispone de herramientas gráficas que le permitirán obtener mapas de distintas áreas geográficas relacionados con esta información. Por último, se dispone del apartado de encuestas. En él tenemos actualmente datos de las encuestas de I+D, EPA, Presupuestos Familiares y Condiciones de Vida. Se trata de un sector de información muy interesante para el Instituto de Estadística de La Rioja, que esperamos que permita hacer más eficaz el tratamiento, tabulación y difusión de encuestas. En base a lo citado anteriormente, la Base de Datos Multidimensional de La Rioja ofrece información y gráficos que pueden ser consultados y descargados a través de la web del Gobierno de La Rioja, dentro de la sección de Estadística (www.larioja.org/estadistica). Una vez en esta área, hay caminos en forma de pestañas para el acceso a los distintos apartados descritos anteriormente.

9 Las fuentes de información son principalmente el Instituto Nacional de Estadística, la Consejería de Agricultura, Ganadería y Desarrollo Rural, la Dirección General del Catastro, el Observatorio de Empleo y la Consejería de Educación, Cultura y Deporte, Dirección General de Tráfico, Banco de España, etc. Sus principales características frente a otras bases de datos son las siguientes: Desglose mucho mayor por zonas geográficas BDM frente a BD relacionales (navegación por los datos y diseño personal de la consulta) Entorno gráfico ameno y exportable Otras ventajas (automatización y actualización inmediata) Esta base de datos utiliza la tecnología Business Intelligence a través de la herramienta informática Pentaho para aglutinar la información estadística de forma que se facilite su explotación. Gracias a la navegación OLAP (On Line Analytical Processing) se permite la consulta personalizada de los datos, que el usuario puede adaptar a sus necesidades concretas sin necesidad de conocimientos informáticos. Añadido a esto, se aporta la posibilidad de crear gráficos y mapas así como un servicio de suscripción a noticias sobre la actualización de datos mediante RSS. Los mapas constituyen un valor añadido de esta base de datos, que están desarrollados por la Agencia del Conocimiento y la Tecnología a partir del programa informático denominado IDE Rioja, el cual ha sido ampliamente reconocido y premiado. La consulta de la información se hace vía web y permite tener varios usuarios con distintos roles y privilegios en función de la información a la que se tiene acceso. Productores y usuarios de la información estadística son los encargados de la eficiencia, efectividad y éxito de la misma, unos por su rol de producirla y otros por su rol de usarla bien. La existencia de una cultura organizacional en este tema es condición básica para ambas tareas. 4. Herramienta ETL. Destacaremos el módulo Pentaho Data Integration por ser la utilidad básica para el tratamiento de información estadística y el que entendemos que más fácilmente puede adaptarse a las necesidades de cualquier instituto de estadística. Pentaho Data Integration, también conocido como Kettle (acrónimo recursivo: "Kettle Extraction, Transformation, Transportation, and Load Environment") incluye la herramienta Spoon, que es el diseñador gráfico de Transformaciones y Trabajos del sistema de ETTL de Pentaho. Está diseñado para ayudar en los procesos ETTL, que incluyen la Extracción, Transformación, Transporte y Carga de datos. Es una Interfaz Gráfica de Usuario (GUI), que permite diseñar Transformaciones y Trabajos que se pueden ejecutar con las herramientas de Kettle (Pan y Kitchen). Pan (cazuela o cacerola en inglés) es un motor de transformación de datos que realiza muchas funciones tales como lectura, manipulación y escritura de datos hacia y desde varias fuentes de datos. Kitchen (cocina en inglés) es un programa que ejecuta los Trabajos diseñados por Spoon en XML o en un catálogo de base de datos. Los Trabajos normalmente se planifican en modo batch (por lotes) para ejecutarlos automáticamente en intervalos regulares. Las Transformaciones y Trabajos se pueden describir usando un archivo XML o se pueden colocar en un catálogo de base de datos de Kettle. Luego Pan o Kitchen pueden leer los datos para ejecutar los pasos que se describen en la Transformación o ejecutar el Trabajo. En resumen, PDI facilita la construcción, actualización y mantenimiento de Data Warehouses.

10 Esta es la apariencia que tienen los Trabajos y Transformaciones realizados con esta utilidad: Las Transformaciones y Trabajos se componen de diferentes pasos. Por lo general, los pasos que componen un trabajo suelen ser transformaciones ejecutadas en secuencia, aunque también pueden incluirse otros pasos auxiliares como retrasos (delay), avisos, etc. Cada uno de estos pasos se unen mediante saltos (líneas con dirección) formando un flujo que tomará los datos, los transformará y transportará para facilitar la carga en las bases de datos del Data Warehouse. Dentro de la secuencia habitual de trabajo en el Instituto de Estadística utilizamos esta herramienta para la creación de las tablas de dimensión y tablas de hechos. Con estas tablas creadas podemos adjudicar los diferentes identificadores a las medidas que se incluyen en los ficheros de microdatos. Estas tablas contienen la información estadística que vamos a manejar en los accesos OLAP y contienen la jerarquización, estructura y valores que vamos a emplear a la hora de diseñar los cubos con la herramienta Pentaho Design Studio. Dada la versatilidad y potencia de PDI, resulta una utilidad interesante en el trabajo cotidiano que se realiza en un instituto de estadística, independientemente de que la entidad utilice o no el resto de herramientas que ofrece el BI. 5. Cubos OLAP y Pentaho Design Studio. OLAP es el acrónimo en inglés de procesamiento analítico en línea (On-Line Analytical Processing). Es una solución cuyo objetivo es agilizar la consulta de grandes cantidades de datos. Para ello utiliza estructuras multidimensionales (o Cubos OLAP) que contienen datos resumidos de grandes bases de datos.

11 La razón de usar OLAP para las consultas es la velocidad de respuesta. Una base de datos relacional almacena entidades en tablas discretas si han sido normalizadas. Esta estructura es buena en un sistema OLTP (On-Line Transaction Processing) pero para las complejas consultas multitabla es relativamente lenta. Un modelo mejor para búsquedas (aunque peor desde el punto de vista operativo) es una base de datos multidimensional. La principal característica que potencia a OLAP, es que es lo más rápido a la hora de ejecutar sentencias SQL de tipo SELECT, en contraposición con OLTP, que es la mejor opción para operaciones de tipo INSERT, UPDATE y DELETE. Una vez determinada la utilización de este tipo de acceso a los datos y disponiendo de Pentaho para realizar su desarrollo, usaremos Design Studio (basado en Eclipse) para definir nuestros cubos OLAP. Esta herramienta contiene una colección de editores, visores y módulos de administración integrados en una sencilla aplicación con un entorno de desarrollo gráfico que permite construir y probar los distintos elementos que componen este método de acceso a la información. La definición del esquema se realiza en formato XML dentro de un archivo de extensión mondrian.xml. En este mismo archivo podemos definir uno o más cubos con las dimensiones y niveles que queramos hacer visibles a los diferentes usuarios de la información. Las consultas se definen en el editor de Action Sequence mediante la creación de dos archivos. El principal es el de extensión xaction donde se describe la consulta y el secundario de extensión properties en el que quedan definidas algunas características básicas de la consulta como autor, título, etc. Una vez que ya tenemos la información en nuestras bases de datos y definidos los elementos descritos anteriormente sólo nos resta refrescar el servidor para tener acceso. Esta es la apariencia que tiene una consulta de acceso:

12 Podemos ver en este punto algunas de las posibilidades que ofrece este tratamiento de los datos. Por un lado, tenemos las medidas (columna de la derecha) y, por otro lado, las dimensiones (resto de columnas). También podemos ver una serie de iconos que permiten modificar la consulta, cambiar la forma de navegación, filtrar información, obtener elementos gráficos, exportar a otros formatos (Excel y PDF), etc. En la difusión de información estadística que hacemos desde la web incorporamos un manual que describe cada una de las partes con las que el usuario puede actuar para personalizar su consulta y obtener el mayor rendimiento. En otro documento describimos la propia información, detallando cada una de sus particularidades. Por ultimo, incorporamos un servicio de suscripción a noticias referentes a la incorporación de nuevos datos mediante RSS. De este modo, facilitamos el acceso de nuestros usuarios a la información con la mayor rapidez posible. A modo de ejemplo, el tiempo que puede transcurrir desde que DG de Aduanas pone a disposición en su web los archivos de Comercio Exterior hasta que el usuario tiene noticia de que están a su disposición sería inferior a una hora. 6. Creación de informes y Pentaho Reporting. El uso de informes es común a todo tipo de organizaciones, independientemente de que se trate de empresas, administraciones o institutos de estadística. Esta necesidad hace interesante disponer de herramientas que faciliten su creación y reduzcan en la medida de lo posible el esfuerzo y la dedicación de personal. La posibilidad de personalización del informe, la sencillez de su modificación y las mejoras a la hora de difundir los reports son otras claves que invitan a su utilización. Pentaho Reporting es el módulo de la suite que utilizamos con los fines anteriormente expuestos. Permite a las organizaciones un sencillo acceso a los datos, grandes posibilidades a la hora de elegir distintos formatos y layouts, medios de distribución de la información a los diferentes usuarios y mejoras de eficiencia a la hora de desarrollo. En Pentaho Reporting encontramos un escritorio autónomo que nos facilita el despliegue del informe de forma flexible y sencilla. En el report podemos acceder a datos estructurados de forma relacional, OLAP o basada en XML. Una vez obtenido el producto, lo podemos exportar a los formatos más populares (PDF, HTML, Microsoft Excel, RTF o texto plano). Permite reports Ad-Hoc basados en Web para usuarios que necesiten enfocar el informe de forma más precisa. En resumen, podemos decir que se adapta de forma sencilla, funcional y sostenible a las necesidades de reporting que tienen gran cantidad de organizaciones.

13 En el Instituto de Estadística de La Rioja las necesidades de informes tenían fundamentalmente tres apartados: informes económicos, fichas municipales y monográficos periódicos (afiliados a la Seguridad Social, encuestas INE, información de coyuntura económica, indicadores sociales, Comercio Exterior, etc.). Esta es una muestra de los productos que hemos obtenido:

14 7. Técnicas de minería de datos La gran cantidad de datos que se crean en las actividades que desarrollamos como seres humanos se encuentran almacenados en grandes bases datos y se multiplican rápidamente. Esto es cierto para casi todos los sectores de la actividad pero, aún es más cierto, en las empresas tanto públicas como privadas, locales o multinacionales. Sin embargo, se puede afirmar que este incremento espectacular de datos almacenados no ha supuesto un significativo aumento de la información disponible para la empresa (el bosque no deja ver los árboles) ni, en general, se ha traducido en un incremento de la rentabilidad de las compañías. Con el objetivo de optimizar todo el conocimiento existente en la información disponible, hay que utilizar un conjunto de técnicas que se han resumido en la literatura en el concepto de minería de datos o Data Mining. El término Data Mining engloba un conjunto de algoritmos con un objetivo común, identificar de una forma automática patrones que proporcionen información relevante y útil contenida en una gran cantidad de datos. La minería de datos es una parte de un proceso más general que se denomina Descubrimiento de conocimiento en las bases de datos (Knowledge Discovery in Databases o KDD), concepto que proviene de la inteligencia artificial, si bien, en la mayor parte de la bibliografía sobre el tema el concepto de Data Mining toma el significado global del proceso. Fases del proceso de KDD (Knowledge Discovery in Databases) Una definición más general de la minería de datos es referirse a ella como la extracción no trivial de la información implícita, previamente desconocida y potencialmente útil, a partir de los datos. El Data Mining siempre intenta descubrir los patrones, perfiles y tendencias presentes y significativas ocultas en los datos trabajando con tecnologías de reconocimientos de patrones, como las redes neuronales, máquinas de aprendizaje, algoritmos genéticos, etcétera. El Data Mining puede dar respuesta a múltiples preguntas vitales que se plantean muy a menudo en los negocios: quiénes son mis mejores clientes y cómo puedo fidelizarlos?, qué estrategias puedo diseñar para aumentar mi cuota de mercado?, cómo optimizar mi inventario?, quiénes son los visitantes de mi sitio Web?, y otras muchas más preguntas importantes relativas al mundo de la gestión empresarial. Las relaciones del Data Mining con la estadística, la inteligencia artificial y las bases de datos son evidentes. Muchos de sus algoritmos, procedimientos, técnicas y metodología son iguales en esencia, aunque, muchas veces, se denominen con otros nombres. No obstante, el Data Mining presenta características útiles e interesantes que lo hacen atractivo. De forma general, se puede afirmar que para la resolución de problemas, muy a menudo complejos, se utilizan

15 varios procedimientos dada la complementariedad de las técnicas en la solución de los mismos. El conjunto de problemas que aborda el Data Mining se pueden solucionar con diversas técnicas que se agrupan en los siguientes seis grandes grupos: Técnicas descriptivas, resúmenes e informes, segmentación, descripción de conceptos y clases, clasificación, predicción y análisis de dependencia. A continuación, y a modo de resumen, se enumeran las técnicas más habituales que se utilizan en Data Mining, algunas de las cuales se describirán posteriormente: Descripción de los datos del Data Mining Resúmenes y gráficos Clustering Análisis de enlaces Predicción Data Mining Reglas de decisión Clasificación Regresión Series temporales Modelos de Data Mining y algoritmos Redes neuronales Árboles de decisión Regresión multivariante adaptativa (Sistema Bayesiano) Inducción de reglas K-nearest neighbor and memory-based reasoning (MBR) (Cluster) Regresión logística Análisis discriminante Modelos generalizados aditivos (Modelo ANOVA) Boosting Métodos de búsqueda aleatoria: Algoritmos genéticos, algoritmos evolutivos y el recocido simulado. En este trabajo se describen brevemente cuatro técnicas ampliamente utilizadas: los árboles de decisión, las redes neuronales, los algoritmos genéticos y las reglas de asociación. Árboles de decisión Los árboles de decisión son particiones secuenciales de un conjunto de datos que maximizan las diferencias de la variable dependiente. Ofrecen una forma concisa de definir grupos que son consistentes en sus atributos pero que varían en términos de la variable dependiente. Esta herramienta puede emplearse tanto para la resolución de problemas de clasificación como de regresión: árboles de clasificación y árboles de regresión. Mediante esta técnica se representan de forma gráfica un conjunto de reglas sobre las decisiones que se deben de tener en cuenta para asignar un determinado elemento a una clase (valor de salida). En los árboles de decisión se encuentran los siguientes componentes: nodos, ramas y hojas. Los nodos son las variables de entrada, las ramas representan los posibles valores de la variable de entrada y las hojas son los posibles valores de la variable de salida. Como primer elemento de un árbol de decisión se tiene el llamado nodo raíz que va a representar a la variable de mayor relevancia en el proceso de clasificación. Los múltiples algoritmos de los que se dispone, o bien solos o bien integrados en diferentes paquetes informáticos, son los que determinan o generan el procedimiento de cálculo que establece el orden de importancia de las variables en cada interacción. También se pueden imponer ciertas limitaciones en el número de ramas en que se divide cada nodo.

16 Los algoritmos más utilizados son los siguientes: CART, acrónimo de Classification And Regression Trees (Árboles de decisión y de regresión), CHAID, acrónimo de Chi-squared Automatic Interaction Detection (detector automático de interacciones mediante χ2 cuadrado), QUEST, el algoritmo QUEST, que al igual que los dos anteriores están ya implementados en múltiples programas es el acrónimo de Quick, Unbiased, Efficient Statistical Tree (árbol estadístico eficiente, insesgado y rápido y el C5.0, que está basado en el concepto de ganancia de información. Redes neuronales Las redes neuronales tratan de emular el comportamiento cerebral. Existen actualmente más de 40 paradigmas de redes neuronales artificiales. Se estima que tan sólo cuatro arquitecturas: el modelo perceptrón multicapa (MLP), los mapas autoorganizados de Kohonen, (SOFM), el vector de cuantificación (LVQ) y las redes de base radial (RBF) cubren, aproximadamente, el 90% de las aplicaciones prácticas de redes neuronales. El modelo más utilizado es el perceptrón multicapa, que abarca el 70%, dado que este modelo es un aproximador universal de funciones. Una red neuronal puede describirse mediante cuatro conceptos: el tipo de modelo de red neuronal; las unidades de procesamiento que recogen información, la procesan y arrojan un valor; la organización del sistema de nodos para transmitir las señales desde los nodos de entrada a los nodos de salida y, por último, la función de aprendizaje a través de la cual el sistema se retroalimenta. El elemento básico de una red neuronal es un nodo. Es la unidad de procesamiento que actúa en paralelo con otros nodos de la red. Es similar a la neurona del cerebro humano: acepta inputs y genera outputs. Los nodos aceptan inputs de otros nodos. La primera tarea del nodo es procesar los datos de entrada creando un valor resumen que es la suma de todas las entradas multiplicadas por sus ponderaciones. Este valor resumen se procesa a continuación mediante una función de activación para generar una salida que se envía al siguiente nodo del sistema. Las funciones de activación más utilizadas son: la función escalón, la función identidad, la función sigmoide o logística y la tangente hiperbólica. Se considera una red neuronal la ordenación secuencial de tres tipos básicos de nodos o capas: nodos de entrada, nodos de salida y nodos intermedios (capa oculta o escondida). Los nodos de entrada se encargan de recibir los valores iniciales de los datos de cada caso para transmitirlos a la red. Los nodos de salida reciben entradas y calculan el valor de salida (no van a otro nodo). En casi todas las redes existe una tercera capa denominada oculta. Este conjunto de nodos utilizados por la red neuronal, junto con la función de activación posibilita a las redes neuronales representar fácilmente las relaciones no lineales, que poseen mayor dificultad para las técnicas multivariantes. Se puede decir que una red neuronal tiene tres ventajas que le hacen muy atractiva en el tratamiento de los datos: aprendizaje adaptativo a través de ejemplos, robustez en el tratamiento de información redundante e imprecisa y paralelismo masivo. El método más utilizado en las aplicaciones prácticas de redes neuronales es el perceptrón multicapa, que fue popularizado por Rumelhart, Hinton y Willians (1986). Este modelo de red es conocido también como backpropagation error (propagación del error hacia atrás), también denominado método del gradiente decreciente. La razón de su tremenda utilidad radica en su capacidad de organizar una representación interna del conocimiento en las capas ocultas de neuronas a fin de aprender la relación entre un conjunto de datos de entrada y salida. El perceptrón multicapa es un aproximador universal de funciones. La red backpropagation, conteniendo al menos una capa oculta, es capaz de aprender cualquier tipo de función o relación continua. Esta propiedad convierte a esta red en una herramienta de propósito general. Algoritmos genéticos

17 Estos algoritmos se originaron en los intentos de imitar el comportamiento de las especies (Holland, 1975), a través de ecuaciones matemáticas. Los algoritmos genéticos están inspirados en la solución de problemas que la naturaleza emplea en la evolución de los seres vivos sometiéndolos a diferentes hábitats. Son algoritmos de búsqueda que se basan en el proceso de selección natural y de la genética natural, combinando la supervivencia de los individuos más aptos entre las cadenas de estructuras con un intercambio de información aleatorio. El proceso de optimización del algoritmo comienza con la generación de una población de individuos. Sobre estos individuos se realizan unas definiciones: genoma (todos los parámetros que definen a los individuos de la población), genotipo (la parte del genoma que define a un individuo concreto), fenotipo (es la expresión de un genotipo) y gen (cada uno de los parámetros que define a un individuo). La fase siguiente del proceso es la evaluación en la cual se deja que cada uno de los controladores que constituyen la población actúe controlando el sistema. En la siguiente fase, la selección, se simula el proceso natural de los individuos en cada generación. A esta fase le sigue una secuencia de operadores genéticos que simulan el proceso de reproducción de los seres vivos. Con el genoma final se expresa un fenotipo y se reconstruye cada controlador de la población y se procede a una nueva evaluación. El proceso se repite un número determinado de veces hasta que la evaluación se estabiliza. Los algoritmos genéticos se han utilizado, entre otros temas, en la resolución de problemas relacionados con rutas de transporte, en la gestión de carteras comerciales, en la búsqueda del número ideal de neuronas de la capa oculta, en la estructura de una red neuronal y, en general, en problemas de optimización de sistemas, estando especializados en problemas de optimización con restricciones. Reglas de asociación. El algoritmo a priori. El objetivo de estos algoritmos es encontrar distintas reglas de asociación entre ítems, los cuales, comúnmente, se corresponderán con distintos tipos de productos. Las reglas de asociación nos permitirán predecir patrones de comportamiento futuros sobre ocurrencias simultáneas de productos. El algoritmo a priori que introducen Agrawal, Imielinski y Swami (1993) permite la obtención de dichas reglas de forma eficiente en término de número de operaciones en el ordenador. Como su propio nombre indica, el objetivo de una regla de asociación es detectar ítems que, por algún motivo, se dan de forma conjunta. Un ejemplo comúnmente utilizado se centra en el análisis de las reglas de asociación entre los productos de consumo frecuente que se adquieren en un establecimiento comercial, sea éste un pequeño comercio, un supermercado o un hipermercado. En este contexto, el algoritmo a priori permite predecir de un modo eficiente qué productos se compran conjuntamente y qué productos influyen significativamente en la adquisición de otros complementarios. Este ejemplo puede generalizarse al Comercio Exterior, concretamente, para analizar cuáles son las reglas de asociación entre los productos que se exportan desde cualquier comunidad o país a otros espacios geográficos con el objetivo de apoyar políticas comerciales más eficientes para los empresarios. Una regla de asociación está formada por uno o más antecedentes y una consecuencia. Siendo m el número de antecedentes, en general, una regla de asociación puede representarse del siguiente modo: Consecuencia Antecedente 1 Antecedente 2 Antecedente m. Por ejemplo, sean A y B dos productos antecedente y C la consecuencia, la regla de asociación equivale a: C A B, que implicaría que la compra de A y B (antecedentes) supone que un número elevado de veces también se compre C (consecuencia). Para evaluar la capacidad predictiva de una regla de asociación existen varias medidas, las dos más comunes son el soporte y la confianza. El primero equivale al porcentaje de veces que se adquieren de forma conjunta los productos

18 antecedentes (A y B) sobre el total de compras. La confianza de una regla se calcula como cociente entre el soporte de todos los productos implicados en la regla (A, B y C) y el soporte de los productos antecedentes (A y B) multiplicado por El soporte es una medida de significación estadística de la regla, sin embargo, la confianza mide en qué medida se cumple dicha regla de asociación. La representación de la regla de asociación anterior se amplía del siguiente modo: C A B (Soporte% Confianza). 8. Un ejemplo de minería de datos aplicado a los municipios de La Rioja Para ver las posibilidades de automatización de diferentes análisis estadísticos se ha desarrollado un ejemplo estadístico de clasificación de los municipios de La Rioja de análisis cluster o de conglomerados. El análisis cluster es un nombre genérico que se utiliza para designar un conjunto variado de procedimientos cuya finalidad es asignar de forma empírica, elementos a conglomerados, de tal forma que los elementos de cada conglomerado sean los más parecidos entre sí, a la vez que se intenta maximizar la heterogeneidad de los objetos de los diferentes grupos o conglomerados. La integración del Pentaho con el WEKA se realiza a través de consultas que ofrecen ya los ficheros en un formato que lee directamente el programa de minería de datos (formato arff). En nuestro caso se realiza la consulta de la base de datos municipal y se extrae la información necesaria para la realización de grupos de municipios homogéneos. El programa WEKA es una extensa colección de algoritmos de Máquinas de conocimiento desarrollados por la Universidad de Waikato (Nueva Zelanda) e implementados en Java, útiles para ser aplicados sobre datos mediante los interfaces que ofrece o para embeberlos dentro de cualquier aplicación. Además, Weka contiene las herramientas necesarias para realizar transformaciones sobre los datos, tareas de clasificación, regresión, clustering, reglas de asociación y visualización. Weka está diseñado como una herramienta orientada a la extensibilidad por lo que añadir nuevas funcionalidades es una tarea relativamente sencilla. La licencia de Weka es GPL (GNU Public License. lo que significa que este programa es de libre distribución y difusión. Además, Weka es independiente de la arquitectura, ya que funciona en cualquier plataforma donde haya una máquina virtual Java disponible. En el caso del análisis que se desarrolla a continuación, de forma muy sucinta, el código JAVA utilizado es el siguiente: package cluster1; import weka.core.instances; import java.io.bufferedreader; import java.io.filereader; import weka.clusterers.clusterevaluation; import weka.clusterers.clusterer; import java.util.random; public class Main { public static void main(string[] args) { 1 Agrawal et al. (1993) definen el soporte como el porcentaje de veces que se dan de forma conjunta los productos antecedentes y la consecuencia (A, B y C). Sin embargo, para facilitar la interpretación de otras medidas alternativas a la confianza, los programas estadísticos existentes denominan soporte al porcentaje de veces que se dan de forma conjunta los productos antecedentes (A y B).

19 try { BufferedReader reader = new BufferedReader(new FileReader("V:\estadis\PUBLICACIONES\BDM\JECAS 2010\cluster\datos.arff")); Instances data = new Instances(reader); reader.close(); // setting class attribute data.setclassindex(data.numattributes() - 1); ClusterEvaluation eval = new ClusterEvaluation(); Clusterer clusterer = new EM(); clusterer.buildclusterer(data); eval.setclusterer(clusterer); eval.evaluateclusterer(newdata); System.out.println("# of clusters: " + eval.getnumclusters()); } catch (Exception e) { System.out.println("Error no puedo abrir el fichero"); return; } } } Las variables utilizadas en el análisis efectuado han sido las siguientes: altitud del municipio, (ALTITUD), vehículos por mil habitantes, (vehpomilh), bancos por mil habitantes, (banpormilh), porcentaje de extranjeros (extrnporcen), porcentaje de afiliados (afilporcen), índice de juventud (indice_juventud) e índice de vejez (indice_vejez). Para la formación de los conglomerados se utilizaron tanto métodos jerárquicos, en nuestro caso el método de Ward, como no jerárquicos (método K-mean). El proceso de elaboración de los cluster se dio por concluido dado que se cumplía el objetivo para el que fue diseñado y porque ambos métodos empleados presentaban una similar clasificación de los municipios. Una vez elaborados los grupos se realizó un análisis confirmatorio a través de la técnica estadística del análisis discriminante consiguiendo un pronóstico de aciertos muy elevado (para el primer cluster el acierto alcanzó el 96,8%, en el segundo fue del 86,1% y en el último conglomerado subió al 97,3%). Los principales resultados se detallan a continuación donde se resume la información a través de la media y la desviación típica de todas las variables utilizadas para cada uno de los conglomerados. El Cluster número uno, formado por 63 municipios, se caracteriza, en general por encontrarse en el valle del Ebro, tienen una altitud más baja que el resto de los municipios, el porcentaje de extranjeros alcanza una media del 14,50%, el porcentaje de trabajadores afiliados a la Seguridad Social es mayor que en los otros dos conglomerados y el índice de juventud también es superior (16,19%).

20 El segundo conglomerado está formado por 36 municipios que geográficamente se sitúan, la mayoría de ellos, cerca de la sierra. En términos medios, los municipios de esta agrupación están definidos por el mayor porcentaje de bancos por mil habitantes, 7,42 y el mayor índice de vejez de las tres zonas, 37,73%. El tercer grupo lo conforman 75 municipios que se encuentran en buena medida en la zona de la sierra. Este cluster se caracteriza por alcanzar el mayor índice de vehículos por mil habitantes, 930, la tasa más baja de extranjeros, 3,59%, la menor tasa de bancos (sólo seis municipios de este conglomerado dispone de algún entidad bancaria), así como por disponer de un elevado índice de vejez, 34,11%. Fuente: Elaboración propia

Gelka Consultores de Negocios y Proyectos Ltda.

Gelka Consultores de Negocios y Proyectos Ltda. BUSINES INTELLIGENCE OPEN SOURCE En el área de Business Intelligence, se ha producido recientemente un despegue espectacular en el desarrollo de soluciones open Source La cantidad de proyectos de Open

Más detalles

SISTEMA DE INFORMACION GERENCIAL. Lic.Patricia Palacios Zuleta

SISTEMA DE INFORMACION GERENCIAL. Lic.Patricia Palacios Zuleta SISTEMA DE INFORMACION GERENCIAL Lic.Patricia Palacios Zuleta Pentaho Open BI Suite La suite Pentaho cubre principalmente las siguientes áreas: integración de datos, reportes, análisis, alertas y dashboards,

Más detalles

Trabajo final de Ingeniería

Trabajo final de Ingeniería UNIVERSIDAD ABIERTA INTERAMERICANA Trabajo final de Ingeniería Weka Data Mining Jofré Nicolás 12/10/2011 WEKA (Data Mining) Concepto de Data Mining La minería de datos (Data Mining) consiste en la extracción

Más detalles

Sistemas de Información para la Gestión. Unidad 3 Aplicaciones de Sistemas

Sistemas de Información para la Gestión. Unidad 3 Aplicaciones de Sistemas para la Gestión Unidad 3 Aplicaciones de Sistemas U.N.Sa. Facultad de Cs.Económicas SIG 2010 UNIDAD 3: APLICACIONES DE SISTEMAS Aplicaciones empresariales: Sistemas empresariales. Sistemas de administración

Más detalles

SISTEMAS DE INFORMACION GERENCIAL LIC.PATRICIA PALACIOS ZULETA

SISTEMAS DE INFORMACION GERENCIAL LIC.PATRICIA PALACIOS ZULETA SISTEMAS DE INFORMACION GERENCIAL LIC.PATRICIA PALACIOS ZULETA Qué es inteligencia de negocios? (BI) Business Intelligence es la habilidad para transformar los datos en información, y la información en

Más detalles

SolucionesAnalíticas con Pentaho.

SolucionesAnalíticas con Pentaho. SolucionesAnalíticas con Pentaho. Objetivo Obtener experiencia práctica con los siguientes componentes de la plataforma Pentaho: Pentaho Data Integration (Kettle) Pentaho Analysis Services (Mondrian) Pentaho

Más detalles

SpagoBI Open Source Business Intelligence

SpagoBI Open Source Business Intelligence SpagoBI Open Source Business Intelligence La plataforma SpagoBI Open Source Business Intelligence Conceptos Inteligencia empresarial (Business Intelligence) es un agregado de aplicaciones y herramientas

Más detalles

CURSO/GUÍA PRÁCTICA GESTIÓN EMPRESARIAL DE LA INFORMACIÓN.

CURSO/GUÍA PRÁCTICA GESTIÓN EMPRESARIAL DE LA INFORMACIÓN. SISTEMA EDUCATIVO inmoley.com DE FORMACIÓN CONTINUA PARA PROFESIONALES INMOBILIARIOS. CURSO/GUÍA PRÁCTICA GESTIÓN EMPRESARIAL DE LA INFORMACIÓN. Business Intelligence. Data Mining. PARTE PRIMERA Qué es

Más detalles

LOS CINCO GRADOS DE MADUREZ DE UN PROYECTO BI

LOS CINCO GRADOS DE MADUREZ DE UN PROYECTO BI LOS CINCO GRADOS DE MADUREZ DE UN PROYECTO BI INTRODUCCIÓN Se habla en multitud de ocasiones de Business Intelligence, pero qué es realmente? Estoy implementando en mi organización procesos de Business

Más detalles

Sistema de análisis de información. Resumen de metodología técnica

Sistema de análisis de información. Resumen de metodología técnica Sistema de análisis de información Resumen de metodología técnica Tabla de Contenidos 1Arquitectura general de una solución de BI y DW...4 2Orígenes y extracción de datos...5 2.1Procesos de extracción...5

Más detalles

INTELIGENCIA DE NEGOCIOS CON SQL SERVER 2008 R2

INTELIGENCIA DE NEGOCIOS CON SQL SERVER 2008 R2 Programa de Capacitación y Certificación. INTELIGENCIA DE NEGOCIOS CON SQL SERVER 2008 R2 Contenido PERFIL DE UN ESPECIALISTA EN BASES DE DATOS.... 3 6231. MANTENIENDO UNA BASE DE DATOS DE SQL SERVER 2008

Más detalles

ÍNDICE. Introducción... Capítulo 1. Inteligencia de negocios y sistemas de información. Informes... 1

ÍNDICE. Introducción... Capítulo 1. Inteligencia de negocios y sistemas de información. Informes... 1 Introducción... XI Capítulo 1. Inteligencia de negocios y sistemas de información. Informes... 1 Finalidad de los sistemas de información y origen del Business Intelligence... 1 Herramientas para la toma

Más detalles

SQL Server Reporting Services 2000 y 2005

SQL Server Reporting Services 2000 y 2005 SQL Server Reporting Services 2000 y 2005 Este artículo presenta SQL Server Reporting Services. Se presentan primero las funcionalidades de la primera versión de esta herramienta y después las mejoras

Más detalles

Business Intelligence

Business Intelligence 2012 Business Intelligence Agenda Programas Diferencias de OLTP vs OLAP Arquitectura de una solución de BI Tecnologías Microsoft para BI Diferencias entre OLTP v/s OLAP Alineación de Datos OLTP Datos organizados

Más detalles

Almacén de datos - concepto. Arquitectura de un sistema de almacén de datos

Almacén de datos - concepto. Arquitectura de un sistema de almacén de datos Almacén de datos - concepto Almacén de datos (Bodega de Datos, Data warehouse) es una integrada colección de datos que contiene datos procedentes de sistemas del planeamiento del recurso de la empresa

Más detalles

Inteligencia de Negocios Introducción. Por Elizabeth León Guzmán, Ph.D. Profesora Ingeniería de Sistemas Grupo de Investigación MIDAS

Inteligencia de Negocios Introducción. Por Elizabeth León Guzmán, Ph.D. Profesora Ingeniería de Sistemas Grupo de Investigación MIDAS Inteligencia de Negocios Introducción Por Elizabeth León Guzmán, Ph.D. Profesora Ingeniería de Sistemas Grupo de Investigación MIDAS Agenda 1.Introducción 2.Definición 3.ETL 4.Bodega de Datos 5.Data Mart

Más detalles

UNIVERSIDAD CENTRAL DE VENEZUELA FACULTAD DE CIENCIAS COORDINACIÓN DE EXTENSIÓN

UNIVERSIDAD CENTRAL DE VENEZUELA FACULTAD DE CIENCIAS COORDINACIÓN DE EXTENSIÓN UNIVERSIDAD CENTRAL DE VENEZUELA FACULTAD DE CIENCIAS COORDINACIÓN DE EXTENSIÓN PROPUESTA PARA INTRODUCIR CURSOS DE EXTENSIÓN, DIPLOMADOS, SERVICIOS Y ACTUALIZACIONES TÉCNICAS Y PROFESIONALES Nombre (s)

Más detalles

1. INTRODUCCIÓN AL CONCEPTO DE LA INVESTIGACIÓN DE MERCADOS 1.1. DEFINICIÓN DE INVESTIGACIÓN DE MERCADOS 1.2. EL MÉTODO CIENTÍFICO 2.

1. INTRODUCCIÓN AL CONCEPTO DE LA INVESTIGACIÓN DE MERCADOS 1.1. DEFINICIÓN DE INVESTIGACIÓN DE MERCADOS 1.2. EL MÉTODO CIENTÍFICO 2. 1. INTRODUCCIÓN AL CONCEPTO DE LA INVESTIGACIÓN DE MERCADOS 1.1. DEFINICIÓN DE INVESTIGACIÓN DE MERCADOS 1.2. EL MÉTODO CIENTÍFICO 2. GENERALIDADES SOBRE LAS TÉCNICAS DE INVESTIGACIÓN SOCIAL Y DE MERCADOS

Más detalles

INTELIGENCIA DE NEGOCIOS

INTELIGENCIA DE NEGOCIOS INTELIGENCIA DE NEGOCIOS En tiempos de incertidumbre financiera, la toma de decisiones basada en información es crucial para sobrevivir en el mundo de los negocios. Empresas de todas las industrias dependen

Más detalles

SQL Server Business Intelligence parte 1

SQL Server Business Intelligence parte 1 SQL Server Business Intelligence parte 1 Business Intelligence es una de las tecnologías de base de datos más llamativas de los últimos años y un campo donde Microsoft ha formado su camino a través de

Más detalles

Sistemas de Información para la Gestión. UNIDAD 2: RECURSOS DE TI Información y Aplicaciones

Sistemas de Información para la Gestión. UNIDAD 2: RECURSOS DE TI Información y Aplicaciones UNIDAD 2: RECURSOS DE TI Información y Aplicaciones UNIDAD 2: RECURSOS DE TI Información y Aplicaciones 1. La Información: Propiedades de la Información. Sistemas de Información. Bases de Datos. 2. Administración

Más detalles

Proyecto técnico MINERÍA DE DATOS. Febrero 2014. www.osona-respon.net info@osona-respon.net

Proyecto técnico MINERÍA DE DATOS. Febrero 2014. www.osona-respon.net info@osona-respon.net Proyecto técnico MINERÍA DE DATOS Febrero 2014 www.osona-respon.net info@osona-respon.net 0. Índice 0. ÍNDICE 1. INTRODUCCIÓN... 2 2. LOS DATOS OCULTOS... 3 2.1. Origen de la información... 3 2.2. Data

Más detalles

Comparación de características entre las ediciones Estándar y Enterprise

Comparación de características entre las ediciones Estándar y Enterprise Comparación de características entre las ediciones Estándar y Enterprise Enterprise Enterprise es una plataforma completa de datos para ejecutar aplicaciones de misión crítica OLTP (Online Transaction

Más detalles

Arquitectura de Aplicaciones

Arquitectura de Aplicaciones 1 Capítulo 13: Arquitectura de aplicaciones. - Sommerville Contenidos del capítulo 13.1 Sistemas de procesamiento de datos 13.2 Sistemas de procesamiento de transacciones 13.3 Sistemas de procesamiento

Más detalles

XII Encuentro Danysoft en Microsoft Abril 2015. Business Intelligence y Big Data XII Encuentro Danysoft en Microsoft Directos al código

XII Encuentro Danysoft en Microsoft Abril 2015. Business Intelligence y Big Data XII Encuentro Danysoft en Microsoft Directos al código Business Intelligence y Big Data XII Encuentro Danysoft en Microsoft Directos al código Ana María Bisbé York Servicios Profesionales sp@danysoft.com 916 638683 www.danysoft.com Abril 2015 Sala 1 SQL Server

Más detalles

Fundamentos de la Inteligencia de Negocios

Fundamentos de la Inteligencia de Negocios para la Gestión UNIDAD 3: APLICACIONES DE SISTEMAS Unidad 3 Aplicaciones de Sistemas Aplicaciones empresariales: Sistemas empresariales. Sistemas de administración de la cadena de suministros. Sistemas

Más detalles

Visión global del KDD

Visión global del KDD Visión global del KDD Series Temporales Máster en Computación Universitat Politècnica de Catalunya Dra. Alicia Troncoso Lora 1 Introducción Desarrollo tecnológico Almacenamiento masivo de información Aprovechamiento

Más detalles

CURSO MINERÍA DE DATOS AVANZADO

CURSO MINERÍA DE DATOS AVANZADO CURSO MINERÍA DE DATOS AVANZADO La minería de datos (en inglés, Data Mining) se define como la extracción de información implícita, previamente desconocida y potencialmente útil, a partir de datos. En

Más detalles

Licencia GNU FDL. Detalle del cambio. Ing. Bernabeu Ricardo Dario, Ing. García Mattío Mariano Alberto. Versión incial. 05/11/2009

Licencia GNU FDL. Detalle del cambio. Ing. Bernabeu Ricardo Dario, Ing. García Mattío Mariano Alberto. Versión incial. 05/11/2009 Licencia GNU FDL Copyright 2009 Ing. Bernabeu Ricardo Dario, Ing. García Mattío Mariano Alberto. Se otorga permiso para copiar, distribuir y/o modificar este documento bajo los términos de la Licencia

Más detalles

DATA WAREHOUSE DATA WAREHOUSE

DATA WAREHOUSE DATA WAREHOUSE DATA WAREHOUSE DATA WAREHOUSE Autor: Roberto Abajo Alonso Asignatura: Sistemas Inteligentes, 5º Curso Profesor: José Carlos González Dep. Ing. Sistemas Telemáticos, E.T.S.I. Telecomunicación Universidad

Más detalles

Business Intelligence

Business Intelligence Business Intelligence Definición Business Intelligence es una aproximación estratégica para identificar, vigilar, comunicar y transformar, sistemáticamente, signos e indicadores en información activa en

Más detalles

Arquitectura para análisis de información. Zombi es una arquitectura que proporciona de manera integrada los componentes

Arquitectura para análisis de información. Zombi es una arquitectura que proporciona de manera integrada los componentes Capítulo 4 Arquitectura para análisis de información propuesta 4.1 Arquitectura Zombi es una arquitectura que proporciona de manera integrada los componentes necesarios para el análisis de información

Más detalles

Data Warehousing - Marco Conceptual

Data Warehousing - Marco Conceptual Data Warehousing - Marco Conceptual Carlos Espinoza C.* Introducción Los data warehouses se presentan como herramientas de alta tecnología que permiten a los usuarios de negocios entender las relaciones

Más detalles

Cuáles son algunos de los padecimientos que enfrentan las empresas hoy día?

Cuáles son algunos de los padecimientos que enfrentan las empresas hoy día? Qué es Inteligencia de Negocios? Una interesante definición para inteligencia de negocios o BI, por sus siglas en inglés, según el Data Warehouse Institute, lo define como la combinación de tecnología,

Más detalles

SQL SERVER 2008 R2 BI 07/07/2010 BUSINESS INTELLIGENCE

SQL SERVER 2008 R2 BI 07/07/2010 BUSINESS INTELLIGENCE Todo en la vida comienza con código VII Encuentro Desarrolladores Microsoft BUSINESS INTELLIGENCE Ana María Bisbé York Servicios Profesionales VII Encuentro Desarrolladores Microsoft Todo en la vida comienza

Más detalles

MINERÍA DE DATOS. Teleprocesos y Sistemas Distribuidos Licenciatura en Sistemas de Información FACENA - UNNE. Octubre - 2003

MINERÍA DE DATOS. Teleprocesos y Sistemas Distribuidos Licenciatura en Sistemas de Información FACENA - UNNE. Octubre - 2003 MINERÍA DE DATOS Teleprocesos y Sistemas Distribuidos Licenciatura en Sistemas de Información FACENA - UNNE Octubre - 2003 CONTENIDO Qué es Data Warehousing Data Warehouse Objetivos del Data Warehouse

Más detalles

PRESENTACIÓN PRODUCTO. Más que un software, el método más eficaz de conciliar.

PRESENTACIÓN PRODUCTO. Más que un software, el método más eficaz de conciliar. PRESENTACIÓN PRODUCTO Más que un software, el método más eficaz de conciliar. Automatizar las conciliaciones significa ahorrar recursos y generar mayor rentabilidad en su negocio. Eligiendo Conciliac su

Más detalles

SQL Server 2014 Implementación de una solución de Business Intelligence (SQL Server, Analysis Services, Power BI...)

SQL Server 2014 Implementación de una solución de Business Intelligence (SQL Server, Analysis Services, Power BI...) Prólogo 1. A quién se dirige este libro? 15 2. Requisitos previos 15 3. Objetivos del libro 16 4. Notación 17 Introducción al Business Intelligence 1. Del sistema transaccional al sistema de soporte a

Más detalles

El Reporting como sistema de Información para mejorar los resultados de su empresa

El Reporting como sistema de Información para mejorar los resultados de su empresa El Reporting como sistema de Información para mejorar los resultados de su empresa Autor: Luis Muñiz Socio Director de Sisconges & Estrategia l.muniz@sistemacontrolgestion.com Céntrese en la gestión de

Más detalles

CREACIÓN DE PROYECTOS DE BUSINESS INTELLIGENCE CON SQL SERVER. 40 horas 60 días

CREACIÓN DE PROYECTOS DE BUSINESS INTELLIGENCE CON SQL SERVER. 40 horas 60 días CREACIÓN DE PROYECTOS DE BUSINESS INTELLIGENCE CON SQL SERVER DURACIÓN DÍAS DE CONEXIÓN 40 horas 60 días CONTACTO: formacion@fgulem.es El Campus Virtual ha sido concebido con una metodología dinámica e

Más detalles

CLUSTERING MAPAS AUTOORGANIZATIVOS (KOHONEN) (RECUPERACIÓN Y ORGANIZACIÓN DE LA INFORMACIÓN)

CLUSTERING MAPAS AUTOORGANIZATIVOS (KOHONEN) (RECUPERACIÓN Y ORGANIZACIÓN DE LA INFORMACIÓN) CLASIFICACIÓN NO SUPERVISADA CLUSTERING Y MAPAS AUTOORGANIZATIVOS (KOHONEN) (RECUPERACIÓN Y ORGANIZACIÓN DE LA INFORMACIÓN) info@clustering.50webs.com Indice INTRODUCCIÓN 3 RESUMEN DEL CONTENIDO 3 APRENDIZAJE

Más detalles

Unidad 5. Conceptos y Estructuras de Archivos

Unidad 5. Conceptos y Estructuras de Archivos Unidad 5 Conceptos y Estructuras de Archivos En todos los tiempos y más aún en la era en que vivimos, el hombre tiene cada vez mas necesidad de consultar una mayor cantidad de información para poder desarrollar

Más detalles

Inteligencia en Redes de Comunicaciones. Tema 7 Minería de Datos. Julio Villena Román, Raquel M. Crespo García, José Jesús García Rueda

Inteligencia en Redes de Comunicaciones. Tema 7 Minería de Datos. Julio Villena Román, Raquel M. Crespo García, José Jesús García Rueda Inteligencia en Redes de Comunicaciones Tema 7 Minería de Datos Julio Villena Román, Raquel M. Crespo García, José Jesús García Rueda {jvillena, rcrespo, rueda}@it.uc3m.es Índice Definición y conceptos

Más detalles

DISEÑO E IMPLEMENTACIÓN DE SOLUCIONES BUSINESS INTELLIGENCE CON SQL SERVER 2012

DISEÑO E IMPLEMENTACIÓN DE SOLUCIONES BUSINESS INTELLIGENCE CON SQL SERVER 2012 DISEÑO E IMPLEMENTACIÓN DE SOLUCIONES BUSINESS INTELLIGENCE CON SQL SERVER 2012 FLUJO DE CAPACITACIÓN Prerrequisitos Fundamentos de Programación Sentencias SQL Server 2012 Duración: 12 horas 1. DESCRIPCIÓN

Más detalles

Comunicación para Tecnimap 2010. Contenido: 1. Itourbask como elemento de un Sistema de Gestión de Destino Turístico 2. El Data Mart de Itourbask

Comunicación para Tecnimap 2010. Contenido: 1. Itourbask como elemento de un Sistema de Gestión de Destino Turístico 2. El Data Mart de Itourbask Comunicación para Tecnimap 2010. EL BI APLICADO AL ANÁLISIS DE LAS VISITAS TURÍSTICAS Contenido: 1. Itourbask como elemento de un Sistema de Gestión de Destino Turístico 2. El Data Mart de Itourbask Autor:

Más detalles

BUSINESS INTELLIGENCE

BUSINESS INTELLIGENCE BUSINESS INTELLIGENCE Técnicas, herramientas y aplicaciones María Pérez Marqués Business Intelligence. Técnicas, herramientas y aplicaciones María Pérez Marqués ISBN: 978-84-943055-2-8 EAN: 9788494305528

Más detalles

CAPÍTULO 2 DATA WAREHOUSES

CAPÍTULO 2 DATA WAREHOUSES CAPÍTULO 2 DATA WAREHOUSES Un Data Warehouse (DW) es un gran repositorio lógico de datos que permite el acceso y la manipulación flexible de grandes volúmenes de información provenientes tanto de transacciones

Más detalles

BUSINESS INTELLIGENCE

BUSINESS INTELLIGENCE BUSINESS INTELLIGENCE PRESENTACIÓN Ramón Díaz Hernández Gerente (1.990) Nuestro Perfil Inversión permanente en formación y nuevas tecnologías. Experiencia en plataforma tecnológica IBM (Sistema Operativo

Más detalles

INGENIERÍA EN SISTEMAS COMPUTACIONALES

INGENIERÍA EN SISTEMAS COMPUTACIONALES INGENIERÍA EN SISTEMAS COMPUTACIONALES UNIDAD 1 Catedrático: JOSÉ RAMÓN VALDEZ GUTIÉRREZ Alumnos: AVILA VALLES JAIRO EDUARDO 08040265 Victoria de Durango, Dgo.Mex Fecha: 14/09/2012 Tabla de contenido INTRODUCCIÓN

Más detalles

Minería de Datos. Vallejos, Sofia

Minería de Datos. Vallejos, Sofia Minería de Datos Vallejos, Sofia Contenido Introducción: Inteligencia de negocios (Business Intelligence). Descubrimiento de conocimiento en bases de datos (KDD). Minería de Datos: Perspectiva histórica.

Más detalles

Inteligencia de Negocios. & Microsoft Excel 2013

Inteligencia de Negocios. & Microsoft Excel 2013 Inteligencia de Negocios (Business Intelligence - BI) & Microsoft Excel 2013 Instructor: Germán Zelada Contenido del Curso Fundamentos de Data Warehousing y BI Qué es Business Intelligence? Definiendo

Más detalles

ARIS Process Performance Manager

ARIS Process Performance Manager ARIS Process Performance Manager Supervisión de procesos continua en toda la empresa Muchas empresas se están dando cuenta de que la recopilación de indicadores clave de rendimiento sin vincularlos con

Más detalles

MANUAL PARA USUARIOS DE LA BASE DE DATOS

MANUAL PARA USUARIOS DE LA BASE DE DATOS MANUAL PARA USUARIOS DE LA BASE DE DATOS ÍNDICE Página 1.- Información disponible 5 2.- Conceptos generales 7 3.- Exploración OLAP 8 3.1 Definiciones previas 8 3.2 Acciones 9 3 1. Información disponible

Más detalles

Cuadro de mando para el análisis de la información de Extranjería del Ministerio de Administraciones Públicas

Cuadro de mando para el análisis de la información de Extranjería del Ministerio de Administraciones Públicas Cuadro de mando para el análisis de la información de Extranjería del Ministerio de Administraciones Públicas José Antonio Peláez Ruiz Ministerio de Administraciones Públicas Alfonso Martín Murillo BG&S

Más detalles

Capítulo 4. Requisitos del modelo para la mejora de la calidad de código fuente

Capítulo 4. Requisitos del modelo para la mejora de la calidad de código fuente Capítulo 4. Requisitos del modelo para la mejora de la calidad de código fuente En este capítulo definimos los requisitos del modelo para un sistema centrado en la mejora de la calidad del código fuente.

Más detalles

BOLETÍN DE NOVEDADES Barcelona, junio de 2008

BOLETÍN DE NOVEDADES Barcelona, junio de 2008 BOLETÍN DE NOVEDADES Barcelona, junio de 2008 Introducción El objeto de este documento es presentar y describir brevemente las principales actuaciones en los últimos meses de Carver en algunos de sus clientes,

Más detalles

Capítulo 2. Las Redes Neuronales Artificiales

Capítulo 2. Las Redes Neuronales Artificiales Capítulo 2. Las Redes Neuronales Artificiales 13 Capitulo 2. Las Redes Neuronales Artificiales 2.1 Definición Redes Neuronales Artificiales El construir una computadora que sea capaz de aprender, y de

Más detalles

DESAYUNOS DE TRABAJO 2008. Murcia, 5 de Marzo

DESAYUNOS DE TRABAJO 2008. Murcia, 5 de Marzo DESAYUNOS DE TRABAJO 2008 Murcia, 5 de Marzo Visión de ASM- El primer paso para mejorar la Productividad es identificar las pérdidas, el despilfarro. No se puede gestionar aquello que no se mide, es decir,

Más detalles

Minería de Datos JESÚS ANTONIO GONZÁLEZ BERNAL. Universidad UPP

Minería de Datos JESÚS ANTONIO GONZÁLEZ BERNAL. Universidad UPP Universidad Politécnica de Puebla UPP JESÚS ANTONIO GONZÁLEZ BERNAL 1 2 Evolución de la Tecnología BD 1960 s y antes Creación de las BD en archivos primitivos 1970 s hasta principios de los 1980 s BD Jerárquicas

Más detalles

Construcción de cubos OLAP utilizando Business Intelligence Development Studio

Construcción de cubos OLAP utilizando Business Intelligence Development Studio Universidad Católica de Santa María Facultad de Ciencias e Ingenierías Físicas y Formales Informe de Trabajo Construcción de cubos OLAP utilizando Business Intelligence Development Studio Alumnos: Solange

Más detalles

Microsoft Dynamics NAV

Microsoft Dynamics NAV Microsoft Dynamics NAV Maximizar el valor a través de conocimiento de negocio Business Intelligence White Paper Noviembre 2011 La información contenida en este documento representa el punto de vista actual

Más detalles

Estos documentos estarán dirigidos a todas las personas que pertenezcan a equipos de implementación de Oracle BI, incluyendo a:

Estos documentos estarán dirigidos a todas las personas que pertenezcan a equipos de implementación de Oracle BI, incluyendo a: Oracle Business Intelligence Enterprise Edition 11g. A lo largo de los siguientes documentos trataré de brindar a los interesados un nivel de habilidades básicas requeridas para implementar efectivamente

Más detalles

10778 Implementing Data Models and Reports with Microsoft SQL Server 2012

10778 Implementing Data Models and Reports with Microsoft SQL Server 2012 10778 Implementing Data Models and Reports with Microsoft SQL Server 2012 Introducción Inteligencia de negocio (BI) se está convirtiendo incrementalmente importante para compañías de diferentes tamaños

Más detalles

Fundamentos de la Inteligencia de Negocios

Fundamentos de la Inteligencia de Negocios Universidad Nacional de Salta Facultad de Ciencias Económicas, Jurídicas y Sociales Sistemas de Información para la Gestión Fundamentos de la Inteligencia de Negocios Administración de Bases de Datos e

Más detalles

Cómo aprovechar la potencia de la analítica avanzada con IBM Netezza

Cómo aprovechar la potencia de la analítica avanzada con IBM Netezza IBM Software Information Management White Paper Cómo aprovechar la potencia de la analítica avanzada con IBM Netezza Un enfoque de appliance simplifica el uso de la analítica avanzada Cómo aprovechar la

Más detalles

GUÍA TÉCNICA. Desarrollo de Sistemas de Información la plataforma Business Intellingence Pentaho

GUÍA TÉCNICA. Desarrollo de Sistemas de Información la plataforma Business Intellingence Pentaho Desarrollo de Sistemas de Información la plataforma Business Intellingence Página 1 de 11 Control de versiones Ver. Fecha Descripción Autores 1 04/07/14 Versión inicial SDP Página 2 de 11 Índice del Documento

Más detalles

Alicia Iriberri Dirección de Tecnologías de Información. I.- Definición del foco estratégico

Alicia Iriberri Dirección de Tecnologías de Información. I.- Definición del foco estratégico Alicia Iriberri Dirección de Tecnologías de Información I.- Definición del foco estratégico II.- Establecimiento de mediciones a través del Balanced Scorecard (Tablero de Comando) III.- Despliegue del

Más detalles

Nos encargamos del tuyo, tú disfruta

Nos encargamos del tuyo, tú disfruta EN ACTIVE SABEMOS QUE TIENES COSAS MÁS IMPORTANTES QUE EL TRABAJO, POR ESO Nos encargamos del tuyo, tú disfruta 2015 ACTIVE BUSINESS & TECHNOLOGY. TODOS LOS DERECHOS RESERVADOS. 1 La última versión del

Más detalles

FACULTAD DE INGENIERÍA. Bases de Datos Avanzadas

FACULTAD DE INGENIERÍA. Bases de Datos Avanzadas FACULTAD DE INGENIERÍA Ingeniería en Computación Bases de Datos Avanzadas Datawarehouse Elaborado por: MARÍA DE LOURDES RIVAS ARZALUZ Septiembre 2015 Propósito Actualmente las empresas necesitan contar

Más detalles

LA GESTIÓN DEL CONOCIMIENTO

LA GESTIÓN DEL CONOCIMIENTO Plan de Formación 2006 ESTRATEGIAS Y HABILIDADES DE GESTIÓN DIRECTIVA MÓDULO 9: 9 LA ADMINISTRACIÓN ELECTRÓNICA EN LA SOCIEDAD DE LA INFORMACIÓN LA GESTIÓN DEL CONOCIMIENTO José Ramón Pereda Negrete Jefe

Más detalles

Boletín de Asesoría Gerencial* Business Process Management (BPM)

Boletín de Asesoría Gerencial* Business Process Management (BPM) Espiñeira, Sheldon y Asociados * No. 11-2009 *connectedthinking Contenido Haga click en los enlaces para navegar a través del documento Haga click en los enlaces para llegar directamente a cada sección

Más detalles

PORTFOLIO APLICA.DÀT. Business Intelligence. Que veo y que hay

PORTFOLIO APLICA.DÀT. Business Intelligence. Que veo y que hay Soluciones de Gestión para extraer provecho de los datos. (Business Intelligence, Cuadro de Mando i Calidad de datos) Que veo y que hay PORTFOLIO Business Intelligence Tiene infinidad de datos. No tiene

Más detalles

RECURSOS DE TI Aplicaciones - Bibliografía FUNDAMENTOS DE LA INTELIGENCIA DE NEGOCIOS

RECURSOS DE TI Aplicaciones - Bibliografía FUNDAMENTOS DE LA INTELIGENCIA DE NEGOCIOS Sistemas de Información para la Gestión UNIDAD 3: RECURSOS DE TECNOLOGÍA DE INFORMACIÓN Aplicaciones UNIDAD 2: RECURSOS DE TI Aplicaciones 1. Administración de bases de datos e información: Sistemas de

Más detalles

BPM: Articulando Estrategia, Procesos y Tecnología

BPM: Articulando Estrategia, Procesos y Tecnología BPM: Articulando Estrategia, Procesos y Tecnología Resumen: La competitividad es el imaginario que dirige las acciones empresariales en la actualidad. Lograr condiciones que permitan competir con mayores

Más detalles

Mineria de datos y su aplicación en web mining data Redes de computadores I ELO 322

Mineria de datos y su aplicación en web mining data Redes de computadores I ELO 322 Mineria de datos y su aplicación en web mining data Redes de computadores I ELO 322 Nicole García Gómez 2830047-6 Diego Riquelme Adriasola 2621044-5 RESUMEN.- La minería de datos corresponde a la extracción

Más detalles

Gestión del Conocimiento. Gestión del Conocimiento. Herramientas para la

Gestión del Conocimiento. Gestión del Conocimiento. Herramientas para la Herramientas para la Departamento de Informática Facultad de Ciencias Económicas Universidad Nacional de Misiones Universidad Nacional de Misiones Facultad de Ciencias Económicas Departamento de Informática

Más detalles

Minería de datos (Introducción a la minería de datos)

Minería de datos (Introducción a la minería de datos) Minería de datos (Introducción a la minería de datos) M. en C. Sergio Luis Pérez Pérez UAM CUAJIMALPA, MÉXICO, D. F. Trimestre 14-I. Sergio Luis Pérez (UAM CUAJIMALPA) Curso de minería de datos 1 / 24

Más detalles

BearSoft. SitodeCloud. Rafael Rios Bascón Web: http://www.bearsoft.com.bo Móvil: +591 77787631 Email: rafael.rios@bearsoft.com.bo

BearSoft. SitodeCloud. Rafael Rios Bascón Web: http://www.bearsoft.com.bo Móvil: +591 77787631 Email: rafael.rios@bearsoft.com.bo BearSoft Rafael Rios Bascón Web: http://www.bearsoft.com.bo Móvil: +591 77787631 Email: rafael.rios@bearsoft.com.bo CONTENIDO 1. Resumen. 3 2. Business Intelligence.. 4 3. Características del software.

Más detalles

CUALIFICACIÓN SISTEMAS DE GESTIÓN DE INFORMACIÓN PROFESIONAL. Nivel 3. Versión 5 Situación RD 1201/2007 Actualización

CUALIFICACIÓN SISTEMAS DE GESTIÓN DE INFORMACIÓN PROFESIONAL. Nivel 3. Versión 5 Situación RD 1201/2007 Actualización Página 1 de 16 CUALIFICACIÓN SISTEMAS DE GESTIÓN DE INFORMACIÓN PROFESIONAL Familia Profesional Informática y Comunicaciones Nivel 3 Código IFC304_3 Versión 5 Situación RD 1201/2007 Actualización Competencia

Más detalles

ÍNDICE... 1 CREACIÓN DE UNA CONSULTA...

ÍNDICE... 1 CREACIÓN DE UNA CONSULTA... Índice ÍNDICE... 1 CREACIÓN DE UNA CONSULTA... 2 1.1 Selección de acción... 2 1.2 Seleccionar del ámbito geográfico... 2 1.3 Colectivo de información... 7 1.4 Diseñar tabla... 8 1.5 Filtros... 12 1.6 Consulta...

Más detalles

APOYO PARA LA TOMA DE DECISIONES

APOYO PARA LA TOMA DE DECISIONES APOYO PARA LA TOMA DE DECISIONES Cátedra: Gestión de Datos Profesor: Santiago Pérez Año: 2006 Bibliografía: Introducción a las Bases de Datos. DATE - 1 - 1. INTRODUCCION APOYO PARA LA TOMA DE DECISIONES

Más detalles

CL_55042 SharePoint 2013 Business Intelligence

CL_55042 SharePoint 2013 Business Intelligence S CL_55042 SharePoint 2013 Business Intelligence www.ked.com.mx Av. Revolución No. 374 Col. San Pedro de los Pinos, C.P. 03800, México, D.F. Tel/Fax: 52785560 Introducción Este curso presencial de tres

Más detalles

MOLAP REALIZADO POR: JOSE E. TABOADA RENNA

MOLAP REALIZADO POR: JOSE E. TABOADA RENNA MOLAP REALIZADO POR: JOSE E. TABOADA RENNA BASE DE DATOS Conjunto de datos estructurados, fiables y homogéneos organizados independientemente en máquina, m accesibles en tiempo real, compatible por usuarios

Más detalles

Microsoft Business Solutions Navision le ofrece una forma eficaz de optimizar su negocio y aumentar la productividad.

Microsoft Business Solutions Navision le ofrece una forma eficaz de optimizar su negocio y aumentar la productividad. MICROSOFT BUSINESS SOLUTIONS NAVISION MICROSOFT BUSINESS SOLUTIONS NAVISION Le ofrece la libertad para centrarse en su negocio. Beneficios principales: Aumente su productividad Marque su ventaja sobre

Más detalles

IBM Cognos Enterprise: Inteligencia de negocio y gestión del rendimiento potente y escalable

IBM Cognos Enterprise: Inteligencia de negocio y gestión del rendimiento potente y escalable : Inteligencia de negocio y gestión del rendimiento potente y escalable Puntos destacados Dota a los usuarios de su organización de las capacidades de business intelligence y de gestión del rendimiento

Más detalles

Business Intelligence (Inteligencia de Negocios) Bases de Datos Masivas (11088) Universidad Nacional de Luján

Business Intelligence (Inteligencia de Negocios) Bases de Datos Masivas (11088) Universidad Nacional de Luján Business Intelligence (Inteligencia de Negocios) Bases de Datos Masivas (11088) Universidad Nacional de Luján Qué es Business Intelligence (BI)? Se entiende por Business Intelligence al conjunto de metodologías,

Más detalles

DOMINAR TABLAS DINÁMICAS

DOMINAR TABLAS DINÁMICAS 24-2-2011 Le presentamos esta entrevista con Luis Muñiz, autor del libro "Dominar las Tablas Dinámicas en Excel 2007-2010 aplicadas a la Gestión Empresarial", en la que explica cómo ahorrar costes y tomar

Más detalles

El almacén de indicadores de proceso de negocio en ejecución

El almacén de indicadores de proceso de negocio en ejecución X Congreso de Ingeniería de Organización Valencia, 7 y 8 de septiembre de 2006 El almacén de indicadores de proceso de negocio en ejecución Andrés Boza García 1, Angel Ortiz Bas 1, Llanos Cuenca Gonzalez

Más detalles

Botón menú Objetivo de la Minería de datos.

Botón menú Objetivo de la Minería de datos. Titulo de Tutorial: Minería de Datos N2 Botón menú: Introducción. Las instituciones y empresas privadas coleccionan bastante información (ventas, clientes, cobros, pacientes, tratamientos, estudiantes,

Más detalles

Kais Analytics Business Intelligence

Kais Analytics Business Intelligence Analizador de datos Analice toda la información estratégica y mejore la toma de decisiones Con la globalización de la información en los últimos años nace el concepto Business Intelligence. La gran cantidad

Más detalles

Ga-Zeta Estadística. Navegación por el Portal Estadístico. Comunidad de Madrid DIFUSIÓN ESTADÍSTICA EN RED

Ga-Zeta Estadística. Navegación por el Portal Estadístico. Comunidad de Madrid DIFUSIÓN ESTADÍSTICA EN RED DIFUSIÓN ESTADÍSTICA EN RED Ga-Zeta Estadística Navegación por el Portal Estadístico Dirección General de Economía y Política Financiera CONSEJERÍA DE ECONOMÍA, EMPLEO Y HACIENDA Comunidad de Madrid Edita:

Más detalles

ADT CONSULTING S.L. http://www.adtconsulting.es PROYECTO DE DIFUSIÓN DE BUENAS PRÁCTICAS

ADT CONSULTING S.L. http://www.adtconsulting.es PROYECTO DE DIFUSIÓN DE BUENAS PRÁCTICAS ADT CONSULTING S.L. http://www.adtconsulting.es PROYECTO DE DIFUSIÓN DE BUENAS PRÁCTICAS ESTUDIO SOBRE EL POSICIONAMIENTO EN BUSCADORES DE PÁGINAS WEB Y LA RELEVANCIA DE LA ACTUALIZACIÓN DE CONTENIDOS

Más detalles

Inteligencia Artificial y Seguridad Informática. en plataformas Open Source

Inteligencia Artificial y Seguridad Informática. en plataformas Open Source Inteligencia Artificial y Seguridad Informática en plataformas Open Source Jornadas de Software Libre y Seguridad Informática Santa Rosa La Pampa 4 y 5 de Diciembre de 2009 AGENDA Primera Parte Definiciones

Más detalles

BIG DATA. Jorge Mercado. Software Quality Engineer

BIG DATA. Jorge Mercado. Software Quality Engineer BIG DATA Jorge Mercado Software Quality Engineer Agenda Big Data - Introducción Big Data - Estructura Big Data - Soluciones Conclusiones Q&A Big Data - Introducción Que es Big Data? Big data es el termino

Más detalles

Introducción a BusinessObjects XI Release 2 Service Pack 2 / Productivity Pack

Introducción a BusinessObjects XI Release 2 Service Pack 2 / Productivity Pack Introducción a BusinessObjects XI Release 2 Service Pack 2 / Productivity Pack Acerca de este manual Acerca de este manual Este manual proporciona información para empezar a utilizar BusinessObjects XI

Más detalles

www.itconsulting.com.bo

www.itconsulting.com.bo Señor(a): Cliente Presente.- Santa Cruz, 23 de octubre del 2012 Distinguido Señores: REF.: COTIZACION CURSO BUSINESS INTELLIGENCE & DATAWAREHOUSE & CUBOS OLAP EN EXCEL 2010 Consultores en Tecnologías de

Más detalles

Cenfotec ofrece talleres de preparación para la certificación internacional de Microsoft SQL Server

Cenfotec ofrece talleres de preparación para la certificación internacional de Microsoft SQL Server Cenfotec ofrece talleres de preparación para la certificación internacional de Microsoft SQL Server Sobre el Profesor Master en Tecnologías de Bases de Datos (Administración de Bases de Datos e Inteligencia

Más detalles