XXVIII ENDIO, XXVI EPIO y RED-M VIII ADMINISTRACIÓN Y GESTIÓN DE LA PRODUCCIÓN

Tamaño: px
Comenzar la demostración a partir de la página:

Download "XXVIII ENDIO, XXVI EPIO y RED-M VIII ADMINISTRACIÓN Y GESTIÓN DE LA PRODUCCIÓN"

Transcripción

1

2 XXVIII ENDIO, XXVI EPIO y RED-M VIII ADMINISTRACIÓN Y GESTIÓN DE LA PRODUCCIÓN

3 XXVIII ENDIO, XXVI EPIO y RED-M VIII EVALUACIÓN DE PROVEEDORES BASADA EN EL MÉTODO PROCESO JERÁRQUICO ANALÍTICO APLICACIÓN EN UNA CADENA DE SUPERMERCADOS ANA FLAVIA BRUFMAN - MARISA ANALÍA SÁNCHEZ Dpto. de Ciencias de la Administración, Universidad Nacional del Sur, Bahía Blanca, Argentina mas@uns.edu.ar RESUMEN El objetivo del trabajo es definir una herramienta de apoyo al proceso de selección y monitoreo de proveedores para una organización del rubro minorista. La organización trabaja con más de 800 proveedores y tiene más de referencias activas diferentes. La metodología sigue tres fases principales, a saber: análisis de contexto; definición y modelado de criterios; y síntesis de resultados basada en el método Proceso Jerárquico Analítico. La definición de los criterios se basa en un extenso análisis de la literatura y de entrevistas a personal. Los modelos fueron validados en el contexto de la organización. El trabajo constituye una fuente de información y conocimiento para cualquier otra organización que desee emprender un proceso similar dado que se analizan y resuelven las dificultades que surgen en un caso real complejo. Palabras clave: Evaluación de Proveedores - Proceso Jerárquico Analítico - Gestión de Compras ABSTRACT The aim of this work is to define a supplier evaluation and monitoring support tool for an organization in the retail sector. The firm works with more than 800 suppliers and has more than different active references. The methodology follows three main phases: context analysis; definition and modeling of criteria; and synthesis of results based on the Analytic Hierarchical Process. Criteria definition is based on an extensive literature review and interviews to employees. The models were validated in the organizational site. The work is a source of information and insight for any organization that aims to initiate a similar process since issues that arise in a real and complex case are analyzed and solved. Key words: Supplier Evaluation - Analytic Hierarchical Process - Purchase Management TC-2

4 1. INTRODUCCIÓN XXVIII ENDIO, XXVI EPIO y RED-M VIII En el ambiente competitivo actual, caracterizado por márgenes estrechos y altas expectativas del consumidor, las empresas deben aprovechar las oportunidades de optimizar sus procesos. En la actualidad, se ha dado mucho énfasis a la logística, donde el proceso de compras debe ser el resultado de la armonización de los procesos internos entre el comprador y proveedor (Rainer y Christian, 2005). La selección de proveedores comprende el conjunto de acciones que realizan los miembros de una organización con el fin de abastecerse de los bienes y servicios necesarios, en el momento oportuno y que satisfagan los requisitos establecidos. Existen numerosos aspectos que dificultan este proceso. Por ejemplo, en grandes organizaciones la función de compras puede estar distribuida en diversas unidades lo cual hace que más cantidad de individuos estén involucrados en las decisiones. El cambio en las preferencias de los clientes exige rapidez en la toma de decisiones y la actualización de los criterios de selección. Para el caso particular de grandes supermercados, la variedad de productos que se comercializan hace que se deban considerar diversos proveedores, con sede en distintas ubicaciones geográficas, con diferente poder de negociación y nivel de madurez de su proceso de ventas. La selección de proveedores de una organización tiene un gran impacto en el logro de ventajas competitivas sostenibles en términos de calidad, costos y plazos de entrega. Por lo tanto, resulta necesario definir un proceso de selección y evaluación de proveedores sistemático y transparente. En particular, el objetivo de este trabajo es definir una herramienta de apoyo para el proceso de selección y monitoreo de proveedores para una organización del rubro supermercados. El caso presentado resulta muy relevante por la complejidad del proceso de selección dada la amplitud de la región de influencia, y la cantidad y variedad de productos que se comercializan. Para poder alcanzar este objetivo general, es necesario realizar un relevamiento de las características del proceso de selección de proveedores en la industria minorista en base a la literatura existente y efectuar un estudio descriptivo de la organización considerada como caso de estudio. El estudio incluye un análisis de la familia de productos que comercializa, y las características que influyen y limitan el proceso de evaluación y selección de proveedores. A tal efecto, se realizan entrevistas a empleados con amplio conocimiento práctico del proceso de selección de proveedores. Luego, se define un modelo basado en el Proceso Jerárquico Analítico o AHP (por sus siglas en inglés de Analytic Hierarchical Process) (Saaty, 1980) para las situaciones de evaluación de proveedores para el caso de recompras modificadas o de recompras de productos de rutina. Por último, se valida el modelo en la organización bajo estudio, lo cual involucra recopilar datos para instanciar los indicadores incluidos en el modelo; definir las alternativas (proveedores); sintetizar resultados; calibrar y ajustar el modelo con expertos del área de compras. TC-3

5 XXVIII ENDIO, XXVI EPIO y RED-M VIII El resto del trabajo está organizado como sigue. En la Sección 2 se brinda un marco conceptual. La Sección 3 está dedicada a presentar el caso de estudio y los resultados de la evaluación y selección de proveedores basada en AHP. Finalmente, en la Sección 4 se presentan las principales conclusiones. 2. MARCO CONCEPTUAL 2.1. Selección y evaluación de proveedores Análisis del contexto y particularidades de la cadena de abastecimiento Si bien existen numerosos aportes en el área de selección y evaluación de proveedores, son escasos los trabajos con un enfoque integrador de los principales aportes. En este sentido, Sarache, Castrillón y Ortiz (2009) realizan una revisión del estado del arte articulando tres temas principales, a saber: el análisis del contexto y las particularidades de la cadena de abastecimiento; la estrategia y los criterios para la selección de proveedores; y los métodos de selección. De acuerdo con Holmberg (2000) en un ambiente de decisión complejo como el que rodea la gestión de una cadena de abastecimiento, las decisiones basadas sólo en los costos resultan un tanto peligrosas si no se sustentan en un análisis integral del contexto económico, en las restricciones existentes y en las prácticas comerciales dominantes. Para realizar una selección de proveedores se debe efectuar un análisis contextual que incluya la relación con los proveedores, las situaciones de compra posibles y el tamaño de la base de proveedores requerido. Las relaciones cliente-proveedor pueden ser de dos tipos: de simple intercambio comercial y de socios estratégicos. En una relación de socios estratégicos se considera el desarrollo de relaciones a largo plazo y se piensa en convertir al proveedor en un aliado estratégico. Según Ghodsypour y O`Brien (1998), citado en (Sarache et al., 2009), se pueden definir cinco niveles de integración para la relación cliente-proveedor. Otro aspecto que se incluye en el análisis contextual es la categoría de compras, a saber: compras por primera vez; recompras modificadas, y recompras para productos de rutina. A efectos de la selección y evaluación de proveedores, estas categorías afectan tanto a los criterios de evaluación como a la base necesaria de proveedores. Por ejemplo, en las recompras de productos de rutina se considera la base de proveedores habitual. En cambio, para el caso de compras por primera vez, es posible considerar nuevos proveedores. Si se consideran nuevos proveedores, es muy posible que no se disponga de datos suficientes para valorar a algunos de los criterios de selección. Tal como indica Sarache et al. (2009), la definición del tamaño de la TC-4

6 XXVIII ENDIO, XXVI EPIO y RED-M VIII base de proveedores depende de diversos factores relacionados con la localización, la capacidad, el portafolio de productos, la infraestructura logística y otros factores relevantes por parte del proveedor. Las posibilidades van desde trabajar con varios proveedores especializados en componentes específicos para empresas bajo enfoques de gestión justo a tiempo (Birgün, 2003) hasta un número reducido de proveedores (Shin, Collier y Wilson, 2000). El conjunto de criterios relevantes para evaluar proveedores depende de muchos factores que van desde las características del sector industrial, la geografía, el clima, las características del mercado, el tipo de producto que se comercializa, por mencionar algunos. Los trabajos relacionados con la definición de criterios se remontan a los años 60. Por ejemplo, Dickson (1966) realiza una encuesta dirigida a 273 gerentes de compra para identificar los criterios más utilizados, a saber: calidad; entrega; historial de desempeño; políticas de garantías y reclamos; capacidad e instalaciones de producción; precio; capacidad técnica; posición financiera; cumplimiento de procedimientos; comunicación; reputación y posición en la industria; deseo de realizar negocios; gestión y organización; controles de operación; servicios de reparación; actitud; imagen; capacidad de empaque; registro de relaciones laborales; ubicación geográfica; volumen de negocios anteriores; capacitaciones; arreglos recíprocos Métodos y técnicas para la selección de proveedores Durante el proceso de selección de proveedores es necesario evaluar el desempeño de un conjunto de proveedores considerando múltiples factores conflictivos. Existen numerosas propuestas referidas a este problema. Los modelos más simples, hacen un ordenamiento de proveedores de la siguiente forma. Cada proveedor es evaluado con respecto a cada uno de los criterios, se multiplica la evaluación por el peso asignado al criterio, y finalmente se suman las ponderaciones para obtener un número. La principal debilidad de la propuesta se conoce como efecto compensatorio. En un modelo compensatorio, una puntuación alta en un criterio puede compensar bajos valores para otros criterios. Este problema se minimiza definiendo niveles mínimos aceptables para los criterios (Boer, Van der Wegen y Telgen, 1998). En (Boer, Labro y Morlacchi, 2001) se hace una revisión de la literatura dedicada a los métodos existentes. Los autores mencionan que en general los métodos enfatizan la etapa final de selección y no tanto las fases de definición del problema, pre-selección de los proveedores, formulación de criterios, y métodos de selección de proveedores. Algunos autores han desarrollado propuestas basadas en modelos de programación matemática. Se formula un problema de decisión en términos de una función objetivo que necesita ser maximizada (por ejemplo, maximizar ganancias) o minimizada (por ejemplo, minimizar costos) modificando los valores de variables en la función objetivo (por ejemplo, la cantidad pedida a un proveedor). Si bien estas propuestas son objetivas, solo consideran criterios cuantitativos (Weber y Current, 1993). TC-5

7 XXVIII ENDIO, XXVI EPIO y RED-M VIII En un trabajo de Bruno, Espósito, Genovese y Passaro (2009) se hace referencia a que el problema puntual de selección de proveedores consiste básicamente en analizar y medir la performance de los diferentes proveedores con el objetivo de trabajar con los que mejoran la competitividad de la cadena de suministros. Destaca que tanto factores cuantitativos como cualitativos deben ser considerados. Se trata de un problema de decisión multicriterio, y en estos casos la herramienta más utilizada es el Proceso Analítico Jerárquico. Los autores realizan un análisis exhaustivo de los trabajos que aplican este método. Wang, Huang y Dismukes (2004) presentan un caso de aplicación de AHP. La empresa considerada pertenece a una cadena de suministros, y requiere abastecerse de varios componentes para su producción, para eso debe seleccionar entre una variedad de proveedores, de manera de lograr la mayor eficiencia en su suministro. En este caso particular se tiene en cuenta el ciclo de vida de los diferentes productos sabiendo que esto influirá en la estrategia de suministro requerida. A su vez cada estrategia afectará la puntuación de los criterios de evaluación. Sarkis y Talluri (2002) proponen el uso del Proceso Analítico en Red (o ANP por sus siglas en inglés de Analytical Network Process) para superar algunas limitaciones de AHP (por ejemplo, las relaciones entre criterios son únicamente jerárquicas). ANP propone construir una red que incluye conjuntos de criterios. Se requieren comparaciones para todos los elementos en la red. Por lo tanto, si bien se trata de una propuesta superadora ofrece dificultades prácticas para hacerla escalable a un gran número de criterios y alternativas. En varios trabajos los autores utilizan AHP para tratar el problema de selección de proveedores (Font, 2000), (Bruno et al., 2009), (Gonzalez y Garza, 2003), y (Toskano 2005). En estas propuestas no se provee una solución que haya sido validada empíricamente sino que se describen ejemplos numéricos. Tam (2001) también aplica este método para seleccionar vendedores en el sector de telecomunicaciones. Para evaluar los criterios se realizan cuestionarios a varios participantes y los resultados permiten construir las matrices de comparación de a pares. La comparación de alternativas se realiza utilizando el método de ratios (Forman y Selly, 2001). Un estudio reciente indica que AHP es la técnica individual más utilizada para la selección y evaluación de proveedores (Govindan, Rajendran, Sarkis y Murugesan, 2013). En (Wu y Barnes, 2008) se introduce un método compuesto por cuatro fases: preparación, preclasificación, selección final y retro-alimentación. Si bien es un método efectivo y práctico se presentan dos limitaciones. La primera es que en un contexto cambiante es difícil mantener los criterios de decisión actualizados. La segunda limitación es que el método podría resultar complejo en los casos en donde se requiere una decisión rápida. Mohammady (2006) utiliza la técnica de Análisis Envolvente de Datos (DEA por sus iniciales en inglés de Data Envelopment Analysis) para determinar proveedores eficientes. La técnica DEA considera alternativas (proveedores en este caso) y las evalúa considerando criterios que representan beneficios (outputs) y costos (inputs). La eficiencia de una alternativa se define TC-6

8 XXVIII ENDIO, XXVI EPIO y RED-M VIII como la tasa de la suma ponderada de sus outputs sobre la suma ponderada de los inputs. Para cada alternativa, DEA calcula el conjunto de pesos que maximiza la eficiencia del proveedor. Los resultados obtenidos pueden ser utilizados para realizar un benchmark con el objetivo de poder negociar con los proveedores que no son tan eficientes. Algunas de las limitaciones de la propuesta se derivan del supuesto de DEA, sobre la homogeneidad de los proveedores analizados. Si los proveedores no son homogéneos, entonces, un proveedor grande podría ser considerado eficiente porque no hay otros proveedores comparables (Madlener, Henggeler y Dias, 2006). Otra limitación de DEA es que no permite definir preferencias para los criterios. A efectos de superar las limitaciones de las propuestas mencionadas, se han desarrollado soluciones que integran varias técnicas. Por ejemplo, Ramanathan (2007) formula un problema basado en DEA donde los inputs son costos basados en el costo total de propiedad; y los outputs son las preferencias calculadas utilizando AHP. Kar (2014) provee un sistema que tiene como objetivo brindar apoyo a la toma de decisiones y predecir. Integra AHP para priorizar y consensuar preferencias en un grupo; y programación por objetivos difusa para clasificar a los proveedores como capaces o no capaces. La propuesta se valida utilizando un caso de estudio correspondiente a una fábrica de acero que considera 7 criterios y 45 proveedores. 3. CASO DE ESTUDIO A partir del análisis de la literatura y del conocimiento adquirido luego de entrevistar a los expertos del área de compras, se definen tres fases a cumplimentar para elaborar el modelo de selección y evaluación de proveedores (ver Figura 1). Para efectuar el análisis de la organización y, en particular, para definir los criterios relevantes se realizaron entrevistas al Gerente de Compras, Sub- Gerente, Gestores y encargados de realizar las negociaciones con los proveedores. El motivo de seleccionar a estas personas fue su conocimiento profesional y experiencia en la Gerencia de Compras. Cada categoría de productos está a cargo de una persona diferente. El modelo de selección y evaluación de proveedores se estructura y desarrolla en base al Proceso Analítico Jerárquico. Existe una barrera que impide el uso extensivo de AHP para problemas no triviales, y se deriva de la cantidad de comparaciones de a pares que hay que realizar si existen numerosos criterios y/o alternativas. Por lo tanto, se propone utilizar los datos crudos. Para cada alternativa se calcula el valor correspondiente a un criterio, se normalizan los valores y se utiliza el modo directo de trabajo del software Expert Choice para ingresar datos crudos en vez de comparaciones de a pares (Forman et al., 2001). Las matrices de comparaciones se realizan automáticamente a partir de los datos y luego se pueden modificar para mejorar cualquier preferencia. TC-7

9 XXVIII ENDIO, XXVI EPIO y RED-M VIII 3.1. Descripción de la organización La organización objeto de estudio cuenta con muchos años de trayectoria en el sector de supermercados. Actualmente, trabaja con más de referencias activas diferentes y la cantidad de proveedores asciende a más de 800. Esta empresa tiene un departamento que se dedica exclusivamente a la tarea de abastecimiento. El mismo está conformado por personas capacitadas en la tarea en cuestión, que no solo poseen los conocimientos técnicos del trabajo, sino también la experiencia que resulta de la resolución de los problemas que se presentan diariamente, los cuales son de características complejas e impredecibles. La cadena de supermercados comercializa una gama muy amplia de productos, con requerimientos y características muy variadas a la hora de comprar. Los productos pueden ser divididos en los siguientes grupos, conocidos en la organización como Unidades Virtuales de Negocios (UVNs): Bebidas, Limpieza y Seco; Carnes; Frutas y verduras; Fiambres y lácteos; Perfumería; Hogar, tienda y bazar/regalos; y Panificados y pastas. Cada UVN, a su vez se divide en sub-grupos, conocidos como sub UVNs. Cada sub UVN tiene sus necesidades, y por lo tanto, se consideran aspectos muy diferentes en el momento de realizar las compras. Si bien algunos criterios de compras pueden ser compartidos entre varias sub UVNs, generalmente, cada una tiene algún criterio que la diferencia del resto. Por ejemplo, el poder de negociación de una marca es crucial para desarrollar la estrategia de compras. No es lo mismo negociar con una marca líder en el mercado cuyos productos deben estar en góndola siempre, simplemente por pertenecer a esa marca, que negociar con una marca que está en su etapa de inserción en el mercado y que todavía no tiene la fidelidad del consumidor Análisis del contexto y particularidades de la cadena de abastecimiento Relación con los proveedores En esta cadena de supermercados se pueden apreciar diversos tipos de relaciones con los proveedores. La mayor parte de los proveedores hace más de 20 años con la empresa. Si bien la cantidad de años del vínculo es alta, la relación es simplemente de intercambio comercial. En estos casos no hay confianza entre las partes y es común tener diferencias en varios aspectos del negocio. En ciertas ocasiones se trata de empresas multinacionales o grandes empresas locales que dominan el mercado en la categoría en la cual trabajan. Además, en la cadena de supermercados están presentes relaciones más consolidadas. Si bien estos casos representan a una minoría, se puede decir que es el horizonte al cual se dirige esta cadena de supermercados. En estos casos se puede apreciar un grado de integración casi total, en el cual se comparte toda la información disponible y hay plena confianza entre las partes. Cada uno tiene acceso a las bases de datos del otro, y todas las áreas de TC-8

10 XXVIII ENDIO, XXVI EPIO y RED-M VIII ambas empresas interactúan constantemente. Se logra un negocio más sano y provechoso para todos, inclusive para el consumidor. Las negociaciones sobre aspectos numéricos generalmente se hacen una vez al año y todas las reuniones restantes se dedican a otros temas de mayor importancia que son justamente aspectos en los cuales se logran ventajas competitivas. Las partes se transforman en socios estratégicos más que simples relaciones de trabajo, y de esa manera el nivel de avance y desarrollo es mucho mayor. En las sub UVNs menos desarrolladas y con mayor grado de informalidad, como lo son Frutas y Hortalizas, y Carnes, todavía se está en una etapa más primitiva, en las cuales hay muchos proveedores, y muchas veces no trabajan de manera estable con la empresa. Es interesante destacar que para estos casos la idea de la empresa es colaborar en el desarrollo de este tipo de proveedores para lograr un abastecimiento continuo El tamaño de la base de proveedores La organización cuenta con una base de datos de cada proveedor y las referencias que les provee. Actualmente, no se cuenta con una base de proveedores potenciales, sino que se incluyen a aquellos que operan con la cadena. Es importante destacar que en el pasado la empresa muy pocas veces ha tenido que emprender una búsqueda de un proveedor de determinado producto. Generalmente, son los proveedores quienes se acercan para realizar la oferta de sus productos. Para cada sub UVNs analizada se describirán los criterios utilizados para determinar el tamaño de la base de proveedores Posibles situaciones de compra Se observan diferentes situaciones de compra posibles: compras de productos nuevos a proveedores nuevos, compras de productos nuevos a proveedores conocidos, modificaciones en las condiciones de la compra de un producto, y también las compras de rutina en las cuales se renuevan las condiciones anteriores. Los modelos que se desarrollan en este trabajo son útiles para el caso de recompras modificadas o de recompras de productos de rutina. En estos casos, es importante utilizar los modelos para monitorear el desempeño de los proveedores. Cada situación de compra tiene diferentes tratamientos, y la duración y la complejidad del proceso de compra son distintas. Según las entrevistas otorgadas por el Sub-Gerente de Compras de la empresa, la situación en la cual se quiere comprar un producto nuevo es una de las más complejas, debido a que se realiza una investigación sobre el proveedor, y se le pide información sobre diferentes aspectos, por ejemplo, propiedades de los productos, cobertura de mercado, precio al público, precio de la competencia, márgenes, entre otros. En ciertas categorías donde ya hay mucha saturación en cuanto a la cantidad de referencias, el Gestor debe estudiar cuidadosamente la situación para poder determinar si conviene incorporar o reemplazar los productos. Otra de las situaciones de compra que se dan TC-9

11 XXVIII ENDIO, XXVI EPIO y RED-M VIII regularmente es el cambio de las condiciones de la compra de un producto que ya se trabaja. Por último se observa otra situación de compra, que es la más simple, y corresponde con las compras de rutina. Acá se pueden dar dos casos: en el primero las sucursales hacen diariamente el pedido al proveedor, las condiciones de entrega ya están negociadas, solo hay que pedir las cantidades y el proveedor entrega a cada sucursal. En el segundo caso las sucursales realizan sus pedidos y los mismos se centralizan en la Administración Central, en donde cada Gestor puede disminuir o aumentar las cantidades pedidas teniendo en cuenta diferentes eventos que pueden darse a nivel cadena. Para el caso de la UVN Hogar, el Gestor realiza la compra y la mercadería se almacena en un depósito. Cada sucursal puede ver el stock disponible y realizar los pedidos directamente al depósito Definición de criterios, unidades de medida y proveedores Para abordar la etapa de definición de criterios para la selección y evaluación de proveedores se confeccionó una lista preliminar basada en un análisis de la literatura y observaciones de la organización en estudio. Luego, durante las entrevistas con personal de cada sub UVN, la lista inicial se modificó. Si bien se han analizado varias UVN, por razones de espacio solo se presentan los modelos y los resultados para la UVN Hogar y Bebidas. Por motivos de confidencialidad de los datos, no se incluyen los nombres reales de los proveedores sino que se utiliza un nombre de fantasía Modelo para la UVN Hogar En este rubro se incluyen electrodomésticos, alta tecnología y línea blanca. Durante las entrevistas, se evidenció que no se pueden considerar a todos los productos de la UVN Hogar en una misma categoría. Algunos grupos de artículos presentan características muy distintas y los criterios que comparten tienen pesos relativos muy variados. Por lo tanto, se decidió definir tres categorías para esta UVN: Electro (incluyendo en esta los electrodomésticos), Tecnología (alta tecnología y telefonía celular) y Línea Blanca (por ejemplo, heladeras, lavarropas). De esta forma, es posible definir diferentes criterios para cada categoría y/o considerar distintos pesos para cuantificar la importancia de cada criterio. Se planteó como lineamiento definir unidades de medida para cada criterio fáciles de entender, que ofrezcan pocas oportunidades de introducir subjetividad al momento de valorarlas, y que resulte factible recopilar datos. En la Tabla 1 se incluye una breve descripción de los criterios. A partir de las entrevistas en las cuales se analizaron los criterios y la importancia relativa de cada uno, los expertos argumentaron que para muchos criterios 9 puntos podrían resultar confusos. Por ejemplo, para el criterio Precio, un proveedor resulta Bueno, Regular o Malo. Entonces, se dificulta armar una matriz de comparación de a pares considerando más intensidades que las reales. Además, para dos proveedores Regulares indicar que son igualmente preferentes los puede inducir a errores. Saaty indica que TC-10

12 XXVIII ENDIO, XXVI EPIO y RED-M VIII muchas veces las personas utilizan medidas absolutas para establecer un orden o ranking de las alternativas independientemente una de otra, en términos de una clasificación de intensidades para cada criterio. Define intensidad como un rango de variación de un criterio que le permite a uno distinguir la calidad de una alternativa para dicho criterio. Saaty propone distinguir los criterios e intensidades para evaluar empleados, y comparar las intensidades en forma pareada, de acuerdo a su prioridad con respecto al criterio de origen. El tipo y número de clasificaciones pueden ser diferentes para cada criterio (Saaty, 1997). En base a la observación anterior se plantea distinguir las intensidades para algunos criterios, y comparar las intensidades en forma pareada, de acuerdo a su prioridad con respecto al criterio de origen. Reconsideremos el ejemplo del criterio Precio, para el cual un proveedor resulta Bueno, Regular o Malo. Considerando que de Bueno, Regular o Malo surge que aunque se comparen 2, 300 o 1000 proveedores, las únicas posibilidades de comparación resultan a partir de Bueno y Regular, Bueno y Malo o Regular y Malo. Entonces, si el experto nos indica las intensidades entre Bueno, Regular o Malo y cómo califica a cada proveedor, la construcción de la matriz se puede hacer más rápido y evitando inconsistencias. Se realizó un matriz de comparación de intensidades entre Bueno, Regular o Malo (ver la Tabla 2). Luego, los expertos evalúan a cada proveedor asignando el valor de la intensidad que se le aplica al mismo. También se realizaron entrevistas a efectos de seleccionar qué proveedores se incluirían en la evaluación. La base de proveedores queda delimitada por las características comerciales factibles. Utilizando el criterio de mayores ventas en el último ejercicio de la empresa, se seleccionaron dieciséis proveedores diferentes: seis pertenecen al grupo Electro, siete pertenecen al grupo Tecnología y seis al grupo Línea Blanca. Luego de seleccionar la base de proveedores, se procedió a evaluar a los mismos de acuerdo a los criterios e indicadores definidos. Cabe destacar, que dado que no existe un procedimiento explícito en la organización para seleccionar proveedores, y mucho menos de indicadores de desempeño, se debieron elaborar los procedimientos para procesar datos y asignar un valor a la mayor parte de los indicadores. Algunos indicadores, requieren de una valoración en base a la experiencia de los responsables de las negociaciones con los proveedores. A partir de la información y el conocimiento registrado durante las entrevistas se elaboraron modelos y se utilizó el software Expert Choice (Forman, 2001) para implementar las propuestas. En la Figura 2 se muestra la jerarquía utilizada para las categorías Electro, Tecnología y Línea Blanca. A efectos, de validar los modelos se efectuaron más entrevistas con el Gestor de Hogar. En la entrevistas se presentó la herramienta y algunos de los resultados en forma gráfica. El Gestor de Hogar observó resultados fieles a la realidad, es decir, la lista priorizada de proveedores coinciden con la valoración que realizan los expertos en base a su experiencia. En un primer análisis, se le ha asignado el mismo peso a cada criterio. Los sub criterios asociados tienen igual importancia o peso relativo, dicha importancia relativa se denomina también TC-11

13 XXVIII ENDIO, XXVI EPIO y RED-M VIII prioridad local. Cuando se habla de prioridad local se considera a la importancia de cada sub criterio con respecto a la meta. La Figura 3, Figura 4, y Figura 5 grafican los resultados de la síntesis para cada categoría. En el caso de Electro el ranking de alternativas está encabezado por H01 cuya preferencia alcanza el 18,6%. En el caso de Línea Blanca el ranking de alternativas está encabezado por H07 cuya preferencia alcanza el 18,2%. Y por último, en el caso de Tecnología el ranking de alternativas está encabezado por H15 cuya preferencia alcanza el 16%. Se procedió a consultarle al Gestor sobre la validez de estos rankings preliminares, quien confirmó el orden de prioridad. La síntesis es coherente con lo que él mismo considera. En las tres categorías de productos, el proveedor con el puntaje más alto es el mejor considerado por el Gestor, no solo porque sea al que se le compra más, sino porque reúne todas las características deseables en un proveedor. El análisis de sensibilidad permite observar cuán sensibles son las alternativas a los cambios en las prioridades de los criterios. La Figura 6 proporciona toda la información acerca de cómo se comportan las alternativas con respecto a cada uno de los criterios. Los criterios están representados por una línea; la prioridad de los criterios está representada por la altura del rectángulo tal como se lee en la escala del lado izquierdo. Los puntos en los cuales las líneas que representan a las alternativas cruzan a las líneas asociadas a los criterios indican los valores de preferencia que tiene cada alternativa para los criterios (medida según la escala del lado derecho). La línea vertical etiquetada Overall representa la meta global. Se utilizó la herramienta para analizar el ranking de proveedores para considerar ponderaciones diferentes para la importancia relativa de los criterios. Por razones de espacio, solo se incluye un caso. En la categoría Hogar Línea Blanca, para analizar qué impacto tendría considerar al criterio Precio como el relativamente mucho más importante, se le asigna una importancia del 50.1% ( el precio define el ranking ). Sin embargo, observamos que H07 sigue liderando el ranking. El resto de las alternativas conservan el mismo orden de prioridad (ver Figura 6). TC-12

14 XXVIII ENDIO, XXVI EPIO y RED-M VIII 3.5. Modelo para la UVN Bebidas En este caso en particular, en lugar de recopilar información del Gestor de la UVN, se contó con la colaboración del Sub-Gerente de Compras, este es un punto importante a destacar ya que su perspectiva excede a la de un Gestor, y la misma es más global y general. Luego de conversar sobre los criterios utilizados para la evaluación de un proveedor, nuevamente, como en el resto de las sub UVNs, quedó en evidencia la necesidad de realizar divisiones en grupos diferentes teniendo en cuenta las características disímiles entre los grupos de productos. Por lo tanto, se decidió considerar cuatro grupos distintos: Bodegas (en la cual se incluyen los vinos); Gaseosas, Aguas Saborizadas y Aguas con y sin gas; Cervezas; y Whiskys, Licores, Bebidas Blancas y Aperitivos. Se definieron 14 criterios diferentes abarcando diferentes áreas (ver Figura 7 y Tabla 3). En el caso de Bebidas, tal como se hizo para el caso Hogar, se plantea distinguir las intensidades para algunos criterios, y comparar las intensidades en forma pareada, de acuerdo a su prioridad con respecto al criterio de origen. En esta sub UVN, también la base de proveedores queda delimitada por las características comerciales factibles. A diferencia del resto de las UVNs analizadas, la selección de los proveedores no se basó en el nivel de ventas de cada uno, sino a consideración del Sub-Gerente de Compras, quien mencionó que, según los grupos definidos, las posibilidades quedaban reducidas a ciertos proveedores en particular. Considerando el mismo peso para cada criterio, y sub criterios se obtuvieron los siguientes resultados. Para Bodegas el proveedor B01 es el que encabeza el ranking, con un puntaje de 12.8%. En el caso del segundo grupo (Gaseosas, Aguas Saborizadas, Aguas con y sin gas) el proveedor que encabeza el ranking es GASA03 con un puntaje del 19.3%. Por otro lado, en el grupo Cervezas el proveedor que se destaca en esta instancia es C01, con 37%. Por último, en Whiskys, licores, bebidas blancas y aperitivos, vemos que el proveedor WLBA04 es el primero del ranking, con un puntaje del 26.1%. El análisis de sensibilidad permitió analizar varios aspectos. Por ejemplo, para el grupo Bodegas se le asignó una importancia relativa del 31.9% al criterio Category para poder visualizar cómo afectaba al ranking de proveedores. Si bien los dos primeros lugares del ranking siguen siendo ocupados por los mismos proveedores (B01 y B03), algunos de los puestos restantes han variado levemente. Por ejemplo, el tercer puesto del ranking ahora corresponde a B06, cuando anteriormente estaba ocupado por B05. A su vez, el proveedor B10 antes ocupaba el séptimo lugar, y con el cambio en la importancia del criterio Category, ahora ocupa el quinto lugar. 4. CONCLUSIONES 4.1. Contribuciones del trabajo TC-13

15 XXVIII ENDIO, XXVI EPIO y RED-M VIII En este trabajo se ha presentado la descripción de un proyecto que permite desarrollar una herramienta de apoyo para la selección y evaluación de proveedores para una organización del rubro minorista. Los resultados constituyen un aporte al proyecto general de Gestión del Conocimiento de la organización. Actualmente, la evaluación de proveedores está a cargo de los expertos del área y no existe ningún grado de formalización de los criterios e información relevante para tomar tales decisiones. El trabajo constituye una fuente de información para cualquier otra organización que desee emprender una tarea similar dado que se detallan, analizan y resuelven las dificultades que surgen en un caso real. Tal como se analiza en la revisión literaria, no se han encontrado descripciones de casos basados en AHP que consideren un número importante de productos y una base de proveedores numerosa y diversa. En este trabajo se han seguido la propuesta metodológica propuesta por Sarache et al. (2009) para elaborar el modelo de selección y evaluación de proveedores que incluye un análisis del contexto, la formulación de criterios de selección y evaluación, y el análisis basado en AHP. Para realizar algunas de las tareas fue necesario determinar cómo proceder dadas las características únicas del caso de estudio. Por ejemplo, para determinar el tamaño de la base de proveedores, se realizaron entrevistas a expertos para definir un tamaño que permita implementar el modelo propuesto, y al mismo tiempo fuera adecuado. Recordemos que la organización trabaja con alrededor de 800 proveedores. Las entrevistas permitieron determinar que esta decisión depende de la unidad de negocios, siendo las características comerciales factibles y el volumen de ventas en el último período, los criterios más relevantes. Otra de las tareas que insumió un esfuerzo considerable fue la definición de criterios para evaluar proveedores. En la organización no se registran datos históricos sobre proveedores. A partir de entrevistas y de la observación directa del trabajo de los expertos se logró definir una lista de criterios para cada unidad de negocio, y lo que es más importante, el peso relativo de cada uno de los criterios. En algunos casos, fue necesario definir grupos para las unidades de negocios debido a que los criterios o su importancia relativa no resultaban homogéneos para todos los productos. Debido a que los expertos aplican los criterios en forma tácita y no consultan datos documentados para tomar decisiones, fue necesario definir unidades de medida para cada criterio. Esta tarea no resulta trivial dado que el desafío era determinar una escala útil y fácil de utilizar al mismo tiempo. Durante la validación de los modelos fue posible obtener una apreciación por parte de los expertos más acabada. Una vez que los expertos pudieron ver e interactuar con el modelo, surgieron observaciones muy interesantes. Por ejemplo, el modelo es esencial para garantizar la continuidad de operaciones sin inconvenientes para los periodos de ausencia de los expertos. Dado que la operatoria no está formalizada y depende de las personas, los modelos desarrollados ofrecen a un empleado no experto el conocimiento sobre qué criterios son relevantes, cómo debe evaluarlos, y el desempeño actual de los TC-14

16 XXVIII ENDIO, XXVI EPIO y RED-M VIII proveedores. De esta forma, sin consultar a un experto podría tomar decisiones más informadas. Otra observación de sumo interés también está vinculada con la utilización de los modelos. Tanto los Gestores, como el Sub-Gerente de Compras, indican que la comparación del desempeño de proveedores resultaría de gran utilidad durante la negociación con los proveedores para determinar cuáles son las áreas en las cuales el proveedor ha tenido un desempeño pobre y debiera mejorarse. Como puede observarse, la aplicación de los modelos se enfoca en el seguimiento de los proveedores, más que en la selección. En muchos casos, la organización debe operar si o si con algunos proveedores, aún cuando no tengan un buen desempeño. Por ejemplo, la sub- UVN Frutas y Hortalizas, prefiere realizar transacciones con varios proveedores para asegurarse continuidad en el abastecimiento. La sub-uvn Hogar debe ofrecer ciertas marcas y no puede eliminar a algunos proveedores. De todos modos, el monitoreo de los proveedores, permite identificar áreas de mejora. La experiencia en este trabajó permitió mostrar que AHP puede considerar en forma adecuada la incertidumbre e imprecisiones inherentes al comportamiento humano. Al mismo tiempo permite construir modelos sencillos gracias a los cuales el decisor puede observar el desempeño de un proveedor con respecto a cada sub-criterio y criterio. AHP permitió que los gestores de compras se involucren en el desarrollo, lo cual redunda en modelos más confiables. Finalmente, la etapa de análisis basada en AHP no estuvo libre de desafíos. Dado que se desea desarrollar un modelo a re-utilizar, es necesario considerar cómo actualizar sistemáticamente los indicadores. Caso contrario, los datos no se actualizan e inmediatamente el modelo se torna obsoleto y cae en desuso. Para considerar este requerimiento, se optó por realizar evaluaciones de las alternativas utilizando datos crudos, en vez de efectuar una evaluación por pares. De este modo, se facilita una actualización automática de los indicadores, en el caso que la organización comience a registrar indicadores de desempeño en forma regular Limitaciones Los encargados de los procesos del área de Compras, si bien están comprometidos con el proyecto, tienen restricciones en el tiempo que tienen disponible debido a sus responsabilidades diarias. Por esta razón, las entrevistas se realizaron en forma fragmentada, adaptándolas a la disponibilidad de los expertos. De todos modos, dado el compromiso de los expertos se pudo entrevistar a los expertos durante el desarrollo de los modelos como durante su validación. Una de las principales limitaciones durante el desarrollo resultó ser la falta de indicadores de desempeño registrados por parte de la organización. Por lo tanto, resultó necesario definir escalas de medida y consultar a los expertos para evaluar a los proveedores que se incluyeron en la base. Si bien esta tarea agregó mayor esfuerzo, hizo que los expertos tuvieran mayor participación en el desarrollo del trabajo. A efectos de desarrollar una propuesta que supere el problema de TC-15

17 XXVIII ENDIO, XXVI EPIO y RED-M VIII escalabilidad presente en AHP, se decidió utilizar datos crudos para evaluar a los proveedores. De esta forma, en vez de efectuar una comparación de a pares, que en la práctica no es factible, se utilizan directamente datos correspondientes a indicadores de desempeño. De todos modos, es fundamental tener presente que no siempre es posible derivar prioridades a partir de los datos crudos porque las preferencias no necesariamente están linealmente relacionadas con los datos. Por ejemplo, si con respecto al criterio Share a nivel de cadena, la alternativa A registra el doble en el valor que la alternativa B, luego la alternativa A puede no ser el doble de preferible que la B. Por este motivo se recomienda revisar las matrices resultantes para adecuar las preferencias si fuera necesario. Formalmente, no se puede sostener que siempre se satisface la hipótesis de linealidad, pero el análisis de sensibilidad permite observar la robustez de los resultados ante variaciones moderadas en las puntuaciones Recomendaciones Uno de los aspectos a considerar es la actualización de los indicadores de desempeño de los proveedores. Muchos de los indicadores podrían incluirse en un Tablero de Comando, y actualizarse por diferentes empleados que participan en todo el proceso de compras. Por ejemplo, los indicadores vinculados con el cumplimiento de entrega, debieran ser actualizados al momento de recibir los pedidos. Este requiere una revisión en algunos de los procesos de la organización y en la forma de registrar y actualizar indicadores. La mejora en el registro y procesamiento de indicadores tendría un impacto significativo en la Gestión de Compras, dado que los gestores tendrían información histórica y podrían elaborar informes sobre la evolución del desempeño de los proveedores en el tiempo. Finalmente, concluimos observando que si bien muchos factores de contexto, tales como el número de proveedores disponibles, la importancia de la compra, la relación con el proveedor y la incertidumbre presente, son más determinantes para seleccionar proveedores que otros criterios, este trabajo constituye una herramienta de apoyo a la toma de decisiones vinculadas con la negociación con los proveedores. Los beneficios redundan en el fortalecimiento de la construcción de las relaciones a largo plazo con los proveedores, lo cual brinda una ventaja competitiva sostenible a la cadena de supermercados. Tabla 1. Breve descripción de los criterios para la UVN Hogar. Fuente: elaboración propia. Información: se refiere a la cantidad y calidad de información que el proveedor facilita sobre sus productos. Servicio post-venta: describe la calidad del servicio por venta ofrecido por el proveedor. Marca: describe la importancia de tener la marca ofrecida por el proveedor. Logística: describe las condiciones de entrega. Se divide en tres sub criterios: tiempo (indica si la entrega se hace en el momento acordado); calidad (condiciones de entrega de la mercadería); orden (organización de la mercadería al momento de la entrega). Negociación: refleja el poder de negociación que tiene el proveedor y la predisposición a realizar descuentos por volumen. Capacitación: describe el nivel de la capacitación otorgada por el proveedor. TC-16

18 XXVIII ENDIO, XXVI EPIO y RED-M VIII Precio: se refiere al nivel de las acciones promocionales de precio que realiza el proveedor. Tecnología: describe la predisposición del proveedor para realizar servicios adicionales. Participación: refleja el grado de participación del proveedor en las categorías analizadas. Tabla 2. Comparación de Intensidades para "Precio". Fuente: elaboración propia. Bueno Regular Malo Bueno Regular 1 2 Malo 1 Tabla 3. Breve descripción de los criterios para la UVN Bebidas. Fuente: elaboración propia. Marca: describe la importancia de la marca que comercializa el proveedor. Precio: refleja el posicionamiento de precios que tiene el proveedor en comparación con el mercado. Logística: indica si el proveedor respeta las condiciones de entrega de la mercadería, a saber, respeto del plazo y lugar de entrega, y eficiencia de la entrega. Pagos: refleja el calce de cada proveedor (la relación entre el plazo de pagos otorgado por el mismo y la rotación de la mercadería que comercializa) y la pérdida estimada por el stock inmovilizado. Sustitutos: refleja si existen proveedores que puedan sustituir al proveedor. Negociación: describe la activación de punto de venta y la dinámica comercial, dos criterios fundamentales para la negociación. El primero es relacionado con exhibiciones, cartelería, materiales, espacios preferenciales; y el segundo se refiere a bonificaciones sobre precio realizadas por el proveedor. Excedente: refleja el excedente de cada proveedor, entendiendo como excedente el resultado que obtiene la empresa a raíz de la relación con ese proveedor. Share: indica el nivel de participación que tiene el proveedor en la categoría en la cual se desempeña. Liderazgo: Aquí se evalúa el nivel de innovación y desarrollo que ofrece el proveedor a la categoría en la cual trabaja. Procesos: se refiere a los controles de calidad implementados por el proveedor en su proceso productivo. Tecnología: califica la apertura y el nivel de sistematización actual del proveedor. Responsabilidad Social: describe el compromiso del proveedor con la sociedad y el medio ambiente. Reposición: evalúa la importancia que tiene para la empresa que el proveedor realice una reposición externa; y el servicio de reposición externa provisto por el proveedor. Category: indica el nivel de conocimiento del proveedor sobre el comportamiento del consumidor, y la importancia que tiene para la empresa que el proveedor posea dicho conocimiento. Esto se mide a través de los estudios realizados por un tercero. TC-17

19 XXVIII ENDIO, XXVI EPIO y RED-M VIII Figura 1: Etapas para elaborar los modelos de selección y evaluación de proveedores. Fuente: elaboración propia. TC-18

20 XXVIII ENDIO, XXVI EPIO y RED-M VIII Figura 2: Jerarquía de criterios y sub-criterios para la sub UVN Hogar. Fuente: elaboración propia, elaborado con Expert Choice Figura 3: Síntesis con respecto al objetivo global para la sub UVN Hogar- Electro. Fuente: elaboración propia (Expert Choice ) Figura 4: Síntesis con respecto al objetivo global para la sub UVN Hogar Línea Blanca. Fuente: elaboración propia (Expert Choice ) Figura 5: Síntesis con respecto al objetivo global para la sub UVN Hogar- Tecnología. Fuente: elaboración propia (Expert Choice ) TC-19

21 XXVIII ENDIO, XXVI EPIO y RED-M VIII Figura 6: Desempeño de cada alternativa con respecto a cada criterio y al objetivo global de la categoría Hogar-Línea Blanca. Fuente: elaboración propia (Expert Choice ) TC-20

22 XXVIII ENDIO, XXVI EPIO y RED-M VIII Figura 7: Jerarquía de criterios y sub-criterios para la sub UVN Bebidas. Fuente: elaboración propia (Expert Choice ) TC-21

23 REFERENCIAS XXVIII ENDIO, XXVI EPIO y RED-M VIII BIRGÜN S. (2003): A case study of supplier selection for lean supply by using a mathematical model. Logistics Information Management, vol. 16 (6), pp BOER L., LABRO E., MORLACCHI P. (2001): A review of methods supporting supplier selection. European Journal of Purchasing & Supply Management, vol. 7, pp BOER L., VAN DER WEGEN L., TELGEN J. (1998): Outranking methods in support of supplier selection. European Journal of Purchasing and Supply Management, vol. 4 (2/3), pp BRUNO G., ESPOSITO E., GENOVESE A., PASSARO R. (2009): The Analytic Hierarchy Process in the Supplier Selection Problem. Publicado en Proceedings of 10th Annual International Symposium on Analytic Hierarchy Process. DICKSON G. (1966): An analysis of vendor selection: systems and decisions. Journal of Purchasing, vol. 1, pp FONT E. (2000): Gestión de la información en la utilización del proceso analítico jerárquico para la toma de decisiones de nuevos productos. Anales de documentacion, vol. 3, pp FORMAN E., SELLY M. (2001): Decision by Objectives - How to convince others that you are right. River Edge, New Jersey, World Scientific Publishing. GHODSYPOUR S., O`BRIEN C. (1998): A decision support system for supplier selection using an integrated analytic hierarchy process and linear programming. International Journal of Production Economics, vol , pp GONZALEZ A., GARZA R. (2003): Aplicación de las técnicas multicriteriales en la evaluación y selección de proveedores. Industrial, vol. 24 (2), pp GOVINDAN K., RAJENDRAN S., SARKIS J., MURUGESAN P. (2013): Multi criteria decision making approaches for green supplier evaluation and selection: a literature review. Journal of Cleaner Production, en prensa, pp HOLMBERG S. (2000): A systems perspective on supply chain measurements. International Journal of Physical Distribution & Logistics Management, vol. 30 (10), pp KAR A. (2014): Revisiting the supplier selection problem: an integrated approach for group decision support. Expert Systems with Applications, vol. 41, pp MADLENER R., HENGGELER C., DIAS L. (2006): Multi-criteria versus data envelopment analysis for assessing the performance of biogas plants. Publicado en Mini EURO Conference on Operational Research Models and Methods in the Energy Sector. MOHAMMADY GARFAMY R. (2006): A data envelopment analysis approach based on total cost of ownership for supplier selection. Journal of Enterprise Information Management, vol. 19 (6), pp TC-22

24 XXVIII ENDIO, XXVI EPIO y RED-M VIII RAINER L., CHRISTIAN G. (2005): Supplier selection and controlling using multivariate analysis. International Journal of Physical Distribution and Logistics Management, vol. 35 (6), pp RAMANATHAN R. (2007): Supplier selection problem: integrating DEA with the approaches of total cost of ownership and AHP. Supply Chain Management: An International Journal, vol. 12 (4), pp SAATY T. (1980): The Analytic Hierarchy Process. New York, McGraw Hill. SAATY T. (1997): Toma de decisiones para líderes: El proceso analítico jerárquico. La toma de decisiones en un mundo complejo. Pittsburgh, RWS Publications. SARACHE CASTRO W., CASTRILLÓN GÓMEZ O., ORTIZ FRANCO L. (2009): Selección de proveedores: una aproximación al estado del arte. Cuadernos de Administración, vol. 22 (38), pp SARKIS J., TALLURI S. (2002): A Model for Strategic Supplier Selection. The Journal of Supply chain Management, pp SHIN H., COLLIER D.,WILSON D. (2000): Supply management orientation and supplier/buyer performance. Journal of Operations Management, vol. 18, pp TAM M.,TUMMALA V. (2001): An application of the AHP in vendor selection of a telecommunications system. Omega, vol. 29, pp TOSKANO G. (2005): El proceso de análisis jerárquico (AHP) como herramienta para la toma de decisiones en la selección de proveedores: aplicación en la selección del proveedor para la Empresa Gráfica Comercial MyE S.R.L. Monografía Universidad Nacional Mayor de San Marcos. Facultad de Ciencias Matemáticas. EAP. Versión obtenida el 1/1/ sisbib.unmsm.edu.pe/bibvirtual/monografias/basic/toskano_hg/toskano_hg.htm. WANG G., HUANG S., DISMUKES J. (2004): Product-driven supply chain selection using integrated mult-criteria decision-making methodology. International Journal of Production Economics, vol. 91, pp WEBER C., CURRENT J. (1993): A multiobjective approach to vendor selection. European Journal of Operational Research, vol. 68, pp WU C., BARNES D. (2008): Four-phase conceptual model for supplier selection in agile supply chains. The school of Management, Royal Holloway University of London, School of Management Working Papers. Versión obtenida el 1/1/ TC-23

25 XXVIII ENDIO, XXVI EPIO y RED-M VIII OPTIMIZACIÓN EN UN ENTORNO FLOW-SHOP CON SUB-LOTES VARIABLES Y ENTREMEZCLADOS DANIEL ROSSIT 1 - GUILLERMO DURAND 2 - DIEGO BROZ 1 - DIEGO ROSSIT 1 MARIANO FRUTOS 1 - TOHMÉ, FERNANDO (3) 1 Departamento de Ingeniería, Universidad Nacional del Sur, IIESS-CONICET. 2 Departamento de Ingeniería Química, Universidad Nacional del Sur, PLAPIQUI-CONICET. 3 Departamento de Economía, Universidad Nacional del Sur, INMABB-CONICET. daniel.rossit@uns.edu.ar - gdurand@plapiqui.edu.ar - diego.broz@uns.edu.ar - diego.rossit@uns.edu.ar mfrutos@uns.edu.ar - ftohme@criba.edu.ar RESUMEN EXTENDIDO Este trabajo representa un aporte en la temática de sub-loteo en entornos productivos flow-shop. El objetivo es poder presentar una flexibilización de los problemas de sub-loteo y poder constatar el beneficio que pueda llegar a reportar en materia de tiempo total de producción (makespan). Para ello se flexibilizó la secuencia de sub-lotes permitiendo que se entremezclaran sublotes de distintos productos. Esto generó una reducción del makespan respecto a aquellos sistemas que no permiten la entremezcla para iguales instancias del problema. PALABRAS CLAVES: Producción - Flow-shop - Sub-loteo - Optimización. 1. INTRODUCCIÓN Es bien sabido que lograr una planificación de la producción cada vez más integral permite mejorar significativamente la productividad. Es por eso que las investigaciones en la integración de actividades han crecido considerablemente en los últimos años. Cheng, Mukherjee y Sarin (2013), en su revisión, cita numerosos autores que han demostrado que vincular el dimensionamiento del lote de trabajo a la programación de tareas permite hacer más eficiente el sistema productivo, es decir, dimensionar el lote considerando el proceso productivo y las operaciones a ejecutarse. A esta metodología se la conoce como sub-loteo. El sub-loteo trabaja a partir de una cantidad total a producir de un cierto producto y genera pequeñas fracciones de ese lote, permitiendo que unidades de producto puedan avanzar a las siguientes etapas o centro de trabajo del sistema de producción en un tiempo menor al que tendrían que hacerlo si se trabajara con el lote entero (Ventura y Yoon, 2013). Esto permite disminuir el tiempo total de producción (makespan) como también el tiempo del ciclo de producción. El sub-loteo ha tomado una relevancia creciente en los últimos años y ha estado relacionado especialmente con el secuenciamiento en entornos productivos flow-shop (Defersha y Chen, 2010) (Defersha y Chen, 2011) (Rossit, Frutos, Tohmé, Broz y Rossit, 2014). La gran mayoría de las publicaciones respecto a sub-loteos resuelven el tamaño de sub-lote fijándolo previamente, y en muchos casos, no permiten que en la secuencia de ordenamiento se entremezclen sub-lotes de distintos productos. Defersha y Chen (2010), mostró que al dejar que el tamaño de los sub-lotes varíe ayuda a disminuir el makespan. Desde entonces se han publicados nuevos trabajos que confirman estos resultados, y otros que RE-23

26 XXVIII ENDIO, XXVI EPIO y RED-M VIII incorporan nuevas variantes a la problemática, por ejemplo: sistemas flow-shop híbridos y flow-shop sin espera. Sin embargo, el análisis sobre permitir entremezclar a los sub-lotes no ha sido considerado, al menos, como criterio de comparación. La motivación de este trabajo es lograr un aporte en los sistemas en los que se permite la entremezcla de sub-lotes de distintos productos. Esto consiste en flexibilizar el ordenamiento generado de los sub-lotes de forma tal que su posición en la secuencia sea independiente del tipo de producto al que pertenecen. Al posibilitar la mezcla de sub-lotes se incorporan nuevas soluciones en la búsqueda de minimizar el makespan, de esta forma, la solución encontrada será igual o mejor que en el caso de no permitir la entremezcla. 2. DESARROLLO DEL MODELO El problema abordado es un sistema productivo del tipo flow-shop con 2 etapas (m) o más, en donde se aplica sub-loteo. El sistema flow-shop considera: una máquina por etapa, todos los trabajos j tienen la misma secuencia y pasan por todas las máquinas, y se contemplan tiempos de: procesamiento pr mj, preparación de las máquinas t mj, y de transferencia de sub-lotes a la siguiente máquina TR mj (este último es un dato muy importante en los problemas de sub-loteo). Se busca calcular la cantidad de sub-lotes f, el tamaño de los sub-lotes s f y el ordenamiento en la secuencia, todo esto minimizando el makespan. La formulación se basó en lógica posicional, es decir, cada sub-lote ocupa una posición p en la secuencia (hay tantas posiciones p como sub-lotes f). La presencia o no de un sub-lote f en una posición p se la expresa con la variable binaria x fp que toma el valor 1 cuando está presente, y 0 cuando f no está en esa posición. Este enfoque permite trabajar con los sub-lotes de forma independiente del lote de trabajo j al que pertenecen ( x fp no está indexada en el lote de trabajo), permitiendo representar el sistema de trabajo deseado: flowshop con sub-loteo entremezclados. A continuación, en ecuaciones de 1 a 6, se muestran las ecuaciones más significativas del modelo. 3 f 1 s f U j, j 1 (1) (se asegura producir toda la producción U de j, en este caso para el producto 1 y en un sub-loteo de 3 sub-lotes por producto) p p 1 x 1, f (2) fp (un sub-lote no puede ocupar más de una posición) RE-24

27 XXVIII ENDIO, XXVI EPIO y RED-M VIII f f 1 x 1, p (3) fp (una posición no puede estar ocupada por más de un sub-lote) TPfm prmj TRmj s f tmj, f 3, j 1, m (4) (tiempo de procesamiento TP del sub-lote f en la máquina m) fm Afp TPfm BigM 1 x fp tol; Afp TPfm BigM 1 x fp, p 1, f (5) (fecha de finalización A fp, en este caso para la máquina 1 del sub-lote f en la primer posición (BigM es un valor positivo lo suficientemente grande)) A A TP BigM 1 x, p 1, f f ' (6) fp f '( p 1) fm fp f ' (fecha de finalización para sub-lotes que están en posiciones mayores a la primera) De la ecuación (1) se desprende que el formato de los sub-lotes es libre, no hay limitantes en cómo se conforman los 3 sub-lotes. Este tipo de sub-lotes es definido como sub-lotes variables por Sarin y Jaiprakash (2006). De forma análoga a las ecuaciones (5) y (6), se calculan las fechas de finalización para el resto de las máquinas del flow-shop. 3. RESULTADOS Para poder establecer una medida de desempeño de los sistemas que permiten entremezclado se procedió a un análisis comparativo respecto a aquellos sistemas que no lo admiten. Para ello se testeó el modelo propuesto en diversos escenarios simulados. Los escenarios planteados fueron de 2 y 3 máquinas, para los que se experimentó con distintas opciones de cantidad de productos (2 y 3) los cuales se sub-lotearon en 2 configuraciones posibles (2 y 3). Por lo tanto se realizaron pruebas en 12 escenarios distintos (3x2x2). Para cada escenario se simularon 100 conjuntos de datos independientes para todos los casos. En cuanto a los resultados obtenidos pudo observarse que los sistemas con entremezclado obtuvieron igual o menor makespan que los sistemas que no permitían la entremezcla (Tabla 1). Estas diferencias de makespan fueron mayores cuando hubo mayor número de sub-lotes (3 productos y 3 sub-lotes), y la mayor diferencia promedio fue para la configuración de 3 máquinas. En los casos que se experimentó con 2 productos no hubo diferencias significativas. Otro aspecto relevante que diferenció ambos sistemas (con entremezcla y sin entremezcla), fue el tiempo de cómputo, siendo marcadamente superior para el sistema con entremezcla, alcanzando para los casos más complejos (3 RE-25

28 XXVIII ENDIO, XXVI EPIO y RED-M VIII máquinas, 3 productos y 3 sub-lotes) valores promedio de más de 300 veces el tiempo insumido en igual instancia pero sin entremezcla. Esto tiene su raíz en el espacio de búsqueda definido por cada uno de los problemas. En el caso de sin entremezcla las secuencias posibles son mucho menos que las posibles en el caso con entremezcla. 2 M 3 M Tabla 1. Valores promedios para 100 corridas en cada instancia. 2 J 3 J 2 J 3 J Sin Entremezcla Con Entremezcla Diferencia % (makespan) Tiempo CPU Makespan Tiempo CPU Makespan 2 F < 1 seg 5837 < 1 seg ,1 3 F <1 seg seg ,1 2 F < 1seg seg ,0 3 F < 1 seg seg ,8 2 F < 1 seg seg ,1 3 F < 1 seg seg ,4 2 F < 1 seg seg ,0 3 F <1 seg seg ,9 Referencia: 2M (2 máquinas), 2J (2 productos), 2F (cada producto en 2 sub-lotes) 4. CONCLUSIONES Este trabajo permitió demostrar que al incrementar la flexibilidad del secuenciamiento mejora el resultado final. La magnitud de la mejora de los resultados aumenta con el incremento de la cantidad de productos y sub-lotes. Sin embargo, estas mejoras implican un consumo mayor de recursos computacionales. Como futura línea de investigación, resulta interesante plantear problemas similares con tiempos de preparación dependientes de la secuencia, como también considerar sub-lotes inconsistentes (que puedan recalcularse al pasar de etapa). 5. AGRADECIMIENTOS Este trabajo fue financiado por la Universidad Nacional del Sur (Proyectos de Investigación para el Programa de Incentivos de la Secretaria General de Ciencia y Tecnología PGI 24/J056) y el Consejo Nacional de Investigaciones Científicas y Tecnológicas. 6. REFERENCIAS CHENG M., SARIN S. C. (2013): A review of lot streaming. International Journal of Production Research. vol. 51 (23), pp DEFERSHA F. M., CHEN M. (2010): "A hybrid genetic algorithm for flow-shop lot streaming with setup and variable sublots". International Journal of Production Research. vol. 48 (6), pp DEFERSHA F. M., CHEN M. (2011): A genetic algorithm for one-job m- machine flow-shop lot streaming with variable sublots. International Journal of Operational Research. vol. 10 (4), pp RE-26

29 XXVIII ENDIO, XXVI EPIO y RED-M VIII ROSSIT D., FRUTOS M., TOHMÉ F., BROZ D., ROSSIT D. (2014): Modelos mixto-enteros de sub-loteo para producción flow-shop minimizando el makespan. VII Congreso de Ingeniería Industrial. pp SARIN S. C., JAIPRAKASH P. (2006): Flow Shop Lot Streaming. Springer Science & Business Media. New York, USA. VENTURA J. A., YOON S. (2013): A new genetic algorithm for lot-streaming flow shop scheduling with limited capacity buffers. Journal of Intelligent Manufacturing. vol. 24 (6), pp RE-27

30 XXVIII ENDIO, XXVI EPIO y RED-M VIII AGRICULTURA

31 XXVIII ENDIO, XXVI EPIO y RED M VIII DECISIONES ROBUSTAS EN LA PRODUCCIÓN AGRÍCOLA PARA DOS PERÍODOS PRIMERA APROXIMACIÓN A LAS ESTRATEGIAS ADAPTATIVAS FEDERICO RODRÍGUEZ XAVIER GONZÁLEZ SILVIA RAMOS HORACIO ROJO Facultad de Ingeniería, UBA federodriguez.88@gmail.com xaviering@gmail.com silviaadrianaramos@gmail.com hrojo@fi.uba.ar RESUMEN En este artículo se presenta el desarrollo y análisis de una Metodología de Decisiones Robustas con el propósito de ayudar a los productores agrícolas a decidir qué cultivos implantar para dos campañas de producción. El objetivo principal del trabajo es hacer una primera aproximación para agregar al planteo de Decisiones Robustas la posibilidad de evaluar y modificar las decisiones en escenarios que duren más de un período, logrando de esta manera elaborar planes a largo plazo. Asimismo, trabajar con estas Estrategias Adaptativas da la posibilidad de hacer correcciones en las decisiones de cultivo en base a los resultados obtenidos en períodos anteriores. En este trabajo se presenta una primera aproximación del enfoque, con sus resultados preliminares. Palabras Clave: Estrategias Adaptativas - Decisiones Robustas - Producción Agrícola - Investigación Operativa ABSTRACT This article describes the development and analysis of a Robust Decisions Methodology in order to help farmers decide which crops introduce in two production campaigns. The main objective of this work is to make a first step to apply Adaptive Strategies into a Robust Decision Methodology. This will permit decision maker to assess and change decisions in scenarios that last more than one period in order to achieve long term planning goals. In addition, working with these adaptive strategies gives the opportunity to make corrections in planting decisions based on the results obtained in previous periods. This paper presents a first approach with its preliminary results. Keywords: Adaptive Strategies - Robust Decisions - Agricultural Production - Operations Research TC 29

32 1. INTRODUCCIÓN XXVIII ENDIO, XXVI EPIO y RED M VIII En el presente artículo se propone una forma de modelar la toma de decisiones de un productor agrícola que debe decidir los cultivos a asignar al terreno disponible. Considerando que el objetivo del productor es maximizar su rentabilidad, esta decisión se encuentra sometida a la incertidumbre tanto del clima a lo largo de la temporada, y por lo tanto del rendimiento de los cultivos, como del precio del cultivo en el momento de venta de la cosecha. Este problema es objeto central de estudio en el Proyecto Interdisciplinario FAUBA FIUBA, que se encuentra acreditado por la Universidad de Buenos Aires con el código BA dentro de la Convocatoria UBACyT para el período al cual pertenecen los autores. En dicho proyecto, el problema se ha encarado mediante el desarrollo de un modelo que utiliza la Metodología de Decisiones Robustas (MDR) -ver Lempert et al (2007) y Lempert et al (2010)- para permitir orientar al productor agropecuario en la toma de decisiones. Dicha metodología busca obtener decisiones que, en lugar de maximizar u optimizar un valor esperado, se comporten lo mejor posible a lo largo de un espectro amplio de futuros posibles. Como unidad de análisis para el desarrollo del modelo, en el Proyecto Interdisciplinario FAUBA FIUBA se modelizó un campo teórico ubicado en la zona de Pergamino. Se tomaron como cultivos posibles el maíz, la soja y el combinado trigo-soja, pudiéndose cada uno de ellos sembrarse con diferentes opciones de producción, denominadas "manejo" del cultivo. Resultaron, de esta manera, un total de 6 cultivos-manejo, cada uno con sus costos asociados. Se dividió al terreno en 6 partes iguales, cada una de ellas podrá ser asignada con un cultivo manejo diferente. Al final del período, se obtiene un margen neto por la producción que depende de la asignación de los cultivos al terreno, del rendimiento de los mismos en función de las variables climáticas del período, que se obtuvieron a partir de un modelo de simulación, y de los precios de los cultivos en el momento de su venta. En trabajos anteriores al presente, se consideró una temporada individual definida con parámetros de clima y precios. El objetivo del presente artículo es continuar con esta línea a partir de la extensión de la MDR a períodos de dos temporadas y generar la base para comenzar a diseñar Estrategias Adaptativas que, una vez aplicadas, hagan correcciones en la asignaciones de los cultivos, temporada tras temporada, en función de los resultados obtenidos. Se espera obtener decisiones que resulten en estrategias con resultados más favorables en todo el espectro de futuros posibles. Esta primera aproximación a las estrategias adaptativas permitirá en futuros trabajos poder analizar los efectos y ventajas de la rotación de cultivos en temporadas sucesivas. El artículo está estructurado como se indica a continuación: en la segunda sección se presenta el marco teórico y los antecedentes de aplicaciones no agrícolas que fundamentan la metodología presentada, en la tercera se desarrolla la Metodología de Decisiones Adaptativas Robustas aplicada a la Producción Agrícola y se consignan resultados preliminares TC 30

33 XXVIII ENDIO, XXVI EPIO y RED M VIII correspondientes a la aplicación de la primera etapa de la metodología propuesta, en la cuarta se comentan algunas conclusiones preliminares, en la quinta se incluyen las figuras y tablas y en la sexta se indican las referencias bibliográficas utilizadas. 2. MARCO TEÓRICO. METODOLOGÍA DE LAS DECISIONES ROBUSTAS Y ESTRATEGIAS ADAPTATIVAS Metodología de las Decisiones Robustas En el Proyecto Interdisciplinario FAUBA - FIUBA se ha trabajado en la aplicación de los pasos propuestos por la MDR sobre el problema de producción agrícola definido, los cuales fueron desarrollaros en González (2012), Rojo et al (2013), Ramos et al (2013), González et al (2014) y Rojo et al (2014). A continuación se resumen brevemente los mismos y se indican las particularidades asumidas para el presente trabajo: 1) Definición de los posibles escenarios futuros (F) a partir de los valores posibles que puedan tomar las variables del modelo cuyo valor y comportamiento es incierto. En el caso tratado las variables de incertidumbre resultan el clima y los precios, por lo que se han tomado 77 años de clima ( ) y 27 años de precio ( ) a valor actual como los valores posibles para estas variables en un año determinado. En el nuevo método se trabajará con escenarios de una y dos temporadas, utilizándose en este último caso pares de años consecutivos de precios y pares de años consecutivos de clima para conformar los escenarios, dado que se parte de la hipótesis que los valores que toma cada variable en un año determinado es dependiente del valor que asumió el año anterior. 2) Definición de las posibles estrategias a implementar (S) a partir de las variables de cuyo valor depende de la decisión a tomar. En el problema definido resultan las posibles asignaciones de cultivo manejo al terreno en cada uno de los años que compone el escenario. En un año determinado, al tener 6 porciones de terreno y 6 cultivos manejo, resultan 462 distribuciones posibles del terreno según se explicó en Rojo et al (2013). 3) Definición de una métrica de evaluación para cada estrategia en cada escenario (S x F =E). Se define para esto la variable regret, que se define como la diferencia entre el mejor margen neto obtenido en un escenario dado j y el margen neto de la estrategia particular i en dicho escenario j. Es decir, para la estrategia i en el escenario j se define como: Regret i, j =MargenNetoMAX i MargenNeto i, j Una estrategia será mejor que otra en un escenario en particular si tiene TC 31

34 menor tercer cuartil de regret. XXVIII ENDIO, XXVI EPIO y RED M VIII 4) Elección de una estrategia candidata inicial Se selecciona la estrategia con el tercer cuartil de regret más bajo. 5) Identificación de grupos de escenarios en los que la estrategia candidata es vulnerable. A partir de un algoritmo de árbol de decisión se busca identificar características comunes para el grupo de escenarios donde el regret de la estrategia candidata es más alto, dividiendo a la totalidad de los escenarios en dos grupos: "buenos" y "malos". 6) Búsqueda de estrategias que se desempeñen mejor que la candidata en estos escenarios. Se evalúa el tercer cuartil de regret en los dos grupos de escenarios definidos en el punto anterior y se trazan ambos valores en un diagrama cartesiano. 7) Evaluación de la conveniencia adoptar una estrategia de cobertura de acuerdo a un análisis de las respectivas vulnerabilidades. Se identifican un grupo de estrategias, que conforman la denominada "frontera de decisión", similar a lo que sería una frontera de Pareto para un esquema de decisión multiobjetivo, que se compone de la estrategia candidata y otras estrategias que tengan mejor desempeño en los escenarios "malos". Dentro de este grupo se encuentran las posibles decisiones a tomar en el futuro, según el criterio que tenga el tomador de decisiones sobre el mismo Estrategias Adaptativas. Integración con la Metodología de Decisiones Robustas En los últimos años se han visto aplicaciones de la MDR en conjunto con las denominadas Estrategias Adaptativas, como alternativa de diseño de políticas de largo plazo en un marco de gran incertidumbre. En la presente sección se define el concepto de Estrategias Adaptativas, comentando su compatibilidad con la metodología de decisiones robustas y mencionando algunos ejemplos de su aplicación. Las Estrategias Adaptativas consisten en decisiones secuenciales en las que las que se toma una decisión inicial, se obtiene nueva información a lo largo del tiempo, y luego se toma una acción siguiente en respuesta a la información obtenida. Por su naturaleza, este tipo de estrategias permiten pasar de una planificación estática a una planificación dinámica. Definidas en Lempert et al (2010) las Estrategias Adaptativas implementan acciones de control basadas en información actual y reglas de decisión que responden a un cambio de estado en un sistema. Los agentes deciden y actúan basados en información TC 32

35 XXVIII ENDIO, XXVI EPIO y RED M VIII incompleta, restringidos a una ventana espacial y temporal de información. El enfoque adaptativo observa el resultado del cambio de entorno del sistema, a veces causado por las acciones de todos los agentes, y ajusta las variables de control a lo largo del tiempo para llegar al objetivo planteado o mantenerse dentro de los límites de viabilidad del proyecto." Las acciones adaptativas resultan difíciles de aplicar en modelos cuantitativos de decisión. En forma ideal, una simulación debe representar como el sistema responde a las políticas de cambio impuestas, que información tendrán los tomadores de decisión en el futuro, que acciones se elegirán y su habilidad para implementar dichas acciones. Debe modelarse tanto el contexto físico y socioeconómico como el comportamiento incierto de los tomadores de decisiones del futuro. Tradicionalmente, las aplicaciones que ayudan a la toma de decisiones han trabajado bajo un marco denominado por Lempert et al (2010) como de "predecir y luego actuar", donde primero se caracteriza la incertidumbre del futuro y se utiliza dicha caracterización para evaluar cuán deseables son las opciones de tomar decisiones alternativas. Típicamente, esta caracterización utiliza modelos probabilísticos o pronósticos que describan la incertidumbre, lo que puede complicar el análisis de Estrategias Adaptativas de dos maneras. En primer lugar, las técnicas analíticas y computacionales utilizadas para aplicar la información en modelos de simulación por computadora, generalmente intentando encontrar una buena estrategia de corto plazo, pueden tener restricciones significativas en los formalismos utilizados en los modelos. Por lo tanto, cualquier información que está disponible sobre el comportamiento de los futuros tomadores de decisiones puede ser difícil de incorporar en la simulación. Adicionalmente, estos modelos pueden subestimar el profundo grado de incertidumbre, el cual es, generalmente, una de las principales causas para emplear Estrategias Adaptativas. La MDR reformula el marco analítico de predecir y luego actuar. En primer lugar, considera todos los escenarios posibles en lugar de representarlos con una distribución de probabilidad. En segundo lugar, utiliza un criterio robusto, en lugar de un criterio de optimización, que resulta en un rango de opciones posibles para el tomador de la decisión. Finalmente, caracteriza las vulnerabilidades de las estrategias en forma particular para encontrar alternativas a dichas vulnerabilidades (Lempert et al 2010). A partir de este procedimiento se genera un nuevo marco que brinda al modelo una libertad considerable para representar el comportamiento de los tomadores de decisiones, considerando todo el rango posible para las variables sujetas a incertidumbre. En la siguientes subsecciones se presentan dos aplicaciones en las cuales se ha investigado la utilización de Estrategias Adaptativas junto con la metodología de decisiones robustas. Estos ejemplos tienen utilidad tanto para ilustrar el empleo de la metodología como para demostrar que no existe una serie de algoritmos específicos que la implementen sino que a partir de seguir los pasos establecidos, el analista puede hacer uso de los modelos y algoritmos que considere necesarios y definir estrategias, escenarios y TC 33

36 XXVIII ENDIO, XXVI EPIO y RED M VIII seleccionar estrategias candidatas según le sea más conveniente para plantear el problema y soportar la toma de decisiones de la mejor manera posible. Tomamos estos ejemplos como punto de partida para la implementación de Estrategias Adaptativas a las decisiones de producción agrícola, ya que este tipo de aplicaciones no tiene antecedentes en la bibliografía Aplicación al diseño de políticas para la gestión de recursos hídricos Esta aplicación se ha relevado de Lempert (2010). Se han diseñado métodos de aplicación de la MDR para ayudar a las agencias de recursos hídricos a desarrollar Estrategias Robustas que soporten la incertidumbre frente a los cambios climáticos y otras condiciones adversas para el manejo de los recursos hídricos referido a su suministro y al tratamiento de efluentes. En particular, la RAND Corporation realizó junto con la Inland Empire Utilities Agency (IEUA) del sur de California en los Estados Unidos, un modelo de decisión que utiliza la MDR para elegir entre distintas Estrategias Adaptativas que permiten preparase para los potenciales impactos del cambio climático que modificasen los resultados de su plan de gestión. Para llevarlo a cabo se identificaron primero los factores futuros de incertidumbre que afectasen los resultados esperados. Estos fueron las condiciones climáticas (precipitaciones), la demanda futura del agua, el impacto del cambio climático y la potencial disminución de la oferta de suministros importados. A partir de esto se modelaron distintos tipos de escenarios utilizando programas de simulación específicos para cada una de las condiciones que se consideraron como críticas, creando 450 escenarios posibles. Como estrategia candidata se tomó el plan inicial de la empresa que había sido desarrollado proyectando las acciones a realizar para los próximos 25 años, dadas las condiciones históricas y la demanda proyectada. También se habían definido potenciales acciones futuras destinadas a cubrirse de las vulnerabilidades ante condiciones inciertas de tres tipos: Inversiones para mejorar la eficiencia en el uso del agua. Expansiones en el sistema de reutilización Expansiones en el sistema de abastecimiento. Se definieron estrategias estáticas que consistían en el plan inicial y la combinación de este con una o más de las tres acciones alternativas. A su vez se definió una Estrategia Adaptativa a partir de un procedimiento de árbol de decisión que consistía en una acción inicial, hechos disparadores de acciones correctivas denominados señales y acciones correctivas a tomar frente a estos disparadores. Las señales, que dependían de las condiciones de oferta y demanda del agua, debían ser evaluadas cada 5 años, determinando así si debía emplearse alguna de las acciones correctivas. El árbol de decisión implementado se muestra en la Figura 1. Como siguiente paso se evaluaron todas las estrategias a partir del valor TC 34

37 XXVIII ENDIO, XXVI EPIO y RED M VIII presente del costo total. Se estableció el valor de 3,75 mil millones de dólares como el máximo tolerable en el valor presente de costos totales, que tenían en cuenta tanto costos de suministro como costos de oportunidad. A partir de esta definición, se realizó un análisis de trade-off entre la cantidad de escenarios en los que la estrategia superaba los costos máximos tolerables y la dificultad de emplear las medidas que requería la estrategia, variable definida por el grupo de investigación, denominada "effort". Estas dos variables fueron representadas para cada estrategia en un diagrama cartesiano que se muestra en la Figura 2 La clasificación y comparación así realizada lleva a la conclusión de que la incorporación de la adaptabilidad al planeamiento de suministro de recursos hídricos proporciona una estrategia que hace al plan mucho más robusto sin necesidad de mucho esfuerzo adicional Aplicación a un plan de Salud para epidemias de gripe Otro caso del empleo de Estrategias Adaptativas en la MDR es el estudio realizado en Hamarat et al (2012) sobre el diseño de políticas para la prevención de epidemias de gripe. Se generaron más de escenarios partir de un modelo que simula el contagio de la gripe en la población a lo largo del tiempo. El modelo entrega, ante diversas variables de entrada (rango de fatalidad, población inmune, frecuencia de contacto entre individuos, etc.), la cantidad de personas muertas e infectadas por la gripe en la región. Definidos los escenarios, se diseñaron Estrategias Adaptativas a emplear ante una epidemia de gripe que combinan acciones urgentes a ser tomadas con acciones especificadas previamente que respondan de distinta manera según los sucesos futuros. Para especificar cuándo se disparan los distintos tipos de acciones, se determinan señales que monitorean distintas variables y definen un valor crítico a partir del cual debe emplearse una acción determinada. Se evaluaron varios tipos de estrategias, que contenían una política estática de vacunación y disminución de contacto entre individuos, una política adaptativa con acciones de vacunación y disminución de contacto según valores en el contagio y las fatalidades elegidos al azar y finalmente una política adaptativa con parámetros elegidos luego de correr un algoritmo de optimización que determinaba los mejores valores sobre los que debían apoyarse las señalas y la magnitud de la correcciones a emplear. Analizando los peores valores posibles en cuanto a fatalidades e individuos contagiados, se pudo validar que la estrategia adaptativa obtenida mediante la optimización obtenía mejoras considerables según se indica en la Figura INTRODUCCIÓN A LA IMPLEMENTACIÓN DE ESTRATEGIAS ADAPTATIVAS INTEGRADAS A LA METODOLOGÍA DE DECISIONES TC 35

38 XXVIII ENDIO, XXVI EPIO y RED M VIII ROBUSTAS Y APLICADAS EN LA PRODUCCIÓN AGRÍCOLA 3.1. Justificación de la aplicación de Estratégicas Adaptativas a la Producción Agrícola Si el productor agrícola desea planificar la asignación de sus recursos a largo plazo, por ejemplo para optimizar el valor presente de una inversión en un nuevo terreno o para el diseño de un plan estratégico, el modelo de aplicación de la MDR a la actividad agrícola realizado en el capítulo anterior es incompleto. Esto se debe a que hay múltiples variables, por ejemplo las financieras, que evolucionan a lo largo del tiempo y se necesitan escenarios de varios períodos para poder representarlas y evaluarlas, lo que lleva a la necesidad de contar con un modelo que tenga en cuenta la actividad del productor durante varios temporadas de producción. Para mantener el enfoque robusto en un modelo que desarrolle escenarios de varias temporadas, se requiere el empleo de estrategias dinámicas que incorporen los hechos ocurridos año a año y reflejen de una manera más fehaciente el accionar del productor, el cual probablemente no realizará la misma estrategia en cada uno de los períodos. Es por esto que el empleo de Estrategias Adaptativas resulta de suma importancia para continuar con el diseño de estrategias robustas para el productor agropecuario, no sólo porque pueden reflejar mejor el accionar del productor para cada uno de los años, sino que pueden recomendarle, a partir del empleo de la información existente, las correcciones que deban hacer a lo largo del tiempo, de manera de que estas tengan el mejor impacto posible en los resultados deseados. Este trabajo pretende ser un paso intermedio entre el modelo de MDR actual y un modelo más complejo que incorpore otros tipos de variables. Se modelarán escenarios de dos temporadas y luego se diseñarán Estrategias Adaptativas. Para su diseño se tendrá en cuenta la percepción de "inercia" en los escenarios que tienen los productores. Este criterio consiste en suponer que las condiciones de precios y climas en un año en particular son explicadas en parte por lo ocurrido en el año anterior, dado a la existencia de ciclos de clima y ciclos de precios que se explicarán a continuación. Al preguntarles sobre los fenómenos del clima, los productores agrícolas hablan de "períodos" en las variables climáticas que duran varios años. Por ejemplo, en el trabajo realizado por Barsky et al (2008), donde se realizaron numerosas entrevistas a productores agrícolas, la mayoría mencionaba encontrarse en un período húmedo de duración de una o dos décadas según la región. A su vez, puede afirmarse que los precios de los commodities siguen también tendencias que duran algunos años, por ejemplo en esta última década, donde se han observado precios altos de commodities en función de la gran demanda de los países asiáticos. Un reporte realizado por diversos organismos del G20 sobre la volatilidad de los precios de las commodities agrícolas señala que "una conclusión que surge del estudio de las tendencias a TC 36

39 XXVIII ENDIO, XXVI EPIO y RED M VIII largo plazo en la volatilidad es que períodos de precios altos y volátiles son frecuentemente seguidos por largos periodos de precios relativamente bajos y estables." FAO et al (2011). En este trabajo se diseñan y evalúan Estrategias Adaptativas en escenarios de dos años, en las cuales se define una distribución inicial de cultivos a realizar el primer año y, según los resultados obtenidos, se determina cambiar la asignación del terreno para el segundo año. Los criterios para cambiar o no de distribución, se basan en la hipótesis de que las condiciones de clima y precio ocurridas en el segundo año tienden a tener cierta similitud con los valores de las variables en el año anterior. En otras palabras, se supone que dos temporadas consecutivas tienen cierta "inercia" Escenarios de dos temporadas: definiciones y modelo general Se desarrolla a continuación el modelo de escenarios con dos temporadas (años) de duración que se utilizará en el trabajo, enumerando los pasos para implementar la MDR al caso Definición de escenarios Para darle sentido al criterio de "inercia" en el comportamiento del productor que será luego utilizado para el diseño de Estrategias Adaptativas, se debe relacionar lo ocurrido en las variables climáticas en un año y lo ocurrido en el siguiente y hacer lo propio con los precios de los cultivos. Se definen entonces los escenarios tomando todas las combinaciones posibles entre pares de años de climas consecutivos y pares de años de precio consecutivos. Por ejemplo, el primer escenario combina, para la primera temporada, el año de precios 1984 y el año climático 1931 y, para la segunda temporada el año de precios 1984 y el año climático El segundo escenario combina los siguientes pares de años: 1ra temporada: ; , el tercer escenario: : y así sucesivamente. Tomando los mismos datos ya utilizados en trabajos anteriores como es el caso de González (2012), Rojo et al (2013), Ramos et al (2013), González et al (2014) y Rojo et al (2014) se realizan todas las combinaciones posibles entre 76 pares de años de clima consecutivos y 26 pares de años de precios resultando un total de 1976 escenarios Definición de estrategias Se debe determinar la distribución de cultivos a emplear para cada uno de los años. Tomando los mismos cultivos manejo que para el caso descripto anteriormente y dividiendo así mismo el terreno en 6 partes iguales, podrían elegirse a priori cualquiera de las combinaciones definidas en el modelo para la primer temporada un total de 462 opciones y para la segunda temporada otras 462 posibilidades, resultando estrategias estáticas posibles. A partir de estas posibilidades, debe definirse una nueva nomenclatura para las estrategias. Las asignaciones de cultivos manejo al terreno dejan de ser estrategias dado que puede cambiarse la distribución asumida en el año 1 TC 37

40 XXVIII ENDIO, XXVI EPIO y RED M VIII para el año 2. Se toma la nomenclatura definida para escenarios de un año para la distribución de cultivos a utilizar en cada uno de los años, por ejemplo 195 determina la asignación de cultivos que resulta de emplear la estrategia 195 para escenarios de un año. La nomenclatura para identificar estrategias de dos años resulta: <Distribución Año 1>.<Distribución Año 2> A modo de ejemplo la estrategia empleará la distribución 195 el primer año y la 205 el segundo Evaluación de cada estrategia en cada escenario La evaluación de cada estrategia en cada escenario se hace a partir del margen neto promedio obtenido en los dos años de dicho escenario: MargenNetoPromedio= (MargenNeto Año 1 +MargenNeto )/ 2 Añó 2 Nótese que el margen neto de una distribución particular en cada uno de los años (que representan un escenario para el modelo de un año) ya fue calculado en el trabajo anterior por lo que la obtención del margen neto promedio se realiza a partir de los valores de la matriz de margen neto ya obtenida previamente. Una estrategia será mejor que la otra en un escenario particular si obtiene mayor margen neto promedio Elección de una estrategia candidata Para comparar estrategias se utiliza la variable regret. El regret de una estrategia en un escenario se calcula restando el margen neto promedio obtenido al mejor margen neto promedio posible en ese escenario. Se tiene entonces para la estrategia i en el escenario j : Regret ij =MargenNetoPromedio (MAX; j) MargenNetoPromedio ij Se utilizará, al igual que para lo desarrollado en el capítulo anterior, el tercer cuartil de regret para seleccionar la estrategia candidata Identificación de Escenarios en los que la estrategia candidata es vulnerable o funciona mal Con criterios análogos al caso de escenarios de un año, se utiliza el algoritmo de árbol de decisión para clasificar escenarios buenos y malos, agregándose en este caso variables en función de cada uno de los años, como ser las precipitaciones totales o precipitaciones máximas entre los dos años que conforman el escenario, o los máximos, mínimos y los promedios de los cocientes relativos de precios entre los valores de los parámetros de las dos temporadas. A partir de la clasificación de los escenarios, se representa en un gráfico cartesiano el tercer cuartil de regret de cada una de las estrategias tanto en escenarios buenos como en escenarios malos para la estrategia candidata Búsqueda de estrategias que se desempeñen mejor que la candidata en TC 38

41 XXVIII ENDIO, XXVI EPIO y RED M VIII los escenarios en los cuales ésta es vulnerable o funciona mal. A partir de la clasificación de los escenarios, se representa en un gráfico cartesiano el tercer cuartil de regret de cada una de las estrategias tanto en escenarios buenos como en escenarios malos para la estrategia candidata Caracterizar la conveniencia de adoptar una estrategia de cobertura de acuerdo a un análisis de las respectivas vulnerabilidades. Evaluando los resultados del gráfico anterior se traza la frontera de decisión, que estará conformada por las estrategias entre las que podrá optar el productor agrícola según sean sus expectativas sobre el futuro Aplicación numérica: Repetición de la distribución de cultivos. Resultados preliminares Como punto de partida del estudio de Estrategias Adaptativas, en este artículo se desarrolla en detalle la metodología propuesta para el caso en el que el productor agrícola toma la misma distribución de cultivos para cada uno de los años. Esto tiene dos objetivos: Poder compararse con lo hecho para escenarios de un año y detectar las diferencias producidas por agregar varios períodos al problema ya planteado. Ver los resultados que surgen de aplicar el modelo sin Estrategias Adaptativas, nos servirá luego para evaluar las mejoras en las decisiones a partir del desarrollo de las mismas Definición de escenarios Se toman los 1976 escenarios ya definidos para el modelo general de escenarios de dos años Definición de estrategias Se realiza la misma distribución para cada año, por lo que resultan 462 estrategias posibles, desde la estrategia 1.1 hasta la Evaluación de las estrategias en cada escenario Se calcula el Margen Neto promedio para cada estrategia en cada escenario a partir del procedimiento explicado en el modelo general. A modo ilustrativo, en las Figuras 4 y 5 y en la Tabla 1 se muestran las variables estadísticas obtenidas para el Margen Neto promedio de cada estrategia en cada escenario, comparándolo con lo obtenido en escenarios de un año. Al tomar escenarios de dos temporadas y evaluar las estrategias a partir de un indicador que toma el promedio de dos variables, las distribuciones se hacen más angostas, es decir, hay mayor frecuencia en los valores medios y los módulos de los valores extremos disminuyen. Una distribución pudo haber sido muy buena un año, pero no necesariamente lo será el año siguiente, así como una siembra que tuvo malos resultados en el primer período, no TC 39

42 XXVIII ENDIO, XXVI EPIO y RED M VIII necesariamente los repetirá en el próximo. El regret para una estrategia en un escenario es calculado como la resta entre el mejor margen neto posible y el margen neto de la estrategia, ambos para el escenario considerado. Regret ij =MargenNetoPromedio (MAX; j) MargenNetoPromedio ij Para este caso, el margen neto promedio máximo no necesariamente pertenecerá a una de las 462 estrategias elegidas, ya que el mismo se calcula haciendo el promedio entre el mejor margen neto posible por cualquiera de las 462 distribuciones para el primer año y el mejor margen neto posible por cualquiera de las 462 distribuciones para el segundo año: MargenNetoPromedio (MAX ; j ) = (MargenNetoPromedio (MAX ; Año 1 ) + + (MargenNetoPromedio (MAX ; Año 2 ) ) / 2 Esto se traduce en que no habrá necesariamente para cada uno de los escenarios del modelo una estrategia de las 462 con regret 0. Esto se debe a que en cada una de las temporadas, generalmente, la mejor asignación en la primera temporada no coincide con la mejor asignación en la segunda. Al ser consideradas solo estrategias que repiten la asignación, la estrategia que anula el regret, de acuerdo a como fue definido, estará fuera del conjunto de estrategias considerado Elección de la estrategia candidata Tomando el criterio de ordenar las estrategias por menor tercer cuartil de regret, la estrategia resulta ser la estrategia con regret más bajo. Las cinco mejores estrategias en escenarios de dos años consisten en repetir la distribución correspondiente a las cinco mejores estrategias de escenarios de un año (ver Tabla 2) Identificación de escenarios donde la estrategia candidata es vulnerable o funciona mal Habiendo elegido la estrategia candidata, se plantea la búsqueda de vulnerabilidades, es decir, encontrar cuáles son las condiciones de los escenarios, ahora compuestos de dos temporadas, que de alguna forma atenten contra el resultado económico de la estrategia Cada escenario estará caracterizado por tres conjuntos de parámetros: (i) precios y precipitaciones de la primera temporada, (ii) precios y precipitaciones de la segunda temporada y (iii) agregación de cada parámetro en ambas temporadas. Ejemplos de este tercer conjunto de parámetros pueden ser: precio medio del maíz, precio máximo de la soja, suma de las precipitaciones,, etc. Las variables de entrada para el algoritmo de árbol de decisión son las siguientes: Precipitaciones totales en los dos años Precipitaciones promedio, máximas y mínimas TC 40

43 XXVIII ENDIO, XXVI EPIO y RED M VIII Precios promedio, máximos y mínimos de maíz, soja y trigo Relaciones promedio, máximas y mínimas entre los precios de los cultivos. Se toman dichas variables como entrada, clasificando los escenarios entre buenos y malos para la estrategia candidata, según su regret sea mayor o menor al tercer cuartil. A partir de esta clasificación, se realiza la corrida con el paquete de R para el algoritmo de árbol de decisión, de modo tal que prediga si el escenario será bueno o malo según el valor de las variables de entrada del algoritmo. Haciendo esto resulta el siguiente árbol de decisión de la Figura 6. Del árbol resultante, puede leerse que la estrategia compuesta por 50% Soja2 y 50% Trigo-Soja1, es una buena decisión, salvo en los escenarios donde: El precio del maíz no sea alto y el precio de la soja en promedio no supere un 60 % al precio del trigo. En caso de que el precio de la soja supere en un 60% al precio del trigo, pero las precipitaciones máximas sean menores a 776 mm y el precio del trigo, en promedio, no supere en un 20% al precio del maíz. Esta clasificación es precisa en el 75 % de los casos Identificación de estrategias que sean buenas en los escenarios donde la candidata es mala En función de los escenarios definidos por este árbol se realiza una representación en un diagrama cartesiano que tendrá el tercer cuartil de regret para los escenarios malos en el eje y y el tercer cuartil de regret para los escenarios buenos en el eje x. Al igual que con lo hecho en el capítulo anterior, los colores distinguen la proporción de cada cultivo en la estrategia. El color rojo representa asignaciones ricas en maíz, el color verde representa asignaciones compuestas por soja y el color azul representa distribuciones en las que predomina el cultivo combinado trigo soja (Figura 7). A partir de este gráfico se sacan conclusiones sobre el desempeño de cada estrategia en cada tipo de escenario. Puede apreciarse que la soja es buena en escenarios buenos, el maíz es bueno en escenarios malos y la combinación soja-trigo se encuentra en un punto intermedio. Es oportuno destacar que si bien las estrategias de maíz son buenas en escenarios malos para la estrategia , ya no son las mejores como ocurría en escenarios de un año, dado que para obtener las mejores estrategias en escenarios malos, debemos combinar maíz con soja-trigo (ej: Estrategia ). Esto se debe a que el maíz es el cultivo cuyo margen neto tiene el mayor desvío estándar, con lo cual es lógico que a medida que se aumente la cantidad de años de los escenarios, estas tengan un tercer cuartil de regret mayor, por lo que debe combinarse con el combinado soja-trigo 1, que tiene el menor desvío estándar, para poder lograr una estrategia robusta (ver Tabla 3) Caracterizar la conveniencia adoptar una estrategia de cobertura de TC 41

44 XXVIII ENDIO, XXVI EPIO y RED M VIII acuerdo a un análisis de las respectivas vulnerabilidades Teniendo en cuenta los resultados obtenidos en la sección anterior, se seleccionan las estrategias que conforman la frontera de decisión, que tienen la particularidad de que no son superadas, en términos de menor tercer cuartil de regret, por ninguna otra estrategia en ambos grupos de escenarios al mismo tiempo (ver Figuras 8 y 9). Trazada la frontera de decisión, puede apreciarse como de izquierda a derecha, es decir de mejor a peor en escenarios buenos, o de arriba hacia abajo, de peor a mejor en escenarios malos para la estrategia , van ordenándose las estrategias desde las que cuentan con una mayor cantidad de soja a las estrategias con mayor cantidad de maíz, estando el combinado sojatrigo siempre presente al menos en un 50% del terreno. Se muestran los valores de tercer cuartil de regret para cada una de las estrategias que componen la frontera (ver Tabla 4). Se puede observar que al tomar escenarios de dos años, la distribución con menor tercer cuartil de regret sigue siendo la misma para escenarios de un solo año. Además las distribuciones de margen neto y regret se "achatan", es decir, disminuye el desvío estándar y el módulo de los valores máximos y mínimos, y las estrategias con mayor desvío estándar se vuelven menos robustas en comparación a las demás. Hasta aquí son los resultados preliminares obtenidos y en la subsección siguiente se resumen los pasos que se están siguiendo para obtener Estrategias Adaptativas, cuyos resultados se presentarán en un nuevo artículo a publicarse Definición de posibles Estrategias Adaptativas A partir de la obtención de los primeros resultados, la metodología propone definir distintos tipos de Estrategias Adaptativas que se deberán comparar con las estrategias de la frontera de decisión definida en la sección anterior, buscando obtener menores valores de tercer cuartil de regret en al menos uno de los grupos de escenarios, "buenos" o "malos", definidos en función de la estrategia candidata inicial. Las acciones correctivas previstas aplicar son las siguientes: -Acciones Correctivas según la mejor distribución del año anterior: Mejor estrategia del año anterior para el año siguiente Mejor estrategia de la frontera para el año siguiente. -Acciones Correctivas según el desempeño la distribución inicial: Distribución fija para el segundo año, si el año 1 fue malo para la estrategia inicial -Acciones Correctivas en función del desempeño de la estrategia candidata: TC 42

45 XXVIII ENDIO, XXVI EPIO y RED M VIII Estrategia candidata si el primer año fue bueno vs. estrategia inicial si el año fue malo Estrategia candidata si el primer año fue bueno vs otra estrategia si el primer año fue malo Estrategia alternativa si el primer año fue malo para la estrategia candidata 4. CONCLUSIONES PRELIMINARES La naturaleza parcial de los primeros resultados obtenidos solamente permite apreciar que la inercia de las condiciones en el clima y los precios de los cultivos que existe de un año a otro para una determinada estrategia, no es lo suficientemente significativa como para alterar las decisiones del productor en términos del criterio de robustez desarrollado a lo largo del trabajo. Puede apreciarse el comportamiento de cada una de las estrategias según su composición: Las estrategias que contienen alta proporción de soja son malas en escenarios malos para la estrategia 195 pero buenas en escenarios buenos, aunque los mejores resultados en este tipo de escenarios se obtienen sembrando una fracción del terreno con este cultivo y otra con trigo-soja. Las estrategias con maíz son las peores en escenarios buenos y las mejores en escenarios malos para la estrategia candidata. De hecho, la estrategia que mejor se comporta en escenarios malos contiene 50% de maíz 1 y 50% de maíz 2. Las estrategias con alta proporción de combinado soja-trigo se encuentran en un punto intermedio. Si puede orientar la definición de determinadas reglas de decisión que se concentren en mejorar los escenarios malos de las estrategias adoptadas. En la segunda parte del trabajo se espera obtener resultados más contundentes y significativos para su aplicación y difusión en ámbitos agrícolas reales. 5. FIGURAS Y TABLAS TC 43

46 XXVIII ENDIO, XXVI EPIO y RED M VIII FIGURA 1. Extraído de Lempert 2010 FIGURA 2. Extraído de Lempert 2010 TC 44

47 XXVIII ENDIO, XXVI EPIO y RED M VIII FIGURA 3. Extraído de Hamarat et al (2012) FIGURA 4 FIGURA 5 TC 45

48 XXVIII ENDIO, XXVI EPIO y RED M VIII FIGURA 6 FIGURA 7 TC 46

49 XXVIII ENDIO, XXVI EPIO y RED M VIII FIGURA 8 FIGURA 9 TABLA 1: Variables estadísticas obtenidas para el Margen Neto promedio de cada estrategia en cada escenario, comparándolo con lo obtenido en escenarios de un año Escenarios de un año. Escenarios de dos años TABLA 2: Cinco mejores estrategias en escenarios de dos años TC 47

50 XXVIII ENDIO, XXVI EPIO y RED M VIII TABLA 3: Desvío estándar regret en estrategias monocultivo para escenarios de dos años [USD/ha] TABLA 4: Valores de tercer cuartil de regret para cada una de las estrategias que componen la frontera 6. REFERENCIAS BARSKY A., PODESTÁ G., TORANZO RUIZ F.(2008): Percepción de variabilidad climática, uso de información y estrategias de los agentes frente al riesgo. Análisis de esquemas decisionales en agricultores de la región pampeana argentina. Mundo Agrario, vol. 8, no 16, primer semestre de Centro de Estudios Histórico Rurales. Facultad de Humanidades y Ciencias de la Educación. Universidad Nacional de La Plata. FAO, IFAD, IMF,OECD, UNCTAD, WFP, the World Bank, the WTO, IFPRI and the UN HLTF (2011): Price volatility in food and agricultural markets: Policy Responses. GONZÁLEZ X. I. (2012): Aplicación de Decisiones Robustas a la asignación del uso de la tierra entre diferentes actividades agrícolas. Anales XXV ENDIO - XXIII EPIO, pgs 520 a 535, Ciudad Autónoma de Buenos Aires. TC 48

51 XXVIII ENDIO, XXVI EPIO y RED M VIII GONZÁLEZ X. I., ROJO H. y RAMOS S. A. (2014): Decisiones Robustas en la Producción Agrícola en las Pampas Argentinas. Program and abstracts CLAIO XXVII, pg 42, Ciudad de Monterrey, México. HAMARAT C., KWAKKEL J., y PRUYT E. (2012): Adaptative Policymaking under Deep Uncertianty: Optimal Preparedness for the next pandemic. Delft University of Technology. LEMPERT R.J., COLLINS M.T. (2007): Managing the risk of uncertain threshold responses: comparison of robust, optimum and precautionary approaches. Risk Analysis Vol 27, N 4, pp 1009 a LEMPERT R.J., GROVES D.G. (2010): Identifying and evaluating robust adaptive policy responses to climate change for water management agencies in the American west. Technological Forecasting & Social Change, pp 960 a 974. RAMOS, S.A., GONZÁLEZ X. I., RASPA L., WAINSTOCK A., KALMUS D., CASTELLINI M. A., BERT A., BERGER A. (2013): Agregación de datos climáticos diarios e incorporación de componentes principales para el análisis de vulnerabilidades aplicando la Metodología de Decisiones Robustas en la Producción Agrícola. Anales XXVI ENDIO - XXIV EPIO, Ciudad de Córdoba. ROJO H., RAMOS S. A., GONZÁLEZ X. I., RASPA L., WAINSTOCK A. y KALMUS D. (2013): Procedimiento para identificar estrategias iniciales en una metodología de decisiones robustas aplicada a sistemas agropecuarios. Anales XXVI ENDIO - XXIV EPIO, Ciudad de Córdoba. ROJO H., RAMOS S. A., GONZÁLEZ X. I., MARRA R., CASTELLINI M., RODRÍGUEZ F. A. y WAINSTOCK A. (2014): Análisis de vulnerabilidades en una Metodología de Decisiones Robustas aplicada a sistemas agrícolas. Anales XXVII ENDIO - XXV EPIO, Ciudad de San Nicolás. TC 49

52 XXVIII ENDIO, XXVI EPIO y RED-M VIII ANÁLISIS ENVOLVENTE DE DATOS

53 XXVIII ENDIO, XXVI EPIO y RED-M VIII EVOLUCIÓN DE LA EFICIENCIA Y PRODUCTIVIDAD EMPLEANDO DEA PARA UNA EMPRESA DE SERVICIOS FINANCIEROS SOFIA C. CORTABERRIA - JOSEFINA RACAGNI - HERNAN P. GUEVEL Facultad de Ciencias Económicas - Universidad Nacional de Córdoba scortaberria@gmail.com - jracagni@gmail.com - heguevel@gmail.com PALABRAS CLAVES: Eficiencia - DEA - Índice de Malmquist - Empresa de Se rvicios Financieros - BSC. RESUMEN EXTENDIDO 1. OBJETIVOS DEL TRABAJO El objetivo del presente trabajo es analizar si las variaciones en la eficiencia de las sucursales bajo estudio de la empresa de servicios financieros considerada 1, se deben a una mejora (desmejora) en el uso de los recursos asignados a las mismas, a un cambio técnico en los procesos que le permiten generar los servicios brindados, o una combinación de ambos, y si tal combinación se traduce o no en un cambio en su productividad. Para ello, utilizamos el Índice de Malmquist orientado a las entradas, bajo el supuesto de retornos constantes a escala 2, de acuerdo al enfoque propuesto por Färe et al (1994) y Lovell (2003), sobre la base de los trabajos previos de Malmquist (1953) y Caves et al. (1982). 2. METODOLOGÍA Y APLICACIÓN El presente trabajo representa la profundización del análisis de eficiencia, comparativo con los resultados del BSC, realizado en una instancia previa de investigación, que resultara determinante al momento de seleccionar las variables con las que hemos trabajado. Para analizar la eficiencia de las sucursales consideradas, empleamos el Análisis Envolvente de Datos (Data Envelopment Analysis). En este marco, todas las unidades evaluadas (Decision Making Units, o en adelante, DMUs), utilizan las mismas m entradas para generar las mismas s salidas y trabajamos con un sistema conformado por n DMUs. Cuando hablamos de eficiencia, nos referiremos a la eficiencia técnica en el sentido de Pareto-Koopmans, es decir que una unidad es eficiente si no puede aumentar sus salidas sin aumentar alguna entrada, o bien, si no puede disminuir alguna entrada sin disminuir alguna salida. Aunque es frecuente emplear los términos eficiencia y productividad en forma indistinta, Coll Serrano y Blasco (2006), los diferencian afirmando que la productividad media de un factor se refiere número de unidades de output que se puede producir por unidad de input empleada, existiendo la posibilidad de que una empresa sea técnicamente eficiente pero no haya logrado la máxima productividad, que podría alcanzar, por ejemplo por cuestiones de economías de escala. 1 Por razones de confidencialidad no divulgaremos el nombre de la misma ni de sus sucursales. 2 Cabe aclarar que también es posible calcular esta medida de cambio productivo como las diferencias en el máximo output alcanzable dados determinados niveles de inputs (orientado a los outputs), e incluso suponer retornos variables a escala. En el presente, continuamos trabajando con los supuestos empleados al analizar la eficiencia del sistema al final de cada semestre. RE-51

54 XXVIII ENDIO, XXVI EPIO y RED-M VIII A los fines de clasificar las variables como entradas o salidas, adoptamos el criterio de considerar a un indicador como variable entrada cuando, manteniendo constates los valores de todos los demás indicadores, la eficiencia de las DMUs disminuye, en caso de aumentar el valor del indicador considerado; y considerar a un indicador como variable salida si, al aumentar el valor de tal indicador, manteniéndose constantes los valores de los restantes, la eficiencia de la DMU aumenta siguiendo a Alberto et al. (2000). En cuanto a la evolución en el tiempo de la eficiencia y su relación con el concepto de productividad, el Índice de Malmquist (IPM), permite descomponer los cambios en la productividad total de los factores, entre el cambio en la eficiencia (llamado también efecto catching-up ) y el cambio técnico o desplazamiento de la frontera (progreso o regreso técnico). Tal como lo expresa Pastor (1995), tal descomposición se realiza comparando las variaciones en las medidas de eficiencia de dos períodos consecutivos, t y t+1 y tomando como referencia la tecnología de uno de ellos. Por tanto, existe la posibilidad de obtener dos índices de productividad, dependiendo de cuál de ellos se tome como período de referencia. Para resolver esta situación, Färe et al (1992) proponen trabajar con un índice calculado como la media geométrica de ambos. Teniendo en mente las consideraciones precedentes, el cálculo del IPM orientado a las entradas, suponiendo rendimientos constantes a escala para una determinada DMU 0, al que llamaremos IPM 0, se calculará como: y requiere que se calculen cuatro medidas de distancia a partir de las t t t observaciones de cada período de tiempo. D0 y, x representa la medida de eficiencia técnica obtenida para la DMU 0 en el período t, empleando las t 1 t 1 t 1 observaciones de tal período, para esa y las demás DMUs; D y x (1) 0, representa la medida de eficiencia técnica obtenida para la DMU 0 en el período t+1, empleando las observaciones de ese período, para todas las DMUs; t t 1 t 1 D y x representa la medida de eficiencia técnica obtenida para la DMU 0 0, D y, x D y, x D y, x t t t t 1 t 1 t 1 t 1 t t t 1 t 1 t t ,,, t 1 t 1 t 1 t t 1 t 1 t t t D0 y, x D0 y, x D0 y, x IPM y x y x en el período t, empleando las observaciones para la misma del período t+1 y t 1 t t para las demás DMUs, las del período t. Finalmente, D y x representa la 0, medida de eficiencia técnica obtenida para la DMU 0 en el período t+1, empleando las observaciones para la misma del período t y para las demás DMUs, las del período t+1. El primer factor de (1) representa el cambio en la eficiencia técnica y el segundo, bajo la raíz, el desplazamiento de la frontera técnica para la DMU 0 entre t y t+1. En particular, emplearemos la siguiente selección de variables, extraídas de entre los indicadores confeccionados por la Empresa para su Tablero de Comando, relevantes para la medición de la eficiencia de las 31 DMUs que conforman el sistema estudiado. Consideraremos 19 variables en total. El Gastos del local (sin ventas) por resumen ajustado, representa el importe promedio erogado del semestre, medido en pesos, y es la única variable clasificada como entrada. Los 18 indicadores restantes, clasificados como RE-52

55 XXVIII ENDIO, XXVI EPIO y RED-M VIII variables de salida, son 3 : Resúmenes de cuenta, Aperturas de cuenta ponderadas, Stock / Venta de débitos, Adicionales nuevos clientes, Adicionales clientes activos, Revista, Facturación por resumen, % de recupero Mora hasta 30 días, % de recupero Mora hasta 60 días, % de recupero Mora hasta 90 días, Gestión Operativa Titulares, Gestión Operativa Comercios Adheridos, Gestión de Mora, Acciones Comerciales, Resultado Evaluación Democrática a Conductores, Expertos en Atención a Clientes, Expertos en procesos de Titulares y Expertos en procesos de Comercios Adheridos, medidas a través de los porcentajes de cumplimiento de objetivos, acumulados para los semestres finalizados en Octubre de 2011, Abril de 2012, Octubre de 2012 y Abril de Todos los datos fueron procesados empleando el paquete nonparaeff del software R. De los resultados obtenidos surge la Tabla 1, que muestra el valor promedio para el IPM y su descomposición para cada par de períodos. Tabla 1: Variación promedio del IPM y Valores Máx y Mín Observando la comparación Abril2012-Octubre2011, podemos notar que las DMUs mostraron en promedio una menor productividad, plasmada en una desmejora promedio del 13%, con valores que van desde una mejora del 25,8% hasta una desmejora máxima de 53,9%. El cambio en la medida de eficiencia, muestra en promedio una evolución positiva del 26,2%, mientras que los efectos del desplazamiento de la frontera técnica, que revelan una desmejora promedio del 14,6% serían los responsables del deterioro de la productividad, impactando negativamente en este período sobre la evolución de todas las filiales de la empresa. Para el período Abril2012-Octubre2012, en general se sigue observando una situación desfavorable con una caída en la productividad promedio del 10,5%, aunque con índices de cambios en la eficiencia y tecnológico más cercanos a 1, los cual indica una evolución más estable. Respecto a las causas de tal comportamiento, la variación media tanto de la eficiencia en el uso de los recursos, como del desplazamiento de la frontera, son negativas mostrando un retroceso promedio del 2,2% y 9,5% respectivamente, con un menor impacto del cambio en la eficiencia. Finalmente entre Octubre2012 y Abril2013 mejora levemente el desempeño general plasmado en un IPM (promedio) de 1,066. Tanto el valor medio de la evolución en la eficiencia como en el cambio tecnológico superan la unidad. Respecto a las causas, no pueden ser fácilmente atribuibles a alguno de los dos efectos. Se observa también una evolución positiva con el transcurso del tiempo tanto en el IPM como en sus componentes, el número de DMUs que experimentaron una mejora en su productividad semestre a semestre es de 7 de 31 entre Abril de 2012 y Octubre de 2011, 5 de 31 entre Octubre y Abril de 2012 y 15 unidades sobre el total, entre Abril de 2013 y Octubre de Para mayor detalle sobre la descripción de las variables consultar Cortaberria y Racagni (2014). RE-53

56 XXVIII ENDIO, XXVI EPIO y RED-M VIII 3. CONCLUSIONES Al tratarse de un problema multi-período, el Índice de Malmquist permitió desagregar la evolución en la productividad entre el cambio en el uso de los recursos y los cambios tecnológicos en los procesos internos de las unidades, y a partir de esta nueva información revisar las recomendaciones obtenidas al realizar el análisis de eficiencia previo, que se refería puntualmente a cada semestre. La información suministrada por el índice resulta útil para agregar valor a la toma de decisiones respecto a la gestión de las sucursales analizadas. Permite reconocer los avances (retrocesos) en la utilización de recursos en cada sucursal y agrega información sobre las mejores prácticas, que aporta una perspectiva más amplia para la asignación de recursos y orientación de esfuerzos dentro de la empresa. Sería deseable trabajar con una selección diferente de variables, independientes de los indicadores del BSC y mejorar la relación entre el número de Entradas-Salidas/DMUs. 4. REFERENCIAS ALBERTO, C. L.; PÉREZ MACKEPRANG, C. O., CARIGNANO, C. E.; FUNES, M. (2000): Evaluación de la Eficiencia en Investigación Científica y Desarrollo Experimental en Países Iberoamericanos. Publicado en Anales del X CLAIO. México D.F., México. CAVES, D. W.,CHRISTENSEN, L. R. Y DIEWERT, W. E. (1982): "The Economic Theory of Index Numbers and the Measurement of Input, Output, and Productivity". Econometria, vol 50 (6), pp CHARNES, A.; COOPER, W.W.; RHODES, E. (1978): Measuring the Efficiency of Decision Making Units, European Journal of Operational Research, Vol. 2, pp COLL SERRANO, V. y BLASCO, O. (2006). Evaluación de Eficiencia Mediante el Análisis Envolvente de Datos. Introducción a los Modelos Básicos, Universidad de Valencia, ISBN: CORTABERRIÁ, S. y RACAGNI, J. (2014) Evaluación de Eficiencia Empleando DEA Aplicada a Sucursales de una Empresa Financiera. Publicado en Anales del XVII CLAIO. Monterrey, México. FÄRE, R., GROSSKOPF, S., LINDGREN, B. Y ROOS, P. (1992): "Productivity Changes in Swedish Pharmacies : A Nonparametric Malmquist Approach". Journal of Productitivity Analysis vol.3 (3), pp FÄRE, R., GROSSKOPF, S., NORRIS, M. Y ZHANG. Z. (1994): "Productivity Growth, Technical Progress and Efficiency Change in Industrialized Countries". The American Economic Review. Vol 54, pp LOVELL, C.A.K. (2003): "The Decomposition of Malmquist Productivity Indexes". Journal of Productivity Analysis, vol 20, pp MALMQUIST, S (1953): "Index Numbers and Indifference Surfaces". Trabajos en Estadística, vol 4, pp PASTOR, J. (1995): "Eficiencia, Cambio Productivo y Cambio Técnico en los Bancos y Cajas de Ahorro Españolas: un Análisis de Frontera no Paramétrico". WP-EC ISBN Valencia. RE-54

57 XXVIII ENDIO, XXVI EPIO y RED-M VIII UNA APROXIMACIÓN PARA ENTENDER EL FRACASO DEL PROYECTO VILLA PANAMERICANA-ALAMEDA ANÁLISIS DE LA TOMA DE DECISIONES EN LOS EVENTOS DEPORTIVOS MASIVOS EN MÉXICO KARLA TERESA VARGAS QUEZADA LAURA PLAZOLA ZAMORA SARA LETICIA MARÍN MALDONADO Centro Universitario de Ciencias Económico Administrativas, Universidad de Guadalajara karla.vargasq@gmail.com - lplazola@gmail.com - marinsara@hotmail.com Palabras Clave: Decisión multicriterio Promethee- Eventos Deportivos Políticas públicas. RESUMEN EXTENDIDO El principal interés de este proyecto es analizar el proceso de la toma de decisiones en el mega evento deportivo Juegos Panamericanos 2011 celebrados en la ciudad de Guadalajara identificando los costes sociales, políticos y económicos, asimismo comparar los resultados con la aplicación del método PROMETHEE para identificar la localización de un sitio para la construcción de la villa Panamericana y así entender el fracaso del proyecto al no tomar un decisión basada en metodologías científicas de ayuda a la decisión. 1. INTRODUCCIÓN Los mega eventos tal como se conocen en la actualidad, tienen su inicio en la segunda mitad del XX abordando diferentes temáticas (Música, cultura, deporte, etc.) que incorporan la industria de la comunicación, la cultura y el entretenimiento, cuya realización implica la participación de actores de distintas disciplinas y áreas por la complejidad y profesionalismo de éste fenómeno, que va desde su organización, producción, gestión hasta su impacto y sus legados. La mayoría de los estudios que abordan la organización de mega eventos deportivos se han planteado desde una perspectiva económica y han servido como un antecedente para fundamentar la organización del evento a través de áreas como el Marketing, Relaciones Públicas, Protocolo, Técnico deportiva, Tecnología de la Comunicación, Económico Administrativa y Logística; por lo que, los involucrados deben de estar preparados en los campos de estudio de política pública, economía, administración, administración de proyectos de gestión de economía y finanzas, entre otras; asimismo el cumplir ciertos aspectos culturales, deportivos y comerciales. Dada la importancia de la decisión de organizar un evento deportivo de gran magnitud, como los juegos panamericanos, es de suma utilidad usar algún método para la toma de decisiones que permita encontrar una solución sustentada en elementos científicos que aporte mejoras distintivas para asumir la decisión que garantice el éxito de los eventos. De tal forma, se trata de incorporar decisiones basadas en componentes cuantificables que permitan ponderar el riesgo y sean capaces de elegir la decisión que, en el mejor de los casos, resulta ser la más satisfactoria y en el peor, la menos insatisfactoria. RE-56

58 XXVIII ENDIO, XXVI EPIO y RED-M VIII DECISIÓN MULTICRITERIO-RED-M

59 XXVIII ENDIO, XXVI EPIO y RED-M VIII Uno de los enfoques cuya aportación es útil para conducir la toma de decisiones en ambientes de pluralidad con numerosos objetivos en conflicto entre sí, es la metodología de ayuda a la decisión multicriterio, en los que generalmente, los problemas analizados son complejos y las decisiones difíciles (García, 2009), caracterizadas por intereses contrapuestos, incertidumbre, distintas personas en la decisión y por poseer elementos fácilmente valorables y elementos difícilmente valorables. El principal interés de este trabajo es analizar el proceso de la toma de decisiones en el mega evento deportivo Juegos Panamericanos 2011 celebrados en la ciudad de Guadalajara identificando los costes sociales, políticos y económicos, asimismo comparar los resultados con la aplicación del método PROMETHEE para identificar la localización de un sitio para la construcción de la villa Panamericana y así entender el fracaso del proyecto al no tomar un decisión basada en metodologías científicas de ayuda a la decisión EL PROYECTO VILLAS PANAMERICANAS-ALAMEDA La ciudad de Guadalajara se eligió como organizadora de los Juegos Panamericanos 2011 el 28 de mayo de 2006, cuando los 42 delegados de la ODEPA votaron unánimemente por esta sede. Los juegos se realizaron del 13 al 30 de octubre de 2011 y contaron con un presupuesto inicial de 280 millones de dólares, siendo la primera vez que un evento deportivo se celebraba fuera de la ciudad de México. Una vez aprobada la sede y su viabilidad en el municipio de GDL, era necesario establecer la zona óptima para la construcción de la Villa Panamericana. En general, el estudio de localización comprende la zona metropolitana de Guadalajara rn rl que se propusieron 6 sitios: Barranca de Huentitán, Barrio Histórico, Patíos del Ferrocarril, Ferrocarriles Nacionales, Zona Industrial y la Nogalera. De acuerdo con los resultados del estudio de localización desarrollado por el Instituto Tecnológico y de Estudios Superiores de Occidente (ITESO), las Villas Panamericanas, se ubicarían en el Barrio Histórico pues por su localización, actividad y movilidad urbana la zona representaba el detonador que permitiera reactivar el Centro Histórico y volverlo nuevamente atractivo para ser habitado. Esta propuesta condujo a una serie de desatinos políticos que provocó una fuerte escisión en el gobierno municipal ocasionando con ello que la comunidad se sensibilizara negativamente en cuanto a la necesidad de realizar los Juegos. Además de ocasionar la desaprobación y duda de la población, ante la situación de crisis económica. En la Imagen 1 se muestra la Matriz de Evaluación, los criterios, subcriterios y ponderación para cada uno de éstos, así como las correspondientes evaluaciones, apreciándose que la selección del sitio se da por el promedio de las evaluaciones de las alternativas. RE-57

60 XXVIII ENDIO, XXVI EPIO y RED-M VIII Imagen 1. Matriz de Evaluación con factores ponderados Fuente: Proyecto Alameda INFOMEX JAL , Ayuntamiento de Guadalajara UT La falta de una adecuada gestión expediente de proyectos 0400/2013 por parte de las autoridades gubernamentales, la poca voluntad política y la crisis económico-financiera que vivía el país, provocaron que magnos proyectos u obras que estaban por realizarse en Guadalajara quedaran truncos, inconclusos o cancelados de modo definitivo. El fracaso del complejo de las Villas Panamericanas, en el parque Morelos, provocó que quedaran abandonados los terrenos donde la obra fue iniciada. Esta área, localizada en el centro histórico de Guadalajara, desde tiempo atrás presenta una nula integración con el plano central de la ciudad y está convertida en un sitio que agravia a los tapatíos, además de no tener ningún interés turístico (González, et. al., 2010). 2. APLICACIÓN DE PROMETHEE II Se procedió a aplicar el método PROMETHEE II (Brans, 1985) al problema de elección de un sitio para la construcción de las villas panamericanas considerando el siguiente conjunto de alternativas: Barranca de Huentitán = A 1; Barrio Histórico = A 2; Patios Ferrocarril = A 3; Ferrocarriles Nacionales = A 4; Zona Industrial = A 5 y La Nogalera = A 6. Bajo el siguiente conjunto de criterios, Superficie: Número de hectáreas de acuerdo con los datos oficiales presentados por el H. Ayuntamiento de Guadalajara (2013); Costo, Precios constantes 2015 por metro 2 por colonia; Población afectada, suma total de la población perteneciente a la colonia y colonias circundantes al sitio, por la afectación directa que ocasiona; Viviendas afectadas, suma total de las viviendas pertenecientes a la colonia y colonias circundantes al sitio; Comunicación con aeropuerto; Accesibilidad: Distancia al Palacio Estatal del Gobierno de Jalisco; Infraestructura urbana, porcentaje de las viviendas particulares habitadas que cuentan con luz eléctrica, agua entubada y drenaje. Se obtuvo el orden total que se muestra en la imagen 2, donde el sitio ubicado en primer lugar es la Zona Industrial. RE-58

61 XXVIII ENDIO, XXVI EPIO y RED-M VIII Imagen 2. Orden completo PROMETHEE II 3. CONCLUSIONES En el caso de la construcción de la Villa Panamericana para los Juegos Panamericanos 2011, el proceso y análisis de la toma de decisiones no siguió una forma estructurada para cumplir con una toma de decisiones que garantizara el éxito del proyecto Villas Panamericanas Proyecto Alameda, de tal forma que el análisis estuviese sustentado en metodologías probadas mundialmente para la selección y localización del sitio óptimo que minimizara impactos y ofreciera al tomador de decisión un amplio panorama a propósito de gestionar estrategias que detonen el desarrollo y crecimiento de una entidad. El enfoque Multicriterio ofrece metodologías eficientes para la toma de decisiones. Promethee II permite que tomen en cuenta las diferencias entre las evaluaciones, además de que ranking completo de las alternativas es fácil de usar, con la ventaja de que (.) se construye en base a información de preferencia clara y simple (pesos y funciones de preferencia) y que está basado en comparaciones en lugar de evaluaciones absolutas (Gironés, et. Al. 2008) y difiere totalmente del resultado inicial de la suma de promedios en el estudio de localización realizado por el ITESO. 4. REFERENCIAS BRANS, J. Y VINCKE, PH., (1985) A Preference Ranking Organization Method, (The PROMETHEE Method for Multiple Criteria Decision-Making), Management Science, Vol. 31, No. 6 (Jun., 1985), pág GARCIA, S. (2009) Métodos para la comparación de alternativas mediante un Sistema de Ayuda a la Decisión (S.A.D.) y Soft Computing, Tesis Doctoral, Universidad Politécnica de Cartagena, Departamento de Electrónica, Tecnología de Computadoras y Proyectos Occidente, Cartagena: Colombia. GIRONÉS, X., MADRID, D. y VALLS, A. (2008) Comparación de dos métodos de toma de decisiones; MACBETH y PROMETHEE, Departament d'enginyeria Informática i Matemátiques, Universitat Rovira i Virgili, Tarragona, Catalonia, Spain. GONZÁLEZ, V., ANGUIANO, C., Y GUTIÉRREZ, H. (2010) 2 Décadas en el desarrollo de Jalisco 1990, Gobierno de Jalisco: Secretaria de Planeación, RE-59

62 XXVIII ENDIO, XXVI EPIO y RED-M VIII Guadalajara: Jalisco. Versión obtenida el 13/02/2015 en RE-60

63 XXVIII ENDIO, XXVI EPIO y RED M VIII A MULTICRITERIA RANKING APPROACH FOR A MEDIUMSIZED SET OF ALTERNATIVES BASED ON A MULTIOBJECTIVE EVOLUTIONARY ALGORITHM JESÚS JAIME SOLANO NORIEGA 1,2 JUAN CARLOS LEYVA LÓPEZ 2,3 DIEGO ALONSO GASTÉLUM CHAVIRA 2,3 Universidad Autónoma de Ciudad Juárez 1 Universidad de Occidente 2 Universidad Autónoma de Sinaloa 3 al127821@alumnos.uacj.mx juan.leyva@udo.mx diego.gastelum@udo.mx Keywords: Keywords: Multi-criteria Decision Analysis Ranking Problem ELECTRE III Multi- Objective Evolutionary Algorithms. EXTENDED ABSTRACT This paper addresses the problematic of exploiting a valued outranking relation in order to generate a ranking of a medium-sized set of alternatives. Likewise is presented a real case study where is constructed a ranking of the municipalities of the State of Chihuahua, México, by their marginalization situation, using the logic of outranking models for constructing a valued outranking relation, and a heuristic based on a multi-objective evolutionary algorithm to exploit it. 1. INTRODUCTION One of the most common and significant problematic studied by the Multicriteria Decision Aid (MCDA) is the ranking problematic ( P. γ ). The objective of ranking problematic is to aid the decision-maker (DM) through a ranking that is obtained by placing all actions or alternatives into equivalence classes that are completely or partially ordered according to the DM preferences. Methods related to the ranking problematic, including the well-known ELECTRE III and PROMETHEE II methods, are often presented as the combination of two phases: aggregation (or construction) and exploitation. For the multi-criteria ranking problem, the second phase is usually carried out with a ranking procedure. The exploitation phase transforms the global information included in the valued σ outranking relation S A (obtained in the aggregation phase) into a global ranking of the elements of the set of alternatives A. The main difficulty in the exploitation phase consists in finding reasonable ways to σ deal with the non-transitivities in S A, without losing too much of its original content. In procedures based on choice or score functions, non-consistent situations could occur when the prescription is constructed. The most significant is the pair-wise rank reversal effect (Mareschal, et al, 2008). Ranking procedures based on a choice or score functions do not have a mechanism or way to detect and minimize this kind of irregularity. An interesting approach to treat this kind of irregularity is to formulate the exploitation of a valued outranking relation as a multi-objective combinatorial optimization problem (Leyva and Aguilera, 2005). On the other hand, traditionally, multi-criteria ranking algorithms were designed to capture the decision-maker notion of a ranking as a total or partial preorder with a small-sized set of alternatives, it has to be noted however, in the last few years, decision-makers has the possibility and opportunity of analyzing a lot of decision alternatives at the same time. This paper just presents the application of a proposed heuristic based on the Nondominated Sorting Genetic Algorithm 2 (NSGA2) to exploit a known valued RE 61

64 XXVIII ENDIO, XXVI EPIO y RED M VIII outranking relation with the purpose of constructing a recommendation for a mediumsized multi-criteria ranking problem. The aim of the proposed approach is threefold: first, to partition a medium-sized set of alternatives into k classes; second, based solely on the initially provided information, elicit the antisymmetric crisp outranking relation between the determined classes, and third, with this as a background, a partial preorder is proposed as a recommendation for ranking problems of medium-sized set of alternatives. The particular advantage of the proposed approach is to integrate partition and relation between classes into the optimization process that the multi-objective evolutionary algorithm performs. Due lack of space, the methodology is not presented, but the reader can refer to Solano, Leyva and Gastélum (2015) for more detail. 2. CASE STUDY In this study, we used a multi-criteria approach, which combines the logic of outranking models (the ELECTRE III procedure -Roy, 1996) for constructing a valued outranking relation and the proposed multi-objective evolutionary algorithm to exploit it and to solve an instance of a medium-sized multi-criteria ranking problem. We present a real case study dealing with the comparison of municipal marginality situations. The set of alternatives to be considered in the evaluation model is represented by such different municipalities of the Chihuahua State, Mexico. The problem statement is a relative marginality comparison of such municipalities under a ranking purpose, from data of the 2010 Marginality index (MI) created by the National Population Council (CONAPO) of Mexico. The MI is a summary measurement to differentiate entities and municipalities according to the overall impact of deficiencies that affect the population causing lack of access to education, inadequate housing, insufficient income and isolated communities. The State of Chihuahua is composed by 67 municipalities. It is located in the north of Mexico bordering the United States of America. The criteria measures used to rank the municipalities are mainly sociodemographical in nature. These criteria were used by CONAPO (2011) and are the partial indices of the MI for the particular case of Chihuahua State municipalities, Mexico, and are defined with decreasing preference direction. Criteria, weights and the indifference and preference thresholds are not presented in this paper Procedure and Methodology According to the input information pointed out before, we applied ELECTRE III to construct a valued outranking relation. This valued outranking relation was processed with the proposed MOEA for deriving partial order of classes of alternatives. The MOEA used the following parameters: number of generations was set 500, the population size was set to 40 and the crossover probability was set to Fig. 1 presents a comparison between one of the rankings generated by the proposed algorithm and the ranking reported by CONAPO (2011). In this comparison made against the ranking of the CONAPO, we identify that 63 of the 67 municipalities were well placed (according to the CONAPO ranking), representing a level of consistency of the MOEA of 94.02%. RE 62

65 XXVIII ENDIO, XXVI EPIO y RED M VIII Fig A comparison between the proposed ranking and the CONAPO Ranking. Shaded municipalities of the MOEA ranking indicate the ones that are not well placed according to the CONAPO ranking. Note: Very Low, Low, Medium, High, and Very High levels of CONAPO Ranking are with respect to the Marginality Index. 3. CONCLUSIONS In this paper, we have addressed the problem of multi-criteria ranking with a medium-sized set of alternatives. The main added value of this contribution is to propose a multi-objective evolutionary approach that can be applied on a valued outranking relation to solve this problem. A distinctive feature of the approach relies on the fact that it takes the multi-objective nature of the multi-criteria ranking method into account. It helps the decision-maker to identify both a partition of the set of alternatives in classes and preference relations between the classes. In this sense, it differs from classical approaches of multi-criteria ranking. A validation test has been conducted on a real data set. We have been able to show that the resulting complete ranking of classes of alternatives is robust and meaningful. From our point of view, the elicitation of a reduced set of partial order of classes of alternatives offers additional information to the decision-maker that can help him have a better insight into the multi-criteria structure of the data set. RE 63

66 4. REFERENCES XXVIII ENDIO, XXVI EPIO y RED M VIII MARESCHAL B., DE SMET Y. AND NEMERY PH. (2008): "Rank reversal in the PROMETHEE II method: some new results". In Proceedings of the IEEE International Conference on Industrial Engineering and Engineering Management, Singapore. ISBN: , pp ROY B. (1996): Multicriteria Methodology for Decision Aiding. Dordrecht: Kluwer Academic Publishers. CONAPO (2011): Indice de marginacion por entidad federativa y municipio ra. Ed. Mexico. LEYVA J. C. AND AGUILERA M. (2005): "A Multiobjective Evolutionary Algorithm for Deriving Final Ranking from a Fuzzy Outranking Relation". In Evolutionary Multi- Criterion Optimization, C. Coello, E.Zitzler and A. Hernández, Eds. Berlin: Springer. SOLANO J., LEYVA J. C. AND GASTELUM D. (2015): "Marginalization in Mexico: An Application of the ELECTRE III MOEA Methodology". In EMO 2015, A. Gaspar- Cunha et al. (Eds.), Part II, LNCS 9019, pp RE 64

67 XXVIII ENDIO, XXVI EPIO y RED-M VIII AVALIAÇÃO DE DESEMPENHO DISCENTE UTILIZANDO O MÉTODO SMART NAIARA AGUIAR GALLIANI MISCHEL CARMEN NEYRA BELDERRAIN ANDRES JACINTO LOPEZ LENS Instituto Tecnológico de Aeronáutica naiaragalliani@hotmail.com carmen@ita.br andreslopezlens@gmail.com Palabras Clave: indicador de desempenho educação profissional SMART RESUMO A medição do desempenho dos discentes de uma escola do Serviço Nacional de Aprendizagem Industrial (SENAI) tornou-se necessária, após a mudança do perfil do aluno que ingressa através do Programa Nacional de Acesso ao Ensino Médio e Emprego (PRONATEC). Os indicadores de educação profissional existentes não permintem uma análise do desempenho global das turmas de curso técnico. Para obtenção desse desempenho foi utilizado o método Simple Multi-Attribute Rating Technique (SMART). Os resultados foram coerentes, pois evidenciaram quantitativamente o que já era de conhecimento qualitativo pelo núcleo pedagógico. Todavía propõe-se a continuidade do estudo para melhorar a qualidade do proceso de ensinoaprendizagem dos alunos do SENAI. 1. INTRODUÇÃO A Educação Profissional é um dos caminhos utilizado para elevar a competitividade da indústria brasileira e é parte da missão do Serviço Nacional de Aprendizagem Industrial (SENAI). O Programa Nacional de Acesso ao Ensino Médio e Emprego (PRONATEC) mudou o perfil de aluno que ingressa no SENAI que antes era o trabalhador da indústria que buscava aprimoramento técnico e hoje são jovens, a partir de 16 anos com pouca ou nemhuma experiência profissional. Dessa maneira, mesmo sem alterações na forma de conduzir o processo de qualificação de mão-de-obra para indústria, devido à mudança do perfil do aluno, a qualificação do egresso nem sempre é suficiente para atender as indústrias e contribuir para o aumento da sua competitividade. E, por isso a avaliação do desempenho discente no proceso de Ensino Profissional tornouse necessária. O objetivo fundamental deste trabalho é mensurar o desempenho discente das turmas de cursos técnicos do SENAI Rondonópolis a fim de subsidiar ações de melhoria contínua dos indicadores de desempenho da educação profissional. 2. ESTUDO DE CASO O problema abordado, baixo desempenho dos cursos técnicos de Educação Profissional, principalmente o indicador de Produção Aluno Hora (PAH); foi estruturado para utilizar o método Simple Multi-Attribute Rating Technique (SMART). A determinação dos pesos de cada critério foi obtida utlizando a comparação par a par do método Analytic Hierarchy Process (AHP). RE-65

68 XXVIII ENDIO, XXVI EPIO y RED-M VIII A seguir a aplicação dos passos do método SMART detalhados a seguir: 2.1 Identificação dos stakeholders Gerente da unidade, núcleo pedagógico e alunos. 2.2 Identificação do problema em questão Os indicadores de desempenho de Educação Profissional apresentam resultados inferiores da meta estipulada. A função de desempenho global apresenta a seguinte estrutura: Desempenho = NC1*PC1 + NC2* PC2 + NC3*PC NCn*PCn Onde, NC = Nota do Critério; PC = Peso do Critério; e n = número de critérios. 2.3 Identificação das alternativas Como forma de validação do modelo, buscou-se, inicialmente, aplicar a metodologia em oito turmas de curso técnico do mesmo eixo tecnológico, que é saúde e segurança do trabalho. 2.4 Identificação dos critérios relevantes Para identificação desses critérios relevantes realizou-se um Brainstorming com os stakeholders, exceto os alunos. O criterios definidos são: Frequência (FRQ); Evasão (EVA); Projetos (PRO); e Cursos EAD (EAD). 2.5 Medição do desempenho das alternativas 1) Frequência (FQR): representa a assiduidade dos alunos de cada turma, sendo um fator impactante para o indicador de Produção Aluno Hora (PAH). FRQ = PAH Real / PAH Planejada * 100 2) Projetos (PRO): execução de uma atividade planejada e documentada através de um formulário padrão. Para determinação do valor referente a esse critério, definiu-se elaboração de uma escala de acordo com a abrangência do projeto. 3) Cursos EAD: cursos gratuitos de Educação à Distância disponibilizados pelo SENAI. EAD = Cursos Realizados / Cursos Disponíveis *100 4) Aprovação Unidade Curricular (AUC): para obter essa aprovação o aluno precisa atingir uma média final acima de seis. AUC = n alunos aprovados / total de alunos matriculados * 100 A Tabela 1 apresenta a performance das alternativas frente a cada criterio. RE-66

69 XXVIII ENDIO, XXVI EPIO y RED-M VIII Tabela 1 - Valores mensais de cada turma frente cada critério. CRITÉRIOS TURMAS FREQUÊNCIA APROVAÇÃO PROJETOS EAD (FRQ) (AUC) (PRO) N1 76,6 72,7 100,0 50,0 M1 92,8 100,0 0,0 50,0 N2 66,7 96,6 0,0 50,0 V1 76,5 67,6 0,0 50,0 M2 81,4 93,1 100,0 50,0 V2 88,4 89,7 0,0 50,0 M3 91,9 41,2 100,0 50,0 N3 32,9 39,5 0,0 50,0 2.6 Determinação do peso de cada critério Para determinação do peso de cada critério, utilizou-se a comparação par a par do método AHP. Para realização dessa atividade foi envolvido o Gerente da Unidade e um representante do Núcleo Pedagógico que, através de consenso, definiu a pontuação de importância de cada critério segundo o objetivo principal. Obteve-se assim o peso de cada um dos critérios: Frequência (64%), Projeto (10%), EAD (20%) e Aprovação (6%). 2.7 Medição do desempenho das alternativas O modelo para a medição do desempenho global das alternativas foi aplicado e obtida a pontuação de cada uma das alternativas, representadas na Tabela 2. Desempenho = FRQ*0,64 + PRO* 0,10 + EAD*0,20 + AUC*0,06 Tabela 2 - Desempenho das Alternativas TURMAS N1 M1 N2 V1 M2 V2 M3 N3 TOTAL 73,4 75,4 58, ,7 71,9 81,3 33,4 Conforme esperado as turmas do turno matutino (M1 e M2) obtiveram desempenho superior às dos demais turnos por ser um período onde estão presentes todos os profissionais de processos finalísticos e de apoio envolvidos na execução dos cursos técnicos. 3. CONCLUSÃO Os resultados do método SMART foram satisfatórios e o modelo encontrado atende às necessidades de medição de desempenho das turmas de cursos técnicos. RE-67

70 XXVIII ENDIO, XXVI EPIO y RED-M VIII O uso do AHP para determinação dos pesos dos critérios forneceu maior segurança e transparência por diminuir a subjetividade dos julgamentos, presente no uso do SMART. Esse modelo será aplicado em todas as turmas de cursos técnicos possibilitando para o SENAI uma visão sistêmica e global de cada turma, o que levará uma análise de conjuntura. 4. REFERENCIAS BATISTA, F.F. Elaboração de indicadores de desempenho institucionais. São Paulo: Instituto Serzedelo Correa, OLSON, D.L et al. (1996). Decision aids for selection problems. New York, NY: Springer. Disponível em: < ementfacpub>. Acesso em SAATY, T. L. The analytic hierarchy process: Planning, Priority, Setting and Resource Allocation, McGraw-Hill, SAATY, T. L. Método de Análise Hierárquica, Makron Books do Brasil Editora Ltda., TABACHI, N.T.; FLORES, M.C.X. Indicadores da qualidade e do desempenho: como estabelecer metas e medir resultados. Rio de Janeiro: Qualitymark, WERKEMA, Maria C. C. As Ferramentas da Qualidade no Gerenciamento de Processos. 1 ed. Sograf, MG, RE-68

71 XXVIII ENDIO, XXVI EPIO y RED-M VIII ESCOLHA DE CURSOS A SEREM OFERTADOS POR UMA INSTITUIÇÃO DE ENSINO PROFISSIONAL UTILIZANDO O MÉTODO AHP LETÍCIA FUKAO - MISCHEL C. N. BELDERRAIN - VERÔNICA S. ARCANJO Instituto Tecnológico de Aeronáutica leticia.fukao@ms.senai.br - carmen@ita.br - varcanjo@ms.senai.br Palavras-chave: Análise multicritério. Analytic Hierarchy Process. Oferta de cursos. RESUMO Este trabalho tem como objetivo modelar um sistema de avaliação de portfólio de cursos para auxiliar na escolha de oferta, de forma a atender os interesses da indústria, aluno e instituição. Foi utilizado o método multicritério de apoio à decisão Analytic Hierarchy Process (AHP) na avaliação de nove cursos técnicos de uma unidade do Serviço Nacional de Aprendizagem Industrial, do Estado de Mato Grosso do Sul. Os resultados obtidos evidenciaram que o método AHP facilitou a decisão de escolha de cursos a serem ofertados. 1. INTRODUÇÃO A instalação de um complexo de indústrias do setor de celulose e papel na cidade de Três Lagoas, Mato Grosso do Sul - Brasil, transformou-a em um polo mundial da celulose. Esta industrialização aumentou o número de postos de trabalho, que exigiram maior qualificação profissional, aumentando a procura por serviços de educação. O Serviço Nacional de Aprendizagem Industrial SENAI é uma instituição que atua na educação profissional e na prestação de serviços para a indústria. Adequando-se ao cenário investiu em novos laboratórios e salas de aulas, ampliando seu portfólio de cursos, porém ocorre incertezas na definição da prioridade entre os cursos necessários para atendimento a esse novo cenário. O objetivo do presente trabalho é avaliar o portfólio de cursos de uma unidade do SENAI MS, aplicando o método Analytic Hierarchy Process (AHP) baseado em critérios que atendam os interesses dos stakeholders. 2. APLICAÇÃO DO MÉTODO AHP PARA ESCOLHA DE CURSOS A SEREM OFERTADOS O método Analytic Hierarchy Process (AHP) foi desenvolvido por Thomas Lorie Saaty em 1980, sendo um dos primeiros e mais conhecido método desenvolvido no ambiente das Decisões Multicritério. A ideia central do AHP consiste em decompor o problema de decisão em níveis hierárquicos, simplificando a análise dos critérios. Saaty (2008) diz que para tomar uma decisão de forma organizada e gerar prioridades, utilizando o AHP, é preciso seguir os passos: definição do problema, estruturação hierárquica de decisão, construção das matrizes de comparação par a par e utilização das prioridades obtidas para ponderar as prioridades do nível inferior. O método será aplicado para avaliar o portfólio de cursos técnicos do SENAI Três Lagoas. RE-69

72 XXVIII ENDIO, XXVI EPIO y RED-M VIII 2.1. Passo 1: Definição do Problema Na oferta de um curso é preciso ponderar as necessidades da indústria pelo profissional, a expectativa e interesse do aluno e a capacidade de execução da instituição. Assim os stakeholders do processo são: indústria, aluno e instituição de ensino. O problema foi estruturado aplicando o Soft System Methodology SSM (para maiores detalhes consultar Mingers e Rosenhead, 2004) e a figura rica gerada (Figura 01) retrata os problemas vivenciados. *Cursos com várias turmas e salas superlotadas geram insatisfação no aluno. * Professores sobrecarregados trabalham descontentes, contribuindo para a insatisfação do aluno. *Cursos mais procurados pela população nem sempre são os mais demandados pela indústria. Figura 01 Figura rica que descreve a relação da oferta-demanda de cursos e a necessidade da indústria. A partir da figura rica, um sistema relevante foi identificado: Falta de critérios para a escolha de cursos a serem ofertados pelo SENAI Três Lagoas. Como resultado final da aplicação do SSM, o Modelo Conceitual permitiu definir os seguintes critérios: Demanda da Indústria: avaliação do número de técnicos na indústria; Procura da População: avaliação da média mensal de procura pelo curso registrado na secretaria escolar; Disponibilidade de Docentes: avaliação da relação hora livre/instrutor Disponibilidade de Infraestrutura: avaliação da relação número de curso em andamento/número de laboratórios necessários de cada área. As alternativas do problema são os diferentes cursos a serem ofertados Passo 2: Estruturação Hierárquica de Decisão A Figura 02 representa a estrutura hierárquica para o problema da escolha do curso a ser ofertado com os critérios definidos no SSM. Figura 02: Estrutura Hierárquica para o problema da escolha do curso. RE-70

73 XXVIII ENDIO, XXVI EPIO y RED-M VIII 2.3. Passo 3: Construção das matrizes de comparação par a par Os julgamentos foram realizados em uma reunião de trabalho dos decisores, utilizando a Escala Fundamental de Saaty (Saaty, 2008). Dados da instituição para os critérios definidos no passo 1 foram disponibilizados aos decisores e de forma consensual construiu-se as matrizes de comparação par a par dos critérios à luz do objetivo e das alternativas à luz de cada critério. A Tabela 01 apresenta a matriz de comparação dos critérios à luz do objetivo, e a Tabela 02 apresenta a matriz de comparação das alternativas à luz do critério Demanda da Indústria. Tabela 01: Matriz de consenso da comparação dos critérios à luz do objetivo Objetivo Indústria População Docentes Infraestrutura Prioridade Indústria ,58445 População 1/5 1 1/3 1/4 0,06745 Docentes 1/ /2 0,13375 Infraestrutura 1/ ,21435 RC = 0,07052 Tabela 02: Matriz de consenso da comparação das alternativas à luz do critério Demanda da Indústria Demanda da Indústria Automação Celulose& Papel Eletromecânica Eletrotécnica Logística Mecânica Meio Ambiente Automação 1 1/ /7 2 1/5 2 0,04401 Celulose&Papel ,36715 Eletromecânica 1/2 1/8 1 1/2 2 1/8 1 1/6 1/2 0,02745 Eletroténica 1 1/ /6 3 1/5 2 0,04940 Logística 1/2 1/8 1/2 1/3 1 1/9 1/2 1/8 1/3 0,02004 Mecânica 7 1/ ,26660 Meio Ambiente 1/2 1/8 1 1/3 2 1/9 1 1/8 1/2 0,02550 Química 5 1/ / ,16333 Segurança do Trabalho 1/2 1/8 2 1/2 3 1/8 2 1/7 1 0,03652 RC = 0,05464 A consistência dos julgamentos foi testada, calculando-se a Razão da Consistência (RC). Todos os resultados apresentaram valor inferior ao limite recomendado por Saaty (1980). Todas as matrizes de comparação e a solução do problema estão em Fukao e Arcanjo (2014) Passo 4: Utilização das prioridades obtidas no passo 3 para ponderar as prioridades do nível inferior. Utilizou-se as prioridades obtidas anteriormente para calcular as prioridades finais, somando os resultados da multiplicação da prioridade de cada critério pela prioridade de cada alternativa. A tabela 03 apresenta a síntese dos valores para obtenção do resultado final. Química Tabela 03: Síntese das prioridades para obtenção do resultado final Segurança do Trabalho Prioridade Alternativas Indústria População Docentes Infraestrutura Prioridade Final 0, , , ,21435 Normal Ideal Automação 0, , ,0337 0, , , Celulose & Papel 0, , , , , , Eletromecânica 0, , ,0337 0, , , Eletrotécnica 0,0494 0, ,0337 0, , , Logística 0, , , , , , Mecânica 0,2666 0, , , , , Meio Ambiente 0,0255 0, , , , , Química 0, , , , , , Segurança do Trabalho 0, , ,0741 0, , , RE-71

74 XXVIII ENDIO, XXVI EPIO y RED-M VIII 3. RESULTADOS Os cursos de Mecânica, Celulose & Papel e Química, apresentaram-se como melhores opções, justificadas pela demanda da indústria e da população. O curso de Logística, a quarta melhor opção, apresentou-se menos requisitado pela indústria, entretanto é o curso que possui maior disponibilidade de docentes e infraestrutura. Uma análise de sensiblidade foi realizada em relação ao critério Indústria, por apresentar maior relevância. Verificou-se que prioridades abaixo de 0.55 para tal critério, a Logística seria a terceira melhor alternativa e Química a quarta. Para prioridades acima de 0.64 também ocorreria uma inversão entre os cursos de Mecânica e Celulose & Papel, que passariam a ser segunda e primeira alternativa respectivamente. Todos os resultados da análise de sensibilidade estão em Fukao e Arcanjo (2014). 4. CONSIDERAÇÕES FINAIS Pôde-se notar que o método AHP facilitou a decisão de escolha e determinação de cursos a serem ofertados, cujos resultados refletem a situação atual do SENAI. Neste trabalho, para o critério de demanda da indústria foram considerados apenas dados das duas maiores indústrias de celulose da cidade, por englobarem todos os cursos do portfólio do SENAI e por terem salários e benefícios equivalentes. Para trabalhos futuros, sugere-se o levantamento de dados das demais indústrias, segmentados por porte e a análise de outros critérios, como a concorrência do mercado de trabalho. Os dados foram coletados para os atuais cursos do portfólio do SENAI, mas novos cursos poderiam ser analisados mediante demanda da indústria e da população, analisando assim a viabilidade da criação dos mesmos. 5. REFERÊNCIAS BIBLIOGRÁFICAS FUKAO, L; ARCANJO, V. S. (2014): Relatório Técnico: Utilização do Método AHP como ferramenta de apoio na escolha de cursos técnicos a serem ofertados. Instituto Tecnológico de Aeronáutica. São José dos Campos SP. MINGERS, J., ROSENHEAD, J. (2004): Problem structuring methods in action. European Journal of Operational Research 152, pp SAATY, T. L. (1980): The Analytic Hierarchy Process. McGraw-Hill, New York. SAATY, T. L. (2008): Decision making with the Analytic Hierarchy Process. International Journal of Services Sciences. v. 1, n. 1, pp RE-72

75 XXVIII ENDIO, XXVI EPIO y RED-M VIII EVALUACIÓN DEL MÉRITO AL CRÉDITO DE LOS PAÍSES EN DESARROLLO EMPLEANDO EL MÉTODO UTADIS MARIANA FUNES Facultad de Ciencias Económicas Universidad Nacional de Córdoba mfunes@eco.unc.edu.ar Palabras Clave: Países en Desarrollo Mérito al Crédito Función de Utilidad Aditiva - UTADIS 1. INTRODUCCIÓN Los países en desarrollo necesitan atraer capitales que les permitan mejorar y ampliar su infraestructura y la calidad de la prestación de los servicios públicos con el propósito de fortalecer su desarrollo. Dada la relación que se establece entre las evaluaciones de mérito al crédito de estos países y el acceso a los mercados de capitales internacionales, es deseable que las evaluaciones de inversiones y préstamos a estos países se hagan sobre la base de indicadores transparentes y confiables, basadas en un modelo que permita dar cuenta de la realidad económica y política de estos países. El propósito de un indicador del mérito al crédito de los países es el de condensar una variedad de información cualitativa y cuantitativa referida a aspectos económicos, sociales y políticos de un país, en un único valor que pueda ser fácilmente interpretado, y posteriormente empleado en el proceso de evaluación que involucra comparaciones entre diferentes países respecto de su potencial capacidad y voluntad de cumplir con sus obligaciones en los términos estipulados. En este trabajo se presenta un indicador del mérito al crédito de 98 países en desarrollo obtenido por aplicación del Método UTADIS (UTilités Additives DISciminantes) sobre la base de 7 criterios, que permite clasificarlos en 9 clases previamente determinadas empleando métodos estadísticos multivariados. 2. EL MÉTODO UTADIS (Jacquet-Lagrèze y Siskos, 1982) Este método asume la base axiomática de la Teoría de la Utilidad Multi Atributo (Keeney y Raiffa, 1993) y adopta el principio de desagregación de preferencias. Empleando programación lineal, busca inferir funciones de utilidad aditivas lineales por partes, basadas en múltiples criterios, dada la clasificación propuesta por el evaluador sobre un conjunto de alternativas de referencia, de manera que la estructura de preferencias resultante de estas funciones sea tan consistente como sea posible con la dada por el evaluador. Las posibles discrepancias entre la clasificación dada por el evaluador y la dada por el modelo, para cada alternativa, se reflejan en errores potenciales de sobre y sub estimación que se busca minimizar. En virtud de la limitación de espacio en este resumen extendido, las especificaciones del modelo lineal correspondiente serán expuestas en la presentación oral de este trabajo. 3. CRITERIOS EMPLEADOS Los 7 criterios empleados fueron seleccionados de un conjunto de 17 indicadores realizando un análisis de reducción de dimensión a partir de los RE-73

76 XXVIII ENDIO, XXVI EPIO y RED-M VIII resultados del Análisis de Componentes Principales Robustas (Croux, Filzmoser y Fritz, 2013) 1, buscando subindicadores con altos coeficientes de correlación con la primera componente principal y con baja o nula correlación en las siguientes: 1. Producto Bruto Interno per cápita en dólares de Paridad de Poder Adquisitivo (PBIpc) 2. Inflación medida a través de Deflactor de Precios Implícitos del PBI (DPBI) 3. Relación Deuda Pública y Públicamente Garantizada/Exportaciones (DPPGEx) 4. Relación Deuda Pública y Públicamente Garantizada/PBI (DPPGPBI) 5. Relación Deuda de Corto Plazo sobre Deuda Total Externa (DCPDT) Fuente: Word Development Indicators - World Bank 6. Indicador de Efectividad Gubernamental (EG07) 7. Indicador de Calidad Regulatoria (CR07) Fuente: Governance Matters VIII World Bank 4. RESULTADOS El modelo de utilidad aditiva desarrollado a partir del método UTADIS fue capaz de clasificar correctamente el 91% de los países en su clase original. La Tabla 1 presenta un análisis detallado de los errores de clasificación 2. El modelo funciona perfectamente al clasificar los mejores y los peores países en términos del mérito al crédito, ya que el porcentaje de clasificación en relación a la clase original es del 100% para las clases extremas 1, 2, 8 y 9. Su desempeño es satisfactorio para los países de las clases 4, 6 y 7, con un porcentaje de clasificación superior o igual al 90 % respecto de la clase original, y es moderado para las clases 3 y 5, con un porcentaje de clasificación del 75% y 80%, respectivamente. La Tabla 2 presenta la función de utilidad global y las clases asignadas a cada país, así como la clasificación original, ordenando los países de mayor a menor valor de utilidad global. Los errores de clasificación se identifican en la tabla, coloreando la celda del país en la columna Clase Original, de color celeste si fueron asignados a una clase inferior a la original, y de color naranja, en caso contrario. Tres de estos errores corresponden a países asignados por el modelo a una clase con mayor mérito al crédito que la original y los seis restantes, a países asignados a clases con un menor mérito al crédito que la original. En la evaluación del riesgo crediticio, el primer tipo de error (error tipo I) es más grave que el segundo (error tipo II), por lo que el modelo de utilidad aditiva resulta conservador, con una tasa de error del 3% y 6% para los errores tipo I y II, respectivamente. En la Tabla 3 se detallan las ponderaciones de los siete criterios en el modelo de utilidad que clasifica a los países. 5. CONCLUSIONES 1 El análisis de Componentes Principales Robustas obedece a la existencia de valores atípicos. 2 En la primera parte, se indica el número de países en cada clase (en filas, la clasificación original y en columnas, la clasificación realizada por el modelo de utilidad aditiva). La diagonal representa los países correctamente clasificados y el resto de las celdas contiene los errores de clasificación. La segunda parte de la tabla presenta la misma información expresada en porcentaje del número de países pertenecientes a la clase original. RE-74

77 XXVIII ENDIO, XXVI EPIO y RED-M VIII La evaluación del mérito al crédito de los países ha ganado interés significativo a partir de la intensificación del proceso de globalización de la economía mundial y, en particular, con la internacionalización de los mercados en las últimas décadas, que ha expandido en forma excepcional y diversificado las posibilidades de inversión. Tanto para los tomadores de préstamo como para los colocadores de fondos resulta necesario contar con indicadores confiables de mérito al crédito de los países. La metodología multiatributo sugerida permite inferir un modelo de utilidad en función de una clasificación dada con una baja tasa de error, otorgando transparencia a la evaluación, constituyendo una metodología apropiada para esta temática. 6. REFERENCIAS CROUX, C., FILZMOSER, P. y FRITZ, H. (2013): Robust Sparse Principal Component Analysis. Technometrics, Vol. 55, Iss. 2, pp JACQUES-LAGRÈZE, E. y SISKOS, Y. (1982): Assessing a Set of Additive Utility Functions for Multicriteria Decision-making, The UTA Method. European Journal of Operational Research, 10 (2), pp KEENEY, R.L. y RAIFFA, H. (1993): Decision with multiple objectives: Preference and value trade-offs. Cambridge University Press, Cambridge. WORLD BANK. Governance Matters VIII. Acceso al documento y base de datos en WORLD BANK. World Development Indicators databank. Acceso en Tabla 1. Resumen de errores de clasificación obtenidos por aplicación del Método UTADIS Clases Originales Clases Estimadas C1 C2 C3 C4 C5 C6 C7 C8 C9 C1 C2 C3 C4 C5 C6 C7 C8 C9 C % C % C % 25% C % 10% C % 80% 7% C % 8% - - C % 92% - - C % - C % Tabla 2. Función de Utilidad Global del Mérito al Crédito de los países obtenida aplicando el Método UTADIS País Clase Clase Clase Utilidad País Estimada Original Estimada Utilidad Letonia 1 0, u 5 0,58443 Lituania 1 0, Bosnia y Herzegovina 6 0, Sud África 1 0, Indonesia 6 0, Chile 1 0, Argentina 6 0, Santa Lucía 1 0, Paraguay 6 0, Malasia 1 0, Egipto 6 0, Clase Original RE-75

78 XXVIII ENDIO, XXVI EPIO y RED-M VIII Botsuana 1 0, Honduras 6 0, u 1 0,83796 Venezuela 6 0, Costa Rica 2 0, Moldavia 6 0, Mauricio 2 0, Samoa 6 0, Polonia 2 0, Papúa Nueva 6 0, China 2 0, Guinea Ecuador 6 0, Méjico 2 0, Belice 6 0, Seychelles 2 0, Kenia 6 0, u 2 0,77582 u 6 0,49717 Tailandia 3 0, Senegal 7 0, Bulgaria 3 0, Camboya 7 0, San Vicente y las Granadinas 3 0, Bolivia 7 0, Panamá 3 0, Lesoto 7 0, San Cristóbal y Nieves 3 0, Mongolia 7 0, Dominica 3 0, Pakistán 7 0, Turquía 3 0, Tonga 7 0, Rumania 3 0, Islas Salomón 7 0, Uruguay 3 0, Nigeria 7 0, u 3 0,68473 Ghana 7 0, Tunisia 4 0, Bangladés 7 0, Macedonia 4 0, Tanzania 7 0, Colombia 4 0, u 7 0,41997 Brasil 4 0, Mozambique 8 0, Maldivas 4 0, Líbano 8 0, Rep. 4 0, Guyana 8 0, Dominicana El Salvador 4 0, Kirguistán 8 0, Jamaica 4 0, Madagascar 8 0, Fiyi 4 0, Malí 8 0, Kazajistán 4 0, Costa de Marfil 8 0, Ucrania 4 0, Benín 8 0, Rusia 4 0, Camerún 8 0, Albania 4 0, Nepal 8 0, Bielorrusia 4 0, Tayikistán 8 0, u 4 0,63473 Uganda 8 0, Guatemala 5 0, Haití 8 0, India 5 0, u 8 0,36051 Azerbaiyán 5 0, Congo 9 0, Granada 5 0, Togo 9 0, Armenia 5 0, Sudán 9 0, Vanuatu 5 0, Etiopía 9 0, Georgia 5 0, Guinea 9 0, Suazilandia 5 0, Ruanda 9 0, Jordania 5 0, Gambia 9 0, Filipinas 5 0, Laos 9 0, Marruecos 5 0, Níger 9 0, Vietnam 5 0, Nicaragua 9 0, Perú 5 0, Sierra Leona 9 0, u 5 0,58443 RE-76

79 XXVIII ENDIO, XXVI EPIO y RED-M VIII Tabla3. Ponderaciones de los criterios Criterio PBIpc DPBI DPPGEx DPPGPBI DCPDT EG07 CR07 Ponderación (%) 14,13 7,37 31,79 15,02 7,91 17,15 6,63 RE-77

80 XXVIII ENDIO, XXVI EPIO y RED-M VIII PROPUESTA METODOLOGICA MULTICRITERIO PARA LA SELECCIÓN DE PROFESORES EN LA FCE-UNC MIGUEL ANGEL CURCHOD - CLAUDIA CARIGNANO - CATALINA LUCÍA ALBERTO Facultd de Ciencias Económicas, Universidad Nacional de Córdoba curchod@gmail.com - claudiacarignano@gmail.com - catalina.alberto@gmail.com Palabras Clave: Decisión Multicriterio, Método PROMETHEE, Selección de Profesores, Universidad Nacional de Córdoba. 1. DESCRIPCIÓN DEL PROBLEMA El estatuto de la Universidad Nacional de Córdoba (UNC) delega en sus respectivas unidades académicas la potestad de establecer el régimen de concursos públicos para la admisión y promoción de los Auxiliares Docentes y de Investigación. En la Facultad de Ciencias Económicas (FCE) este procedimiento está regulado por la Ordenanza del Honorable Consejo Directivo Nº 323/88 y sus modificatorias. Los aspirantes a ocupar un cargo, o acceder a uno superior, deben someterse a un proceso formal de evaluación realizado por un jurado designado ad hoc conformado por tres miembros. La normativa vigente establece que el tribunal debe justipreciar tanto los antecedentes del postulante como así también una prueba de oposición consistente en una clase oral y pública y una entrevista posterior. La norma es amplia, determina los aspectos a considerar en grandes rubros y establece el peso relativo que cada ítem aporta a la calificación final. La flexibilidad de la legislación si bien confiere al tribunal de cierta autonomía, también permite que se presenten diferencias entre los distintos procesos de evaluación. Como consecuencia de la discrecionalidad que aplican los distintos tribunales, es frecuente que los concursantes presenten solicitudes de ampliación de dictámenes, impugnaciones o recusaciones. Con la finalidad de minimizar los desacuerdos, el trabajo que se presenta propone estandarizar el proceso de admisión y promoción de los postulantes, a través del diseño de un sistema procedimental de evaluación de los candidatos. Así presentado, el problema de decisión involucra a varios decisores (los tres integrantes del tribunal). Si bien, por la naturaleza de este tipo de problemas existe poca divergencia entre los juicios de cada decisor, la solución individual arribada diferirá de un integrante a otro, por lo que deberá buscarse un procedimiento que permita alcanzar una solución de compromiso común. En este sentido, Brans, et al (1996), Marchant (1999) y Marcharis, et al (1997) proponen un procedimiento para decisiones colectivas basado en el método PROMETHEE. 2. METODOLOGÍA La metodología utilizada para abordar y resolver el problema, sigue las etapas generalmente reconocidas como fundamentales por la Teoría de MCDA, es decir: estructuración, evaluación y síntesis de los resultados Estructuración del Problema. La fase provee de los elementos esenciales para comprender problemas complejos a través de un conjunto RE-78

81 XXVIII ENDIO, XXVI EPIO y RED-M VIII integrado de niveles. Como resultado de esta primera etapa se diseñó la siguiente estructura jerárquica de seis niveles. Nivel 1 Objetivo: Valorar los antecedentes y la prueba de oposición de los aspirantes a cubrir cargos de auxiliares docentes y/o auxiliares de investigación en base a los criterios que sustentan la evaluación determinando su de orden de mérito. Nivel 2 Criterios: Títulos, Promedio, Desempeño, Clase Oral y Entrevista. Nivel 3 Subcriterios: - Desempeño se derivan: a) Docencia, b) Investigación y c) Otros. - Clase Oral se consideran: a) el conocimiento que el aspirante demuestre del tema, b) la forma de organizar la clase y c) las cualidades didácticas. Nivel 4 Subcriterios: - Docencia se consideran: a) cargo actual, b) antigüedad, c) capacitación, d) producción en docencia y e) otros antecedentes docentes. - Investigación se desprenden: a) categoría del investigador, b) proyectos acreditados y c) producción en investigación. - Otros Antecedentes se consideran: a) participación en comités evaluadores b) actividades de gestión, c) actividades de extensión y d) actividad profesional. Nivel 5 Subcriterios: en la rama de la Investigación - Producción en investigación se abrirá en: a) Libros y/o capítulos de libros, b) publicaciones en revistas y c) exposiciones en congresos. Nivel 6 Alternativas: el conjunto de alternativas está conformado por todos los aspirantes inscriptos para acceder a un cargo por concurso público. Es relevante destacar que la citada Ordenanza explícitamente define los criterios de Nivel 2 con sus pesos y los subcriterios de Nivel 3 que se desprenden del criterio Desempeño. El aporte sustancial en esta etapa fue la apertura de la estructura jerárquica en otros 3 niveles a través de un trabajo conjunto con un equipo de expertos. El conjunto de criterios definidos cumple las propiedades de exhaustividad, coherencia y no redundancia. En el modelo que se propone se recomienda que la asignación de pesos a los subcriterios de los Niveles 3 a 5 sea realizada por cada evaluador en forma independiente Evaluación. El método de MCDA utilizado fue PROMETHEE II (Preference Ranking Organization Method for Enrichment Evaluations). Este método, propuesto por Brans (1982), tiene como objetivo resolver problemas de ordenación. Parte de una matriz de evaluaciones de cada alternativa respecto a cada atributo, a partir de la cual determina un índice de preferencia con los que construye los flujos de superación positivo, negativo y neto para cada alternativa. Al momento de elaborar las jerarquías de criterios se analizó la función de preferencia a utilizar. Dado los tipos de criterios que se manejan RE-79

82 XXVIII ENDIO, XXVI EPIO y RED-M VIII en esta evaluación, los integrantes del tribunal consideraron adecuado usar la función de Preferencia Lineal y Área de Indiferencia (Brans, 1982; Brans and Vincke, 1985; Brans et al. 1984). A partir de la matriz de valoraciones elaborada por cada decisor se aplicó el método y se determinaron los rankings de cada evaluador trabajando individualmente Síntesis. Para concluir este proceso se construye un modelo que retoma los rankings individuales y los integra mediante el cálculo de la media geométrica. El resultado de esta etapa, permite contar con los elementos suficientes para poder emitir un dictamen que coadyuve al logro del objetivo planteado. 3. RESULTADOS OBTENIDOS Los datos se procesaron en planilla de cálculo diseñada a tal fin. Los resultados de cada evaluador y ordenamiento final obtenido en la etapa de síntesis, se muestran en la tabla siguiente. N Orden Postulante Evaluador 1 Evaluador 2 Evaluador 3 Orden para Postulante dictamen Índice PROMETHEE Índice PROMETHEE Postulante Índice PROMETHEE 1 E 0,4143 E 0,4403 E 0,4403 E 2 D 0,3704 H 0,4377 H 0,4377 H 3 H 0,3025 C 0,2975 C 0,2975 D 4 C 0,2925 D 0,1712 D 0,1712 C 5 B 0,1997 B 0,1689 B 0,1689 B 6 F -0,0453 I -0,0386 I -0,0386 F 7 K -0,065 A -0,0725 A -0,0725 K 8 I -0,1499 K -0,0921 K -0,0921 I 9 A -0,2312 F -0,1285 F -0,1285 A 10 J -0,3584 J -0,4637 J -0,4637 J 11 G -0,7296 G -0,7202 G -0,7202 G Tabla 1 Las diferencias que se presentan entre las valoraciones de cada miembro del tribunal, se deben a la importancia relativa que cada evaluador asigna a cada subcriterio como así también a la subjetividad propia de los individuos para realizar una evaluación de esta naturaleza. 4. CONCLUSIONES Con respecto a las decisiones grupales, la metodología presentada pretende que el proceso de deliberación entre los decisores se realice ex ante sobre la definición del proceso de decisiones, criterios y funciones de preferencia relativa a considerar y no ex post sobre la valoración de las alternativas. Es importante destacar que el modelo busca que la decisión grupal se construya a partir de las opiniones individuales intentando que represente las preferencias y valores de todos los miembros del grupo de decisión. Los procesos deliberativos buscan lograr un consenso; van puliendo las RE-80

83 XXVIII ENDIO, XXVI EPIO y RED-M VIII decisiones individuales incorporando diferentes puntos de vista, con el objetivo de que sean aceptadas por todo el grupo y que no sean rechazadas individualmente por ninguno de los integrantes. No obstante; estos procesos presumen una serie de supuestos, como por ejemplo: el compromiso y la voluntad de participación de todos los integrantes del grupo de decisión, la igualdad de fuerza o poder, la capacidad de integración y comunicación, la independencia de intereses particulares, una conducta ética y responsable, etc. que no siempre se presentan en la misma proporción entre quienes toman las decisiones grupales. A manera de conclusión se considera que la metodología y el modelo presentado deben servir de guía y facilitar la tarea de los jurados. La explicitación del proceso y del método de evaluación contribuye a lograr transparencia y legitimación de los dictámenes. Finalmente, desde el punto de las decisiones grupales, si se considera que la decisión final se construye y se conforma a partir de las decisiones individuales el modelo resulta equitativo. BIBLIOGRAFÍA ALENCAR L.; ALMEIDA A. (2010): A model for selecting project team members using multicriteria group decision making. Pesquisa Operacional, 30, pp BRANS, J.P. (1982): L Ingéniérie de la decisión. Elaboration d instruments d Aide à la décision. La méthode PROMETHEE. Université LAVAL. Colloque d Aide à la Decisión, Québec, pp BRANS, J.P.; VINCKE, PH. (1985): A preference ranking organisation method: The PROMETHEE Method for MCDM. Management Science 31/6, pp BRANS, J.P.; MARESCHAL, B.; VINCKE, PH. (1986): How to select and how to rank projects: The PROMETHEE Method. European Journal of Operational Research 24, pp North-Holland. BRANS, J.P.; MARESCHAL, B (1992): PROMETHEE V: MCDM problems with segmentations constraints. INFOR 30/2, pp BRANS, J.P.; MARESCHAL, B. (1994): The PROMCALC and GAIA Decision Support Systems (DSS). European Journal of Operational Research 12/4, pp BRANS, J.P.; MARESCHAL, B. (1995): The PROMETHEE VI procedure: How to differentiate hard from soft multicriteria problems. Journal of Decision Systems. Centrum Voor Statistiek en Operationeel Onderzoek. V.U.B. BRANS, J.P. (1996): The space of freedom of the decision-maker. Modelling the human brain. European Journal of Operational Research 92, pp BRANS, J.P.; MACHARIS, C.; MARESCHAL, B.; MARIAME, M. (1996): A Two-stage PROMETHEE-GAIA base procedure for Group Decision Support. Journal of Decision Systems. Centrum Voor Statistiek en Operationeel Onderzoek. V.U.B. BRANS, J.P.; MARESCHAL, B. (2000): Multicriteria Decision Aid. The PROMETHEE GAIA Solution. Journal of Decision Systems. VUB/ULB. University of Brussels. Center for Statistics and Operational Research. Belgium. RE-81

84 XXVIII ENDIO, XXVI EPIO y RED M VIII THE MULTIPLE CHOICE PROBLEM WITH INTERACTIONS BETWEEN CRITERIA Luiz Flavio Autran Monteiro Gomes 1 Maria Augusta Soares Machado 2 Luis Alberto Duncan Rangel 3 Ibmec/RJ 12 - EEIMVR/UFF 3 autran@ibmecrj.br 1 - fuzzy-consultoria@hotmail.com 2 - duncan@metal.eeimvr.uff.br 3 ABSTRACT An important problem in Multi-Criteria Decision Analysis arises when one must select at least two alternatives at the same time. This can be denoted as a multiple choice problem. In other words, instead of evaluating each of the alternatives separately, they must be combined into groups of n alternatives, where n 2. When the multiple choice problem must be solved under multiple criteria, the result is a multi-criteria, multiple choice problem. In this paper, it is shown through examples how this problem can be tackled on a bipolar scale. The Choquet Integral is used because it allows more accurate modeling of the interactions between criteria. The paper closes with suggestions for future research. Key Words: Multi-Criteria Decision Analysis - Bipolar Choquet Integral - Multiple choice problem - Formation of portfolios - Fuzzy logic RESUMO Um problema importante diz respeito à escolha de, pelo menos, duas alternativas na presença de múltiplos critérios de decisão. Ou seja, ao invés de avaliar-se cada alternativa separadamente, deseja-se formar grupos de n alternativas interconectadas, sendo n 2. Quando o problema da escolha múltipla necessita ser resolvido em presença de múltiplos critérios, tem-se o problema multicritério da escolha múltipla. Neste artigo faz-se uso de uma escala bipolar para resolve-lo. Assim sendo, emprega-se a Integral de Choquet, tendo em vista que esta técnica permite, de um modo geral, um tratamento mais acurado das interações entre critérios. Apresenta-se um exemplo numerico ilustrativo. Encerra-se o artigo se encerra com sugestões para pesquisas futuras. Palavras Chave: Análise Multi-Critério de Decisões - Integral de Choquet Bipolar - Problema da Escolha Múltipla - Formação de portfólios - Lógica fuzzy 12 Professores, Ibmec/RJ, Av. Presidente Wilson, 118, office #1110, , Rio de Janeiro, RJ, Brazil, Professor, EEIMVR/UFF, Av. dos Trabalhadores, 420, , Volta Redonda, RJ, Brazil, Phone: TC 82

85 1. INTRODUCTION XXVIII ENDIO, XXVI EPIO y RED M VIII The project portfolio management process involves different stages of decision making. At the end of those stages, projects that add value to organizations are selected and prioritized. Companies that work with multiple projects require a vision or integrated form of management that encompasses all of the projects from their portfolios. The methods that are used to form a portfolio of projects tend to emphasize the importance of uncertainty as a process variable. The term uncertainty usually refers to both the resources and the results that must be achieved (He & Zhou, 2011; Yu et al., 2012). This statement is especially true in a multiple interacting criteria context. Selecting a portfolio of projects is a problem that has been approached using Multi-Criteria Decision Analysis (Vetschera & Almeida, 2012; Anagnostopoulos & Mamanis, 2010; Carazo et al, 2010). However, in many cases when portfolios must be selected under multiple criteria, the interactions among the criteria are not considered as much as they should be, and additive aggregation procedures are used. A mathematical model that has been quite useful for modeling the interactions between criteria is the Choquet Integral (Choquet, 1953). The objective of this paper is to show how the bipolar Choquet Integral can be used for determining two or three combinations of choices for projects to be performed at the same time under multiple criteria, given that there are interactions between criteria. Ordering the two or three project combinations is indeed a multiple choice problem. A numerical application example is conducted using the data from Gomes et al. (2009). 2. THE CHOQUET INTEGRAL AS A MULTICRITERIA RANKING MODEL IN THE UNIPOLAR SCALE X = X X... X n Consider the set 1 2 of feasible alternatives. The decision maker has preferences with respect to X that are expressed by a binary relation of the type. Now consider the utility function that is given by x y F( u1( x1 ),..., un ( xn )) F( u1( y1 ),..., un ( yn )), where F is the Choquet Integral and + ui : X i S, i = 1,... n are aggregation functions. S R is a scale that represents the decision- maker s preferences. We can set two types of scales when the image of the aggregation + function is R. The first scale, the limited unipolar scale, applies when S = [0;1], where zero means the absence of a property and 1 means the total certaint y about the existence of such a property. In modeling, one can affirm the existence in X i of two elements that have the notations Ui and Pi, where Ui is an element of X i that represents the complete dissatisfaction of the decision maker and P i represents his complete satisfaction. We then have ui ( Ui ) = 0 and u i ( P i ) = 1. + The second scale, the unlimited unipolar scale, applies when S = R. This scale serves to represent the priorities and relative importance. For convenience, we use the notation u i ( S i ) = 1. According to Sugeno (1974), the function u : 2 N R is a capacity if TC 83

86 XXVIII ENDIO, XXVI EPIO y RED M VIII u ( φ) = 0. A capacity µ that satisfies μ ( A) μ( B), A B is a fuzzy measure. This fuzzy capacity is normalized if μ ( N ) = 1, where N is the set of integer numbers. The fuzzy capacity is additive if, for all disjoint sets A, B N, one has μ ( A B) = μ( A) + μ( B). It is symmetrical if, for all subsets A, B, we have A = B μ ( A) = μ( B). + We consider f : N R to be the Choquet Integral of f with respect to the capacity μ given by C ( f ) = n [ f ( σ () i ) f ( σ ( i 1)] ) μ( ), where σ is a permutation in N such μ i= 1 A σ i that fσ () 1... fσ ( n) and f ( 0 ) = σ 0. To construct an example, assume that the scores of 4 students in 3 subjects are as shown in Table 1. The dean of the school wants to give a full scholarship to a student by sticking to the following rule: every chosen student must be good in subjects 1, 2 and 3 (exactly in this order, that is subject 1 is more important then subject 2 and subject 2 is more important than subject 3) (i.e. Subject 1f Subject 2 f Subject 3 ). The ordering of these 3 students can be determined by using the Choquet integral as shown in table 2. The steps below are then followed. Step 1 Determining the fuzzy measures Considering three subjects in this order Subject 1f Subject 2 f Subject 3. The fuzzy measures used in this example were: μ ({ 1,2,3}) = 1, μ ( φ) = 0, μ ({} 1 ) = 0. 35, μ ({} 2 ) = 0, μ( { 3 }) = 0, μ ({ 1,2}) = 0. 34, μ ({ 1, 3} ) = 0, μ( { 2, 3} ) = Step 2: Calculating the Choquet Integral These calculations are performed by summing the values along each column. This sum gives the values of the Choquet Integral. The ranking of the alternatives that are provided by the Choquet Integral is then obtained by ordering these alternatives from the highest to the lowest values. The results are presented in Table 2. The resulting order is: Student A f Student B f Student C f Student D. This arrangement means that Student A is preferable to the other students. 3. THE CHOQUET INTEGRAL IN THE BIPOLAR SCALE Using the same notation as in the previous section, for the bipolar Choquet, we have the following (Grabisch & Labreuche, 2005): n n Let f : N R, A R be the Choquet Integral of f with respect to the capacity μ given by C f ) = n μ ( [ f ( σ () i ) f ( σ ( i 1)] ) μ( A σ i ), where σ is a permutation in N such that i= 1 fσ () 1... fσ ( n) and f σ ( 0) = 0. According to Greco & Figueira (2003), given a finite set J = { 1,2,...,n}, a fuzzy measure µ is a function of the form: μ : 2 J [ 0,1] such that μ ( φ)= 0, μ(j) = 1 (boundary conditions) and μ(c) μ(d) if D C, C, D J (monotonicity condition). Let P(J) be a s et of pairs of subsets of J: P ( J ) = {( C, D), C, D J,C D = φ}. A bicapacity µ in J is a function μ : P( J ) [0,1} X[0,1] such that μ( C, φ) = ( c,0) and ( φ, D) = ( 0, D), c, d [0,1] μ J,φ = 1,0 and μ ( φ, J ) = ( 0,1) (boundary μ ; ( ) ( ) TC 84

87 XXVIII ENDIO, XXVI EPIO y RED M VIII conditions). For each ( C, D),( E, F) P( J) such that E C, D F, we have μ ( C D) ( c, d and μ ( E F ) ( e, f, e, f [0,1] with c e and d f (monotonicity condition). We use the, = ) + following notation: μ ( C, D ) = c, : ( J) [ 1,1] μ^ P E C, D F ^ μ, = ) ( C, D) = d. A bi-capacity μ on the set J is a function ^ such that μ ( φ, φ) = 0 ; μ( J, φ) = 1 and μ( φ, J ) = 1 (boundary conditions). If ^ (, then μ ( D) μ E, F) (monotonicity condition). From each bi-polar capacity µ in J, we can obtain a bi-capacity μ in J: ^ C ^ C, μ (, D) = + μ ( C, D) μ ( C, D), C, D P( J) (Greco & Figueira, 2003). n + For each x R : x = max{ x,0} is the positive part of x; for each x R : x = max{ x,0} is the negative part of x; for each x R : x + = ( x 1, x2,... x n ) is the positive n part of x ( x1, x2,... xn ) R ; and n x = ( x1, x2,... xn ) is the negative part of x( x1, x2,... x n ) R. n Given x R, we consider a permutation (.) of the elements of J such that x x... x x. For each element j, we have two subsets, C () ( 2) ( j ) ( n) 1 J { } { } ( j) = i J : x i x( j ) and D( j) = i J : x i x( j ). Considering a bi-capacity µ in J and a n vector x R, we can define the positive part of the bipolar Choquet Integral as + + follows: Ch ( x, μ) = ( x( j) x( j 1) μ ( C ( j), D( j ) ), where J { j J / x j > 0}. In the same way, j J > we can write the negative part of the bipolar Choquet Integral as follows: Ch ( x, μ) = ( x( j) x( j 1) μ ( C( j), D( j) ). Therefore, the bipolar Choquet Integral is > j J Ch B ( x, μ) C + = (x, μ ) + Ch ( x, μ). Another notation is used by authors such as Anscombe & Aumann (1963), Schmeidler (1989) and Taylor ( 1995). Let µ be a capacity, and let σ be a permutation in N such that f. Then, the Choquet Integral in relation to f is C μ ( f ) = n [ f ( σ i ) f ( σ ( i 1) )] μσ i i= 1 σ < f σ i n To illustrate the use of the bipolar Choquet Integral, we now consider an example of the evaluation of apartments for rent based on three alternatives: near downtown, near a subway station and low cost, which are given in Table 3. In this example, we have used a Likert scale, with which the opinions of experts vary from 1 (worst value) to 5 (best value). To selec t the best apartment, the client expresses his preferences as follows: (i) for an apartment near downtown, a low price is more important than being near the subway; therefore, apartment # 1 is better than apartment # 2; and (ii) for an apartment far from downtown, being near the subway station is more important than a low price; therefore, apartment # 3 is better than apartment # 4. Step 1 Determining the fuzzy measures Consider the following ordering of criteria: (i) low price f near subway station for an apartment near downtown; and (ii) near subway station f low price for an apartment far from downtown. This arrangement allows us to establish a relation between the fuzzy measures. Those measures are presented below: μ ({ 1,2,3}) = 1, μ ( φ) = 0, μ ({} 1 ) = 0. 39, μ ({} 2 ) = 0, μ( { 3} ) = 0, μ ({ 1,2} ) = 0. 33, μ ({ 1,3}) = 0, μ( { 2,3}) = Step 2 Calculating the Choquet Integral ^ ^ ^ ( 1) TC 85

88 XXVIII ENDIO, XXVI EPIO y RED M VIII In Table 4, we present the rank ordering obtained by using the bipolar Choquet Integral. Computations are performed by determining the Min and Max values along each column. The MaxMin operator gives the values of the Choquet Integral. The ranking of the alternatives that are provided by the Choquet Integral is then obtained by ordering these alternatives from the highest to the lowest values. The results are presented in Table 4. By using the bipolar Choquet Integral the logic and desired solution is obtained. This solution is the following: Apartment # 1 Apartment # 2 and Apartment # 3 Apartment # THE SEBRAE-RJ CASE STUDY A numerical application example is conducted using data from Gomes et al. (2009). SEBRAE-RJ is a non-profit private organization that has the mission of promoting competitiveness and sustainable development and encouraging entrepreneurship in the state of Rio de Janeiro, Brazil. In conjunction with the Strategies and Guidelines area of that organization, nine criteria were defined to evaluate different development projects. These criteria were C 1 = cost of project; C 2 = generated revenue / total cost of project; C 3 = degree of synergy in the use of SEBRAE-RJ s products in the project; C4 = capacity to contribute to the sustainable development of the region; C 5 = capacity to interact with other sectors of the economy; C 6 = capacity to generate employment and income; C 7 = degree of adherence of the partnerships in the management as well as governance of the project; C 8 = chance of success; and C 9 = degree of visibility that the project would bring to SEBRAE-RJ. The decision matrix is presented in Table 5. In Table 5, Cr stands for Criterion. By using the mean and standard deviation of each line of the decision matrix a Gaussian membership function can be utilized in order to minimize the spreading of the data (Oliveira et al., 2007). This approach is illustrated in Figure 1 for line 1 of the decision matrix. The membership values for line 1 of the decision matrix are presented in Table 6. This task is accomplished for the whole decision matrix, as shown in Table 7. In this last table we have: m 1 - membership value for line 1 of the decision matrix; m 2 - membership value for line 2 of the decision matrix; m 3 - membership value for line 3 of the decision matrix; m 4 - membership value for line 4 of the decision matrix; m 5 - membership value for line 5 of the decision matrix; m 6 - membership value for line 6 of the decision matrix; m 7 - membership value for line 7 of the decision matrix; and m 8 and m 9 - membership values for lines 8 and 9 of the decision matrix. By applying these values, we obtain a new decision matrix, which is presented in Table 8. Step 1 Determining the fuzzy measures Considering the order of the criteria: C1 f C2 f C3 f C4 f C5 f C6 f C7 f C8 f C9. The fuzzy measures used in this paper were: TC 86

89 XXVIII ENDIO, XXVI EPIO y RED M VIII μ ({ 1,2,3,4,5,6,7,8,9}) = 1, μ ( φ) = 0, μ ({} 1 ) = 0. 56, μ ({ 2 }) = 0, μ ({ 3 }) = 0, μ ({ 4 }) = 0, μ ({} 5 ) = 0, μ ({} 6 ) = 0, μ ({} 7 ) = 0, μ ({} 8 ) = 0, μ ({} 9 ) = 0 μ ({ 1,2}) = 0. 54, μ ({ 1,3}) = 0, μ ({ 2,3} ) = 0. 53, μ ({ 3,4}) = 0. 49, μ ({ 4,5}) = 0. 48, μ ({ 5,6}) = 0. 45, μ ({ 6,7} ) = 0. 44, μ ({ 7,8}) = 0. 43, μ ({ 8,9} ) = Step 2 Choquet Integral calculations In Table 9, we present some calculations obtained by using the bipolar Choquet Integral for projects 1 and 2 and for projects 1 and 3. The same has been done for all combinations of two projects. These calculations are performed by using the Min and Max operators along considering the respective two columns projects. The MaxMin operator has been used to calculate the Choquet Integral. The ranking of the alternatives that are provided by the Choquet Integral is then obtained by ordering these alternatives from the highest to the lowest values. The results are presented in Table 9. a) A two-combination choice In table 10 the ordering for two project combination portfolios is shown for the three most important criteria, C 1 (cost of project with mean ), C 2 (generated revenue / total cost of project with mean 0.17) and C 3 (degree of synergy in the use of SEBRAE-RJ s products in the project with mean 6.18). In this paper considered values higher that mean values are considered as high; values near mean values are considered as mean; and values lower that mean values are considered as low. It can be observed that project P 3 is present in all combinations for criteria that are related with minimum cost. high generated revenue and high synergy. Table 11 presents a two combination choice for the criteria C 4 (capacity to contribute to the sustainable development of the region with mean 9.45), C 5 ( capacity to interact with other sectors of the economy with mean 9.64) and C 6 (capacity to generate employment and income with mean 9.1). In this paper it was considered values higher that mean values as high; values near mean values as mean and values lower that mean values as low. It can be observed that most of combinations have high capacity to contribute to the sustainable development of the region, high capacity to interact with other sectors of the economy and high capacity to generate employment and income. It also can be seen that project P 3 is present in all of them. Table 12 presents a two combination choice for the criteria C 7 (degree of adherence of the partnerships in the management as well as governance of the project with mean 9.3), C 8 ( chance of success with mean 10) and C 9 ( degree of visibility that the project would bring to SEBRAE-RJ. capacity to generate employment and income with mean 10). In this paper it was considered values higher that mean values as high; values near mean values as mean and values lower that mean values as low. It can be observed that all combinations have high degree of adherence of the partnerships in the management as well as governance of the project, high chance of success and high degree of visibility that the project would bring to SEBRAE-RJ. capacity to generate employment and income. It also can be seen that project P 3 is present in all of them. In conclusion, we now reach the ordering by the bipolar Choquet Integral for alternative two- TC 87

90 XXVIII ENDIO, XXVI EPIO y RED M VIII project portfolios, as shown Table 14 presents the results obtained by using the bipolar Choquet Integral for three-project portfolio alternatives with similar calculations. It can be observed that all projects are selected to compose a three-combination choice of portfolio for all nine criteria and the project P 3 is present in all. 5. CONCLUSIONS We have concluded that the bipolar Choquet Integral is adequate for solving multiple choice problems. As an application example, we have used the bipolar Choquet Integral to show how SEBRAE-RJ can determine which two or three project combination choices should be formed. All of the selected twoand three-project combination portfolios do not cost too much and lead to high generated revenues/total project cost, high capacity to contribute to the sustainable development of the region and high capacity to create employment and income. For a two-choice problem, projects P2, P4, P5, P8 and P10 are not selected, and for a three-choice problem, all projects are selected. In essence, we have shown that the use of the bipolar Choquet Integral could allow forming a portfolio of projects by considering the measures of interactions among criteria. However, one must keep in mind the limitations that are related to the use of the Choquet Integral, such as the requirement to have the aggregation (e.g., utility) functions fixed a priori (Bouyssou et al., 2012). Nevertheless, when the bipolar Choquet Integral can be used, the approach presented in this paper can be extended for n 3 by induction. For future research, it is recommended to design and run detailed sensitivity analyses on using other types of membership functions and alternative values for the parameters Figure 1 Membership function adjusted to the data of line 1 of decision matrix Alternative Criterion Student A Student B Student C Student D Subject Subject Subject Table 1 Students evaluations in 3 subjects TC 88

91 XXVIII ENDIO, XXVI EPIO y RED M VIII Criterion Alternatives Student A Student B Student C Student D Subject 1 4μ ({} 1 ) = 3μ ({ 1} ) = μ ({ 1} ) = 2μ( {} 1 ) = = = 1.05 ( 1) 0.35 = 0.35 ( 2) 0.35 = 0. 7 Subject 2 2μ ({ 1,2} ) = 2μ ({ 1,2} ) = 7μ ({ 1,2} ) = 7μ( { 1,2} ) = = = 0. 6 ( = 2. 5 ( 2) 0.34 = 2. ( ) 68 ( ) 68 ( ) 38 ( ) 38 Subject 3 12μ ({ 2,3} ) = 10μ ({ 2,3} ) = 9μ ({ 2,3} ) = 7μ( { 2,3} ) = = = 3.3 ( 6 ( 3) ) 0.33 = ( 5 ( 2) ) 0.33 = Choquet integral = = = = 3.99 Ordering Table 2 Ranking obtained by using the Choquet Integral in the unipolar scale Criterion Alternative Apartment # 1 Apartment # 2 Apartment # 3 Apartment # 4 Near downtown Near subway station Low price Table 3 Decision matrix for a bipolar example Criterion Alternatives Apartment # 1 Apartment # 2 Apartment # 3 Apartment # 4 Near downtown 5μ ({} 1 ) = 5μ ({ 1} ) = 3μ ({ 1} ) = 3μ( {} 1 ) = = = = = 0.78 μ ( 1,2 ) = μ ({ 1,2} ) = μ ({ 1,2} ) = μ( { 1,2} ) = ( 5 4) 0.33 = ( 5 5) 0.33 = 0 ( 5 2) 0.33 = ( 4 2) 0.33 = Low price ( 4 3) μ ({ 2,3} ) = ( 5 4) μ ({ 2,3} ) = ( 5 4) μ ({ 2,3} ) = ( 4 3) μ( { 2,3} ) = = = = = 0.31 Min operator 1.95x0.33x0.31= 1.95x0x0.31=0 0.78x0.99x0.31= 0.78x0.66x0.31 = Max operator = = = = Choquet Integral Rank Ordering Table 4 Rank ordering for a bipolar example Near subway station { } Cr Projects P 1 P 2 P 3 P 4 P 5 P 6 P 7 P 8 P 9 P 10 P 11 C C C C C C C C C Table 5 - Decision matrix for the SEBRAE-RJ Case Study TC 89

92 XXVIII ENDIO, XXVI EPIO y RED M VIII Project Membership values P P P P P P P P P P P Table 6 Membership values for of the decision matrix Project m 1 m 2 m 3 m 4 m 5 m 6 m 7 m 8 and m 9 P P P P P P P P P P P Table 7 - Membership values for all data of decision matrix Criterion Projects P 1 P 2 P 3 P 4 P 5 P 6 P 7 P 8 P 9 P 10 P 11 C C C C C C C C C Table 8 - Fuzzified decision matrix for the SEBRAE-RJ Case Study Criterion Project # 1 Project # 2 Project # 1 Project # 3 C μ( { 1}) = 0.89μ ({ 1}) = 0.93μ ({ 1}) = 0.89μ( {} 1 ) = = = = = , , , μ 1,2 C 2 ( 93 ) μ ({ }) ( ) μ ({ }) ( ) μ ({ }) ( ) ({ }) = μ 2,3 C 3 ( ) ({ }) = = = = μ 2,3 ( ) μ ({ 2,3}) ( 0.6) μ ({ 2,3}) ( ) ({ }) = = = μ 3,4 C 4 ( ) μ ({ 3,4} ) ( ) μ ({ 3,4}) ( ) μ ({ 3,4}) ( ) ({ }) = μ 4,5 C 5 ( ) ({ }) C 6 = μ 5,6 = = = μ 4,5 ( ) μ ({ 4,5}) ( ) μ ({ 4,5}) ( ) ({ }) = = = μ 5,6 ( 0 ) ({ }) ( ) μ ({ 5,6}) ( 0.55) μ ({ 5,6}) ( ) ({ }) = 0.15 = 0.25 = 0.15 = 0.11 TC 90

93 XXVIII ENDIO, XXVI EPIO y RED M VIII C 7 ( ) μ ({ 6,7} ) ( ) μ ({ 6,7} ) ( ) μ ({ 6,7} ) ( ) μ ({ 6,7} ) = 0.09 = 0.09 = 0.09 = μ 7,8} = 0.10 = 0.04 = 0.10 = μ ( 8,9} ) = 0.10 = 0.24 = 0.10 = 0.10 Min(0.52,0.14, Min(0.52,0.14, 0.13,0.15,0,0.15,0.09, 0.13,0.15,0,0.15,0.09, 0.10, 0.10,0.50,0.19, 0.10, 0.10, 0.11,0.04, ,1.61,0.31, 0.25,0.09,0.24, 0.15,0, )=0 0.05,0.10, 0.10)=0 Max(0.52,0.14, Max(0.52,0.14, 0.13,0.15,0,0.15,0.09, 0.13,0.15,0,0.15,0.09, 0.10, 0.10,0.50,0.19, 0.10, 0.10, 0.11,0.04, ,1.61,0.31, 0.25,0.09,0.24, 0.15,0, )= ,0.10, 0.10)=1.61 Table 9 Some calculations for a two project selection of SEBRAE s case study C 8 ( ) μ ({ 7,8} ) ( ) μ ({ 7,8} ) ( ) μ ({ 7,8} ) ( ) ({ ) C 9 ( ) μ ({ 8,9} ) ( ) μ ({ 8,9} ) ( ) μ ({ 8,9} ) ( ) { Min Choquet integral (Max) A two combination choice P3 P and mean= P3 P and mean= P3 P and mean= P3 P and mean= P3 P and mean= P2 P and mean=368.5 P3 P and mean= P1 P and mean= C 1 C 2 C 3 Observations 0.63 and mean= and 0.10 mean= and 0.63 mean= and mean= and mean= and 0.09 mean= and 0.1 mean= and mean= and 10 mean=7 4 and 6 mean=5 4 and 8 mean=6 4 and 10 mean=7 4 and 4 mean=4 6 and 4 mean=5 4 and 6 mean=5 4 and 4 mean=4 low cost; high generated revenue; high synergy low cost; high generated revenue; medium synergy low cost; high generated revenue; medium synergy low cost;,high generated revenue; medium synergy low cost; high generated revenue; low synergy low cost; high generated revenue; low synergy low cost;,high generated revenue;low synergy low cost; high generated revenue; low synergy low cost;,high generated P3 P and and and 6 mean=663.3 mean=0.47 mean=5 revenue;low synergy P3 P and and and 4 low cost;,high generated mean= mean=0.346 mean=4 revenue;low synergy Table 10- A two combination choice based on the first three most important criteria C 1, C 2 and C 3 A twocombination choice P3 P 5 10 and 10 mean=10 C 4 C 5 C 6 Observations 10 and 10 mean=10 10 and 10 mean=10 high capacity to contribute to the sustainable development of the region; high capacity to interact with other sectors of the economy; high capacity to generate TC 91

94 P3 P 7 10 and 10 mean=10 P3 P 9 10 and 10 mean=10 P3 P and 10 mean=10 P1 P 3 10 and 10 mean=10 XXVIII ENDIO, XXVI EPIO y RED M VIII employment and income 10 and and 10 high capacity to contribute to the mean=10 mean=10 sustainable development of the region; high capacity to interact with other sectors of the economy; high capacity to generate employment and income 10 and and 10 high capacity to contribute to the mean=10 mean=10 sustainable development of the region; high capacity to interact with other sectors of the economy;high capacity to generate employment and income 10 and and 10 high capacity to contribute to the mean=10 mean=10 sustainable development of the region; high capacity to interact with other sectors of the economy; high capacity to generate employment and income 10 and 10 8 and 10 high capacity to contribute to the mean=10 mean=9 sustainable development of the region; high capacity to interact with other sectors of the economy; medium capacity to generate employment and income Table 11- A two combination choice based on criteria C 4, C 5 and C 6. A twocombination choice P1 P 3 10 and 10 mean=10 P3 P 4 10 and 10 mean=10 P3 P 6 10 and 10 mean=10 P3 P 7 10 and 10 mean=10 P3 P 9 10 and 10 mean=10 C 7 C 8 C 9 Observations 10 and 10 mean=10 10 and 10 mean=10 10 and 10 mean=10 10 and 10 mean=10 10 and 10 mean=10 10 and 10 mean=10 10 and 10 mean=10 10 and 10 mean=10 10 and 10 mean=10 10 and 10 mean=10 high degree of adherence of the partnerships in the management as well as governance of the project; high chance of success; high degree of visibility that the project would bring to SEBRAE-RJ. capacity to generate employment and income high degree of adherence of the partnerships in the management as well as governance of the project; high chance of success; high degree of visibility that the project would bring to SEBRAE-RJ. capacity to generate employment and income high degree of adherence of the partnerships in the management as well as governance of the project; high chance of success; high degree of visibility that the project would bring to SEBRAE-RJ. capacity to generate employment and income high degree of adherence of the partnerships in the management as well as governance of the project; high chance of success; high degree of visibility that the project would bring to SEBRAE-RJ. capacity to generate employment and income high degree of adherence of the partnerships in the management as well as governance of the project; high chance of success; high degree of visibility that the project would bring to SEBRAE-RJ. capacity to generate employment and income TC 92

95 P3 P and 10 mean=10 XXVIII ENDIO, XXVI EPIO y RED M VIII 10 and 10 mean=10 10 and 10 mean=10 high degree of adherence of the partnerships in the management as well as governance of the project; high chance of success; high degree of visibility that the project would bring to SEBRAE-RJ. capacity to generate employment and income Table 12- A two combination choice based on criteria C 7, C 8 and C 9. Two-combination portfolios Results obtained using the bipolar Choquet Integral P 1 3 P 7 P 2 3 P 9 P 3 3 P 6 P 4 3 P 9 P 5 3 P 11 Table 13- Ordering by the Choquet bipolar Integral for two-choice projects 2 Three-combination Results obtained using the bipolar Portfolios Choquet Integral P1 P2 P 1 3 P1 P3 P 2 6 P 3 1 P3 P8 P 4 1 P3 P9 P 5 1 P3 P10 P 6 1 P3 P11 P P P P P P Table 14 - Ordering obtaine d using the bipolar Choquet Integral for three-combination portfolios. Acknowledgments The research leading to this article was partially supported by CNPq/Brazil through projects / and / REFERENCES Anagnostopoulos, K.P.; Mamanis, G. (2010). A portfolio optimization model with three objectives and discrete variables. Computers & Operations Research, Vol. 37, Anscombe, F.J.; Aumann R.J. (1953). A definition of subjective probability. Annals of Mathematical Statistics, 34, pp Bouyssou, D.; Couceiro, Labreuche, C.; Marichal, J.L.; Mayag, B. (2012). Using Choquet integral in Machine Learning: what can MCDA bring? DA2PL November LAMSADE, University Paris. Carazo, A.F.; Gomez, T.; Molina, J.; Hernandez-Diaz, A,G.; Guerrero, F.M.; Caballero, R. (2010). Solving a comprehensive model for multiobjective project portfolio selection. Computers & Operations Research, Vol. 37, TC 93

96 XXVIII ENDIO, XXVI EPIO y RED M VIII Choquet, G. (1953). Theory of Capacities. Annales de l Institut Fourier 5, pp Dubois, D.; Fargier, H.; Prade, H.M. ( 1996 ).Refinements of the maximin approach to decision-making in a fuzzy environment.fuzzy Sets ans Systems 81(1): Gomes, L.F.A.M.; Rangel, L.A.D.; Moreira, R.A. (2009). Using ELECTRE IV in the promotion of social and economic development: A case study in Rio de Janeiro. Foundations of Computing and Decision Sciences, Vol. 34, No. 3. Grabisch, M.; Labreuche, C. (2005). Bi-capacities: The Choquet Integral. Fuzzy Sets and Systems, Vol. 151, Issue 2, 16 April, pp Greco, S.; Figueira, J. (2003). Dealing with interaction between bi-polar multiple criteria preferences in outranking methods. Research Report , INESC - Coimbra, Portugal, pp He, X.D.; Zhou, X.Y. (2011) Portfolio choice under cumulative prospect theory: An analytical treatment. Management Science, vol. 57, no. 2, pp Oliveira, H.; Caldeira, A., Machado, M.A., Souza, R., Tanscheit, R. (2007). Inteligência Computacional Aplicada à Administração, Economia e Engenharia em Matlab. São Paulo: Thomson Learning. Schmeidler, D. (1989). Subjective probability and expected utility theory without additivity. Econometrica, Vol. 57, pp Sugeno, M. (1974). Theory of fuzzy Integrals and its applications. PhD thesis. Tokyo Institute of Technology. Taylor, A.D. (1995). Mathematics and Politics - Strategy, Voting, Power and Proof. New York: Springer Verlag. Vetschera, R.; Almeida, A.T. de (2012). A PROMÉTHÉE-based approach to portfolio selection problems. Computers & Operations Research, Vol. 39, Yu, L.; Wang, S.; Wen, F.; Lai, K.K. (2012). Genetic algorithm-based multicriteria project portfolio selection. Annals of Operations Research 197, pp , DOI: /s TC 94

97 XXVIII ENDIO, XXVI EPIO y RED-M VIII DESARROLLO SUSTENTABLE

98 XXVIII ENDIO, XXVI EPIO y RED-M VIII MODELADO DE UNA RED URBANA DE RECOLECCIÓN DE RESIDUOS PLÁSTICOS EN BASE A OPTIMIZACIÓN MULTI-OBJETIVO DIEGO ROSSIT 1 - DIEGO BROZ 1,3 - DANIEL ROSSIT 1 - MARIANO FRUTOS 1 - FERNANDO TOHMÉ 2 1 Departamento de Ingeniería, Universidad Nacional del Sur, IIESS-CONICET. 2 Departamento de Economía, Universidad Nacional del Sur, INMABB-CONICET. 3 Facultad de Ciencias Forestales, Universidad Nacional de Misiones. diego.rossit@uns.edu.ar - diego.broz@uns.edu.ar - daniel.rossit@uns.edu.ar mfrutos@uns.edu.ar - ftohme@criba.edu.ar RESUMEN Es conocida la necesidad de generar mecanismos alternativos de recolección de Residuos Sólidos Urbanos (RSU) que fomenten la clasificación en origen y, de esta forma, reduzcan el impacto ambiental que genera el sistema de recolección tradicional. En este trabajo se propone una herramienta para el diseño de una red de recolección de residuos plásticos en un área urbana densamente poblada. En primera instancia, se plantea un modelo multi-objetivo basado en programación lineal mixta-entera para determinar la ubicación óptima de reservorios de desechos dentro de la cuadrícula urbana; teniendo en cuenta los objetivos de minimizar los costos de inversión y minimizar la distancia promedio que deben recorrer los usuarios para utilizar la red. A través de un enfoque de programación por compromiso, se explora la Frontera de Pareto de soluciones del problema. En segunda instancia, se propone un modelo de enrutamiento con restricciones de capacidad a fin de determinar la ruta de recolección de los residuos acumulados. Los resultados obtenidos de la aplicación de los modelos a dos casos simulados de mediana complejidad demuestran su correcto desempeño y sugieren su utilidad como herramienta para la toma de decisiones en el área de RSU. PALABRAS CLAVES: Residuos Sólidos Urbanos - Desarrollo Sustentable - Optimización Multi-objetivo - Enrutamiento de Vehículos con Restricciones de Capacidad. ABSTRACT It is known the necessity to implement alternative Municipal Solid Waste (MSW) recollection systems that encourage source separation in order to reduce the environmental impact of the traditional recollection system. The aim of this paper is to propose a tool for designing a network to recollect the plastic garbage in an urban area. In first place, a multi-objective mixed-integer-based model for determining the best location of the containers is developed. It considers the objectives of minimizing the investment cost of the network and the average distance from the dwellings to the respective container. Using a trade-off programming method, the Pareto Frontier of the problem is explored. In second place, a capacitated vehicle routing model is proposed in order to obtain the path to recollect the plastic garbage. The results obtained after applying the models to moderately complex simulated scenarios demonstrate the correct performance of the tool, suggesting its utility in the process of decision making in the field of MSW. KEY WORDS: Municipal Solid Waste - Sustainable Development - Multi-objective Optimization - Capacitated Vehicle Routing. TC-96

99 XXVIII ENDIO, XXVI EPIO y RED-M VIII 1. INTRODUCCIÓN El manejo convencional de los Residuos Sólidos Urbanos (RSU) provoca problemáticas ambientales, sociales y económicas, las cuales, debido a su naturaleza, requieren la consideración de varios factores para su tratamiento (Abarca Guerrero, Maas y Hogland, 2013; Troschinetz y Mihelcic, 2008). Estas problemáticas se acentúan en los países en vías en desarrollo debido a restricciones presupuestarias y tecnológicas (Kinobe, Gebresenbet y Vinneras, 2012). Dentro de las estrategias que apuntan hacia una gestión más sustentable de los RSU, la clasificación en origen ha sido utilizada con éxito para mejorar el desempeño del sistema de gestión de estos residuos en países en vía de desarrollo (Zhuang, Wu, Wang, Wu y Chen, 2008). En Argentina, la clasificación en origen de los RSU es parte de la Estrategia Nacional para la Gestión Integral de Residuos Sólidos Urbanos de la Secretaría de Ambiente y Desarrollo Sustentable de la República Argentina (SAyDS, 2005) y se encuentra plasmada como uno de los objetivos de los planes de gestión integral de los RSU de importantes ciudades argentinas, como Rosario (SAyDS, 2009) y la Ciudad Autónoma de Buenos Aires (Ley 1854/05, CABA, 2006). De los distintos desechos que pueden recuperarse, el reciclado del plástico se encuentra entre las opciones que mayores expectativas positivas generan al momento de pensar en minimizar el impacto ambiental del tratamiento de los RSU (Al-Salem, Lettieri y Baeyens, 2009; Bing, Bloemhof- Ruwaard y van der Vorst, 2014; Finnveden, Johansson, Lind y Moberg, 2005; Moberg, Finnveden, Johansson y Lind, 2005;), lo cual incentiva su clasificación en origen (Eriksson et al., 2005). La literatura sobre el desarrollo de herramientas de Investigación Operativa para la gestión de los sistemas de los RSU es abundante (Ghiani, Laganà, Manni, Musmanno y Vigo, 2014). Por un lado, se han desarrollado modelos mixto-enteros para hallar la localización y la capacidad óptima de los reservorios e instalaciones de receptores de residuos en áreas urbanas (Di Felice, 2014; Ghiani, Laganà, Manni y Trik, 2012; Kim y Lee, 2013; Tralhão, Coutinho-Rodrigues y Alçada-Almeida, 2010). Los trabajos existentes en la bibliografía involucran tanto métodos exactos (Tralhão et al., 2010) como heurísticos (Kim, 2013; Dehghanian y Mansour, 2009). También el problema ha sido resuelto considerando una naturaleza estocástica de los parámetros (Srivastava y Nema, 2012). Asimismo, se ha avanzado en la proposición y aplicación de complejos y expandidos modelos de enrutamiento de vehículos (VRP, Vehicle Routing Problem) a los efectos de diagramar las rutas de recolección de los residuos generados. Beliën, De Boeck y Van Ackere (2014) realizan un exhaustivo análisis de la bibliografía existente en este campo de aplicación de los modelos VRP. No obstante, la bibliografía es escasa en cuanto a enfoques integradores que consideren un plan integral que abarque ambos aspectos: disposición de contenedores y optimización de la ruta de recolección de los residuos acumulados en los contenedores establecidos. Sólo trabajos recientes tienen en cuenta estas dos dimensiones del problema (Ghiani, Manni, Manni y Massimiliano, 2014; Hemmelmayr, Doerner, Hartl y Vigo, 2014). Sin embargo, estos trabajos consideran un enfoque mono-objetivo en el análisis de la TC-97

100 XXVIII ENDIO, XXVI EPIO y RED-M VIII localización óptima de los contenedores de basura. En este trabajo, se propone un enfoque integrador que considere la localización de contenedores, en base a optimización multi-objetivo, y el establecimiento de la ruta de recolección para residuos plásticos en un área urbana. Esto se realizará de manera secuencial. En primera instancia, se resolverá un modelo mixto-entero de naturaleza multi-objetivo donde, a través de la exploración de la frontera Pareto del problema, se encontrará un conjunto de soluciones óptimas para la localización de contenedores. Luego, una vez obtenidas las disposiciones óptimas de los contenedores en la cuadrícula, se procederá a trazar la ruta de recolección del residuo acumulado en los contenedores. Esto se realizará mediante un modelo de enrutamiento de vehículos con restricciones de capacidad (CVRP, Capacitated Vehicle Routing Problem). 2. DESARROLLO En esta sección se presentarán los modelos que se utilizarán para resolver ambas instancias del problema: la localización de contenedores y el establecimiento de la ruta de recolección Modelo de localización de contenedores Se presentará un modelo multi-objetivo de programación lineal mixtaentera (MILP, Mixed Integer Linear Programming) para obtener la localización óptima de contenedores dentro de un área urbana. En este modelo se perseguirán dos objetivos distintos: minimizar los costos de inversión en la instalación de los reservorios de la red y minimizar la distancia promedio por parte de los generadores hacia los respectivos contenedores asignados. La utilización de dos objetivos facilita la comparación mediante gráficos de las soluciones obtenidas (Coutinho-Rodrigues, Tralhão y Alçada-Almeida, 2012). F F( f, f ) c d De esta forma se plantea la función objetivo como:. Donde f c representa el objetivo de minimizar el costo de inversión en instalar los f contenedores y d representa el objetivo de minimizar la distancia promedio que deben recorrer los generadores hacia los contenedores asignados. Al momento de hallar la localización óptima de los contenedores se tienen en cuenta ciertas restricciones: la distancia entre el generador y el contenedor en el cual debiera depositar su residuo debe ser menor a cierta distancia máxima de tolerancia a la cual las personas están dispuestas a desplazarse; la capacidad máxima de los contenedores limita el número de generadores que pueden utilizar el mismo contenedor; y un generador de residuos sólo deposita basura en un único contenedor. Antes de plantear el modelo, se definen las variables, índices y parámetros: x i, j es una variable binaria que toma el valor 1 cuando el generador i deposita su residuo en el contenedor j y 0 en caso contrario, y j es una variable binaria que toma el valor 1 si se instala un contenedor en la ubicación j y 0 en caso contrario, I es la cantidad de generadores de residuos plásticos en el área urbana, J es la cantidad de potenciales ubicaciones de TC-98

101 XXVIII ENDIO, XXVI EPIO y RED-M VIII depósitos en el área urbana, d i, j es la distancia desde el generador i hasta el contenedor j, c cont es el costo de adquirir e instalar un contenedor de residuos, b i es la cantidad de residuos plásticos producido por semana por el generador i, cap es la capacidad máxima de almacenaje de un contenedor y d máx es la distancia máxima de tolerancia que el generador está dispuesto a recorrer para depositar su residuo en un contenedor. El modelo MILP para la localización de los contenedores se define en ecuaciones (1) a (6). Mín F( f, f ), donde c d f f c d J j I, J i, j y d j cont i, j i, j I c x (1) S.t.: J j I i x 1, i I i, j (2) b x cap y j J (3) i i, j j xi, j d, i, j dmáx i I, j J (4) x 0,1, i I, j J i, j (5) y 0,1, j J (6) j La ecuación (1) plantea la función objetivo que minimiza de forma conjunta f c (costo de inversión de los contenedores) y f d (distancia promedio que deben recorrer los generadores hacia los contenedores asignados). La ecuación (2) establece que un generador puede depositar el residuo plástico desechado en un único contenedor. La ecuación (3) define que la cantidad de plástico reciclable que recibe un contenedor instalado no puede ser mayor a su capacidad. La ecuación (4) establece que la distancia entre un generador y el contenedor asignado no debe superar la distancia máxima que el generador está dispuesto a realizar para depositar su residuo. Las ecuaciones (5) y (6) definen la naturaleza binaria de las variables de decisión. Naturalmente, existe un claro conflicto entre los objetivos considerados. La instalación de una mayor cantidad de contenedores, lo que ocasiona un alza indeseada del costo de inversión de los mismos, permitirá que la distancia promedio que deben recorrer los usuarios del sistema se reduzca. Consecuentemente, si se reduce la cantidad de contenedores disponibles, lo cual implica un abaratamiento de los costos de inversión, aumentará la distancia promedio que separa a los usuarios de los respectivos contenedores asignados. TC-99

102 XXVIII ENDIO, XXVI EPIO y RED-M VIII En un problema multi-objetivo cuando la alternativa ideal es inalcanzable, la elección óptima o mejor solución de compromiso es aquella solución más próxima al punto ideal. Esta regla de comportamiento suele denominarse axioma de Zeleny (1982). De acuerdo con este postulado, dado un conjunto de soluciones, la solución preferida será aquella que se encuentre a la distancia más próxima del punto ideal. De esta forma, puede definirse el grado de proximidad existente entre un objetivo k-ésimo ( f k ) y su valor ideal o * el mejor valor posible para el objetivo k-ésimo en la región factible ( f k ), de la * siguiente manera: fk f k. Una vez definido el grado de proximidad el paso siguiente consiste en agregar los grados de proximidad para los distintos objetivos del problema multi-objetivo. Debido a que, en general, los objetivos están medidos en unidades dimensionales diferentes, la suma simple de los grados de proximidad no tiene valor real. Por lo tanto, se procede a su normalización. Una * * manera de normalizar los objetivos, es la siguiente: hk ( fk fk ) ( fk f k* ). Donde h k representa el grado de proximidad del objetivo k-ésimo normalizado y f k* representa el valor anti-ideal de dicho objetivo (el peor valor posible para el objetivo k-ésimo sobre la región factible). h k está acotado entre 0, cuando alcanza su mejor valor posible o ideal, y 1, cuando alcanza su peor valor posible o anti-ideal. Finalmente, este enfoque permite incluir las ponderaciones w k que representan las preferencias que tiene el agente decisor para cada objetivo. Resolviendo el modelo para distintas ponderaciones posibles podrán encontrarse distintas soluciones no dominadas que permitirán explorar la frontera de Pareto del problema. De esta forma, se plantea la siguiente función objetivo con la agregación de los grados de proximidad normalizados K ponderados: F w k k h k. En términos del problema bajo análisis en este trabajo la ecuación (1) puede redefinirse en ecuación (1 ). f f f f Mín F wc w f f f f * * c c d d * d * c c* d d*, donde, J f y cap c j cont j f d I J i, j d x i, j i, j I (1 ) Donde w c y w d son los pesos relativos asociados a los distintos objetivos, y estableciéndose que w w Modelo de enrutamiento c d A los efectos de evaluar las soluciones obtenidas para la localización de contenedores en virtud de las distancias de las rutas de recolección que implican, se presenta un modelo CVRP. Se describe el problema como el siguiente problema de grafos. Se supone que G ( V, A ), es un gráfico completo, donde V 0,..., k es el conjunto de vértices y A es el conjunto de arcos (Toth y Vigo, 2001). Los TC-100

103 XXVIII ENDIO, XXVI EPIO y RED-M VIII vértices j 1,..., k corresponden a los contenedores instalados, mientras que el vértice 0 corresponde al centro de transferencia del plástico, donde se deposita el residuo y el final de la ruta. De esta forma se plantea un modelo CVRP para encontrar la ruta más corta que le permita a un vehículo con una capacidad determinada recolectar todo el plástico disponible y trasladarlo al centro de transferencia. La resolución de este modelo para este tipo de aplicaciones requiere, en general, de varios recorridos, lo cual puede interpretarse como que un único vehículo realiza todos los recorridos pasando en cada recorrido por el centro de transferencia o que se dispone de igual cantidad de camiones que de recorridos. Antes de plantear el modelo, se definen las variables, índices y parámetros: d n, jes la distancia desde el contenedor n hasta el contenedor j, q n es la capacidad libre del vehículo cuando visita el contenedor n, p n, j es una variable binaria que adopta el valor 1 si el contenedor j sucede al contenedor n en la ruta de recolección y 0 en caso contrario, L es la distancia total del recorrido de recolección, N ( ó J ) representan (indistintamente) la cantidad de contenedores instalados (vértices o nodos), siendo n 0 (ó j 0 ) el centro de transferencia, cap veh es la capacidad de los vehículos de recolección (se considera una flota homogénea), dem es la cantidad de residuo a recolectar en n el contenedor n. El modelo CVRP se define en ecuaciones (7) a (13). NJ, n, j n, j n, j Mín L d p, n, j V, n j (7) S.t.: J j J j pn, j 1, n V \ 0, n j (8) p jn, 1, n V \ 0, n j (9) q cap ( dem cap ) p, j V \ 0 (10) j cam j cam n0, j q q dem cap cap p ( cap dem dem ) p, n, j V \ 0, n j (11) n j n cam cam j, n cam n j n, j d q cap n V \ 0 (12) n n cam, pn, j 0,1, n, j V (13) La ecuación (7) plantea la función objetivo que minimiza la longitud de la ruta de recolección. Las ecuaciones (8) y (9) establecen que cada contenedor sólo sea visitado en una ocasión. Las ecuaciones (10) y (11) imponen los requerimientos de que la capacidad del vehículo no sea sobrepasada y que exista continuidad en la ruta. La ecuación (12) acota el recorrido de la variable q en cada nodo entre los valores extremos de la demanda de ese nodo y la n TC-101

104 XXVIII ENDIO, XXVI EPIO y RED-M VIII capacidad máxima del vehículo. La ecuación (13) establece la naturaleza binaria de la variable de precedencia. 3. RESULTADOS El modelo fue aplicado en dos escenarios de diferentes dimensiones. Ambos representan áreas urbanas cuadradas densamente pobladas. Se supone una recolección de tipo semanal de plástico y, por lo tanto, se utilizó la tasa de generación semanal de residuos. Para calcular esta tasa se utilizaron datos del informe Análisis Estadístico de los Residuos Sólidos Domiciliarios de Bahía Blanca elaborado por la Planta Piloto de Ingeniería Química, dependiente del CONICET y de la Universidad Nacional del Sur (PLAPIQUI- CONICET-UNS, 2013) (ZANI, 2013). Los generadores de residuos fueron clasificados como grandes, medianos o pequeños según una distribución probabilística aleatoria empírica representando un área urbana densamente poblada. En la Tabla 1 se presentan los datos correspondientes a cada tipo de generador: su cantidad equivalente de personas, su tasa de generación semanal de residuos y su probabilidad de ocurrencia. Se consideró una capacidad del contenedor de 1 m 3 lo cual, considerando una densidad del residuo plástico de 65 kg/m 3 (Henry, 1999), representa una capacidad de 65 kg de plástico. El costo de compra e instalación de un contenedor se estimó en AR$ La distancia de tolerancia máxima que están dispuestos a recorrer las personas para depositar su residuo se consideró en 150 m, un valor que ya fue utilizado por Ghiani et al. (2012 y 2014) para trabajos similares. Los valores de los parámetros anteriormente mencionados se resumen en la Tabla 2. Los modelos fueron resueltos utilizando el software de resolución GUROBI (versión 5.5.0) en un entorno de GAMS (versión ). Se utilizó un computador con un procesador Intel Core I3-3220, 3.20 GHz, 4 GB de memoria RAM y sistema operativo de 64 bits Primer escenario Se consideraron 840 generadores de residuos plásticos distribuidos en un área de m 2, abarcando un total de 36 manzanas, ubicando a razón de diez generadores por cuadra y cuarenta por manzana. Debe recordarse que los generadores se dividen en grandes, medianos o pequeños siguiendo la distribución probabilística empírica de la Tabla 1. En el área de estudio se consideró la potencial instalación de 84 contenedores distribuidos en cada una de las esquinas de la cuadrícula. A los efectos de calcular los valores ideal y anti-ideal de cada objetivo y, de esta forma, trazar la matriz de pagos, se resuelven las instancias del problema de naturaleza mono-objetivo. Sendos problemas son resueltos asignando una ponderación lo suficientemente grande (cercano a uno) al objetivo que se desea optimizar y, en consecuencia, asignando una ponderación lo suficientemente pequeña (cercano a cero) al objetivo restante. Según Tralhão et al. (2010), es necesario otorgar un valor muy pequeño pero mayor a cero a la ponderación del objetivo que no se desea optimizar para TC-102

105 XXVIII ENDIO, XXVI EPIO y RED-M VIII asegurar la obtención de una solución no dominada. Esta fue la estrategia seguida en este trabajo. La resolución del problema multi-objetivo según una métrica de programación por compromiso permite la exploración de la frontera eficiente de Pareto mediante la asignación de distintos pesos relativos a los objetivos. En total se hallaron 20 soluciones no dominadas (Pareto óptimas) que se presentan en la Tabla 4. En el problema de enrutamiento se supuso la localización del centro de transferencia a una distancia de aproximadamente 1200 m del centro del área urbana. Se considera una capacidad del vehículo de 1440 kg de plástico. En la Tabla 3 pueden visualizarse las distancias de recorrido para las distintas soluciones obtenidas con una condición de corte temporal de 3000 segundos del solver en el proceso de resolución Segundo escenario En este escenario se consideraron 1440 generadores de residuos plásticos distribuidos en un área de m 2, abarcando un total de 64 manzanas. Nuevamente se disponen a razón de diez generadores por cuadra y cuarenta por manzanas. Estos generadores serán divididos como grandes, medianos o pequeños siguiendo la distribución probabilística empírica previamente citada de la Tabla 1. Se consideró la potencial instalación de 161 contenedores distribuidos en cada una de las esquinas de la cuadrícula. A los efectos de calcular los valores ideal (mejor valor posible) y antiideal (peor valor posible) de cada objetivo y, de esta forma, trazar la matriz de pagos, se procede de igual forma que en el primer escenario, siguiendo la recomendación de Tralhão et al. (2010). Los resultados se encuentran en la Tabla 5. Análogamente al primer escenario planteado, se explora la frontera de Pareto. Nuevamente se encuentran 20 soluciones no dominadas que se presentan en la Tabla 6. En este escenario, debido a su mayor dimensión, se considera que el centro de transferencia se encuentra aledaño al área urbana considerada, ubicándose en uno de los extremos del área (aproximadamente a 550 m del centro del área). En la Tabla 6 pueden visualizarse las distancias de recorrido para las distintas soluciones obtenidas con una condición de corte temporal de 3000 segundos del solver Análisis de los resultados Los resultados de ambos escenarios pueden visualizarse en Figura 1 y Figura 2. La curva roja representa la distancia promedio que deben recorrer los usuarios (eje vertical izquierdo) para cada costo de inversión (eje horizontal) lo que representa la superficie de Pareto del problema de instalación de contendores. Por otro lado, los puntos azules representan las longitudes de las TC-103

106 XXVIII ENDIO, XXVI EPIO y RED-M VIII rutas de recolección (eje vertical derecho) para recoger el plástico acumulado en los contenedores para cada costo de inversión (eje horizontal). Las escalas de ambos ejes verticales fueron ajustadas con el fin de visualizar de forma separada la frontera de Pareto de las instalaciones de contenedores y las distancias de recorrido. Como fue previsto, en ambos escenarios puede notarse que al instalar una mayor cantidad de contenedores disminuye la distancia promedio que deben recorrer los usuarios. Asimismo, se evidencia que esta tasa de disminución decrece a medida que nos encontramos en planes cada vez más caros. Por ejemplo, en el primer escenario, entre las soluciones 2 y 3 se logra una reducción de la distancia promedio de 0,52 m por cada AR$ 1000 adicionales de costo de inversión, mientras que entre las soluciones 18 y 19 se obtiene sólo una reducción de 0,02 m por cada AR$ 1000 adicionales de costo de inversión. El segundo escenario presenta un comportamiento similar. Se evidencia una disminución de 0,29 m por cada AR$ 1000 de inversión adicional entre las soluciones 2 y 3, mientras que entre las soluciones 18 y 19 la distancia promedio disminuye menos de 0,01 m por cada AR$ 1000 de inversión adicional. En el caso de las distancias de recorrido del primer escenario puede verse una disminución brusca en las distancias a partir de la solución 16. Para inversiones superiores las distancias de recorrido son sensiblemente menores, variando desde 8000 m en la solución 16 a 5200 m en la solución 17. En el segundo escenario, existe una leve tendencia a la disminución de las distancias de recorrido a medida que aumenta el costo de inversión. Sin embargo, el comportamiento ante distintas soluciones presenta una alta varianza, conteniéndose el recorrido más corto en la solución 13 (4200 m). Las soluciones al modelo CVRP fueron obtenidas con una condición de corte temporal de 3000 segundos de corrida del programa en el proceso de resolución. El software encontró mejores soluciones, las cuales se miden a través de una menor diferencia porcentual entre la solución actual y el óptimo estimado por GUROBI, para las instancias del problema con mayor cantidad de contenedores habilitados. Por ejemplo, para las instancias de menor cantidad de contenedores en el primer escenario, desde la solución 1 a la 16, la distancia entre la solución provista por el programa y el óptimo estimado fue siempre superior al 65%. En cambio, para instancias con mayor costo de inversión (desde la solución 17 a la 20) las diferencias entre la solución actual y la mejor posible estimada fueron del orden del 40%. No obstante, debe aclararse que el programa siempre obtuvo soluciones factibles para todas las instancias del problema. El desempeño del solver en el segundo escenario fue considerablemente mejor en cuanto a cercanía al óptimo, presentando siempre diferencias porcentuales menores al 20%. Cabe destacar que en algunas soluciones GUROBI arribó a la solución óptima antes de la condición de corte temporal. Este comportamiento pareciera indicar que el modelo presentado es más eficiente para instancias mayores del problema, lo cual podría ser una causa de los relativamente altos valores de recorrido que se presentan en el primer grupo de soluciones del primer escenario. El buen funcionamiento del modelo en el segundo escenario pareciera avalar esta hipótesis. Sin embargo, debieran realizarse mayor cantidad de pruebas para poder arribar a una conclusión valedera. TC-104

107 XXVIII ENDIO, XXVI EPIO y RED-M VIII Además, debe recordarse que existen distintas localizaciones de los centros de transferencia entre ambos escenarios. Mientras que en el segundo escenario el centro se encuentra aledaño al área urbana de estudio, en el primer caso el centro se encuentra a una distancia considerable del área de estudio. Previsiblemente mientras más cercano esté el centro de transferencia, más cortas serán las rutas de recolección. Sin embargo, no siempre será posible emplazar un lugar de acopio de residuos cercano a un área urbana ya consolida debido a las dimensiones que requiere dicho depósito y a las resistencias que existen por parte de las personas a estar cerca de estos lugares de almacenamiento de residuos. De allí la importancia de considerar escenarios donde el centro de transferencia y/o tratamiento de residuos se encuentre fuera del área de estudio. 4. CONCLUSIONES La motivación de este trabajo fue generar una herramienta para la toma de decisiones en el campo de los Residuos Sólidos Urbanos (RSU). Particularmente, se planteó un modelo para una resolución integral de los aspectos tácticos de una red de recolección de un residuo altamente reciclable, como lo es el plástico. Se propuso un enfoque integrador al abarcar dos aspectos fundamentales de la logística de los RSU: la instalación de los contenedores y el establecimiento de la ruta de recolección de los mismos. Este enfoque, considerando además que en este trabajo se utiliza un modelo multi-objetivo para determinar la localización de contenedores, es verdaderamente escaso en la bibliografía. La naturaleza multi-objetivo del problema permitió evaluar la relación de compromiso existente entre disminuir el costo de inversión de los contenedores y brindar un mejor servicio a los usuarios. Por su parte, el modelo de enrutamiento propuesto halló rutas de recolección factibles en todas las instancias analizadas. Además, este modelo presentó mejores soluciones para la condición de corte de 3000 segundos del solver en los problemas de mayores dimensiones. Aunque esto pareciera indicar que el modelo es más eficiente para instancias mayores del problema, se requiere mayor cantidad de pruebas para arribar a una conclusión sobre esta cuestión. Tipo de generador Tabla 1. Datos de generación de residuos. Cantidad equivalentes de personas Cantidad de kg de plástico reciclable desechado por semana Probabilidad de ocurrencia Grandes 84 7,57 0,4 Medianos 25 2,25 0,3 Pequeños 5 0,45 0,3 Tabla 2. Parámetros del modelo de localización de contenedores. Parámetro Valor Unidad Parámetro Valor Unidad d máx 150 m cap 65 (1) kg (1) c cont 3000 AR$ TC-105

108 XXVIII ENDIO, XXVI EPIO y RED-M VIII (1) Representa un contenedor de 1000 litros para un peso específico del plástico de 65 kg/m 3 Tabla 3. Matriz de pagos primer escenario. Objetivo optimizado Costo (AR$) Distancia (m) f c (1) 31,489 (2) f d (2) 26,111 (1) (1) Valores ideales de los objetivos, (2) Valores anti-ideales de los objetivos. Tabla 4. Resultados primer escenario. Número de solución Costo de inversión (AR$) Distancia promedio (m) Ruta de recolección (m) (1) , , , , , , , , , , , , , , , , , , , , (1) Obtenidos con una condición de corte temporal de 3000 segundos del solver en el proceso de resolución. TC-106

109 XXVIII ENDIO, XXVI EPIO y RED-M VIII Tabla 5. Matriz de pagos segundo escenario. Objetivo optimizado Costo (AR$) Distancia (m) f c (1) (2) f d (2) 25,986 (1) (1) Valores ideales de los objetivos, (2) Valores anti-ideales de los objetivos. Tabla 6. Resultados segundo escenario. Número de solución Costo de inversión (AR$) Distancia promedio (m) Ruta de recolección (m) (1) , , , , , , , , , , , , , , , (1) Obtenidos con una condición de corte temporal de 3000 segundos del solver en el proceso de resolución. TC-107

110 Distancia promedio cliente-reservorio (m) Longitud de la ruta de recolección (m) Distancia promedio cliente-reservorio (m) Longitud de la ruta de recolección (m) XXVIII ENDIO, XXVI EPIO y RED-M VIII , ,0 28,0 26,0 24,0 22, , ,0 150,0 155,0 160,0 165,0 170,0 175,0 180,0 185,0 190,0 195,0 200,0 205,0 210,0 215,0 220,0 Costo de inversión (miles de AR$) Figura 1. Resultados primer escenario Costo de inversión (miles de AR$) Figura 2. Resultados segundo escenario. TC-108

111 XXVIII ENDIO, XXVI EPIO y RED-M VIII 5. AGRADECIMIENTOS Este trabajo fue financiado por la Universidad Nacional del Sur y el Consejo Nacional de Investigaciones Científicas y Tecnológicas. También se agradece la colaboración recibida por parte de la empresa Bahía Ambiental S.A.P.E.M., radicada en la ciudad de Bahía Blanca. 6. REFERENCIAS ABARCA GUERRERO L., MAAS G., HOGLAND W. (2013): Solid waste management challenges for cities in developing countries. Waste Management, vol. 33, pp AL-SALEM S. M., LETTIERI P., BAEYENS J. (2009): Recycling and recovery routes of plastic solid waste (PSW): A review. Waste Management, vol. 29, pp BELIËN J., DE BOECK L. Y VAN ACKERE J. (2014): Municipal Solid Waste Collection and Management Problems: A Literature Review. Transportation Science, vol. 48, pp BING X., BLOEMHOF-RUWAARD J. M., VAN DER VORST J. G. A. J. (2014): Sustainable reverse logistics network design for household plastic waste. Flexible Services and Manufacturing Journal, vol. 26, pp COUTINHO-RODRIGUES J., TRALHÃO L., ALÇADA-ALMEIDA L. (2012): A biobjective modeling approach applied to an urban semi-desirable facility location problem. European Journal of Operational Research, vol. 223, pp DEHGHANIAN F., MANSOUR S. (2009): Designing sustainable recovery network of end-of-life products using genetic algorithm. Resources, Conservation and Recycling, vol. 53, pp DI FELICE P. (2014): Integration of Spatial and Descriptive Information to Solve the Urban Waste Accumulation Problem. Procedia - Social and Behavioral Sciences, vol. 147, pp ERIKSSON O., CARLSSON REICH M., FROSTELL B., BJÖRKLUND A., ASSEFA G., SUNDQVIST J.-O., GRANATH J., BAKY A., THYSELIUS L. (2005): Municipal solid waste management from a systems perspective. Journal of Cleaner Production, vol. 13, pp FINNVEDEN G., JOHANSSON J., LIND P., MOBERG G. (2005): Life cycle assessment of energy from solid waste part 1: general methodology and results. Journal of Cleaner Production, vol. 13, pp GHIANI G., LAGANÀ D., MANNI E., MUSMANNO R., VIGO D. (2014): Operations research in solid waste management: A survey of strategic and tactical issues. Computers & Operations Research, vol. 44, pp GHIANI G., LAGANÀ D., MANNI E., TRIK C. (2012): Capacitated location of collection sites in an urban waste management system. Waste Management, vol. 32, pp GHIANI G., MANNI A., MANNI E., TORALDO M. (2014): The impact of an efficient collection sites location on the zoning phase in municipal solid waste management. Waste Management, vol. 34, pp HEMMELMAYR V. C., DOERNER K. F., HARTL R. F., VIGO D. (2014): Models and Algorithms for the Integrated Planning of Bin Allocation and TC-109

112 XXVIII ENDIO, XXVI EPIO y RED-M VIII Vehicle Routing in Solid Waste Management. Transportation Science, vol. 48, pp HENRY J. G. (1999): Residuos Sólidos. Publicado en Henry J. G. y Heinke G. W. (1999), Ingeniería Ambiental, Prentice Hall Hispanoamericana, México, pp KINOBE J. R., GEBRESENBET G., VINNERAS B. (2012): Reverse Logistics Related to Waste Management with Emphasis on Developing Countries - A Review Paper. Journal of Environmental Science and Engineering B, vol. 1, pp KIM J. S., LEE D. H. (2013): A restricted dynamic model for refuse collection network design in reverse logistics. Computers & Industrial Engineering, vol. 66, pp LEY 1854/05. Gestión Integral de Residuos Sólidos Urbanos, Basura Cero. Boletín Oficial de la Ciudad Autónoma de Buenos Aires, Argentina, 12 de Enero del MOBERG G., FINNVEDEN G., JOHANSSON J., LIND P. (2005): Life cycle assessment of energy from solid waste (part 2): landfilling compared to other treatment methods. Journal of Cleaner Production, vol. 13, pp PLAPIQUI-CONICET-UNS (2013). Análisis Estadístico de los Residuos Sólidos Domiciliarios de Bahía Blanca. SAyDS (2005). Estrategia nacional para la gestión integral de residuos sólidos urbanos. SAyDS (2009). Plan de gestión integral de los residuos sólidos urbanos del área metropolitana de Rosario. SRIVASTAVA A. K., NEMA A. K. (2012): Fuzzy parametric programming model for multi-objective integrated solid waste management under uncertainty. Expert Systems with Applications, vol. 39, pp TOTH P., VIGO D. (2001): The Vehicle Routing Problem. Society for Industrial and Applied Mathematics. Philadelphia, EEUU. TRALHÃO L., COUTINHO-RODRIGUES J., ALÇADA-ALMEIDA L. (2010): A multi-objective modeling approach to locate multi-compartment containers for urban-sorted waste. Waste Management, vol. 30, pp TROSCHINETZ A. M., MIHELCIC J. R. (2008): Sustainable recycling of municipal solid waste in developing countries. Waste Management, vol. 29, pp ZANI F. M. (2013): Análisis descriptivo del mercado de plástico reciclado. Trabajo Final de Grado, Departamento de Ciencias de la Administración, Universidad Nacional del Sur. ZELENY, M. (1982): Multiple Criteria Decision Making. McGraw-Hill Book Company. New York, EEUU. ZHUANG Y., WU S. W., WANG Y. L., WU W. X., CHEN Y. X. (2008): Source separation of household waste: A case study in China. Waste Management, vol. 28, pp TC-110

113 XXVIII ENDIO, XXVI EPIO y RED-M VIII ENSEÑANZA

114 XXVIII ENDIO, XXVI EPIO y RED-M VIII GEOGEBRA, APLICACIÓN PARA RESOLVER Y ANALIZAR PROBLEMAS DE PROGRAMACIÓN LINEAL CONTINUA. HERNÁN PABLO GUEVEL ELENA ROJAS HEREDIA Facultad de Ciencias Económicas Universidad Nacional de Córdoba heguevel@eco.unc.edu.ar elena_rojasheredia@yahoo.com.ar RESUMEN A partir de los avances científicos producidos en los ámbitos de la informática y las telecomunicaciones, las TIC (Tecnologías de la Información y la Comunicación) ponen a disposición múltiples opciones que favorecen la construcción del conocimiento y alientan el trabajo grupal. Las TICs deben ser herramientas que favorecen la comprensión y son un medio para romper las rutinas tradicionales del tratamiento de los temas relacionados con el programa del curso. GeoGebra como parte de este conjunto de herramientas se presenta como un software libre, gratuito, educativo e intuitivo que une en un solo programa aplicaciones de álgebra y geometría. El presente documento permite al lector introducirse en el mundo de GeoGebra ya que contiene una propuesta metodológica, con el objeto de que se explore la potencialidad del programa. Es por ello que durante su desarrollo se presenta la plataforma GeoGebra mostrando su capacidad para resolver problemas lineales de dos variables y destacando su versatilidad para analizar gráficamente la sensibilidad del problema. Palabras clave: TIC GeoGebra Programación Lineal ABSTRACT From the scientific advances in the fields of computing and telecommunications, ICT (Information and Communication) offer multiple choices that favor the construction of knowledge and encourage group work ICT should be tools that promote understanding and it is a means to break the traditional routines of the treatment of issues related to the programme of the course. GeoGebra as part of this set of tools is a free, free, educational and intuitive software that unites in a single program applications of algebra and geometry. This document allows the reader to enter the world of GeoGebra since it contains a methodological proposal, with the object that will explore the potential of the program. That is why during its development platform GeoGebra showing their ability to solve linear problems of two variables and highlighting its versatility to graphically analyze the sensitivity of the issue. Key words: TIC GeoGebra Linear Programing TC-112

115 1. INTRODUCCIÓN XXVIII ENDIO, XXVI EPIO y RED-M VIII Desde la aparición de la tiza y el pizarrón, láminas, videos, filminas o materiales web, la tecnología siempre ayudo a los docentes a transmitir los conocimientos. Si bien la velocidad del cambio es vertiginosa e implica la adaptabilidad constante del docente, las Tecnologías de la Información y la Comunicación (TIC) definidas como el conjunto de aplicaciones que permiten el acceso, producción, tratamiento y comunicación de información presentada en diferentes formatos, ponen a disposición múltiples opciones que favorecen la construcción del conocimiento y alientan el trabajo grupal. Con el uso de las tecnologías como factor motivacional se podría correr el riesgo de promover el aprendizaje en las actividades tecnológicas en desmedro del objeto de estudio (Litwin, 2005), es por ello que las estrategias pedagógicas se deben centrar en el corazón del conocimiento y no el uso de la tecnología propiamente dicha. Deberían ser herramientas que favorecen la comprensión y ser un medio para romper las rutinas tradicionales del tratamiento de los temas relacionados con el programa del curso. La aparición de software libre y creado especialmente para el aula está favoreciendo la dinámica pedagógica. En 2002, se da a conocer a GeoGebra su autor, austriaco Markus Hohenwarter, hace una apuesta basada en la interacción dinámica que permite a todos los niveles educativos acercarse a la matemática a través de la informática, para mayor información se recomienda Hohenwarter y Hohenwarter, (2014) Aparici y Espócito, (2014). GeoGebra es un software libre, gratuito y educativo que une en un solo programa aplicaciones de álgebra y geometría. Otro tema no menor es que está disponible para múltiples plataformas. El presente documento contiene una propuesta metodológica dirigida a estudiantes, con el objeto de que ellos exploren la potencialidad del programa y sostengan una actitud de curiosidad frente al contenido de la materia, es por ello que durante su desarrollo se presenta la plataforma GeoGebra mostrando su capacidad para resolver problemas lineales de dos variables y destacando su versatilidad para analizar gráficamente la sensibilidad del problema. 2. CARACTERIZACIÓN DE LA MATERIA QUE SE DICTA Nuestra asignatura, Métodos Cuantitativos para la Toma de Decisiones, es una materia obligatoria de las carreras de Contador Público y Licenciatura en Administración de Empresa donde se dictan temas de Investigación Operativa relacionados con la toma de decisiones. Los contenidos de la materia pretenden fomentar la capacidad de abstracción y comprensión de las características fundamentales de los problemas planteados, generar la capacidad de formular el modelo cuantitativo que represente la situación analizada y de resolver el problema, favorecer el análisis crítico de los problemas y desarrollar la habilidad para comunicar los resultados obtenidos. El desarrollo de la materia está caracterizado por 5 horas de dictado semanales, donde se inscriben aproximadamente 900 alumnos anuales en 5 TC-113

116 XXVIII ENDIO, XXVI EPIO y RED-M VIII divisiones. La estrategia metodológica de enseñanza se centra en primer lugar en el dictado de clases teórico-prácticas con interacción activa entre los estudiantes y profesores. En segundo lugar en el uso de la plataforma educativa favorecida por la generación de foros de discusión, autoevaluaciones y materiales de estudio complementarios a la bibliografía básica. Finalmente se articulan los contenidos en clases de gabinete con software específico de la materia, tal es el caso de Solver complemento de MS Excel o MS Project, entre otros. Durante el año 2014 se propuso la utilización de la plataforma GeoGebra, que fue evaluada por parte del equipo docente con el fin de generar el conocimiento necesario para su dictado y además se están realizando materiales facilitadores para su implementación durante el año GEOGEBRA GeoGebra es un soft versátil, intuitivo y ampliamente divulgado en el ámbito académico. En este apartado se expondrán los requerimientos para su instalación y soporte, se describirán su interfaz y se explicará su simbología Instalación y Soporte Figura 1: portal de inicio de Como se indicó anteriormente el soft es libre y gratuito, actualmente puede descargarse desde y está disponible para pc, tablets y próximamente en smarphones. Una alternativa interesante que puede ser utilizado on-line a través de un app de google, lo cual representa una novedad en este tipo de soft educativos ya que de esta manera no es necesaria su instalación. En la figura 1 se muestra la pantalla de inicio de su homepage en castellano. Otro tema de no menor importancia es el soporte que genera la comunidad de usuarios, a través de los foros de discusión y videos tutoriales que generalmente se encuentran en YouTube. Estos medios son utilizados para mostrar y compartir avances o para atender dudas. A continuación se brinda direcciones recomendadas por el homepage del soft: TC-114

117 XXVIII ENDIO, XXVI EPIO y RED-M VIII Blog - Twitter - Facebook - Canal YouTube Interfaz Instalado el soft o ingresado al app de google el dialogo entre el operador y GeoGebra se realiza a través de pantalla principal (Figura 2) que está dividida en vistas. Por defecto, se despliega la Vista Algebraica a la izquierda y la Gráfica, a la derecha. Por encima de ambas aparece la Barra de Menús y la de Herramientas. Finalmente en el extremo inferior de la pantalla se ubica barra de Entrada o barra de Navegación. Figura 2: Vista de la ventana principal Toda expresión matemática se introduce en la barra de entrada, al mismo tiempo dicha expresión se muestra en la vista algebraica y en la vista gráfica. La construcción interactiva y simultanea de Geogegra es una de sus principales ventajas ya una vez definida una figura, cualquier parámetro puede ser modificado y automáticamente cambiarán todas aquellas expresiones dependientes Simbología y notaciones de GeoGebra El soft tiene vocabulario específico que a los fines del presente trabajo solo se definirán aquellos que sean necesarios para la comprensión: Objeto: es cualquier expresión que se introduzca en la barra de entradas. Puede ser libre o dependiente. El objeto libre es aquel que no se relaciona con un objeto anterior (por ejemplo un punto en el semiplano) y el objeto dependiente es aquel que se relaciona con objetos previamente definidos (por ejemplo ecuaciones o segmentos). Los objetos aparecen en bloques separados dentro de la ventana Algebraica. TC-115

118 XXVIII ENDIO, XXVI EPIO y RED-M VIII Ejes: GeoGebra ofrece la posibilidad de trabajar con ejes cartesianos y/o cuadrícula. Para esto es necesario activar o desactivar las opciones Ejes y Cuadrícula del menú Vista. Como se usarán Ejes en el desarrollo del trabajo cabe solamente decir que sirven para representar los puntos en el plano, aunque el soft no les da nombres visibles los trata como eje X al eje de abscisas e Y al eje de ordenadas. Fórmula: es toda sentencia de operaciones predeterminadas en el sistema. Para ingresar cualquier fórmula predeterminada en el programa las sentencias deben seguir el siguiente orden: Fórmula:[<objeto>,<objeto>]. Existen otros conceptos importantes que se utilizaran a lo largo del trabajo pero a los fines de facilitar su comprensión se irán definiendo a medida que sean necesarios. 4. DESARROLLO DE LA ACTIVIDAD 4.1. Planteo del problema A los fines de explicar paso a paso el desarrollo de la actividad a través del software, se propone el siguiente problema lineal extraído de la guía de trabajos práctico de la materia Métodos cuantitativos para la Toma de Decisiones (Carignano, Funes, Peretto y Castro, 2014): Variables de decisión: x = Número de escritorios a producir para la orden en el periodo. y = Número de mesas a producir para la orden en el periodo. Planteo: Max (Z) = 100 x y (Beneficio Total) Sujeta a: 2 x + 4 y <= 80 (pies de madera) 12 x + 4 y <= 240 (horas de carpintería) 6 x + 6 y <= 144 (horas de terminación) x, y >= Solución con GeoGebra Con el objeto de encontrar la solución gráfica, se proponen los siguientes pasos que proporcionan una guía de resolución para cualquier problema lineal. Paso 1: Graficar las restricciones: Cada una de las inecuaciones se ingresan en condición de igualdad 1. Escribiendo 2 x + 4 y = 80 en la barra de entrada y presionando enter se dificultosa. 1 Otra manera es ingresar las desigualdades, no sugerimos esta opción ya que su visualización es TC-116

119 XXVIII ENDIO, XXVI EPIO y RED-M VIII introduce la primera ecuación. El lado izquierdo de la pantalla presenta, la expresión matemática y el lado derecho su expresión gráfica (Figura 3). Obsérvese que la expresión de la vista algebraica se simplifica automáticamente. Figura 3: Introducción de la primer restricción en forma de igualdad. De la misma forma se ingresan por separado las restricciones restantes incluidas las de no negatividad (12 x + 4 y = 240, 6 x + 6 y = 144, x = 0, y = 0). La figura 4 muestra la vista grafica de las restricciones. El lector puede advertir que las restricciones de no negatividad están superpuestas con el eje de las abscisas y ordenadas, por lo tanto no podrá distinguirlos. Figura 4: Vista gráfica de las restricciones del problema. Prestando atención al grafico de la figura 4 se puede observar que el software genera su propio orden asignando colores, títulos, tipografías y estilos que pueden ser modificados por el usuario posicionándose sobre el objeto y presionando el botón de la derecha del mouse. De esta manera se despliega la ventana de propiedades o preferencias de la recta. Por ejemplo en la Figura 5 se muestra las propiedades de la recta a. TC-117

120 XXVIII ENDIO, XXVI EPIO y RED-M VIII Figura 5: Tabla de Preferencias. Ingresando al comando preferencias el usuario puede hacer modificaciones permitidas a los objetos, en cuanto a su nombre, formato y estilo. Para su mejor comprensión proponemos que cada restricción se le asigne un nombre representativo del insumo al cual hace referencia, la primera restricción se la denotará como PiesMadera, la segunda como HsCarpintería y la tercera como HsTerminación (para ello se utilizó el comando resaltado en la figura 6 a). Además también se cambia el color de la recta hs de terminación (ver comando figura 6 b). El resultado final de los cambios se observan en la figura 6 c). a) b) c) Figura 6 a): Comando necesario para cambiar nombre - Figura 6 b): Comando necesario para cambiar colores - Figura 6 c): Identificación de cada restricción, luego de utilizar la tabla de propiedades o preferencias. TC-118

121 XXVIII ENDIO, XXVI EPIO y RED-M VIII Paso 2: Graficar la región factible: Una vez que se están representadas todas las restricciones del problema para la definición de la región factible utiliza el comando. Por lo tanto sobre la barra de entrada se ingresa lo siguiente: Regfac: (2x + 4y 80) (12x + 4y 240) (6x + 6y 144) (x 0) (y 0), de esta manera aparecerá en la vista grafica la región factible del problema (Figura 7). Se debe tener en cuenta que por un lado se deben colocar los dos puntos luego la fórmula, de lo contrario GeoGebra no reconoce el comando y por el otro, el símbolo o cualquier otro que sea necesario se encuentran en el extremo derecho de la barra de entrada, haciendo click en el botón α. Figura 7: Región factible utilizando Regfac. Para determinar los vértices de la región factible se puede utilizar el comando interseca, ingresándolo en la barra de entrada, desplegándose distintas opciones como por ejemplo: interseca[<objeto>,<objeto>], interseca[<objeto>,<índice del punto de intersección>], etc. Se denominará vértice A al punto formado por la intersección del eje de las ordenadas y la primera restricción y en sentido horario se irán generando el resto de las soluciones básicas 2. En el cuadro 1, se indican los comandos a ingresar para el resto de los vértices y sus respectivas coordenadas. Vértice Comando Coordenada B interseca[piesmadera,hsterminación] punto B=(8,16) C interseca[hsterminación,hscarpintería] punto C=(18,6) D interseca[hscarpintería,e] punto D=(20,0) E interseca[d,e] punto E=(0,0) Cuadro 1: comandos a ingresar para el resto de los vértices y sus respectivas coordenadas. Otra alternativa es a través de la barra de herramientas, como indica la Figura 8 se debe seleccionar en la barra el icono punto, de esta manera se 2 Una aclaración que facilita el uso es que si se ubica la flecha del mouse en el punto que se quiere determinar, GeoGebra nos indica las rectas que se intersecan en la misma, en este caso la recta PiesMadera (restricción de pies de madera) y la recta d (valores de x no negativos). Por lo cual seleccionando el comando reemplazando los objetos de la siguiente manera: interseca[piesmadera,d] se obtiene el resultado deseado. TC-119

122 XXVIII ENDIO, XXVI EPIO y RED-M VIII activa el comando y solo resta indicar y hacer click con el mouse en el punto donde se intersecan las rectas deseadas. Figura 8: Comandos para marcar las soluciones básicas con el mouse Figura 9: Punto de intersección entre el eje de las ordenadas y la primera restricción. Finalmente, la figura 9 muestra los puntos generados, en la pantalla vista gráfica aparecerá destacado cada punto referido y en la pantalla vista algebraica se informarán las coordenadas correspondientes a cada objeto, por ejemplo A=(0,20). Paso 3: Graficar la función objetivo: En la barra de entrada se ingresa el comando que nos permitirá graficar la función objetivo, fo: 100x+120y=0 y aparecerá la recta correspondiente, en este caso, de color negro (Figura 9). A los fines de distinguirlo de mejor manera se decidió cambiar su color y asignarle el rojo. TC-120

123 XXVIII ENDIO, XXVI EPIO y RED-M VIII Figura 10: Representación de la Función Objetivo. Paso 4: Graficar la función objetivo incorporando un deslizador: Con el objeto de desplazar la función objetivo (FO) y así asignarle distintos valores se usa la herramienta denominada deslizador 3 que permite animar la gráfica y al desplazarlo se modificarán los objetos que de él dependan. Finalmente, se activa presionando el penúltimo botón ubicado en la barra de herramientas (Figura 11). Figura 11: Botón para activar un deslizador. Se abre la pantalla Deslizador asignándose el nombre z, un valor mínimo (0), un valor máximo (3000) y un incremento de 10 que significa que el deslizador variará de 10 en 10. Los valores pueden ser ajustados todas las veces que fuere necesario (Figura 12). Figura 12: Propiedades de un deslizador. 3 Un deslizador es un segmento con un punto móvil que se desplaza sobre el mismo. Este punto es tomado como un número (escalar) sobre el cual dependan otros objetos. TC-121

124 XXVIII ENDIO, XXVI EPIO y RED-M VIII El siguiente paso es relacionar el deslizador con la FO, para ello en las preferencias de la función 100x+120y=0 y se reemplaza 0 por z (nombre que se le dio al deslizador), por lo tanto el resultado será 100x+120y=z o 100x+120y z=0 Figura 13: Relación entre Deslizador y FO. Sentido de optimidad del deslizador Sentido de optimidad de la recta Figura 14: Solución del problema. Para encontrar la solución debemos trasladar el deslizador en el sentido de optimidad deseado, en este caso hacia la derecha ya que hablamos de una función de beneficio (Figura 14). Finalmente la solución es: producir 8 escritorios, 16 mesas, se utilizarán todos los pies de madera y las horas de terminación, sobrando solamente horas de carpintería. La contribución total a las utilidades es de $ 2.720, situación representada en la figura Análisis de Sensibilidad Uno de los supuestos sobre los que se basa la Programación Lineal (PL) es el de certidumbre, es decir que el modelo supone que todos los parámetros que en el intervienen se conocen con exactitud. Este supuesto puede ser relajado mediante la modificación de alguno sus parámetros, este proceso se denomina análisis post-óptimo, análisis de optimidad o análisis de sensibilidad. TC-122

125 XXVIII ENDIO, XXVI EPIO y RED-M VIII Debido a que los parámetros del problema pueden ser afectados por situaciones externas al modelo se hace necesario realizar un análisis de la sensibilidad de la solución del problema, es decir, estudiar los efectos que tienen en la solución óptima del problema las variaciones que puedan producirse en los valores de estos parámetros. El objetivo de este análisis es responder entre otras, preguntas tales como: 1- Cómo afecta a la solución óptima un cambio en el coeficiente de la función objetivo (c j ) de alguna variable básica? 2- Cuál es el efecto que tiene en la solución óptima un cambio en el coeficiente de la función objetivo (c j ) de una variable no básica? 3- Qué efecto producirá en la solución óptima una variación en un término independiente (b i ) de alguna restricción? El análisis de sensibilidad se puede abordar de manera gráfica o analítica, en el caso de GeoGebra se aplicará el análisis gráfico. Este análisis se realizará a través de los deslizadores, una herramienta ya utilizada anteriormente que deben ser vinculados en los siguientes parámetros del planteo: coeficientes de la función objetivo de las variables de decisión y la disponibilidad de los recursos Variaciones en los coeficientes de la función objetivo Para poder trabajar las variaciones de la función objetivo se debe crear un deslizador para cada coeficiente (c j ). Siguiendo el paso 4 del punto 4.2 solución con GeoGebra. En la figura 15 se muestra la manera de configurar cada uno de ellos. a) b) Figura 15 a) datos utilizados en el deslizador Escritorios, b) datos utilizados en el deslizador Mesas y c) los datos utilizados para la vinculación con la FO Primer caso: Cambio en la contribución de una variable básica, primera conclusión. Qué efecto produce si la contribución a las utilidades de los escritorios disminuye en $ 20? Si la contribución de escritorios por unidad era de $ 100 y disminuye en $20, la nueva utilidad será de $ 80 por cada escritorio fabricado, desde el punto de vista del soft en primer lugar se activa la opción puntero del mouse, en segundo término se presiona sobre deslizador que representa la contribución a c) TC-123

126 XXVIII ENDIO, XXVI EPIO y RED-M VIII los escritorios y se lo desplaza hasta la contribución 80. Finalmente, se activa el deslizador de la FO y se lo desplaza hacia el sentido de optimidad deseado. Como se observa gráficamente, la pendiente de la función objetivo cambia (Figura 16) y el vértice B sigue siendo óptimo, esto es así ya que la nueva pendiente está dentro de los límites determinados entre la pendiente de la recta horas de terminado y la pendiente de la recta pies de manera, los efectos determinados serán: No cambia la base óptima: las variables básicas continúan siendo básicas. No cambia la solución óptima: Cambia la contribución total a las utilidades en la siguiente magnitud: C j * λ j, siendo λ j la cantidad de unidades a producir. C 1 * λ 1 = -20 * 8 = -160 y el nuevo valor de será Z = = 2560 Figura 16: Nueva solución del problema con cambio en C 1.(escritorio) Conclusión: Si el valor de la nueva pendiente de Z se encuentra entre los valores de las pendientes de las rectas de restricción que definen el vértice óptimo, la solución seguirá siendo óptima y solo se modificará el valor objetivo si cambia el Cj de una variable básica. Segundo caso: Cambio en la contribución de una variable básica, segunda conclusión. Qué efecto produce si la contribución a las utilidades de los escritorios (c 1 ) aumenta en $ 20? Si la contribución a las utilidades aumenta $20, entonces el nuevo valor que asume será de $120. Realizando el cambio en el deslizador correspondiente (Figura 16) siguiendo el procedimiento del primer caso, se TC-124

127 XXVIII ENDIO, XXVI EPIO y RED-M VIII observa que la pendiente de la FO cambia y será la misma que la pendiente de la tercera restricción, por lo tanto dos soluciones posibles básicas óptimas, graficadas en los vértices B y C. Análisis del vértice B: el vértice óptimo continúa siendo una solución óptima del problema, manteniendo los valores de las variables del problema original, es decir, X*= [8, 16, 0, 80, 0]. Se observa además que cambia el valor del funcional, pudiendo calcular el nuevo valor de la siguiente manera: Z = Z0 + Cj * λi Z = * 8 = El valor de Z se incrementó luego del cambio propuesto. Análisis del vértice C: Surge otro vértice que también constituye una solución óptima al problema: X*= [16, 8, 0, 80, 0] y que otorga al funcional el mismo valor. Este es un caso de soluciones múltiples óptimas. Cualquier combinación lineal convexa de las soluciones de entre los vértices B y C dará el mismo valor al funcional. Figura 17: Problema con múltiples soluciones óptimas. Conclusión: Si el valor de la nueva pendiente de Z es la misma que la pendiente de alguna restricción que definen el vértice óptimo entonces es un problema con Múltiples Soluciones Óptimas. Tercer caso: Cambio en la contribución de una variable, tercera conclusión. Qué efecto produce si la contribución a las utilidades de los escritorios aumenta en $ 80? En este caso la nueva contribución será de $180, trabajado análogamente que en los casos anteriores, la pendiente cambiará y se observará un nuevo vértice óptimo C (Figura 18) TC-125

128 XXVIII ENDIO, XXVI EPIO y RED-M VIII Figura 18: Problema con nueva solución óptima Conclusión: Si el valor de la nueva pendiente de Z está fuera del intervalo establecido por los valores de las pendientes de las rectas de restricción que definen el vértice óptimo, cambiará la base óptima, y por lo tanto los valores de la solución y del funcional Cambios en los valores del lado derecho En este apartado se verá que sucede con el problema cuando varían los valores de los términos independientes. De la misma manera que en el caso de los parámetros de la FO, ahora se incorporarán deslizadores a los b i (ver figura 19) Figura 19: Problema con deslizadores vinculados a las disponibilidades. Crearemos un nuevo objeto que relacionará la región factible con los b i y de esta manera analizar todos los cambios propuestos, será Regfac1: (2x + 4y DispPiesMadera) (12x + 4y DispHsCarpintería) (6x + 6y DispHsTerminación) (x 0) (y 0). Primer caso: Caso es la variación en b i perteneciente a una restricción limitante (Si=0), primer conclusión. TC-126

129 XXVIII ENDIO, XXVI EPIO y RED-M VIII Qué modificaciones se producen en la base óptima y en la utilidad si la disponibilidad de horas de terminación (b 3 ) aumenta de 144 a 152 horas? En este caso correspondiente al lado derecho de la tercera restricción, en la solución original se puede observar que se utilizan la totalidad de las horas de terminación disponibles en el plan de producción. Por lo tanto, se analiza el caso de una variación en un recurso limitante o saturado. A los fines de la solución del soft, se deben realizar las siguientes acciones: Desplazar el deslizador HsTerminación hasta el valor deseado, Crear nuevos vértices con la función Interseca[PiesMadera, 6x + 6y 152] e Interseca[HsCarpintería, 6x + 6y 152] Desplazar la FO hasta el punto tangente con la región factible. Si se tiene un incremento en este recurso, se puede observar claramente en el gráfico que la región factible se expande hacia arriba y la derecha, dando origen a una nueva región factible delimitada por los vértices AHFDE, a la vez que surge una nueva solución óptima del problema ubicada en el vértice H es decir, X*= [10.67, 14.67, 0, 53.48, 0]. El valor de la función objetivo será $ Figura 20: Problema con incremento de lado derecho de restricción limitante Conclusión: El aumento de un b i de restricción, expande la región factible. El valor objetivo puede mejorar o no sufrir cambios. Segundo caso: Caso es la variación en b i perteneciente a una restricción limitante (S i =0), segunda conclusión. Qué modificaciones se producen en la base óptima y en la utilidad si la disponibilidad de pies de madera aumenta de 80 a 96 pies de madera? TC-127

130 XXVIII ENDIO, XXVI EPIO y RED-M VIII Este caso es la variación en b i perteneciente a una restricción limitante (S i =0). Originalmente se disponía de un total de 80 pies de madera (1º restricción), ahora se quiere observar los efectos de incrementar dicha disponibilidad en 16 pies. Realizando los siguientes pasos se obtendrá la nueva solución: Desplazar el deslizador PiesMadera hasta el valor deseado, Crear nuevos vértices con la función Interseca[e, 2x + 4y DispPiesMadera] Desplazar la FO hasta el punto tangente con la región factible. El primer efecto observable es que se desplaza hacia la derecha la recta limitante de la restricción 1 y como consecuencia se amplía la región factible, que queda determinada entre los vértices CDEG generándose una nueva solución básica representada en el punto F, vértice que será solución del problema y cuyos efectos son: Las variables básicas continúan siendo básicas, pero cambia el valor de la solución: X*= [0, 24, 0, 144, 0] transformándose en una solución óptima degenerada. El valor del funcional mejora su valor: Z = Z + b i * Y i = (16)*10 = El punto F es un caso particular donde la solución es posible, básica y degenerada Figura 19: Nueva solución del problema con cambio en b 1. Conclusión: al incrementar el recurso limitante al máximo valor permitido del intervalo de sensibilidad, la región factible se expande hacia arriba y a la derecha. Surge una nueva solución óptima con la particularidad de que se trata de un caso degenerado. Tercer caso: Cambio de b i de una restricción NO limitante (Si > 0) Qué modificaciones se producen en la base óptima y en la utilidad la disponibilidad de horas de carpintería disminuye en 40? 4 Y i : es el valor que asume la variable dual en el óptimo. TC-128

131 XXVIII ENDIO, XXVI EPIO y RED-M VIII Originalmente se disponía de 240 horas de carpintería (Restricción 2), la misma disminuye a 200 horas. El procedimiento a seguir es: Desplazar el deslizador PiesMadera hasta el valor deseado, Crear nuevos vértices. Desplazar la FO hasta el punto tangente con la región factible. El cambio está dentro de los límites, por lo tanto, se puede concluir que NO cambia la base, el conjunto de variables se mantiene al igual que sus valores X*= [8, 16, 0, 40, 0], con la salvedad del valor de la holgura de la segunda restricción: Cambia X*: S i = S i + b i * λ ij S 2`= 80 + (-40) * 1= 40 NO Cambia el valor del funcional Z = 2720 Figura 20: Nueva solución del problema con cambio en b 1. Conclusión: Gráficamente se observa que hubo una reducción de la región factible del problema, pero como la variación se produjo en una restricción NO limitante, (había 80 horas de carpintería sin utilizar) el vértice óptimo se mantiene al igual que el valor de la función objetivo, modificándose solamente dicha holgura a 40 horas. 5. CONCLUSIÓN La aplicación de las nuevas tecnologías como estrategia didáctica es siempre una oportunidad de aprendizaje significativo y trascendente, en la medida en que quienes participan en su análisis logren involucrarse activamente en el proceso de reflexión y discusión del caso. Los alumnos de las nuevas generaciones buscan y encuentran en la tecnología un factor motivacional que utilizado correctamente los acercan al corazón del conocimiento. TC-129

132 XXVIII ENDIO, XXVI EPIO y RED-M VIII Proponer un instructivo genera una guía hacia el conocimiento de la temática abarcada de manera que el protagonista pueda encontrar los conocimientos básicos y adentrarse hacia situaciones más complejas explorando potencialidad del soft y tomando decisiones sobre su funcionalidad. GeoGebra es un software que no requiere gran capacidad de procesamiento, es libre y muy intuitivo por lo tanto los autores lo vemos como positivo para su implementación en el aula. 6. REFERENCIAS BIBLIOGRÁFICAS APARISI L, ESPÓSITO S (2014). Problemática en la Diferenciación entre Dibujar y Construir con GeoGebra. DOI: / CARIGNANO C.; FUNES M.; PERETTO C.; CASTRO S.: Material de Estudio para Trabajos Prácticos. Asociación Cooperadora Facultad de Ciencias Económicas, U.N.C.. Argentina, HOHENWARTER M. Y HOHENWARTER J. (2014) Manual oficial de la versión 3.2 de GeoGebra - consultado Octubre LITWIN, E. (2005). Tecnologías Educativas en Tiempos de Internet. Ed. Amorrortu. Buenos Aires. TC-130

133 XXVIII ENDIO, XXVI EPIO y RED-M VIII INTEGRACIÓN DE ALUMNOS EXTRANJEROS A UN CURSO DE INVESTIGACIÓN OPERATIVA PABLO ECHEVARRÍA CELIA A. RÍOS Facultad de Ingeniería - UBA pechevarri@fi.uba.ar críos.arg@gmail.com RESUMEN En este trabajo, se presenta la problemática planteada por la presencia de alumnos no hispanohablantes nativos provenientes de intercambios estudiantiles en un curso de Modelos y Optimización I de Investigación Operativa. Se detallan sus conocimientos de español, se presentan las complejidades de aprender una materia en una lengua extranjera y se describe la situación de los alumnos de intercambio provenientes de países no hispanohablantes. En la tercera parte, se cuentan las estrategias utilizadas en el aula para disminuir estas complejidades, en los planos de expresión oral, expresión escrita, seguimiento personalizado e integración al grupo. Finalmente, se resumen los resultados obtenidos que han sido ampliamente satisfactorios, y se consideran la posibilidad y los beneficios de extender estas mismas estrategias a cursos sin alumnos extranjeros. Palabras Clave: Alumnos de Intercambio Didáctica Estrategias de enseñanza ABSTRACT In this paper, we present the problems arised from the presence of nonspanish speaking students coming from students exchanges to our Operational research courses. We explain their Spanish language knowledges and present the complexities of learning a subject taught in a foreign language and we describe the situation of the international students coming from non Spanish speaking countries. In the third chapter, we enumerate the strategies used in the classroom for overcoming these complexities, in the oral expression, written expression, personal coaching and integration into the group. Finally, we resume the results obtained which have been highly satisfactory, and consider the possibilities and benefits of extending the same strategies to groups with no foreign students. Key Words: International students Didactics Teaching strategies TC-131

134 XXVIII ENDIO, XXVI EPIO y RED-M VIII 1. INTRODUCCIÓN En el ámbito de la Universidad de Buenos Aires, dentro de la Facultad de Ingeniería, dictamos la materia Modelos y Optimización I para alumnos de las carreras de Ingeniería en Informática y Licenciatura de Análisis de Sistemas. Esta materia abarca temas de Programación Lineal y suele cursarse entre el tercer y el cuarto año de las respectivas carreras. Habitualmente, la Universidad recibe una gran cantidad de alumnos extranjeros de países hispanoamericanos. 1 Estos estudiantes, en general, no forman parte de programas de intercambio sino que vienen a cursar su carrera completa como alumnos regulares de la Universidad. Pero a partir del año 2005, comienzan a integrarse a nuestra materia alumnos de intercambio, procedentes de países no hispanohablantes. Luego de los primeros tres años, en que los estudiantes no tenían conocimientos de español al comenzar a cursar, y que obtuvieron muy pobres resultados; la población de alumnos de intercambio se estabilizó con los siguientes parámetros: - Un promedio de uno o dos alumnos por cuatrimestre, con un máximo de cuatro alumnos simultáneamente. - Estudiantes de ingeniería Industrial o carreras equivalentes. - Estudiantes de tercer o cuarto año de sus carreras, con un promedio de edad de 24 años. (Valores similares a los del resto del grupo) - Un nivel intermedio de español (B1/B2). - Estudiantes europeos, la mayoría de ellos de Noruega (60%) y Francia (33%). Estos datos fueron obtenidos a partir de los listados de alumnos de la materia, y encuestas a los alumnos de intercambio, para el período ). A partir de este panorama, el desafío ha sido lograr integrar a estos alumnos con el resto del grupo, cumpliendo los mismos requisitos académicos. Esto nos ha obligado a replantearnos como docentes la forma en que damos las clases, qué aspectos de las mismas podían modificarse con los recursos disponibles para facilitar el aprendizaje de estudiantes extranjeros, sin 1 (En adelante, utilizaremos los términos estudiantes extranjeros o estudiantes internacionales para referirnos a los estudiantes cuya lengua materna no sea el español, y estudiantes nativos para referirnos a aquellos cuya lengua materna sea el español, independientemente de su país de origen) TC-132

135 XXVIII ENDIO, XXVI EPIO y RED-M VIII desalentar ni interferir con el de los nativos, que seguían siendo la gran mayoría. En el siguiente trabajo se detallan algunas de las técnicas implementadas, basadas en la experiencia y en las respuestas obtenidas por parte de los alumnos como estímulos para profundizarlas o descartarlas. 2. SITUACIÓN DE LOS ALUMNOS 2.1. La Lengua española como lengua extranjera Según datos del Instituto Cervantes, actualmente, la lengua española es la cuarta lengua más hablada en el mundo, detrás del chino, el inglés y el hindi y en los próximos años, cruzará la barrera de los quinientos millones de hablantes. Es la lengua oficial en España, en diecinueve países del Caribe y América y es idioma nativo, parcial o total, en determinadas zonas de Estados Unidos y se encuentran, también, hispanoparlantes en países como Guinea Ecuatorial y Filipinas convirtiéndose así en una de las lenguas más extendidas geográficamente y con mayor potencial de expansión en los próximos años. Existen más de 90 países donde se estudia el español; más de 14 millones de personas lo estudian como lengua extranjera. La lengua española ocupa hoy el segundo lugar como lengua extranjera más estudiada en el mundo, solo por detrás del inglés. Luego de años de investigación se ha logrado consolidar, en el Instituto Cervantes, un marco de referencia, basado en el European Framework del Consejo Europeo 2, para establecer niveles de aprendizaje, enseñanza y evaluación. Estos niveles son: NIVEL SUBNIVEL DESCRIPCION A = Usuario Básico B = Usuario Independiente. A1 (Plataforma) A2 (Acceso) B1 (Umbral) B2 (Avanzado) El usuario básico: A1 y A2. La persona es capaz de comunicarse, en situaciones muy cotidianas, con expresiones de uso muy frecuente y utilizando vocabulario y gramática básica. El usuario independiente: B1. Es capaz de desenvolverse en la mayor parte de las situaciones que pueden surgir durante un viaje por zonas donde se utiliza la lengua objeto de estudio. El usuario independiente: B2. Puede relacionarse con hablantes nativos con un grado suficiente de fluidez y naturalidad, de 2 Common European Framework of Reference for Languages: Learning, Teaching, Assessment. Strasbourg: Council of Europe, TC-133

136 XXVIII ENDIO, XXVI EPIO y RED-M VIII modo que la comunicación se realice sin esfuerzo por parte de los interlocutores. C = Usuario Competente C1 (Dominio Operativo Eficaz) C2 (Maestría) El usuario competente: C1. "Dominio operativo adecuado". Representa un nivel avanzado de competencia apropiado para tareas más complejas de trabajo y estudio. (Generalmente este nivel lo alcanzan personas con estudios académicos medios o superiores en su lengua materna) El usuario competente: C2. Aunque el nivel C2 se ha denominado «Maestría», no implica una competencia de hablante nativo o próxima a la de un nativo. Lo que pretende es caracterizar el grado de precisión, propiedad y facilidad en el uso de la lengua que tipifica el habla de los alumnos brillantes. Estos niveles apuntan a identificar, como en cualquier otra nomenclatura pedagógica, los conocimientos adquiridos por el estudiante de Lengua Extranjera (LE) y cuáles son sus competencias a partir de estas adquisiciones Estudiantes internacionales en la Universidad En muchas universidades con programas de intercambio se solicita a los estudiantes extranjeros un nivel de competencias mínimo para acceder a los cuatrimestres de cursada. En este sentido, remarcamos como es lógico que a mayor competencia lingüística, mayor comprensión de los contenidos acercados en la LE pero esta sentencia casi obvia tiene una relación intrínseca con otros factores que no solo implican el manejo erudito que cada estudiante tiene de la LE, sino que camina en conjunto con otras variables importantes como la percepción de la distancia social en la nueva comunidad educativa que comienza a integrar, la integración en el nuevo grupo social y la oportunidad de utilizar la lengua para intercambios sociales, culturales y/o económicos. En el caso de la Facultad de Ingeniería de la Universidad de Buenos Aires, los estudiantes de intercambio procedentes de países no hispanohablantes, deben acreditar un conocimiento equivalente al nivel B1 del Marco Europeo. Dicha acreditación puede realizarse en FIUBA antes de comenzar a cursar las materias de la carrera. No existe en la actualidad, una teoría de la adquisición de una LE que satisfaga completamente la interminable cantidad de fenómenos y particularidades que aparecen en este proceso. En nuestra experiencia y al trabajar puntualmente con estudiantes adultos, podemos señalar que estos sujetos ya tienen un conocimiento previo de una o más lenguas, además de la lengua materna y que han alcanzado una madurez cognitiva que los ha llevado a desarrollar una conciencia metalingüística que les permite tratar a la nueva lengua como objeto: pueden definir una palabra o inferir una regla; o tienen un mayor conocimiento general del mundo y esto les facilita la comprensión y la TC-134

137 XXVIII ENDIO, XXVI EPIO y RED-M VIII comunicación, a la vez que los invita a interactuar con hablantes expertos que pueden corregirles errores. Según Marta Baralo (pp 30) Los aspectos más difíciles de aprender, y que un no nativo casi nunca llega a dominar, no corresponden a los principios universales comunes a todas las lenguas, sino justamente a los rasgos más idiosincrásicos, más específicos de la LE. Y agrega: La motivación será la determinante para que se produzca realmente una apropiación del conocimiento o que ese conocimiento no se arraigue. Si el interés y la necesidad por adquirir una lengua nueva son fuertes, el proceso de adquisición de la LE seguirá pasos certeros y avanzará gradualmente Estudiantes internacionales la Ciudad de Buenos Aires Según el GCBA 3, hay aproximadamente estudiantes extranjeros estudiando en la Ciudad de Buenos Aires. De ese universo, aproximadamente un 35% no nació con el español como lengua materna. Los alumnos que llegan como estudiantes de intercambio sin ser hispanohablantes, tienen diferentes niveles de español, que podrían agruparse de la siguiente manera. Su capacidad de lectura en español es: - Similar a su lengua madre: 5% - Avanzada: 54% - Intermedia: 36% - Básica: 5% Su capacidad de escritura en español es: - Similar a su lengua madre: 5% - Avanzada: 42% - Intermedia: 46% - Básica: 7% Su capacidad de habla en español es: - Similar a su lengua madre: 5% - Avanzada: 43% - Intermedia: 44% - Básica: 8% Estos niveles se ilustran en el siguiente gráfico: 3 GCBA: Gobierno de la Ciudad de Buenos Aires TC-135

138 XXVIII ENDIO, XXVI EPIO y RED-M VIII Gráfico 1 Nivel de dominio de las diferentes habilidades por parte de los alumnos de intercambio. Más del 90% de los alumnos europeos contestó haber tomado cursos de español en paralelo con los estudios realizados, por lo que es de esperar que el nivel de español vaya aumentando a lo largo del curso. Como muestra de esto, está la explicación de un alumno procedente de Noruega al recapitular su experiencia en Buenos Aires: Lo más difícil fue que no aprobé el parcial (y debí rendir el recuperatorio). [.] El examen final era más tarde, así que entendí mucho más español. Del informe del GCBA se desprende que los estudiantes dominan mejor el español escrito que el oral. Este resultado es coincidente con lo que hemos visto en nuestra clase. Conociendo esa situación, fue que hemos ido desarrollando diversas estrategias, la mayoría de ellas siendo sólo cambios menores en la forma de dar la clase, pero que podrían ser de gran utilidad para los alumnos extranjeros. 3. CAMBIOS IMPLEMENTADOS 3.1. Mejora del lenguaje oral Es necesario repensar la forma en que uno habla al dar clase. Luego de años de exponer ante alumnos en un ambiente más o menos informal como es TC-136

139 XXVIII ENDIO, XXVI EPIO y RED-M VIII una clase práctica, se tiende involuntariamente a hablar como en una conversación entre pares, muchas veces en forma rápida y cerrada. De más está decir que para quien no domina bien el lenguaje, esto vuelve incomprensible cualquier explicación. Al encontrarnos con este problema, comenzamos a dar las explicaciones más lentamente, modulando cada palabra y marcando claramente cada letra. Al principio, parece difícil mantener la concentración para hablar con voz de locutor durante toda la clase, pero después de un tiempo, se puede lograr sin mayor esfuerzo. También deben pensarse las palabras a utilizar para transmitir el mensaje. Se deben eliminar o reducir al mínimo las palabras en lunfardo, incluso para los comentarios al pasar o no directamente relacionados con la asignatura. Otro punto muy beneficioso es tener en cuenta la especificidad del lenguaje: llamar a las mismas cosas siempre con el mismo nombre. Los alumnos nacionales comprenden de inmediato que solución óptima y mejor resultado son sinónimos pero para quien no habla español como lengua materna, eso lleva un mayor tiempo de análisis que no está siempre disponible durante la explicación oral en clase. Entonces, qué términos deberían usarse en estos casos? El primer punto a considerar es que sean siempre los mismos, y en este siempre incluir a los que se utilizarán o son utilizados en la bibliografía de la materia. Si los apuntes de la cátedra utilizan una forma es recomendable conservarla en las explicaciones orales para facilitar la comprensión de los estudiantes. Si se quiere enriquecer la clase indicando las diferentes formas de nombrar un concepto, debería indicarse en la bibliografía o, en caso de hacerlo durante la misma, en una oportunidad única indicando todos los nombres posibles, en lugar de dar los diferentes nombres durante los sucesivos encuentros. En este punto, lo importante es agrupar la información en un mismo momento para evitar malas interpretaciones. Otra manera para elegir las palabras a utilizar en la clase es tener en cuenta las que sean más similares al idioma materno de los alumnos o al inglés. Aún sin saber el idioma de los estudiantes, podemos suponer que si una palabra tiene una raíz similar en español (latino) y en inglés (germánico), hay mayores probabilidades de que también sea similar en otros idiomas europeos. Una última consideración sobre el lenguaje oral en la clase, incluye su complementación con gestos. La pregunta Qué representa esa ecuación? se interpreta mucho más rápidamente si simultáneamente se señala la ecuación mencionada. En estos casos, la regla a seguir debería ser siempre que sea posible (y sencillo) complementar todo lo que se diga en castellano, con gestos que sean comprendidos universalmente. Los cambios de actitud corporal durante la clase también indican qué es lo que se espera de los alumnos en cada momento de la misma: si se está dando una explicación; si se esperan respuestas de los alumnos; si se están dando detalles administrativos de la materia; etc. Si el docente realiza todas TC-137

140 XXVIII ENDIO, XXVI EPIO y RED-M VIII estas actividades sentado en el escritorio mirando el fondo del aula anula innecesariamente este canal de comunicación Refuerzo del Lenguaje escrito Como hemos señalado, para un estudiante no hispanohablante es más difícil la comprensión oral inmediata de lo que se está diciendo en clase. Al no comprender lo dicho o dedicar unos segundos adicionales a interpretarlo, el alumno intenta decodificar lo que le ha costado entender y deja directamente de escuchar lo que se está diciendo a continuación, perdiendo finalmente el hilo de la clase. Esta dificultad no tiene lugar en el lenguaje escrito. En primer lugar, el alumno puede copiar cualquier cosa que se escriba en el pizarrón aún sin entenderlo. Si es necesario podrá releerlo luego con las herramientas y el tiempo necesario para interpretarlo completamente. Por ello es fundamental que todos los puntos importantes de la clase se vean escritos en el aula, ya sea en el pizarrón o en la bibliografía específica. Por otro lado, el lenguaje escrito es mucho más fácil de intuir que el oral. A nosotros mismos, hablantes nativos de español, nos ocurre con textos escritos en portugués o italiano: podemos entender de qué tratan aún sin conocer dichos idiomas, pero sería realmente complejo tratar de entender a alguien que nos esté leyendo los mismos textos. En cualquier situación de clase es casi instintivo otorgar más importancia a lo escrito que a lo oral: Si el profesor lo escribe, debe ser importante. Es habitual al estar dando una explicación detallada paso a paso, ver que los alumnos están inmóviles escuchando (o al menos mirando) al profesor mientras habla, pero sólo van a tomar apuntes de lo que éste escriba en el pizarrón. En materias de formulación matemática como la nuestra, las ventajas de lo escrito son mucho más notorias. En primer lugar, porque el objeto matemático requiere, durante el proceso de aprendizaje, un desarrollo que precisa ser hecho por escrito y acompañado del análisis verbal oral. En segundo lugar, para un estudiante extranjero de ingeniería puede ser ininteligible la expresión oral equis al cuadrado es mayor o igual que treinta y dos, pero es evidente el significado de la ecuación escrita X Es imprescindible aprovechar ese lenguaje universal para facilitar la experiencia comunicacional en el aula, volcando al pizarrón incluso aquellos elementos de análisis que habitualmente se realizarían en forma oral. Otro elemento de muchísima utilidad para mejorar la comunicación en la materia es el correo electrónico. Un mensaje enviado a todos los alumnos luego de la clase con un resumen de los puntos salientes tratados en el día, les sirve para evaluar rápidamente su aprendizaje. Si hay contenidos del mensaje que no entienden o no han quedado del todo claros, es una alerta temprana de que se están perdiendo de algo y les permite saber cuáles son los temas en los que se están quedando atrás de lo que se espera. Para los alumnos extranjeros, además, les permite abrir un nuevo canal de comunicación escrita y no inmediata que les facilita expresarse si no dominan el idioma: pueden TC-138

141 XXVIII ENDIO, XXVI EPIO y RED-M VIII tomarse el tiempo necesario para escribir sus dudas y para leer las respuestas recibidas Seguimiento personalizado Otro factor que contribuye a la integración de los alumnos extranjeros es realizar un seguimiento más cercano de su progreso y comprensión en clase. Acercarse hasta el alumno y preguntarle si tiene inconvenientes con los temas vistos, nos permitirá evaluar su nivel de comprensión no sólo de la materia sino también del español hablado en la clase. Este acercamiento le brinda al alumno una oportunidad de realizar preguntas si no tiene la suficiente confianza en su manejo del idioma para hacerlas en voz alta. Contar con la seguridad de que en algún momento de la clase, el docente se acercará y le preguntará sobre la materia, genera un incentivo adicional para mantenerse al día con el seguimiento de los temas tanto en los alumnos extranjeros como en los nativos Integración Hemos dicho anteriormente que cuanto menor sea la distancia social que perciba el alumno entre su lugar de origen y el nuevo ámbito académico en el que está inmerso, mejores serán su rendimiento y su capacidad de aprendizaje en español. Un paso muy simple que es posible dar en este sentido es tener la previsión de conocer la correcta pronunciación de sus nombres en su lengua de origen. Este gesto de etiqueta ayudará a los estudiantes a no sentirse tan extraños en el grupo, sobre todo en el primer día de clases, cuando todo es nuevo para ellos. En la misma línea, saber algunas palabras en la lengua de origen de los estudiantes aún sin hablar dicha lengua puede ser útil: el nombre de la materia o sus principales campos serán suficientes para ayudar a los alumnos a buscar bibliografía o a consultar con otros alumnos en su país de origen. Un último aspecto a tener en cuenta es la posibilidad de favorecer la integración entre alumnos. El trabajo en grupos permite desarrollar en los estudiantes la capacidad de resolver problemas a través del pensamiento cooperativo, preparándolos para afrontar una de las grandes necesidades diarias durante su carrera profesional. Para los alumnos extranjeros, además, permite una nueva vía de comunicación, esta vez con pares que están cursando la misma materia y que pueden tener los mismos interrogantes y dudas a plantear ante el docente. Trabajando con otros estudiantes podrán también plantear sus dudas de forma mucho más informal y directa, sin temor a quedar expuestos delante del docente o de toda el aula. El trabajo práctico en grupos incluye además una exposición y una defensa del mismo hacia el final del cuatrimestre. Esto les fija a los estudiantes el objetivo de hablar en público al menos una vez (y hacia el final del cuatrimestre, cuando su dominio del español sea mayor). Al ser una exposición de no más de cinco minutos por alumno y planteada con mucha anticipación, TC-139

142 XXVIII ENDIO, XXVI EPIO y RED-M VIII se les presenta un nuevo desafío que deberán planear y abordar con la suficiente anticipación para prepararlo. 4. RESULTADOS OBTENIDOS 4.1. Resultados Cuantitativos Desde 2008 hemos desarrollado estas estrategias y los resultados estadísticos son alentadores. Sumando los exámenes parciales y finales, los alumnos extranjeros han aprobado el 71% de los exámenes rendidos. En comparación, sus compañeros nativos han aprobado el 73%. Si desglosamos ese resultado por tipo de examen, vemos que los estudiantes de intercambio aprueban más en los parciales (75% ante 70%), pero un poco menos en los finales (67% ante 82%). Gráfico 2 Niveles de aprobación de exámenes por parte de alumnos nacionales y extranjeros Este resultado ya es un indicador de que se logra alcanzar el objetivo planteado de superar las barreras del lenguaje, alcanzando un nivel de aprobación similar Resultados Cualitativos TC-140

143 XXVIII ENDIO, XXVI EPIO y RED-M VIII También son gratificantes los resultados cualitativos, ya que son los propios alumnos quienes lo destacan en las encuestas que responden al terminar el curso, donde vuelcan opiniones tales como: El docente habla muy claro. Gracias por asegurarse que los alumnos de intercambio entendamos Es muy bueno que el ayudante se acerque a preguntarnos si entendimos la clase, eso facilita las preguntas En esta materia no tuve problemas con los exámenes porque la información era muy accesible 5. CONCLUSIONES Como bien se puede ver en el apartado anterior, el resultado obtenido es muy satisfactorio, no encontrando actualmente diferencias en los niveles de aprobación entre los estudiantes nativos y extranjeros. Más allá de esto, muchas de estas estrategias son válidas también para los estudiantes nativos: - Reforzar lo dicho en clase escribiendo en el pizarrón todo lo que se desee resaltar, permitirá a los alumnos que se distraen momentáneamente durante la clase, retomar el hilo de la misma, leyendo lo escrito. - También mejorará la calidad de los apuntes de clase tomados por los alumnos que suelen copiar lo escrito en el pizarrón, omitiendo lo expresado oralmente. En un caso extremo, hubo un alumno que luego de cada ejercicio tomaba una foto del pizarrón con su tablet. Estas fotos eran los únicos apuntes que tenía el alumno. - Enviar un mail con el resumen de la clase del día, permitirá a los alumnos autoevaluar su comprensión de la misma, y a los alumnos ausentes, mantenerse al día. - No hemos tenido ocasión de ponerlo en práctica pero es de esperar que todas las técnicas de mejora del lenguaje oral y refuerzo del lenguaje escrito repercutan también en el aprendizaje de alumnos con problemas de audición o hipoacúsicos. 6. REFERENCIAS Baralo, M (2004): La adquisición del español como lengua extranjera. Cuadernos de Didáctica del Español/LE. Arco/Libros. Segunda Edición. Centro Virtual Cervantes: El Español, una lengua viva. Recuperado de %20viva.pdf Centro Virtual Cervantes: Marco común Europeo de Referencia. Recuperado de TC-141

144 XXVIII ENDIO, XXVI EPIO y RED-M VIII Facultad de Ingeniería de la Universidad de Buenos Aires: Guía para estudiantes internacionales en la FIUBA Octubre de 2014 Recuperado de ionales%2029_09_14.pdf Observatorio de Comercio Internacional de la Ciudad de Buenos Aires (Gobierno de la Ciudad de Buenos Aires): Estudiantes Internacionales: Quiénes son, de dónde vienen, qué hacen y qué opinan Recuperado de antes_internacionales_2013_mar.pdf Ruiz Zambrana J.: La situación actual de la lengua española en el mundo,en Contribuciones a las Ciencias Sociales, recuperado de Vivanco Torres, H. (2007): Unidad en la diversidad lingüística. La enseñanza del español como lengua extranjera y su certificación. Congreso Internacional de la lengua española. Cartagena TC-142

145 XXVIII ENDIO, XXVI EPIO y RED M VIII MOTIVACIÓN EN LAS CLASES DE INVESTIGACIÓN OPERATIVA EL PROBLEMA IMPORTA SILVIA A. RAMOS, PABLO MARTÍN COLOMBO, EMILIO GERMÁN MARÍN, NICOLAS FABIÁN TROYANOVICH, IVÁN GUILLERMO TERZANO Facultad de Ingeniería, Universidad de Buenos Aires, Av. Las Heras 2214, Ciudad Autónoma de Buenos Aires m1_sr@yahoo.com.ar, pcolombo@fi.uba.ar, egmarin@gmail.com, nicolas.f.troyanovich@gmail.com, iterzano@fi.uba,ar RESUMEN En este trabajo se presenta un conjunto de estrategias aplicadas para aumentar la motivación de estudiantes de un curso inicial de Investigación Operativa en la Facultad de Ingeniería de la Universidad de Buenos Aires. En primer lugar se caracterizará el problema de la falta de motivación, luego se indicarán algunas de las estrategias implementadas y sus resultados en la aplicación a la asignatura. Estas estrategias se han aplicado en la clase presencial y con el uso de herramientas informáticas. También se incluyen algunos de los materiales utilizados para que puedan servir de base a experiencias similares en otros cursos, dado que se considera que la problemática de la motivación es cada vez más frecuente. Palabras Clave: Motivación Problemas reales Aprendizaje activo Trabajo en colaboración ABSTRACT This work presents a set of strategies applied in order to increase motivation among students in an initial Operations Research course in Engeneering School at Universidad de Buenos Aires. First, the lack of motivation problem is characterized. Then, some of the strategies implemented in the course and its results are presented. These strategies have been applied in presential classes and with use of informatic tools. Some of the material used is included in order that it could form a basis for similar expiriences in other courses, for that motivation problematic is increasingly frequent. Key Words: Motivation Real world problems Active learning Collaborative work 1. INTRODUCCIÓN Modelos y Optimización I es una materia obligatoria del área de Investigación Operativa de los alumnos de las carreras de Licenciatura en Análisis de Sistemas y de Ingeniería en Informática en la Facultad de Ingeniería de la Universidad de Buenos Aires. En ella, se expone a los alumnos al análisis de problemas, trabajando, desarrollando y resolviendo modelos matemáticos TC 143

146 XXVIII ENDIO, XXVI EPIO y RED M VIII de los mismos. La evaluación de los alumnos consiste en un examen parcial, un trabajo práctico, realizado a lo largo del cuatrimestre, y un examen final. La guía de trabajos prácticos se va renovando a lo largo de los cuatrimestres, aunque no por completo, por lo que algunos estudiantes, que tienen que volver a cursar la asignatura, es frecuente que no se integren al grupo de manera participativa porque ellos ya hicieron los ejercicios y tienen la sensación de que ya saben la asignatura sólo que tuvieron mala suerte en la cursada anterior. Este es uno de los desafíos, dado que hay que motivar a descubrir cuáles fueron los problemas en la anterior cursada y cómo pueden corregirse. Cuando comenzó a desarrollarse el trabajo práctico, el objetivo era utilizar un software de resolución para resolver un problema de gran tamaño, aunque no de alta complejidad. Desde hace dos años, como se indicó en Ramos et al (2014), el objetivo principal del trabajo práctico es el de presentar a los alumnos un abanico de problemas de optimización y situaciones reales que pueden ser planteadas mediante modelos lineales, que, aunque computacionalmente complejos, pueden ser resueltos mediante heurísticas. Con esto el trabajo práctico se ha vuelto más complejo de analizar, modelizar y resolver, requiriendo más tiempo y esfuerzo por parte de los estudiantes. Además, cada vez es mayor el porcentaje de estudiantes de carreras vinculadas a la informática que trabajan desde los primeros años de cursado, por lo que el tiempo disponible para los trabajos de las asignaturas es cada vez menor. Según la información de la Universidad de Buenos Aires (2012), el 62,7% de los estudiantes trabajaba al momento del relevamiento censal 2011 y de este total el 97,6% recibía remuneración por su actividad. Este porcentaje demuestra un crecimiento sostenido de los estudiantes que trabajan respecto de los censos anteriores. Esto agrega un condimento a la problemática de la motivación, que es la del escaso tiempo para poder realizar las tareas de la asignatura, por lo que se tiene que competir con muchas actividades. Si los ejercicios y tareas planteadas por los docentes no son suficientemente atractivos y ligados con la realidad del estudiante, además de con los requerimientos de la asignatura, se llega a la clase semanal con las tareas sin hacer. Todo lo expuesto conlleva a problemas de motivación por parte de los estudiantes, por lo que en este trabajo nos referiremos a las actividades desarrolladas para aumentar la motivación de los estudiantes para realizar las actividades prácticas de la asignatura. 2. ACTIVIDADES DE MOTIVACIÓN En la enseñanza de la Investigación Operativa, como lo indica Moazeni (2010) no nos debemos limitar a la enseñanza de los distintos conceptos, sino que debemos promover un aprendizaje activo en el cual el estudiante se sienta parte y para el cual podamos utilizar los conocimientos previos y los intereses para poder avanzar en la discusión de nuevos temas y en la resolución de nuevos problemas. A continuación mencionaremos las TC 144

147 XXVIII ENDIO, XXVI EPIO y RED M VIII actividades de motivación que se realizan, indicando en qué momento de la cursada de la asignatura fueron incorporadas Actividades de integración en la primera clase práctica de la asignatura En la primera clase práctica se presentan los docentes, se forman subgrupos de estudiantes para mejorar la relación docente-alumno y se presenta el tema del trabajo práctico. En esta clase se ha incorporado, como motivación, y para facilitar la formación de los grupos, un problema inicial. Este problema no es estrictamente un caso de Investigación Operativa, sino que se utiliza como un incentivo del trabajo en grupo y una instancia para comenzar a aplicar la creatividad en la resolución de problemas. Por ejemplo, en el segundo cuatrimestre de 2014 se les propuso a los estudiantes la actividad de construir, en grupos de tres estudiantes, un jet hiper sónico con una hoja de papel, usando una sola mano y sin hablar entre ellos. La experiencia incluyó actividades de relevamiento, condiciones iniciales, pedidos del cliente y cambios en las especificaciones. Recordemos que se trata de estudiantes de carreras de informática, con lo que en esta actividad inicial unimos también la modelización matemática con las tareas habituales del ejercicio de la profesión. Uno de los objetivos de la actividad es que los estudiantes comiencen a agilizar la creatividad, necesaria para la formulación de modelos. Cabe destacar que el objetivo de la asignatura es Acrecentar la capacidad de los alumnos para analizar sistemas, trabajando sobre modelos matemáticos lineales. Esto se cumple desarrollando una metodología y ejercitando la misma sobre ejercicios complejos, creando las condiciones para que el análisis se realice en base a la imaginación, con el único límite que puede establecer la lógica. Esto aumenta la importancia de que, desde el primer momento, se incentive la diversidad de enfoques para un mismo problema Utilización de problemas reales en las clases de trabajos prácticos Como se indicó en la introducción, si bien se hacen cambios y mejoras constantes en la guía de trabajos prácticos, que contiene los ejercicios con los que se trabaja en las clases, es necesario variar la problemática y alentar a los estudiantes para que encuentren en su vida diaria ejemplos de problemas que se pueden resolver con las herramientas de modelización de la asignatura. Así, el segundo cuatrimestre de 2014 se incorporó, para la clase de problemas de corte, la posibilidad de encontrar problemas en la vida diaria, como es el caso de las ofertas para armar de las casas de comida, como lo indicado en la Fiugura 1. Dado que las clases prácticas son grupales, los estudiantes tienen la posibilidad de trabajar con sus propios problemas, o con los planteados por el docente, colaborando en la solución y aprendiendo de sus compañeros y docentes. Como indican al respecto Lion y Pertosi (2014): La colaboración es entendida como un proceso de interacción en el TC 145

148 XXVIII ENDIO, XXVI EPIO y RED M VIII que los miembros del grupo se asumen responsables de sus acciones e integran las habilidades y contribuciones de sus pares en un esfuerzo coordinado para la resolución de un determinado problema. Los roles de los miembros del grupo no están asignados para una división del trabajo independiente sino que surgen de la dinámica de interdependencia en la que cada uno es responsable y dependiente de la genuina participación del otro. (p. 7) 2.3. Incorporación de discusiones en el campus virtual de la asignatura La Facultad de Ingeniería de la UBA ha iniciado, desde hace cinco años, un proceso de implementación de herramientas B-learning para sus asignaturas, con el objetivo de que todas las asignaturas de la Facultad trabajen con el campus virtual (campus.fi.uba.ar) en Moodle. Siguiendo las ideas, entre otros, de Crespo (2014), el diseño de los materiales educativos digitales, que son los que se incluyen en el campus virtual, deben hacer que el docente sea un curador de contenidos para poder generar y seleccionar aquellos materiales más útiles de acuerdo con lo que se quiera hacer: complementar la clase presencial, trabajar un tema directamente de manera virtual o inspirar a los estudiantes para resolver un problema determinado. Con el uso del campus virtual Moodle, se facilita el hecho de que los estudiantes puedan hacer su propia evaluación y autocorregir el aprendizaje. Además, la existencia de foros y actividades compartidas entre estudiantes y docentes permite continuar con la actividad en la asignatura fuera de los horarios de cursada. Otra ventaja es la formación del portafolio de la tarea del estudiante a lo largo del curso, dado que cada semana se sugieren ejercicios para entregar en la plataforma -opcionales- así como tareas específicas. También el trabajo práctico se entrega a través del campus, como se indicó en Ramos et al (2014) Elección de un tema atractivo de trabajo práctico Como se indicó en la introducción de este trabajo, uno de los objetivos del trabajo práctico que se propone a los estudiantes es hacer que trabajen, en grupos de dos, en un problema combinatorio de gran complejidad computacional, para que desde la primera clase, tomen contacto con él, y apliquen los conocimientos adquiridos clase a clase en su resolución. Para eso es importante que la temática sea convocante y que los estudiantes lo vean como un problema propio, que les resulta interesante resolver. Durante el 2014 se plantearon problemas de tipo combinatorio que aludían a situaciones que para los estudiantes eran de todos los días. En el segundo cuatrimestre se planteó la asignación de la transmisión de los partidos del torneo de Primera División entre distintos canales de TV y en el primer cuatrimestre se aprovechó un hecho que suele ser distractivo para las actividades educativas, como el Mundial de Fútbol, para plantear un problema de cobertura de conjuntos a efectos de seleccionar los vuelos que permitieran TC 146

149 XXVIII ENDIO, XXVI EPIO y RED M VIII que una cadena deportiva cubriera de la mejor manera posible el mundial (ver Anexo I). Dado que el problema se plantea en la primera clase, cuando aún los estudiantes no tienen aún suficiente conocimiento para poder plantear un modelo que resuelva el caso, es importante que la problemática despierte la curiosidad, que esa curiosidad los lleve a formular preguntas y a categorizar correctamente la situación, a efectos de modelizarla y resolverla con un software adecuado. 3. RESULTADOS Y CONCLUSIONES En oportunidad del cambio en la modalidad de trabajo práctico, con la incorporación de problemas combinatorios más complejos en lugar de un ejercicio sencillo -ver Ramos et al (2014)- se evidenció cierta preocupación por la posibilidad de que representase un aumento excesivo en la dificultad. Sin embargo, más allá de que se notó una recarga sobre el trabajo de los alumnos solamente el 40% de los que completaron la cursada lo consideró difícil y como contrapartida se lograron algunos trabajos de muy buen nivel. Como hecho negativo se pudo constatar la poca atención de los alumnos en las primeras semanas. Solamente la inminencia de la primera entrega los sacó de esa inercia. Al haberse trabajado con problemas que eran más atractivos para los estudiantes, como sucedió con el problema relacionado con el Mundial, la participación aumentó, los estudiantes sintieron como propio el problema y la fase de análisis tuvo interesantes resultados, tanto en la clase presencial como a través del campus. En la Figura 2 podemos ver como, al comienzo de la experiencia la cantidad de estudiantes que no podían completar el trabajo práctico y por eso no aprobaban la cursada fue mayor que otros cuatrimestres. Sin embargo, en cuanto se utilizaron algunas de las herramientas mencionadas en este trabajo, el porcentaje volvió a los índices que se registrabann cuando el trabajo práctico era más fácil. Luego del primer cuatrimestre del cambio en el trabajo práctico, y para resolver algunos de los problemas que presentaron los estudiantes en cuanto a la dificultad, se desarrollaron rúbricas para todas las entregas y se pusieron esas rúbricas a disposición de los estudiantes en el campus virtual de la asignatura (ver Figura 3). De esta manera, los estudiantes sabían qué era lo que se esperaba de ellos en cada etapa del trabajo práctico y cómo se componía la nota que obtenían luego de la entrega final. Recordamos que la nota del trabajo práctico, junto con la nota del parcial y la nota de concepto determinan la nota de cursada que luego se promedia con la nota del examen final. Para facilitar el trabajo en grupo desde el primer momento es que se incluyeron actividades como la descripta en la segunda sección como actividad de la primera clase práctica. En el trabajo del campus también se vio la ventaja de hacer las entregas del trabajo práctico de ese modo y no con una carpeta tradicional en papel. Esto permitió también la modalidad de que los grupos hicieran presentaciones más tempranas del trabajo práctico y pudieran defender la idea del mismo con TC 147

150 XXVIII ENDIO, XXVI EPIO y RED M VIII sus ayudantes, lo cual resulta mejor para que se pueda corregir con los alumnos presentes y para que no se produzca un efecto de nervios al hacer la entrega final del trabajo práctico. Como se indicara en Ramos et al (2014), algunos estudiantes tenían dificultades con la exposición oral de defensa que se hace al terminar el trabajo práctico, por eso se implementaron defensas parciales del mismo. También en las encuestas que se realizan a los estudiantes al final de la cursada se recabaron opiniones favorables a los métodos implementados. Cabe aclarar que las encuestas reflejan la opinión de los estudiantes que llegaron al final del curso. Algunas de las respuestas respecto del trabajo práctico fueron las siguientes: Interesante, creativo y no es innecesariamente pesado o exigente. Las entregas parciales ayudan y las correcciones son detalladas. Dificultad justa para practicar algo con una utilidad a la vista y aplicar lo aprendido en clase. Muy bueno para discutir sobre el tema y preguntarse ciertas cosas. Interesante de hacer, pero un poco largo. Muy interesante el tema y las distintas maneras en las cuales se podía plantear. Tocaba un tema interesante y también fue interesante correrlo en el software y poder resolverlo. En las encuestas que correspondían a la anterior modalidad, varios estudiantes dijeron que el trabajo práctico no les aportaba demasiado al conocimiento de la asignatura, en este caso destacaron lo interesante del trabajo y lo que aportaba, pero en algunos casos expresaron quejas acerca de la cantidad de tiempo que les insumió su realización. En el punto referente al campus virtual destacamos algunas de las respuestas más interesantes de la encuesta: Muy bueno para mantener una comunicación fluida, tanto la teórica como práctica. Muy buenas las autoevaluaciones. En el caso del TP, los enunciados estaban poco visibles. Herramienta ideal para la comunicación y entrega de TP. Muy útiles las autoevaluaciones. Sin embargo, la participación de los estudiantes en el campus virtual es algo que sigue quedando en el debe. Se implementó la posibilidad de foros del trabajo práctico para que los estudiantes debatieran antes de la primera entrega y plantearan hipótesis, pero la respuesta fue prácticamente nula. Los estudiantes, con el clásico sindrome, no hacían ninguna actividad hasta que no llegaba el momento de la entrega, con lo que las preguntas las formulaban directamente en la clase y a los docentes, perdiéndose la posibilidad de intercambios con los compañeros. Ante esto, una opción que se está pensando en implementar en próximos cuatrimestres es la de hacer la primera entrega del trabajo práctico directamente en el campus y que consista en completar una actividad. Luego, en base a las distintas respuestas se hará una puesta en común en la clase presencial, para que todos los estudiantes conozcan cuáles fueron las respuestas de sus compañeros y así, con la TC 148

151 XXVIII ENDIO, XXVI EPIO y RED M VIII colaboración de todos, el trabajo sea más rico y esté mejor formulado desde el comienzo. Otro tema con el que hubo dificultades en el trabajo práctico fue el de la resolución utilizando software (se recomienda el uso de software libre como el GLPK). Aquellos estudiantes que habían modelado con muchas ecuaciones tuvieron dificultades para que el software les diera una solución válida en un tiempo razonable (recordemos que, al ser un problema combinatorio, requiere el uso de variables enteras y binarias que hacen necesarias muchas operaciones de cálculo para llegar al óptimo). Por eso, para próximas cursadas se prevé que los estudiantes tengan que encontrar la solución de una versión reducida del mismo problema que modelaron (con un conjunto reducido de datos, para que tenga menor tamaño). Por supuesto, con las actividades detalladas no se resuelve definitivamente el problema de la falta de motivación de los estudiantes. Uno de los objetivos de este trabajo es el de no culpar exclusivamente a los estudiantes por su bajo nivel de actividad sin tratar de cambiar nada de nuestra práctica docente. Si se presta atención a la situación y se trata de encontrar actividades interesantes que ayuden a aprender los conceptos de la asignatura, todos, estudiantes y docentes, aprenderemos mucho más y mejor. TC 149

152 XXVIII ENDIO, XXVI EPIO y RED M VIII 4. TABLAS Y FIGURAS FIGURA 1: Folleto utilizado para resolver el problema del corte TC 150

153 XXVIII ENDIO, XXVI EPIO y RED M VIII Alumnos que cursaron Completaron el trabajo práctico Aprobaron la cursada do ro do 2014 Figura 2: Resultados del curso desde que se implementó la nueva modalidad de trabajo práctico TC 151

154 XXVIII ENDIO, XXVI EPIO y RED M VIII Segunda Entrega: Modelo de Programación Lineal Criterio Excelente Muy Bien Bien Regular Mal Correcciones Todas las correcciones indicadas en la entrega anterior han sido resueltas eficazmente. Todas las correcciones indicadas en la entrega anterior han sido resueltas eficazmente. La mayoría de las correcciones indicadas en la entrega anterior han sido resueltas eficazmente. Restan correcciones menores, que pueden ser añadidas en la siguiente entrega. Falta realizar correcciones críticas. Algunas de las correcciones indicadas no han sido realizadas satisfactoriamente. No se realizan correcciones o las correcciones efectuadas son incorrectas. Variables del Modelo Identifica y define todas las variables del modelo. Cada variable tiene su función y su sentido; no hay variables de más. Todas las variables tienen una descripción completa, se indica de qué tipo son (continuas, enteras o bivalentes), y se especifican las unidades. La definición de las variables es clara. La notación de variables es clara. Identifica y define todas las variables del modelo. Puede haber algunas variables redundantes. Todas las variables tienen una descripción completa, e indica de qué tipo son (continuas, enteras o bivalentes), y se especifican las unidades. La definición de las variables es clara. Identifica y define la mayoría de las variables requeridas por el modelo. Puede haber algunas variables redundantes. Todas las variables tienen una descripción completa. La definición de las variables es clara. Identifica y define unas pocas variables del modelo. Hay variables redundantes o irrelevantes. Falta la descripción de las variables definidas. La definición de las variables no es clara o es ambigua. No identifica o equivoca las variables del modelo. Hay variables redundantes o irrelevantes. Falta la descripción de las variables definidas. La definición de las variables no es clara o es ambigua. Modelo de Programación Lineal Utiliza el esquema y/o el análisis de la primer entrega para plantear el modelo. Cubre todos los aspectos del enunciado. Conecta correctamente todas las variables del modelo. Utiliza las estructuras apropiadas para cada caso. Describe qué representan las restricciones modeladas. El funcional coincide con el objetivo planteado inicialmente. Hay una concordancia completa con las hipótesis planteadas. Utiliza el esquema y/o el análisis de la primer entrega para plantear el modelo. Cubre todos los aspectos del enunciado. Conecta correctamente todas las variables del modelo. La mayoría de las restricciones indica claramente la función que cumple. El funcional coincide con el objetivo planteado inicialmente. Hay una buena concordancia con las hipótesis planteadas. Cubre la mayoría de los aspectos del enunciado. Conecta correctamente gran parte de las variables del modelo. Las restricciones no indican su función, pero se puede interpretar por la nomenclatura de las variables. El funcional coincide con el objetivo planteado inicialmente. No contradice las hipótesis planteadas. Faltan modelizar algunas restricciones. Algunas de las variables y restricciones no están correctamente vinculadas. No es clara la función de las restricciones, y no se indica cuál es. Hay restricciones incorrectas. El funcional no coincide plenamente con el objetivo planteado. Faltan modelizar restricciones. Algunas de las variables y restricciones no están correctamente vinculadas. No es clara la función de las restricciones, y no se indica cuál es. Hay varias restricciones incorrectas. El funcional no coincide con el objetivo planteado. Hay contradicciones de hipótesis. Redacción y Presentación El documento entregado está organizado prolijamente. Las secciones están apropiadamente separadas. La redacción es apropiada y clara. Las páginas están numeradas y cuenta con un índice de secciones. La entrega se realiza en fecha. El documento entregado está organizado prolijamente. Las secciones están apropiadamente separadas. La redacción es apropiada y clara. La entrega se realiza en fecha. El documento entregado está organizado prolijamente. La entrega se realiza en fecha. El documento La entrega se realiza entregado es fuera de término. desprolijo. La información no se encuentra organizada. La redacción es pobre y confusa. La entrega se realiza en fecha. Figura 3: Rúbrica de una de las entregas del trabajo práctico TC 152

155 ANEXO I XXVIII ENDIO, XXVI EPIO y RED M VIII TRABAJO PRÁCTICO Una cadena televisiva de deportes está planificando la cobertura de los distintos partidos de la primera ronda del próximo mundial de fútbol. Cuenta con 4 equipos de prensa para enviar, uno de los cuales quedará fijo en Río de Janeiro, para transmitir los partidos que se disputen en dicha sede). Los otros 3 equipos podrán viajar por las demás sedes en base a una serie de itinerarios prefijados que salen de y llegan a Rio de Janeiro, pasando por algunas de las sedes. Por un convenio de reciprocidad con una cadena local, no será necesario enviar periodistas al partido inaugural. De esta manera, para los viajes quedan dos semanas, la primera desde el viernes 13 al jueves 19 de junio y la segunda desde el viernes 20 al jueves 26 de junio. La lista completa de itinerarios se muestra en la siguiente tabla. Itinerario VIE SAB DOM LUN MAR MIE JUE Costo A 1) BH 2) PA 3) FZ 4) CU 5) RJ $ B 1) BR 2) SP 3) NT 4) PA 5) RJ $ C 5) RJ 1) NT 2) CU 3) PA 4) SP $ D 4) SV 5) RJ 1) CU 2) PA 3) BR $ E 1) RE 2) BH 3) RJ $ F 2) CT 3) MN 4) RJ 1) BR $ G 1) CU 2) BH 3) MN 4) BR 5) NT 6) RJ $ H 1) BH 2) PA 3) SP 4) NT 5) RJ $ I 5) RJ 1) SP 2) NT 3) PA 4) BR $ J 1) NT 2) PA 3) RJ $ K 2) RJ 1) SP $ L 2) CU 3) FZ 4) RJ 1) BR $ M 1) CU 2) FZ 3) BR 4) SV 5) RJ $ Las sedes son Belo Horizonte (BH), Brasilia (BR), Cuiabá (CU), Curitiba (CT), Fortaleza (FZ), Manaos (MN), Natal (NT), Porto Alegre (PA), Recife (RE), Río de Janeiro (RJ), Salvador (SV) y São Paulo (SP). Todos los itinerarios salen de Río de Janeiro en la madrugada del primer día especificado (marcado con el orden 1) ) y pueden tomarse en cualquier semana, pero siempre en los días especificados. No se pueden alterar para permanecer más de un día en una ciudad. El costo es por cada vez que un equipo toma el itinerario e incluye traslados, alojamiento y viáticos para todo el personal del equipo. Para poder transmitir un partido, debe haber un equipo periodístico en la ciudad en que se dispute ese partido el día en que se dispute. Cada partido que se transmite aporta a la cadena $ en concepto de publicidad. Si en el partido transmitido participa el seleccionado de un país que haya obtenido alguna vez la Copa del Mundo, ese aporte se duplica. Para satisfacer a su audiencia, es imprescindible que la cadena cubra todos los partidos disputados en esta fase por Argentina, Chile, Colombia y Uruguay. La FIFA ya publicó el cronograma de partidos en este link: Qué es lo mejor que se puede hacer con esta información? TC 153

156 5. REFERENCIAS XXVIII ENDIO, XXVI EPIO y RED M VIII CRESPO K. (2014): Módulo 3: Investigación y diseño de contenidos, en Diseño de materiales educativos digitales. El docente como gestor inteligente de la información. 1 ed. Dentro del Programa Virtual de Formación Docente del Centro de Innovación en Tecnología y Pedagogía de la Secretaría de Asuntos Académicos del Rectorado de la Universidad de Buenos Aires. LION C.Y PEROSI M.V. (2014): Módulo 3: Prismas entramados. Expandir la cognición a través de las tecnologías: propuestas Citep Mic. 1 ed. Dentro del Programa Virtual de Formación Docente del Centro de Innovación en Tecnología y Pedagogía de la Secretaría de Asuntos Académicos del Rectorado de la Universidad de Buenos Aires. MOAZENI S. (2010): Effective strategies to teach operations research to nonmathematics majors. CTE research report, 2010, University of Waterloo, 200 University Avenue West, Waterloo, Ontario, Canada N2L 3G1. RAMOS S., COLOMBO P., MARÍN E., TROYANOVICH N., DAUSÁ J. Y TERZANO I. (2014): Una experiencia de modelización con resolución exacta y heurística de problemas combinatorios en un curso inicial de Investigación Operativa. Anales del encuentro XVII ENDIO-XV EPIO. San Nicolás, Argentina. UNIVERSIDAD DE BUENOS AIRES (2012): Informe de gestión h ttp:// Obtenido en enero TC 154

157 XXVIII ENDIO, XXVI EPIO y RED-M VIII ESTADÍSTICA

158 XXVIII ENDIO, XXVI EPIO y RED-M VIII PRUEBAS PARA LA VERIFICACIÓN DE NORMALIDAD: DETERMINACIÓN DE POTENCIAS CON MUESTRAS PEQUEÑAS GABRIELA PILAR CABRERA - JOSÉ LUIS ZANAZZI - LAURA BOAGLIO - JOSE FRANCISCO ZANAZZI Facultad de Ciencias Exactas Físicas y Naturales - Facultad de Ciencias Económicas - Universidad Nacional de Córdoba gabriela.pilar.cabrera@gmail.com - jl.zanazzi@gmail.com - lauraboaglio@gmail.com -jfzanazzi@gmail.com RESUMEN La verificación de que los datos observados sobre un fenómeno aleatorio, pueden suponerse extraídos de una Distribución de Probabilidad Normal, es necesaria en el campo de la Investigación Operativa, en una variedad de situaciones prácticas. Frecuentemente en estos problemas, se cuenta con pocas observaciones. En el ámbito de la Estadística se proponen muchas pruebas de hipótesis para verificar normalidad. Numerosos artículos se orientan a evaluar la potencia de estas pruebas. Lamentablemente, la mayoría de las verificaciones existentes operan con muestras de cincuenta o más datos. En cambio, en este trabajo se estima la potencia de diversos tests, con muestras de diez y quince datos. Además se comprueba la potencia en situaciones donde la distribución original es simétrica, lo cual es sin duda la peor condición para la prueba. Para estas determinaciones, se realizan experimentos de simulación. Finalmente se concluye con una valoración cualitativa sobre la conveniencia de las pruebas analizadas. Palabras Clave: Estadística Pruebas para verificar normalidad Muestras pequeñas - Potencia de las pruebas ABSTRACT Verification that the observed data on a random phenomenon may be assumed to have been drawn from a Normal Probability Distribution is necessary in the field of Operational Research in a variety of practical situations. Frequently in these problems, there are few observations. In the field of statistics many hypothesis tests are proposed to verify normality. Some researchers have conducted studies on most of the tests in question, including the determination of power. Unfortunately, verifications, generally operate with samples of fifty or more data. Therefore, in this work the power of various tests is estimated with samples of ten, fifteen and twenty data. Besides, power is determined in situations where the original distribution is symmetrical, which undoubtedly represents the worst condition for the test. For these operations simulation experiments are performed. The paper concludes with a qualitative assessment of the appropriateness of the analyzed tests. Key Words: Statistics Normal Probability test Small Samples Power of Tests TC-156

159 1. INTRODUCCIÓN XXVIII ENDIO, XXVI EPIO y RED-M VIII Muchas herramientas de Investigación Operativa y otras áreas del conocimiento asociadas, suelen requerir la verificación del supuesto de normalidad de los datos. En efecto, al estudiar políticas de inventarios, realizar simulaciones, o analizar fenómenos de espera que no responden al proceso Poisson, es frecuente que la distribución de Gauss se encuentre considerada entre los supuestos básicos. También es común que en estas situaciones se tropiece con la dificultad de que las muestras tienen longitud reducida. Tal situación se produce, por ejemplo, cuando se realizan estudios de duración de actividades en procesos productivos o cuando en estudios de confiabilidad de sistemas, se desarrollan determinaciones de la vida útil de ciertos equipamientos. Otra situación similar se encuentra en algunos métodos multicriterio orientados a la toma de decisiones en pequeños grupos. Por ejemplo, los modelos SMAA ( Stochastic Multicriteria Acceptability Analysis ), admiten que las utilidades asignadas a los elementos de decisión comparados, pueden tener distribución gaussiana (Tervonen y Figueira, 2008). Del mismo modo, el método denominado Procesos DRV (Decisión con Reducción de Variabilidad), supone que cuando los integrantes de un grupo de trabajo alcanzan un cierto nivel de consenso, en torno a los criterios a utilizar o a las utilidades asignadas a los elementos comparados, al valorar de manera independiente los elementos, la distribución resultante es la Normal (Zanazzi y Gomes, 2009). Con esta idea, la verificación del comportamiento gaussiano permite evaluar el nivel de acuerdo alcanzado por el grupo. Ahora bien, en Estadística, al aplicar una prueba de hipótesis, es posible cometer dos tipos de errores. El denominado Error Tipo I, consiste en rechazar una suposición que es correcta. Por su parte, el Error de Tipo II se produce cuando no se rechaza una hipótesis falsa. Por otro lado, se denomina Potencia de la Prueba al complemento de la probabilidad del segundo tipo de error. En términos de las pruebas de normalidad, es la posibilidad que ante datos que provienen de poblaciones no normales, la prueba detecte esta cuestión (Montgomery y Runger, 2010) La literatura especializada en Estadística ofrece una importante cantidad de aportes desarrollados en este sentido (Seier, 2002; Farrel y Stewars, 2006; Henderson, 2006; Öztuna, Elhan y Tüccar, 2006; Yazici y Yolacan, 2007, Gel, Miao y Gastwirth, 2007; Coin, 2007; Tanveer, 2011; Romăo, Delgado y Costa, 2010; Yap y Sim, 2011; Razali, Shamsudin, Azid, Hadi & Ismail, 2012; Lafaye de Micheaux & Tran, 2014). Como es obvio, al seleccionar la prueba a utilizar, es importante que el especialista considere la potencia de la misma. TC-157

160 XXVIII ENDIO, XXVI EPIO y RED-M VIII Algunos artículos han aportado estudios sobre la mayoría de las pruebas en cuestión, que incluyen la determinación de potencia. Lamentablemente, estos trabajos operan generalmente con muestras de veinticinco, cincuenta o más datos. Por ese motivo, en este documento se realiza una selección de pruebas que pueden resultar apropiadas para verificar normalidad, cuando las muestras son pequeñas. Para las herramientas seleccionadas, se estima la potencia en situaciones donde la distribución original es simétrica, lo que puede considerarse como una de las peores condiciones. Las estimaciones se obtienen mediante experimentos de simulación. Finalmente, se presentan una suerte de comentarios y sugerencias, acerca de la conveniencia de utilizar algunos de estos tests. En cuanto a la organización del documento, después de la introducción se realiza una revisión bibliográfica, tanto de posibles pruebas, como de trabajos dirigidos a inferir la potencia de las mismas. Luego se presenta la metodología utilizada y a continuación se discuten los principales resultados. 2. REVISIÓN BIBLIOGRÁFICA En la literatura estadística se cuenta con al menos cuarenta pruebas que permiten evaluar el supuesto de normalidad (Dufour et al. 1998). La correcta aplicación de los métodos estadísticos paramétricos, requiere necesariamente del cumplimiento de dicho supuesto; es por ello que son muchos los expertos en estadística que se esfuerzan en la modificación y/o mejora de las pruebas de normalidad, así como del desarrollo de nuevas herramientas. El interés por contar con métodos que permitan detectar desviaciones respecto a la Distribución Normal de probabilidades, se inicia con Pearson en 1895, con el estudio de los coeficientes de asimetría y curtosis (Razali y Wah, 2011). Actualmente se observa un creciente interés por estudiar el rendimiento de estos tests para diferentes alternativas. En la actualidad, se entiende que no existe una única prueba de normalidad que merezca ser la indicada (Tanveer, 2011). En otras palabras, debido a la gran variedad de alternativas a la normalidad, no existe una prueba más potente en términos generales. Hay pruebas que son más potentes para ciertos objetivos, en tanto que pierden validez para otros. En esta dirección enfocan sus investigaciones: Shapiro, Wilk & Chen (1968), Chen y Shapiro (1995), Seier (2002), Thadewald y Büning (2007), Poitras (2006), Farrel y Stewart (2006), Öztuna et al. (2006), Yazici y Yolacan (2007), Úrzua (2007), Gel y Gastwirth (2008), Razali y Wah (2011), Quessy y Mailhot (2011), Yap y Sim (2011), Razali et al. (2012), Lafaye de Micheaux y Tran (2014), entre otros. TC-158

161 XXVIII ENDIO, XXVI EPIO y RED-M VIII Entre las pruebas de normalidad más conocidas, se pueden citar cuatro grupos (Arshad, Rasool y Ahmad, 2003). El primero se encuentra formado por aquellas en las que se mide el grado de discrepancia entre las distribuciones empíricas y la función de distribución acumulada normal; en esta línea se encuentran: Kolmogorov-Smirnov (Kolmogorov, 1933), Lilliefors (Lilliefors, 1967), Anderson-Darling (Anderson y Darling, 1954), (Darling, 1957), Cramervon Mises (Cramer, 1928), (Von Mises, 1931), (Smirnov, 1936). El segundo grupo tiene como estrategia común el análisis de la correlación entre la distribución teórica y la experimental; se basan en la relación de dos estimaciones por mínimos cuadrados, ponderados por una escala obtenida de las estadísticas de orden (Dufour, Farhat, Gardiol & Khalaf, 1998). En este conjunto se destacan las pruebas de Shapiro-Wilk (Shapiro y Wilk, 1965; Royston, 1982, 1995); Shapiro-Francia (Shapiro y Francia, 1972; Sarkadi, 1975), la modificación del estadístico de prueba de Shapiro-Wilk propuesta por Rahman y Govindarajulu (Rahman, Govindarajulu, 1997) y el test de Chen-Shapiro (Chen y Shapiro, 1995) entre otros. En el tercer grupo se consideran aquellas metodologías que se sustentan en la idea de que las desviaciones de normalidad pueden ser detectadas por dos momentos de la muestra: la asimetría y la kurtosis. Este enfoque se encuentra en D'Agostino y Pearson (1973), D Agostino, Belanger, & D'Agostino Jr., (1990), Jarque-Bera (1987) y Gel y Gastwirth (2008). Por último, el cuarto grupo se encuentra formado por pruebas especiales que no pueden ser encuadradas en la clasificación anterior, como es el caso de la propuesta en Yazici y Yolacan (2007) y la sugerida en Romăo et al. (2010). Cabe precisar que en general, estas aproximaciones no se encuentran disponibles en los programas orientados al análisis estadístico. Respecto a la conveniencia de aplicar una u otra prueba, Romao et al. (2010) analiza las potencias de estas herramientas, ante diferentes tamaños de muestra. Concluye que no es posible identificar a uno de estos tests como cercano al ideal, dado que el resultado depende de las condiciones del problema y de la verdadera distribución de los datos. Al respecto, los estudios más tempranos (Shapiro y Wilk, 1965; Shapiro et al. 1968; Pearson et al. 1977; Gan y Koehler, 1990; D'Agostino et al. 1986), sugieren, que la mayoría de los procedimientos analizados funcionan bien cuando las distribuciones alternativas de no normalidad resultan fuertemente sesgadas. En tanto, ante distribuciones alternativas no normales y simétricas, aumenta sensiblemente la posibilidad de cometer el denominado Error Tipo II (Coin, 2007). 3. SUPUESTOS Y METODOLOGÍA ADOPTADA En este trabajo se utiliza como hipótesis nula el supuesto de normalidad TC-159

162 XXVIII ENDIO, XXVI EPIO y RED-M VIII y como alternativa, la posibilidad de que la distribución verdadera sea Uniforme. Se supone como punto de partida, que esta es una de las peores condiciones posibles para los tests de normalidad, debido a que la distribución es simétrica. Dicho de otro modo, parece razonable que cualquier prueba obtenga mejores resultados cuando la distribución verdadera es notoriamente diferente de la gaussiana, como por ejemplo la Exponencial, y que en cambio evidencie dificultades cuando el comportamiento original es simétrico (Coin, 2007). De todas formas, corresponde reconocer que distinguir entre la Normal y la Uniforme, es conveniente en una gran cantidad de situaciones prácticas. Por ejemplo en la producción, una característica de calidad de producto con distribución rectangular, se considera como evidencia de falta de control sobre el proceso productivo, donde en todo caso se realiza una selección posterior para descartar los artículos que no cumplen las especificaciones técnicas. En cambio, la normalidad se considera evidencia de control sobre el proceso (Montgomery, 1991). Del mismo modo, si en un proceso de mantenimiento de máquinas o herramientas, se estudia la variabilidad del tiempo necesario para realizar una reparación, el hecho de que esta variable pueda suponerse extraída de una Normal, sugiere que se ha trabajado suficientemente sobre la tarea para hacerla predecible. En cambio, la distribución Uniforme resulta esperable cuando la duración de la actividad puede tanto ser muy breve como muy extensa. Se lo considera evidencia de falta de control. En un problema multicriterio de toma de decisiones en grupo, donde los integrantes asignan utilidades de manera independiente, a una cierta cantidad de elementos comparados, es razonable esperar que cuando se alcanza un cierto nivel de consenso, cada persona realice asignaciones similares a las de sus compañeros y que la distribución resultante sea la gaussiana. Por ejemplo, si al valorar la prioridad de atención de una falla en una maquinaria, los miembros del equipo de trabajo efectúan valoraciones muy disímiles, esto puede considerarse como evidencia de falta de acuerdos básicos y por supuesto, es razonable que estas personas deban enfrentar situaciones de conflicto interno (Zanazzi, Gomes y Dimitroff, 2014; Zanazzi y Dimitroff, 2013). Respecto a la modalidad de trabajo, es posible distinguir dos etapas bien diferenciadas: a) Revisión de bibliografía y selección de pruebas convenientes. Las condiciones que hacen que una prueba pueda ser seleccionada, son las siguientes: o Potencia del test: se eligen aquellas que obtienen buenos resultados para tamaños de muestras de veinte o más datos. o Amigabilidad del procedimiento: se considera preferible que la estrategia y especialmente el estadístico, resulten comprensibles para los usuarios, aunque no tengan una fuerte formación en Estadística; TC-160

163 XXVIII ENDIO, XXVI EPIO y RED-M VIII o Facilidad de implementación: lo cual implica disponibilidad de software o posibilidad para su implementación con hojas de cálculo. b) Experimentación con las pruebas seleccionadas. Para determinar la potencia de las pruebas seleccionadas, para los tamaños de muestra diez y quince, se realizan experimentos de generación aleatoria. Esto es, se generan mil conjuntos de números con distribución rectangular. A continuación, se aplica cada una de las pruebas elegidas y se determina la proporción de veces que el test detecta que en realidad la distribución no es normal. 4. RESULTADOS OBTENIDOS Como producto de la investigación de bibliografía, se concretó una primera selección de unas veinte pruebas, divididas en cuatro grupos según la estrategia utilizada. A continuación se enumeran estos tests Pruebas basadas en medidas de los momentos Estas pruebas se sostienen en el reconocimiento de las desviaciones de la normalidad mediante el análisis de algunos momentos de la muestra disponible. La idea es comparar los valores obtenidos a partir de los datos, con los esperables cuando la distribución es Normal. En la siguiente Tabla se hace referencia a los artículos donde se proponen estas aproximaciones. TABLA 1. Pruebas que analizan los momentos Estrategia Nro Nombre Pruebas basadas en Momentos 1 D Agostino-Pearson (1973) 2 Jarque-Bera (1980) 3 Prueba robusta de Jarque-Bera (Gel y Gastwirth, 2008) 4 Bonett-Seier (2002) 5 Hosking (1990) 4.2. Pruebas basadas en la Función de Distribución Empírica En estas pruebas, se comparan la función de distribución empírica (estimada con base en los datos de la muestra), con la función de distribución acumulada de la Normal. La estrategia consiste en analizar el grado de similitud o diferencia entre las dos funciones. Dufour et al. (1998) entiende este grupo de pruebas, como basado en una medida de la discrepancia entre las distribución empírica y la distribución TC-161

164 XXVIII ENDIO, XXVI EPIO y RED-M VIII que se propone en la hipótesis nula. A su vez, este conjunto de pruebas puede subdividirse en dos sub-grupos: las que utilizan el supremo de discrepancias y las que trabajan con el cuadrado de las mismas. En la siguiente Tabla se enumeran estas aproximaciones. TABLA 2. Pruebas que analizan la Distribución Empírica Estrategia Nro Nombre Pruebas basadas en la función de distribución empírica 6 Kolmogorov-Smirnov (1933) 7 8 Kolmogorov-Smirnov modificado por Lilliefors (1967) Kolmogorov-Smirnov modificado por Stephens y Harley (1972) 9 Anderson y Darling (1954) 10 Zhang y Wu (2005) 11 Glen, Leemis y Barr (2001) 4.3. Pruebas de correlación y regresión Las pruebas de correlación y regresión, se basan en el cociente de dos estimaciones de escala, obtenidos por el método de mínimos cuadrados de los estadísticos de orden. Las dos estimaciones se distribuyen normalmente, en el numerador se propone una estimación por mínimos cuadrados ponderados y en el denominador la varianza de la muestra de otra población. La Tabla siguiente lista estas propuestas. TABLA 3. Pruebas de correlación y regresión Estrategia Nro. Nombre Pruebas de correlación y regresión 12 Shapiro-Wilk (1965) 13 Shapiro-Francia (1972) 14 Chen-Shapiro(1995) Modificación del Shapiro-Wilk sugerida por Rahman y Govindarajulu (1997) Modificación de Shapiro-Wilk propuesta por D Agostino(1971) 17 Filliben (1975) 4.4. Otras pruebas Se adopta esta denominación, porque los Tests agrupados en este apartado, no pueden ser encuadrados en los grupos anteriores. La siguiente TC-162

165 XXVIII ENDIO, XXVI EPIO y RED-M VIII Tabla identifica a estas aproximaciones. TABLA 4. Pruebas no encuadradas en las estrategias anteriores Estrategia Nro Nombre Otras pruebas 18 Prueba de correlación de cuantiles de Del Barrio et al. (1999) 19 Prueba de Coin (2007) 20 Gel, Miao y Gastwirth (2007) 4.4. Potencia de las pruebas Como producto adicional de la revisión de bibliografía, es posible obtener diferentes evaluaciones de las potencias ofrecidas por estas pruebas. En la Tabla 5 se lista la potencia de aquellas pruebas de normalidad que en el trabajo de Romăo et al. (2010) tienen una potencia empírica mayor al 40%; para distribuciones alternativas simétricas no normales y n=25. TABLA 5. Evaluaciones de potencias con tamaños de muestra tamaño 25 Prueba de Normalidad a =0,05 a =0,10 Kolmogorov-Smirnov (K-S) 39,3 46,3 Anderson-Darling (AD*) 45,1 51,8 Zhang y Wu (Z C ) 44,4 52 Zhang y Wu (Z A ) 43,6 50,8 Glen-Leemis-Barr (P S ) 45,2 51,9 D Agostino-Pearson (K 2 ) 41,5 49,8 Hosking (T lmom ) 47 53,6 Hosking (T w ) 45,3 52,3 Shapiro-Wilk (W) 45,5 52,6 Shapiro-Francia (W ) 43,5 50,4 Shaprio-Wilk modificado por Rahman y Govindarajulu ( ) 44,4 51,3 D Agositno (Dag) 40 46,1 Fillibien 43,1 49,9 Chen-Shapiro (CS) 45,6 52,7 Barrio-Cuesta-Albertos-Matrán-Rodriguez (BCMR) 45 52,2 Coin ( ) 48,5 55,6 Gel-Miao-Gastwirth ( R ) 45,8 52,4 En la Tabla 5, α es la probabilidad asignada a la zona de rechazo de la hipótesis, esto es, la posibilidad de cometer un error del primer tipo. Cabe recordar que a medida que el nivel de significación aumenta, disminuye la TC-163

166 XXVIII ENDIO, XXVI EPIO y RED-M VIII probabilidad de cometer un Error Tipo II y con ello, se incrementa la potencia de la prueba (Montgomery y Runger, 2010). Con ese razonamiento, si el analista se preocupa por detectar desviaciones respecto al comportamiento gaussiano, parece recomendable adoptar valores grandes de nivel de significación, en este caso 0,10. Desde ese punto de vista, el resultado es alentador, dado que varias de las pruebas tienen potencias mayores al 50%. En cuanto a la disponibilidad de estas herramientas en los programas de computadora que ofrecen soporte estadístico y que se utilizan frecuentemente en nuestro país, a los fines de este trabajo se analizaron los paquetes Infostat (desarrollado en la Universidad Nacional de Córdoba), SPSS, Stata y Minitab. La siguiente Tabla resume la disponibilidad de cada una de estas pruebas, en las herramientas computacionales mencionadas. TABLA 6. Disponibilidad de pruebas de normalidad en productos computacionales Prueba de Normalidad Spss Infostat Stata Kolmogorov-Smirnov x Kolmogorov-Smirnov modificado por Lilliefors x x Anderson-Darling (AD*) D Agostino-Pearson (según D Agostino et al. 1990) x Shapiro-Wilk x x Shapiro-Francia x Shaprio-Wilk modificado por Rahman y Govindarajulu x Chen-Shapiro x Ryan-Joiner Minitab 17 x x Ante esta evidencia, se realizó una selección de ocho pruebas, para las cuales se aproximó experimentalmente la potencia con la metodología antes planteada. Corresponde destacar que todas estas pruebas son consideradas como No paramétricas, en la literatura especializada en Estadística. Los resultados obtenidos para tamaños de muestra de diez y quince datos, se reproducen a en la Tabla 7. De dicha Tabla se desprende que la prueba de Shapiro-Wilk modificada por Rahman y Govindarajulu, resulta la de mayor potencia para la detección de la distribución Uniforme como alternativa a la Normal, en muestras de tamaño diez y quince, para un nivel de significancia del diez por ciento. Estos resultados son coincidentes con los presentados por Rahman y Govindarajulu (1997), para muestras más extensas. A la mencionada prueba le siguen, de la mayor a la menor potencia, el test de Shapiro-Wilk (W) y la prueba Anderson- Darling (AD). TC-164

167 XXVIII ENDIO, XXVI EPIO y RED-M VIII Un detalle interesante es que el test de Shapiro-Wilk modificado por Rahman y Govindarajulu, evidencia una leve disminución de potencia al pasar de veinticinco a quince datos. De todos modos, se evidencia que en ningún caso es posible alcanzar una potencia superior al cincuenta por ciento. TABLA 7. Potencia empírica obtenida mediante simulación con los productos computacionales indicados, α = 0,10, n=10 y n=15 Pruebas de Normalidad Potencia empírica Productos n = 15 n=10 computacionales Shaprio-Wilk modificado por Rahman y Govindarajulu 45% 25% Infostat Shapiro-Wilk 29% 18% Spss Anderson-Darling (AD*) 26% 16% Minitab D Agostino-Pearson (según D Agostino et al. 1990) 15% 15% Stata Kolmogorov-Smirnov modificado por Lilliefors 17% 13% Infostat Shapiro-Francia 18% 11% Stata Ryan-Joiner 17% 11% Minitab Gel-Miao-Gastwirth 14% 10% No disponible Respecto a la prueba de Gel-Miao-Gastwirth, fue incluida en la simulación debido a que resulta fácil de interpretar y de calcular. Además el mencionado test obtiene resultados muy interesantes con muestras de más de cincuenta datos. Sin embargo, para las cantidades de datos analizados en la simulación, las potencias obtenidas son bajas. 5. CONCLUSIONES En el presente trabajo se estudia el problema de verificar normalidad con muestras pequeñas. Con esa finalidad se identifican veinte pruebas diferentes y se realiza un análisis comparativo bajo la consideración de tres criterios: potencia empírica para la detección de la Distribución Uniforme, como alternativa a la Normal; amigabilidad del procedimiento y disponibilidad de software. La investigación bibliográfica ha permitido seleccionar ocho pruebas de tipo no paramétrico, que brindan resultados interesantes para muestras grandes. Se experimentó con esos procedimientos para muestras pequeñas y se encontró que ninguno de los tests analizados alcanza una potencia superior al cincuenta por ciento. Dentro de las aproximaciones estudiadas, la prueba de Shapiro-Wilk, modificada por Rahman y Govindarajulu (1997), alcanza los mejores niveles de potencia, tiene una lógica amigable y se encuentra disponible en un software estadístico de fácil acceso. Sin embargo, su aplicación con pocos datos debería ser evitada o considerada solo como un indicio. TC-165

168 XXVIII ENDIO, XXVI EPIO y RED-M VIII Por último, los resultados obtenidos evidencian que el problema de verificar la normalidad en muestras pequeñas, cuando la hipótesis alternativa es una distribución simétrica, no puede considerarse resuelto. Por el contrario, debido a los múltiples y frecuentes requerimientos en ese sentido, se hace necesario desarrollar un estadístico de prueba que sea lo suficientemente potente para detectar desviaciones de la normalidad. 6. BIBLIOGRAFÍA ANDERSON, T. W. y DARLING, D. A. (1954): A Test of Goodness of Fit. Journal of Statistical Associattion, vol. 49, 268, pp ARSHAD, M.; RASOOL, M. T.; AHMAD, M. I. (2003): Anderson Darling and Modified Anderson Darling Test for Generalized Pareto Distribution. Pakistan Journal of Applied Sciences, vol. 3, 2, pp CHEN, L.; SHAPIRO S. S (1995): An alternative test for normality based on normalized spacings. Journal of Statistical Computation and Simulation, vol. 53, pp COIN, D. (2007). A goodness-of-fit test for normality based on polynomial regression. Computational statistics & data analysis, vol. 52, nro. 1, pp CRAMÉR, H. (1928): On the composition of elementary errors: First paper: Mathematical deductions. Scandinavian Actuarial Journal, vol. 1, pp D'AGOSTINO, R. B., BELANGER, A., & D'AGOSTINO JR, R. B. (1990): A suggestion for using powerful and informative tests of normality. The American Statistician, vol. 44, nro. 4, pp D AGOSTINO R.; PEARSON, E. S. (1973): Tests for departure from normality. Empirical results for the distributions of b2 and b1. Biometrika, vol. 60, pp D'AGOSTINO, R. B.; STEPHENS, M. A.; D'AGOSTINO, R. B.; STEPHENS, M. A. (1986). Goodness-fo-fit-techniques. Statistics. DARLING, D. A. (1957): The Kolmogorov-Smirnov, Cramer-von Mises tests. The Annals of Mathematical Statistics, pp DI RIENZO J.A., CASANOVES F., BALZARINI M.G., GONZALEZ L., TABLADA M., ROBLEDO C.W. InfoStat versión Grupo InfoStat, FCA, Universidad Nacional de Córdoba, Argentina. URL DUFOUR, J. M.; FARHAT, A.; GARDIOL, L.; KHALAF, L.(1998): Simulation based Finite Sample Normality Tests in Linear Regressions. The TC-166

169 XXVIII ENDIO, XXVI EPIO y RED-M VIII Econometrics Journal, vol. 1, 1, pp DEL BARRIO, E.; CUESTA-ALBERTOS, J.A., MATRÁN, C.., RODRÍGUEZ- RODRÍGUEZ, J. M. (1999): Tests of goodness of fit based on the L2- Wasserstein distance, Ann. Stat, vol. 27, 4, pp FARREL, P. J.; ROGERS-STEWART, K.R (2006): Comprehensive study of tests for normality and symmetry: extending the Spiegelhalter test. Journal of Statistical Computation and Simulation, vol. 76, 9, pp FILLIBEN, J. J. (1975): The probability plot correlation coefficient test for normality, Technometrics, vol. 17, 1, pp GAN, F. F., & KOEHLER, K. J. (1990). Goodness-of-Fit Tests Based on P-P Probability Plots. Technometrics, 32(3), GEL, Y. R.; GASTWIRTH, J. L. (2008): A robust modification of the Jarque Bera test of normality. Econom. Lett, vol. 99, 1, pp GEL, Y. R., MIAO, W., GASTWIRTH, J. L (2007): Robust directed tests of normality against heavy-tailed alternatives, Comput. Stat. Data Anal, vol. 51, 5, pp GLEN, A. G., LEEMIS, L. M., BARR, D. R. (2001): Order statistics in goodness-of-fit testing, IEEE Trans. Reliab, vol. 50, 2, pp HENDERSON, A. R. (2006): Testing experimental data for univariate normality, Clinica chimica acta, 366(1), pp JARQUE, C. M.; BERA, A. K. (1987): A Test for Normality of Observations and Regression Residuals. International Statistical Review, vol. 55, 2, pp KOLMOGOROV, A. N. (1933): Sulla determinazione empírica di uma legge di distribuzione. Giornalle dell Instituto Italiano degli Attuari, vol. 4, pp LAFAYE DE MICHEAUX, P.; TRAN, V. A. (2014): Power R: Reproducible Research Toll to ease Carlo Power Simulation Studies for Goodness-of-fit Test R. Journal of Statistical Software, vol. 27, pp LILLIEFORS, H. (1967): On the Kolmogorov-Smirnov test for normality with mean and variance unknown. J. Amer. Statist. Assoc, vol. 62, 318, pp MONTGOMERY, D. (1991): Control Estadístico de la Calidad. México, Iberoamérica MONTGOMERY, D. C., & RUNGER, G. C. (2010): Applied statistics and probability for engineers. John Wiley & Sons. TC-167

170 XXVIII ENDIO, XXVI EPIO y RED-M VIII ÖZTUNA, D., ELHAN, A. H., & TÜCCAR, E. (2006): Investigation of four different normality tests in terms of type 1 error rate and power under different distributions. Turkish Journal of Medical Sciences, 36(3), PEARSON, E.S.; D AGOSTINO, R.B.; BOWMAN, K.O. (1977): Tests for departure from normality: comparison of powers. Biometrika, vol. 64, 2, pp POITRAS, G (2006). More on the correct use of omnibus tests for normality. Economic Letters, vol. 90, pp QUESSY, J. F.; MAILHOT, M. (2011). Asymptotic power of tests of normality under local alternatives. Journal of Statistical Planning and Inference, vol. 141, nro. 8, pp RAZALI, N. M.; WAH, Y. B. (2011): Power comparisons of Shapiro-Wilk, Kolmogorov-Smirnov, Lilliefors and Anderson-Darling tests. Journal of Statistical Modeling and Analytics, vol. 2, 1, pp RAZALI, N. M.; SHAMSUDIN, N. R.; AZID, N. N. N.; HADI, A. A.; ISMAIL, A. (2012): A comparison of normality tests using SPSS, SAS and MINITAB: An application to Health Related Quality of Life data. Statistics in Science, Business, and Engineering (ICSSBE), International Conference on (pp. 1-6), IEEE. RAHMAN, M. M., GOVINDARAJULU, Z. (1997): A modification of the test of Shapiro and Wilk for normality. Journal of Applied Statistics, vol. 24, 2, pp ROMÃO, X., DELGADO, R., & COSTA, A. (2010): An empirical power comparison of univariate goodness-of-fit tests for normality. Journal of Statistical Computation and Simulation, vol. 80, 5, pp ROYSTON, J. P. (1982): An extension of Shapiro and Wilk's W test for normality to large samples. Applied Statistics, pp ROYSTON, P. (1995): Remark AS R94: A Remark on Algortihm AS181: The W-test for Normality. Journal of the Royal Statistical, vol. 44, 4, pp SARKADI, K. (1975): The consistency of the Shapiro-Francia test. Biometrika, vol. 62, 2, pp STEPHENS, M. A.; HARTLEY, H. O. (1972). Biometrika Tables for Statisticians, 2, New York: Cambridge University Press. SEIER, E. (2002): Comparison of Tests for Univariate Normality. InterStat Statistical Journal, vol.1, pp TC-168

171 XXVIII ENDIO, XXVI EPIO y RED-M VIII SHAPIRO, S. S., WILK, M. B.; CHEN, H. J. (1968): A Comparative Study of Various Tests of Normality. Journal of American Statist. Assoc., vol. 63, pp SHAPIRO, S.S.; WILK, M.B. (1965): An analysis of variance test for normality: complete samples. Biometrika, vol. 52, pp SMIRNOV, N. V. (1936): Sui la distributtion de w2 (Criterium de M.R.v Mises). Comptes Rendus (Paris), vol. 202, pp SHAPIRO, S.S.; FRANCIA, R. (1972): An approximation analysis of variance test for normality. Journal of the American Statistical Association, vol. 67, pp TANVEER-UL-ISLAM (2011): Normality testing-a new direction. International Journal of Business and Social Science, vol. 2, 3, pp TERVONEN, T., & FIGUEIRA, J. R. (2008): A survey on stochastic multicriteria acceptability analysis methods. Journal of Multi Criteria Decision Analysis,15(12), THADEWALD, T.; BÜNING, H. (2007): Jarque-Bera test and its competitors for testing normality-a power comparison. Journal of Applied Statistics, vol. 34, 1, pp URZÚA, C. M. (2007): Portable and powerful tests for normality. Tecnológico de Monterrey, Campus Ciudad de México. VON MISES, R. (1931): Wahrscheinlichkeitsrechnung und ihre Anwendung in der Statistik und theoretischen Physik (vol. 1). F. Deuticke, Leipzig. YAZICI, B.; YOLACAN, S. (2007): A Comparison of Various Tests of Normality. Journal of Statistical Computation and Simulation, vol. 77, 2, pp YAP, B. W.; SIM, C. H. (2011): Comparisons of various types of normality tests. Journal of Statistical Computation and Simulation, vol. 81, 12, pp ZANAZZI J.; DIMITROFF M (2013): Métodos para Tomar Decisiones en Grupo. Comparación entre Procesos DRV y SMAA. EPIO vol. 34, pp ZANAZZI, J.; GOMES, L. (2009): La Búsqueda de Acuerdos en Equipos de Trabajo: El Método Decisión con Reducción de la Variabilidad (DRV). Revista Pesquisa Operacional, vol. 29, pp TC-169

172 XXVIII ENDIO, XXVI EPIO y RED-M VIII ZANAZZI, J. L., GOMES, L. F. A. M., DIMITROFF, M. (2014). Group decision making applied to preventive maintenance systems. Pesquisa Operacional, vol. 34, nro. 1, pp ZHANG, J., WU, Y. (2005): Likelihood-ratio tests for normality. Computational statistics & data analysis, vol. 49, nro. 3, pp TC-170

173 XXVIII ENDIO, XXVI EPIO y RED M VIII ENTROPÍA CONDICIONAL COMO MEDIDA PARA SELECCIONAR VARIABLES EN CLASIFICACIÓN SUPERVISADA EVALUACIÓN DE UN PRIMER ALGORITMO MARÍA DEL CARMEN ROMERO ALEJANDRO CLAUSSE Fac. Cs. Económicas, Universidad Nacional del Centro de la Provincia de Buenos Aires - PLADEMA, Fac. Cs. Exactas, Universidad Nacional del Centro de la Provincia de Buenos Aires romero@econ.unicen.edu.ar - alejandroclausse@yahoo.com Palabras Clave: Alta dimensionalidad Entropía Simulación Clasificación supervisada. RESUMEN EXTENDIDO 1. DESCRIPCIÓN DEL PROBLEMA Debido a los avances tecnológicos de las últimas décadas, las bases de datos de alta dimensionalidad están presentes en numerosas disciplinas. Dicha alta dimensionalidad está dada por una gran cantidad de variables, de observaciones y/o por una cantidad superior de variables que de observaciones. Esta característica de los conjuntos de datos, requiere nuevas consideraciones para su procesamiento. Fayyad, Piatetsky-Shapiro y Smyth (1996) introdujeron la estrategia de análisis conocida como descubrimiento de conocimiento en bases de datos que involucra métodos para extraer conocimiento de alto nivel a partir de grandes conjuntos de datos de bajo nivel. Dentro de la gran variedad de técnicas estadísticas requeridas, la clasificación supervisada suele ser muy utilizada en problemas en los cuales el objetivo es identificar aquellas variables que se comporten de manera diferencial entre grupos o clases (los cuales serán referidos por una variable de clasificación C). Como ejemplos típicos pueden mencionarse: identificación de genes que distinguen entre perfiles de pacientes sanos y enfermos (se tienen dos clases, C = {sano, enfermo}), detección de diferentes aspectos de los clientes que permita clasificarlos en clientes morosos y no morosos (C = {moroso, no moroso}). En contextos con mayor cantidad de variables que de observaciones, los clasificadores convencionales producen resultados inestables ya que el ruido suele ser el responsable de la sobreparametrización y la propensión al sobreajuste, es por eso que es necesario pensar en otros métodos. En Romero, Di Rienzo y Clausse (2013) se presentó un método que usa la entropía condicional como medida para seleccionar un subconjunto de variables que pueden considerarse diferenciales. La entropía se define como la cantidad media de incertidumbre que tiene una fuente determinada y la entropía condicional referencia la entropía que tiene una determinada variable C (que determina el grupo) conociendo la información que aporta otra variable X: / /. /. Si la entropía (incertidumbre) del grupo disminuye por el conocimiento de alguna variable, dicha variable es relevante para la distinción entre grupos. Esta medida tiene la ventaja de poder aplicarse a contextos con variables pertenecientes a cualquier escala de medición. En Romero, Di Rienzo y Clausse (2014) se avanzó sobre el método propuesto aplicándolo a contextos con variables cualitativas y presentando los RE 171

174 XXVIII ENDIO, XXVI EPIO y RED M VIII porcentajes de falsos positivos y falsos negativos como medidas de evaluación bajo diferentes escenarios generados mediante simulación. Entre las principales conclusiones, se observó un considerable crecimiento del porcentaje de falsos positivos ante el incremento de la cantidad de observaciones. Lo anterior indicaría que la mejora que proporciona una variable a la entropía condicional no es condición suficiente para incorporarla al subconjunto de variables seleccionadas ya que podría ir en detrimento de las medidas de evaluación. Es muy probable que una variable que mejora en un pequeño valor la entropía condicional, no sea una variable diferencial y que dicho comportamiento se deba a la aleatoriedad. En el presente trabajo se explora, preliminarmente, una mejora al método propuesto en Romero et al. (2013) en un contexto de datos binarios, mediante la revisión de las condiciones especificadas por dicho método para detectar variables diferenciales. 2. METODOLOGÍA Las matrices de los contextos descriptos pueden representarse: Obser vacio nes Variables X 1 X 2 X p C 1 y 11 y 12 y 1p A 2 3 y 31 y 32 y 3p A 4 y 41 y 42 y 4p B n y n1 y n2 y np B V = {X 1, X 2,, X p, C} conjunto finito de variables. (p+1): cantidad total de variables. X 1, X 2,, X p : variables pertenecientes a cualquier escala de medición. La cantidad de valores de cada una (tamaño del lenguaje) está dada por n i, i = 1,, p. C: variable cualitativa que indica el grupo o la clase a la cual pertenece la observación (variable de clasificación). n: cantidad de observaciones. y ij : valor de la variable j-ésima en la observación i-ésima; i = 1,, n; j = 1,, p. El algoritmo presentado en Romero et al. (2013) genera un subconjunto de variables que permite la clasificación supervisada (basado en la entropía condicional). Consiste en agregar incrementalmente al subconjunto de variables seleccionadas aquellas que minimicen la entropía condicional de la Clase. La evaluación se realiza considerando las variables ya ingresadas en dicho subconjunto. El algoritmo termina al obtener una entropía condicional igual a 0 (con las variables seleccionadas no se tiene incertidumbre sobre la Clase) o cuando no logra mejorarse la entropía del ciclo anterior: Paso 1: Inicializar el conjunto de variables seleccionadas S como vacío: S = {φ} Paso 2: Ciclo que se repite mientras se tenga una entropía condicional H (Clase / (x i S)) mayor a 0 o mientras no logre mejorarse (disminuirse) la entropía del ciclo anterior a. Para cada una de las variables no incluidas en S, calcular las entropías condicionales de la clase considerando la inclusión de ellas en el subconjunto resultante S: H (Clase / (x i S)) b. Seleccionar la variable x i cuya H (Clase / (x i S)) sea la mínima (conociendo la variable x i, se tiene menor incertidumbre sobre la clase C) y agregarla al subconjunto S = S x i En el presente trabajo, las condiciones de corte establecidas en el Paso 2 del algoritmo original se modifican según lo siguiente: una variable será incorporada al subconjunto de variables seleccionadas si mejora la entropía condicional final en un determinado valor (corte) como mínimo. Si, por ejemplo, se establece un corte de 0,10, sólo se incorporará una variable X al subconjunto de variables seleccionadas si la entropía condicional final logra RE 172

175 XXVIII ENDIO, XXVI EPIO y RED M VIII mejorarse en el valor 0,10 como mínimo. La evaluación del rendimiento del método se realiza mediante la medida Average Overlap Metric (AOM): donde Verdaderos Positivos: Cantidad de variables seleccionadas como positivas (diferenciales) que en realidad lo son; Positivos Reales: Cantidad de variables verdaderamente diferenciales; Positivos Predichos: Cantidad de variables diferenciales seleccionadas (tamaño del subconjunto seleccionado). Los valores de AOM varían entre 0 (ninguna variable detectada es diferencial) y 1 (todas las variables detectadas son diferenciales). Por lo tanto, mayor valor de AOM indica mejor funcionamiento del método. Un bajo valor de corte puede provocar una disminución de la entropía final pero una disminución considerable del AOM, es por esto que se vuelve imprescindible estudiar cuál sería el corte óptimo que maximice el AOM (minimizando entonces la posibilidad de incorporar variables no diferenciales en el subconjunto). El comportamiento del AOM para distintos puntos de corte es explorado a través de diferentes escenarios generados por simulación con las siguientes especificaciones: X 1,,X p : variables binarias independientes idénticamente distribuidas. C: variable que representa el grupo al cual pertenece la observación. Cantidad de valores de la variable n c = 2. Depende sólo de la variable X 2 con probabilidad: 1 (dependencia perfecta), 0,90; 0,80; 0,70; 0,60 y 0,50 (independencia). Cantidad de variables - exceptuando C - (p): 3 y 10. Cantidad de observaciones (n): 2, 3, 4, 5, 6, 7, 8, 9 y 10. Puntos de corte: 0; 0,05; 0,10; 0,15; 0,20; 0,25; 0,30; ; 0,95 y 1. Cantidad de simulaciones por escenario: El algoritmo fue desarrollado en el software R y se utilizó el package entropy (Hausser y Strimmer, 2013). 3. RESULTADOS Y CONCLUSIONES El comportamiento del AOM depende del corte utilizado, de la cantidad de variables, de la cantidad de observaciones y de los niveles de dependencia que tenga la clase de la/s variable/s. En casos de dependencia perfecta, en promedio, se tiene el máximo AOM para cualquier nivel de corte (y cualquier cantidad de variables). Si no se tiene dependencia perfecta, y para una cantidad fija de observaciones (por ejemplo, 10 - Tabla 1 -): el AOM disminuye conforme aumenta la cantidad de variables (no asociadas con la clase) - ruido -, el AOM disminuye con la dependencia, encontrándose el mínimo para situación de independencia, los máximos valores de AOM se encuentran para cortes entre 0 y 0,25; en general, a partir de un corte de 0,30 se obtienen menores RE 173

176 XXVIII ENDIO, XXVI EPIO y RED M VIII valores de AOM (no recomendables). Este trabajo muestra resultados preliminares que indican que el algoritmo presentado en Romero et al. (2013) puede ser mejorado si se considera un nivel de corte en la condición de selección de variables diferenciales. Dado que no se conoce el nivel de dependencia que tendrá la clase del resto de las variables, el trabajo futuro se concentra principalmente en encontrar una función que, dada la cantidad de variables y de observaciones, brinde una cota máxima a utilizar como corte en el algoritmo para garantizar, en la medida de lo posible, el mayor AOM. Se prevé la generación de contextos con mayor cantidad de variables para hallar dicha cota asegurando un buen rendimiento del método. Tabla 1: Comportamiento de AOM (promedio de las simulaciones) para 10 observaciones, 3 y 10 variables (exceptuando la clase) y niveles de dependencia entre 0,5 y 1. Los valores de AOM se expresan en porcentajes. Niveles de Dependencia Cor te 0,5 0,6 0,7 0,8 0,9 1 3 var 10 var 3 var 10 var 3 var 10 var 3 var 10 var 3 var 10 var 3 var 10 var 0 48,8 19,8 49,2 21,2 52,3 31,3 58,2 43,4 70,7 65,5 99,6 99,7 0,05 40,7 19,6 42,8 21,0 49,8 31,1 59,6 43,3 73,3 65,5 99,6 99,7 0,1 35,9 18,4 39,2 20,1 49,7 31,1 63,3 43,6 79,1 66,2 99,6 99,7 0,15 28,0 15,9 32,8 17,9 45,8 29,3 63,9 44,2 82,9 68,3 99,6 99,7 0,2 20,7 12,3 26,1 15,9 42,2 29,7 64,0 48,4 86,4 74,2 99,6 99,7 0,25 16,3 9,5 22,0 13,7 39,2 29,4 63,4 48,1 87,3 75,9 99,6 99,7 0,3 13,6 7,3 17,7 11,0 33,0 25,5 55,4 45,4 82,4 74,7 99,6 99,7 0,35 10,0 5,5 13,7 8,9 28,6 23,0 51,3 44,9 80,6 75,1 99,6 99,7 0,4 8,0 4,7 11,2 7,5 24,6 20,0 47,0 44,5 77,5 75,3 99,6 99,7 0,45 4,9 2,6 7,8 6,1 20,1 17,0 41,7 40,9 74,5 73,5 99,6 99,7 0,5 4,8 2,6 7,7 6,1 20,1 17,2 41,7 41,0 74,5 73,6 99,6 99,7 0,6 2,7 1,3 4,8 4,1 13,9 12,2 31,6 32,9 63,0 63,3 99,6 99,7 0,7 0,6 0,1 1,1 1,0 4,4 4,5 13,2 13,8 37,2 38,8 99,6 99,7 0,8 0,2 0,1 0,6 0,3 3,1 3,5 11,0 11,8 34,4 35,8 99,6 99,7 0,9 0,2 0,1 0,6 0,1 2,9 3,4 10,6 11,7 33,6 35,3 99,6 99,7 1 0,2 0,1 0,6 0,1 2,9 3,4 10,6 11,7 33,6 35,3 99,6 99,7 Nota: Los valores en negrita y cursiva se corresponden con los máximos para cada nivel de dependencia y cantidad de variables. 4. REFERENCIAS FAYYAD, U.; PIATETSKY-SHAPIRO, G. y SMYTH, P. (1996): From Data Mining to Knowledge Discovery in Databases. Artificial Intelligence Magazine, 17(3): HAUSSER, J. y STRIMMER, K. (2013): Package Entropy: Estimation of Entropy, Mutual Information and Related Quantities. R package, versión Versión obtenida 04/ ROMERO, M. del C.; DI RIENZO, J. y CLAUSSE, A. (2013): Selección de atributos en clasificación supervisada. Uso de la entropía condicional. IV Encuentro Iberoamericano de Biometría y XVIII Reunión Científica del Grupo Argentino de Biometría. Mar del Plata, 25 al 27 de septiembre de RE 174

177 XXVIII ENDIO, XXVI EPIO y RED M VIII ROMERO, M. del C.; DI RIENZO, J. y CLAUSSE, A. (2014): Uso de la entropía condicional para selección de atributos en clasificación supervisada. Una aplicación en datos cualitativos. XIX Reunión Científica del Grupo Argentino de Biometría. Santiago del Estero, Argentina. 10 al 12 de septiembre de RE 175

178 XXVIII ENDIO, XXVI EPIO y RED-M VIII FINANZAS

179 XXVIII ENDIO, XXVI EPIO y RED M VIII GOBIERNO CORPORATIVO EN PYMES: UN ESTUDIO MEDIANTE ANÁLISIS DE COMPONENTES PRINCIPALES Anahí Briozzo - Lidia Toscana - Diego Santolíquido - Diana Albanese Departamento de Ciencias de la Administración Universidad Nacional del Sur 1 abriozzo@uns.edu.ar - ltoscana@criba.edu.ar - dsantoliquido@gmail.com - dalbanese@uns.edu.ar Palabras clave: Gobierno Corporativo - PyMEs - Análisis de componentes principales 1. INTRODUCCIÓN Y ANTECEDENTES El objetivo de este trabajo es estudiar el gobierno corporativo (GC) de las pequeñas y medianas empresas (PyMEs) sujetas al régimen de oferta pública en los mercados de valores argentinos, por su condición de emisoras de acciones y/u obligaciones negociables (ON). En particular, se realiza un estudio descriptivo multivariado mediante análisis de componentes principales(acp)de un conjunto de variables que en la literatura son considerados relevantes en PYMES y están disponibles en los datos relevados. El GC puede definirse como un conjunto de mecanismos a través de los cuales los inversores externos pueden protegerse contra la expropiación de rentas por parte de los agentes internos de la firma (LaPorta, López-de- Sinales, Shleifer y Vishny, 2000). La importancia del correcto funcionamiento de los sistemas de Gobierno Corporativo deriva principalmente de este aspecto fundamental que se puede observar en empresas que hacen oferta pública de su capital, debido a la imposibilidad de manejo por parte del gran número de accionistas propietarios, generando la necesidad de designar managers profesionales. La aplicación de análisis de componentes principales en la temática de gobierno corporativo es relativamente reciente, y se remite a grandes empresas en países desarrollados. El interés principal en su uso subyace en identificar medidas objetivas del gobierno corporativo de una empresa. Larcker, Richardson y Tuna (2007) toman una muestra de empresas de capital abierto de los Estados Unidos, y sobre una base de 39 medidas de GC (características del directorio, concentración de la propiedad, participación institucional, sistema de compensación de los ejecutivos, entre otras) identifican 14 dimensiones del GC.Larcker et al. (2007) muestran que un índice de GC basado en ACP tiene menor error de medición que otros índices construidos arbitrariamente. Ammann, Oesch y Schmid (2011) toman observaciones de 22 países desarrollados en el periodo 2003 a 2007, y sobre 17 atributos de GC (agrupados en responsabilidades del directorio, información financiera y control interno, derechos de los accionistas, remuneraciones y mercados de control corporativo) toman como índice de GC la primera componente, que explica el 16.4% de la varianza total. Al comparar estos resultados con los de dos índices obtenidos con metodologías diferentes, arriban a resultados consistentes. 1 Instituto de Investigaciones Económicas y Sociales del Sur - CONICET RE 177

180 XXVIII ENDIO, XXVI EPIO y RED M VIII 2. METODOLOGÍA El universo bajo estudio son las PyMEs emisoras de valores negociables desde enero 2011 hasta mayo 2014 en losmercados de valores argentinos. Se consideran solo aquellas empresas cuya forma legal es sociedad anónima. La definición de PyME corresponde a la Res. Gral. 582/10 de la Comisión Nacional de Valores (CNV) (emisiones ) y la Res. 50/13 de la Secretaría de la Pequeña y Mediana Empresa y Desarrollo Regional (emisiones 2013 y 2014). La población totaliza 33 PyMEs, de las cuales tres, son emisoras de acciones y el resto únicamente ha emitido obligaciones negociables. Bajo la regulación argentina, las PyMEs están exceptuadas de constituir un órgano colegiado de fiscalización, no tienen obligación de constituir un Comité de Auditoría, y no están obligadas a presentar el Código de Gobierno Societario. Esto implica que la información sobre GC de estas empresas esté diseminada en los distintos documentos de acceso público que las mismas presentan a la CNV, como balances, información de hechos relevantes, prospectos de emisión, entre otros. Por lo tanto, para llevar a cabo este estudio fue necesario recabar y sistematizar toda esta información dispersa, en una única base de datos. Teniendo en cuenta la información completa para todas las empresas, la muestra totaliza 22 firmas, sobre la cual se estudian 13 variables de GC, que son los aspectos que se encuentran disponibles en los datos relevados y corresponden a las dimensiones de GC de interés para este estudio. Para el análisis de los datos se emplea el Análisis de Componentes Principales basado en la matriz de correlaciones, a fin de obtener un menor número devariablesque resuman lo mejor posible a las13 variables iniciales, con la mínima pérdida de informacióny que simplifique la interpretación. 3. RESULTADOS Se trabajó con el programa SPSS 17, obteniéndose la matriz de correlación de las variables estudiadas cuyo determinante es igual a 6, que al ser muy pequeño indica que el grado de correlación entre las mismas es alto. Los resultados del test de esfericidad de Bartlett (altamente significativo) y la medida KMO (0.401), cuyo valorpuede considerarsesuficiente para la adecuación muestral al análisis.(pérez López,2005) Tabla 1. Varianza total explicada Componente Total % de la varianza % acumulado 1 4,334 33,338 33, ,312 17,786 51, ,073 15,948 67, ,309 10,072 77,145 Para determinar el número relevante de componentes, se observa la varianza total explicada. Las cuatro primeras componentes explican el 77,145% de la variación total (Tabla 1). Se trabaja, entonces, con 4 componentes. Posteriormente se estudia la comunalidad (es decir, qué parte RE 178

181 XXVIII ENDIO, XXVI EPIO y RED M VIII de la variabilidad original de cada una de las variables es explicada por las componentes). En este caso la variabilidad que queda explicada por las componentes varía entre 60 y 95% Tabla 2. Matriz de componentes Variable Componente Porcentaje de Accionistas personas 0,854-0,248 0,032 0,031 jurídicas respecto al total de accionistas Porcentaje de Accionistas personas -0,679 0,571 0,122 0,270 físicas respecto al total de accionistas Porcentaje de Mujeres accionistas -0,066 0,294 0,431-0,583 respecto al total de accionistas Número de directores independientes 0,863-0,271 0,247-0,078 Número de propietarios no -0,657-0,045 0,389-0,258 administradores en el directorio Número de propietarios -0,537-0,243-0,324 0,563 administradores en el directorio Número de empleados no Propietarios 0,712-0,030 0,369-0,046 en eldirectorio Número de integrantes de la alta -0,059 0,220 0,852 0,414 gerencia Número de Mujeres en la alta gerencia 0,452 0,535 0,501 0,415 Número de Miembros titulares en -0,193-0,737 0,494 0,065 directorio Número de Mujeres titulares en -0,438 0,561 0,010-0,304 directorio Porcentaje de la participación 0,669 0,515-0,254-0,113 accionaria del principal accionista Número de accionistas -0,620-0,395 0,350-0,232 A continuación se identifican las variables que más aportan a la formación de cada componente, evaluando las correlaciones entre variables y componentes (Tabla 2).Un criterio sugerido es considerar valores superiores a 0,5 (en valor absoluto).siguiendo este criterio las variables que más aportan a cada componente son: Primera componente: Directores independientes, Participación de personas jurídicas, Empleados no propietarios en directorio y Participación principal accionista (correlacionadas positivamente), mientras queparticipación de personas físicas, Propietarios no administradores en directorio, Propietarios administradores en directorio y Número de accionistas están correlacionadas negativamente. Segunda componente:porcentaje de personas físicas, Mujeres en alta gerencia, Mujeres titulares en directorio (correlacionadas positivamente) y Miembros titulares en directorio (correlacionada negativamente) RE 179

182 XXVIII ENDIO, XXVI EPIO y RED M VIII Tercera componente:personas en alta gerencia y Mujeres titulares en alta gerencia. Cuarta componente:propietarios administradores en el directorio (correlación positiva) y porcentaje de mujeres accionistas (correlación negativa). 4. COMENTARIOS FINALES El objetivo de este trabajo es describir las características de GC de las PyMEs sujetas al régimen de oferta pública en los mercados de valores argentinos, mediante ACP. La originalidad del trabajo radica en varios aspectos. Primero, en el objeto de estudio, GC en PyMEs de un país emergente. Segundo, desde la parte metodológica, se ha desarrollado una base de datos única a partir de la sistematización de datos públicos, y la herramienta de análisis utilizada, ACP, es novedosa en esta temática. Los resultados del ACP permiten interpretaciones interesantes al identificar tres dimensiones del GC:concentración y composición de la propiedad, composición del directorio, y alta gerencia, sumando a esto una perspectiva innovadora de género.puede observarse que la primera componente captura la relación de la estructura de propiedad de la empresa (concentración y composición de la propiedad) con el GC. Por un lado, esta componente tiene correlación positiva conla participación de personas jurídicas en la propiedad, la participación de directores independientes y externos en el directorio, y con la concentración de la propiedad en el principal accionista. Por otro lado, la primera componente se correlaciona negativamente conla participación de personas físicas en la propiedad, la inclusión de propietarios en el directorio, y con el número total de accionistas.esto señala que la pertenencia de una empresa a grupos económicos indicaría una mayor apertura del directorio, y a su vez la mayor concentración de la propiedad actuaría también como mecanismo de GC. Asimismo, puede observarse que la segunda y tercera componente capturan la relación positiva entre diversidad de género y tamaño de los órganos de GC (Alta gerencia y Directorio, las otras dos dimensiones del GC), los cuales a su vez se relacionan con la participación de personas físicas en el capital accionario. 5. REFERENCIAS AMMANN, M., OESCH, D., Y SCHMID, M. (2011). "Corporate governance and firm value: International evidence". Journal of Empirical Finance, vol. 18, pp LAPORTA, R., LOPEZ-DE-SILANES, F., SHLEIFER, A., Y VISHNY, R. (2000). "Investor protection and corporate". Journal of Financial Economics, vol. 58, pp LARCKER, D., RICHARDSON, S., Y TUNA, I. (2007). "Corporate Governance, Accounting Outcomes, and Organizational Performance". The accounting review, vol 82, pp PÉREZ LÓPEZ,C (2005). Métodos Estadísticos Avanzados.Ed. Thomson. RE 180

183 XXVIII ENDIO, XXVI EPIO y RED M VIII VALUACIÓN DE OPCIONES REALES: UN SIMPLE ALGORITMO BASADO EN SIMULACIÓN MONTE CARLO. GASTÓN S. MILANESI - PESCE GABRIELA Universidad Nacional del Sur. Departamento Ciencias de la Administración milanesi@uns.edu.ar - gabriela.pesce@uns.edu.ar RESUMEN El trabajo presenta un simple algoritmo basado en simulación Monte Carlo para valuar flexibilidad estratégica de un proyecto, con resultado equivalente obtenidos con el modelo Black-Scholes (BS). Su principal ventaja es la simplicidad para explicitar la conexión entre valor expandido, flujos de fondos, opciones del activo real. Los resultados preliminares obtenidos demostraron: a) equivalencia algebraica al modelo BS, para opciones reales simples (diferimiento, expansión, abandono, venta), b) ajuste al modelo binomial y c) versatilidad en la valuación estrategias con opciones reales simples (inversióntransferencia) o inversión diferida estocástica (precio de ejercicio no determinístico) Palabras claves: Opciones Reales, Simulación Monte Carlo, Binomial, Black y Scholes ABSTRACT The paper shows a simple algorithm based on Monte Carlo calculation for valueting the project s strategic flexibility with equivalent results obtained with the Black-Scholes (BS) model. It main advantage is the simplicity for specifying the connection between the expanded value, cash flows and real asset s option. The preliminary results obtained show: a) algebraic equality to the BS model, for simple real options (defer, expansion, abandon, sell); b) adjust to the binomial model; c) versatility for valuing strategy with simple real options (investment-transfer) or defer stochastic investment (exercise price not deterministic). Key words: Real Optiones, Monte Carlo Simulation, Binomial, Black and Scholes. TC-181

184 XXVIII ENDIO, XXVI EPIO y RED M VIII 1-INTRODUCCIÓN: CONCEPTOS Y MODELOS DE OPCIONES REALES El valor de una opción es el valor actual de la sumatoria del producto entre sus pagos futuros y probabilidad de ocurrencia, asignando valor cero a los probables valores negativos de la distribución; ya que el titular de la opción tiene el derecho pero no la obligación de ejercicio. A partir de la idea anterior el valor de una opción puede sintetizarse en tres pasos a saber: a. Proyectar la distribución de probabilidad de valores futuros correspondientes al subyacente. b. Estimar los valores esperados asociados a la distribución de probabilidad (a), asignando valor cero a los resultados esperados de signo negativo. c. Calcular el valor actual de la suma de valores esperados (b), ponderados por su probabilidad de ocurrencia. El primer paso se refiere al modelado de la función de distribución de probabilidad correspondiente a los posibles valores que adopta el activo. El segundo define el procedimiento seleccionado para la estimar un valor esperado individual (usado como el valor esperado del precio de la opción). Finalmente la determinación del valor teórico mediante la suma ponderada entre valores terminales (b) y probabilidades asociadas (a) actualizadas por el valor tiempo del dinero. Este sencillo concepto relativo al valor de una opción es la idea que subyace en los modelos de mayor complejidad, que en el presente trabajo será traducido en un simple algoritmo para valorar pagos contingentes en activos reales. Los avances en las técnicas de valuación de decisiones de inversión, estrategias y activos reales a derivado en un incremento en el uso de los modelos de valoración de opciones reales, siendo en sus inicios adaptaciones de los modelos empleados para valuar opciones financieras. En efecto sus bases se encuentran en el modelo de Black- Merton-Scholes (BMS) Black y Scholes (1972); Black y Scholes (1973), Merton (1973). La fórmula provee una forma de solución cerrada a través de ecuaciones diferenciales estocásticas para describir el valor de la opción. El modelo evolucionó a formas complejas dependiendo de modificaciones y adecuaciones según el proceso estocástico seleccionado; cantidad de momentos estocásticos de orden superior, complejidad y estructura de la opción, Dixit y Pindyck (1994); Baliero Filho y Rosenfeld (2004); Haug Gaarder (2007); Wilmott (2009). La adaptación a un lenguaje matemático sencillo surgió de su formulación en tiempo discreto a través del modelo binomial Cox, Ross y Rubinstein (1979); Rendleman y Bartter (1979); Jarrow y Rudd (1982); Jabbour, Kramin y Young (2001); Camara y Chung (2006); Chance (2007). Existe una importante literatura relativa a la valoración de opciones reales, Myers (1977); Brennam y Schwartz (1985); Mason y Merton (1985); Mc Donal y Siegel (1986); Trigeorgis y Mason (1987); Keema (1988); Kulatilaka (1988); Trigeorgis (1988); Pindyck (1988); Myers y Majd (1990); Trigeorgis (1991); Trigeorgis (1993); Dixit y Pindyck (1994); Kulatilaka y Trigeorgis (1994); Kulatilaka (1995); Smith y Nau (1995); Trigeorgis (1995); Smit, (1996); Trigeorgis (1997); Brennan y Trigeorgis (2000); Copeland y Antikarov (2001); Chance y Peterson (2002); Boer (2002); Borison (2003); Smit ytrigeorgis TC-182

185 XXVIII ENDIO, XXVI EPIO y RED M VIII (2004); Brandao, Dyer y Hahn (2005); Smith, (2005); Kodukula y Chandra (2006); Haahtela (2010); Brous (2011); Haahtela (2011 (a)); Haahtela (2011 (b)); Milanesi (2013); Milanesi, Pesce y El Alabi (2013); Milanesi y Tohmé (2014); Milanesi (2014). Estos modelos se distinguen por su riqueza matemática en un intento de describir el valor estratégico de las opcionalidad potencial de los activos reales, no obstante resignan grados de interpretación intuitiva, de suma utilidad para la toma de decisiones gerenciales y uso cotidiano de los modelos de opciones. Motivado en las ideas precedentes el presente trabajo presenta un simple algoritmo para estimar el valor de la flexibilidad estratégica de un proyecto, que se aproxima a los resultados generados por el modelo Black yscholes (BS). Para ello se emplea información disponible del Valor Actual Neto del proyecto: la distribución de probabilidad de los flujos de fondos del proyecto, tasa ajustada por riesgo, el nivel de inversión y la tasa libre de riesgo en una suerte de modelo que replica los tres pasos indicados precedentemente para determinar el valor estratégico del proyecto Datar, Matews y Johnson (2007); Carmichael, Hersh y Praneeth (2011). Cuando la distribución de probabilidad del valor de los flujos (en lugar de su valor esperado) y el precio de ejercicio son actualizados a la tasa ajustada por riesgo y al tipo sin riesgo respectivamente se puede valorar una opción de manera equivalente al modelo BS. La clave del modelo reside en ajustar el factor estocástico de actualización para reflejar el riesgo de los flujos de fondos a fecha de ejercicio, utilizando simulación Monte Carlo. Los resultados preliminares obtenidos demuestran que el método es algebraicamente equivalente al modelo BS, tanto para opciones reales asimilables a call, put o combinaciones y aproximándose razonablemente al proceso binomial. De manera sencilla permite incorporar cierta complejidades emergentes de la inversión en activos reales, como el carácter estocástico de la inversión (precio de ejercicio), tratado de forma determinístico en los clásicos contratos de opciones financieras. El trabajo se estructura de la siguiente manera: primero se introduce el modelo desarrollado para valorar opciones reales asimilables a call, put y combinaciones. A continuación se prueba el ajuste del modelo a los resultados generados por el modelo BS y el Modelo Binomial, en este último sensibilizando el horizonte de ejercicio de la opción. Seguidamente el algoritmo es aplicado a situaciones complejas como a) proyecto diferido en el tiempo con flujos estocásticos (call con ejercicio aleatorio); b) ahorros esperados; costos objetivos versus costos estocásticos (put simple) c) proyecto diferido con flujo estocásticos y opción de venta de licencia (long straddle). Finalmente se presentan las principales conclusiones. 2. VALORACIÓN DE UN PROYECTO DE INVERSIÓN CON OPCIONES: EL MODELO BLACK-SCHOLES Y SU LÓGICA A TRAVÉS DE UN ALGORITMO BASADO EN SIMULACIÓN MONTE CARLO. En esta sección se desarrollará el modelo utilizando un caso hipotético de aplicación. Se establecerán las semejanzas entre el proceso de valoración TC-183

186 XXVIII ENDIO, XXVI EPIO y RED M VIII BS y el algoritmo propuesto basado en simulación Monte Carlo. Este logra explicitar la conexión existente entre la distribución de probabilidad de los flujos de fondos del proyecto, las opciones y su valor actual estratégico. 2.1 El Valor Actual Neto (VAN) en un proyecto con flexibilidad estratégica: Opción de inversión diferida. Consideré el siguiente caso: la firma R&D actualmente planifica el desarrolla de una nueva droga a ser lanzada en el mercado. Uno de los objetivos de la gerencia consiste en cuantificar el potencial beneficio derivado de la comercialización del producto, una vez finalizada la primera etapa piloto. Si los resultados esperados son positivos, servirá para concretar, sostener y transmitir la decisión estratégica de asignación de recursos en la primera etapa de investigación; basado en un criterio económico. El proyecto consta de dos etapas: primera de prueba y la segunda comercial en donde el resultado de esta última condiciona el inicio de la fase piloto. La primera fase dura cinco años (t=5), en la segunda etapa se estima un valor actual de los beneficios, $4.375 (millones) con desvío de $1.345 (millones). La tasa de costo de capital de la firma (CPPC) es del 10,5% y la tasa libre de riesgo del 5,5%. La inversión que demanda la etapa de comercialización a concretar en el quinto año es de $5.000 (millones), sin riesgo. Si el proyecto se valora con el enfoque tradicional del VAN se tiene el siguiente resultado: ; $2.588, 05 (millones); ; $3.797,86 (millones) por lo tanto ; ; =-$1209, 81 (millones). El resultado obtenido conduce al rechazo del proyecto, ya que los esfuerzos en investigación realizados en la primera etapa no se conectarán con resultados favorables en la fase de comercialización, consecuentemente se desechará la propuesta y no se inicia la etapa piloto. No obstante este resultado se debe analizarse a la luz de las falencias que presenta el VAN. Este no considerar el valor añadido por la opción del proyecto 1 ya que supone que la inversión es irreversible e inflexible. En este caso esto se traduce en que el compromiso de invertir en la segunda etapa en t 5 se asume en t 0. La flexibilidad estratégica del proyecto debe ser cuantificada utilizando modelos de valoración de opciones. 2.2 La opción real de diferir utilizando el modelo Black y Scholes El modelo BS es aplicado en la valoración de opciones reales simples (diferimiento, abandono, expansión) asimilables a call-put europeos. El valor de la opción depende de la evolución estocástica del valor correspondiente al subyacente, influenciada principalmente por su volatilidad 2. La efectividad y 1 La opción consiste en diferir el compromiso de la inversión (opción de diferimiento) asimilable a una opción europea: espera de cinco años con el objeto de acotar la incertidumbre ante el ingreso de nueva información por el transcurso del tiempo. 2 El parámetro volatilidad es uno de los principales insumos en los modelos de valoración de opciones. Su determinación ofrece ciertas dificultades en proyectos donde no existe activo financiero o cartera negociada en el mercado de capitales que replique la variabilidad de sus flujos de fondos del proyecto Wang y Halal (2010). Como solución frente al problema indicado se utiliza el enfoque MAD (Marketed Asset Disclaimer) Copeland y Antikarov, (2001); Brandao, Dyer y Hahn (2005); Smith (2005). en la estimación del desvío correspondiente a los flujos del proyecto. TC-184

187 XXVIII ENDIO, XXVI EPIO y RED M VIII síntesis de la ecuación es contrarrestada frente a la relativa explicitación de la conexión existente entre flujos de fondos y valor esperado del proyecto durante la vida de la opción. Esto atenta contra su interpretación y la difusión de la expresión a nivel de toma de decisiones, Fornero (2011). La ecuación del modelo BS es, (1) Donde representa el valor teórico de la opción, valor actual del subyacente, la distribución normal estándar acumulativa de la variable, el precio de ejercicio; la tasa libre de riesgo y la fecha de expiración. Las variables y se estiman de la siguiente manera: 2 y. En el caso bajo estudio el valor de la opción se determina de la siguiente manera: subyacente $4.375, $2.588,05; precio de ejercicio $5.000; tasa libre de riesgo 5,50% y fecha de ejercicio 5. La 4 volatilidad se obtiene despejando de la expresión, 1 $1.345 $2.588,05, 1 Wilmott, Howison y Dewynne (1995) donde 13,44%. Los parámetros estocásticos asciende : 1,1259; 1,4264; 0,13009; 0, El valor expandido o estratégico (VE) del proyecto con opciones es de $44,77 (millones) (ecuación 2). Este se descompone en valor actual tradicional (VAN) y valor de las opciones (VOR); (Trigeorgis, 1997); siendo VE VAN VOR; $44,77=-$1209,81+$1254, El valor de la opción real de diferir a través del algoritmo con simulación Monte Carlo. Consiste en un algoritmo para determinar el valor de las opciones reales simples asimilables a call- put europeos. Aplica los conceptos del Valor Actual Net o ( VAN) combinando la técnica de simulación Monte Carlo, ya que estima la distribución de probabilidad de beneficios futuros actualizados a la tasa de costo del capital asignando valor cero a las magnitudes negativas. Los pasos para su implementación son: a. Definición de la variable aleatoria, siendo el valor actual de los beneficios futuros en el momento de ejercicio t=n, b. Determinación del valor actual de la distribución de probabilidad anterior a la tasa de costo de capital y el valor actual del precio de ejercicio 3 La expresión es el valor actual esperado correspondiente al subyacente en el caso que la opción finaliza en el dinero, siendo la probabilidad ajustada por riesgo que el subyacente finalice por encima del precio de ejercicio a fecha de vencimiento. es el valor actual esperado del precio de ejercicio si la opción finaliza en el dinero, siendo la probabilidad ajustada por riesgo de que la opción sea ejercida Carmichael, Hersh y Praneeth (2011) 4 La volatilidad se obtiene iterando la expresión con la función buscar objetivo del menú Datos en Microsoft Excel. TC-185

188 XXVIII ENDIO, XXVI EPIO y RED M VIII c. Se calcula el pago promedio en el instante t=0 donde se establece como restricción que el mínimo pago es igual a cero. El resultado es equivalente al valor de una opción europea calculada con el modelo BS, siendo la expresión a utiliza la siguiente;,, ; (2) Donde representa la variable aleatoria con primer y segundo momento estocástico a y ; el precio de ejercicio determinístico de la inversión y la tasa ajustada por riesgo y libre de riesgo respectivamente. Continuando con el ejemplo, para la simulación se utilizó el aplicativo Crystall Ball de Oracle, la variable aleatoria valor actual en el momento t=5, se define con media =$4.375 desvío =$1.345, y distribución lognormal. Con los datos correspondientes a 10,5%; 5,5%, $5.000 se define la variable de Inversión El proceso de simulación implicó iterar pruebas obteniéndose un valor medio esperado del proyecto con opciones de $44, 80 (millones). Es se ajusta al valor de $44,77 correspondient e a la ecuación 1. A continuación se exponen las salidas estadísticas de la simulación; Estadísticas OR diferir Pruebas Caso base $0,00 Media $44,80 Mediana $0,00 Modo $0,00 Desviación estándar $ 220,07 V arianza $ ,91 Sesgo 7,32 C urtosis 75,13 C oeficiente de variación 4,91 Mínimo $0,00 Máximo $7.558,56 Ancho de rango $ 7.558,56 Error estándar medio $0,31 Tabla 1: Salidas estadísticas de la simulació Fuente: elaboración propia El tercer y cuarto momento estocá stico (Α=7,32; Κ=75,13) son un rasgo característico de todo proyecto con opcionalida d. Es por ello que las opciones financieras, y por extensión las reales, poseen un importante apalancamiento explicado por la asimetría positiva y las amplias colas en la distribución de TC-186

189 XXVIII ENDIO, XXVI EPIO y RED M VIII valores probables Collan, Fullér y Mezei (2009) conforme surge de la ilustración 1. La fuerte asimetría y curtosis hace que un proyecto con VAN negativo tenga un valor estratégico positivo. Situación diferente donde el compromiso a concretar la inversión en t se asume hoy sin reversibilidad alguna, en este caso el VAN fue negativo. La naturaleza de la opcionalidad en los proyectos se fundamenta en el tercerr y cuarto momentoo estocástico (asimetría y curtosis) Taleb (2004). 2.4 Robustez y BS. Ilustración 1: Valor esperado promedio y distribución de frecuencias simulación La sencillez y transparenciaa del modelo lo convierte en una herramienta de comunicación eficaz, posibilitando que la gerencia justifique el curso de acción seleccionado ante las diferentes capas organizacionales involucradas, sin apartarse de la racionalidad correspondiente al criterio costo-beneficio del algoritmo: Análisis comparativo con el modelo Binomial A continuación se comparaa el desempeño del modelo con el modelo binomial, cuyas características están dadas por: comportamientoo discreto de la variable aleatoria, con distribución binomial y convergiendo suss resultados al modelo BS cuando. Con el fin de comprobar la robustez del algoritmo y su ajuste al modelo binomial se propone el siguiente caso: se debe valorar una inversión diferida donde =$ $1000; $800; 5,5%; 6%, utilizando el modelo binomial CRRR Cox, et al. (1979). Las fechas correspondientes al ejercicio de la opción de inversión serán sensibilizadas con los siguientes horizontes; 1,2,3,4,5,1 t 10,20. Se supone σ= =9,53%, coeficientes y, siendo u 1,1 y d 0,89 respectivamente. La rejilla binomial paraa los diferentes valores en los nodos que asume el subyacente se construye con la expresión; (2) TC-187

190 XXVIII ENDIO, XXVI EPIO y RED M VIII Luego de proyectar las rejillas binomiales correspondiente a los diferentes horizontes planteados, se debe estimar el valor al vencimiento de la opción con la siguiente expresión,, (3) Finalmente el valor esperado inicial se obtiene calculando recursivamente desde hasta 0. En los nodos intermedios son ponderados por las probabilidades neutrales al riesgo los valores obtenidos con la ecuación 3 a saber;,,, 1. Las probabilidades neutrales al riesgo son; con valor p 0,7051 y 1 p 0,2948 para el ejemplo bajo estudio. En el trabajo se utilizó la expresión sintética para determinar el valor actual de la opción a través del método binomial;!!! (5) En el anexo se exponen las rejillas correspondientes a valores terminales, probabilidades neutrales al riesgo y valor actual esperado de la opción (ecuaciones 4 y 5) y las variables del modelo BS correspondientes al presente ejemplo (ecuación 1). Para la aplicación del algoritmo se procedió a la simulación de los posibles valores correspondientes al subyacente, suponiendo distribución lognormal con media y desvío 1. En la tabla se presentan el valor actual de la inversión (I el valor actual esperado de los flujos en cada horizonte (E(VP) el valor actual esperado inicial (VA(VP) t ) y el desvió en los diferentes horizontes (σ t ). t It@r $760,98 $723,86 $688,5 $654,98 $623,04 $485,22 $294,30 E(VP)t@k $1061,8 $1127,4 $1197,2 $1271,2 $1349,8 $1822,1 $3320,1 VA(VP)t $1000 $1000 $1000 $1000 $1000 $1000 $1000 σt $101,42 $1137,7 $1704,6 $2215,22 $2715,06 $5493,99 $14541,38 Tabla 2: Variables de entradas correspondientes al modelo de simulación. Fuente: elaboración propia. La celda de previsión (ecuación 2) se define Inversión Nuevament e sobr e la base de iteraciones se obtienen los sigu ientes resultados; Estadísticas t=1 t=2 t=3 t=4 t=5 t=10 t=20 Pruebas Caso base $239,02 $276,13 $311,43 $345,02 $376,96 $514,78 $705,70 Media $239,36 $276,13 $311,43 $345,02 $376,96 $514,78 $705,70 Mediana $235,00 $276,13 $311,43 $345,02 $376,96 $514,78 $705,70 TC-188

191 XXVIII ENDIO, XXVI EPIO y RED M VIII Estadísticas t=1 t=2 t=3 t=4 t=5 t=10 t=20 Moda $0,00 $276,13 $311,43 $345,02 $376,96 $514,78 $705,70 Desviación está ndar $95,15 $0,00 $0,00 $0,00 $0,00 $0,00 $0,00 Varianza $9.053,35 $0,00 $0,00 $0,00 $0,00 $0,00 $0,00 Sesgo 0, Curtosis 3, Coeficiente de variación 0,3975 0,00 0,00 0,00 0,00 0,00 0,00 Mínimo $0,00 $276,13 $311,43 $345,02 $376,96 $514,78 $705,70 Máximo $765,66 $276,13 $311,43 $345,02 $376,96 $514,78 $705,70 Ancho de ran go $765,66 $0,00 $0,00 $0,00 $0,00 $0,00 $0,00 Error estándar medio $0,13 $0,00 $0,00 $0,00 $0,00 $0,00 $0,00 Tabla 3: Salidas estadísticas de la ax{(vp 5@r) ;0}]. Fuente: elaboración propia La siguiente tabla compara los resultados entr e el modelo binomial, BS, y el algoritmo. Horizonte t=1 t=2 t=3 t=4 t=5 t=10 t=20 VE=C0 (Modelo) $ 239,36 $ 276,13 $ 311,43 $ 345,02 $ 376,96 $ 514,78 $ 705,70 VAE=C0 (BS) $ 239,22 $ 277,04 $ 312,93 $ 346,86 $ 378,97 $ 516,42 $ 706,24 VAE=C0 (Binomial) $ 239,02 $ 276,13 $ 313,22 $ 345,98 $ 379,03 $ 515,80 $ 706,01 Tabla 4: Valor Expandido Modelo, BS y Binomial. Fuente: elaboración propia Los resultados obtenidos s e ajustan al Modelo Binomial demostrando la robustez de la propuesta. 2.5 El algoritm o y el modelo BS en la valoración d e la opción de transferencia. En el caso de una opción de transferencia del proyecta se asimila a un put financiero, consecuentemente la variable de previsión se define como;., ; ( ) Partiendo del caso analizado en la sección 2, suponga que la firma analiza la estrategia de transferir la licencia, intangibles e inversión física del proyecto a un valor $5.000 con el objeto de recuperar la inversión en costos, si el valor actual esperado del proyecto en dicho momento es inferior a la cifra invertida. Se asimila a una opción de venta, según el modelo BS se expresa; ( ) Su valor es $5000, 0,9213 $2588,05 0,8699 $1254,57. La TC-189

192 XXVIII ENDIO, XXVI EPIO y RED M VIII resolución del problema aplicando el algoritmo propuesto requiere definir la variable aleatoria. Nuevamente es el valor actual esperado del proyecto en t 5, =$4.375, =$ Se supone distribución lognormal; 10,5%; 5,5% e $ La variable de previsión del modelo (ecuación 6) E[Max{(Inversión Estadísticas OR Put Pruebas Caso base $1.209,81 Media $1.254,84 Mediana $1.323,80 Modo $0,00 Desviación está ndar $686,85 Varianza $ ,83 Sesgo -0,2334 Curtosis 2,22 Coeficiente de variación 0,5474 Mínimo $0,00 Máximo $3.232,93 Ancho de rango $3.232,93 Error estándar medio $0,97 Tabla 5: Salidas estadísticas de la Fuente: elaboración p ropia En este caso la estrategia de transferencia es la imagen especular de la opción de inversión diferida. Su potencial valor positivo es justificado con baja curtosis (curva leptocúrtica) y leve sesgo neg ativo (2,22; -0,23). En el siguiente gráfico se muestra el valor esperado del proy ecto, que asciende a $1254,84 (millones). TC-190

193 XXVIII ENDIO, XXVI EPIO y RED M VIII Ilustración 2: Valor esperado promedio y distribución de frecuencias El valor expandido descompuesto es VE VAN VOR; $1254,84=1209,81+$45, 03, la incidencia del VOR en el valor total es poco significativa (3,5%) si se la compara con la opción de inversión (VOR=$1254,88/VE $44,77=2805%). En este último caso para que el valor se torne positivo debe gravitar la importante posibilidadd de un evento extremo positivo que estadísticamente es explicado por el cuarto momento estocástico. 3. USOS EN OTROS TIPOS DE OPCIONES REALES SIMPLES En esta sección se ilustran adecuaciones del modelo propuesto para capturar situaciones de mayor complejidadd cuando se valoran utilizando el modelo BS. 3.1 Precio de ejercicio (inversión) variable Una de las debilidades en la implementación del modelo BS para valuar opciones reales, consiste en suponer el precio de ejercicio fijo. Esta situación es válida para los contratos financieros, no siendo el caso de las inversiones en proyecto donde la opcionalidad se mantiene por importantes intervalos de tiempo. El modelo propuesto de una maneraa sencilla permite suponer un precio de ejercicio variable. La expresión queda planteada de la siguiente manera; (4) En la ecuación presente la inversión adopta un comportamiento aleatorio, siendo la variable de previsión definida Inversión 0}]. La variabilidad está dada por la tasaa de crecimiento (g). Con el fin de ilustrar su funcionamientoo se utilizará el ejemplo de la sección 2. Se proyecta variabilidad en los precios correspondientes a los costos de inversión, comportándose según distribución normal con tasa de crecimiento =2% y =1% anual; TC-191

194 XXVIII ENDIO, XXVI EPIO y RED M VIII Estadísticas OR X e(g) precios Pruebas Caso base $0,00 Media $23,82 Mediana $0,00 Modo $0,00 Desviación estándar $162,41 Varianza $26.376,48 Sesgo 10,21 Curtosis 144,79 Coeficiente de variación 6,82 Mínimo $0,00 Máximo $7.775,71 Ancho de rango $7.775,71 Error estándar medio $0,23 Tabla 6: Salidas estadísticas de la Max{(VP Fuente: elaboración propia Al ser una opción de inversión, conforme aconteció en el caso base, el valor positivo del proyecto dependee significativamente de la asimetría y curtosis ( =$ $10,21; =$144, 79). El valor medio esperado es de $23,82 (millones) conforme surge del gráfico Ilustración 3: Valor esperado promedio y distribución de frecuencias Fuente elaboración propia. El valor expandido descompuestoo es VE=VAN+VOR; $23,82=- $1209,81+$1233,63, la incidencia del VOR en es de (4380%) TC-192

195 XXVIII ENDIO, XXVI EPIO y RED M VIII 3.2 Opción combinada: opción de inversión con diferimiento y venta de licencia: Las estrategias de inversión diferida (escenarios favorables) y transferencia de licencia (escenarios desfavorables) se asimilan a una combinación de opciones financieras de compra y venta conocida como long straddle. La misma brinda cobertura sobre escenarios extremos, típicos en empresas de base tecnológica, proyectos de investigación y desarrollo, lanzamientos etc. En este caso la ecuación queda planteada como;,, ; ( ) Donde T es la variable aleatoria precio de transferencia de la licencia definido en $5 (millones). Las variables a simular son: PV 5 (lognormal); g (normal) y la nueva variable aleatoria suponiendo una distribución lognormal con desvió de $4 (millones). La variable de previsión se define Estadísticas Combinada Pruebas Caso base $5,00 Media $28,16 Mediana $4,42 Modo --- Desviación estándar $160,14 Varianza $25.646,28 Sesgo 10,41 Curtosis 149,64 Coeficiente de variación 5,69 Mínimo $0,36 Máximo $6.859,34 Ancho de rango $6.858,98 Error estándar medio $0,23 Tabla 7: Salidas estadísticas de la E[Max{(VP Fuente: elaboración propia El valor esperado del proyecto es $28,16 (millones) nuevamente con fuerte sesgo y asimetría (Α=$10,41; Κ=160,14) conforme aconteció para los casos derivados del inicial que asimilables a opciones de compra. TC-193

196 XXVIII ENDIO, XXVI EPIO y RED M VIII Ilustración 4: Valor esperado promedio y distribución de frecuencias Fuente elaboración propia. El valor expandido descompuestoo es VE=VAN+VOR; $28,16=- como fuente potencial de valor, ha provocado un mayor refinamiento y complejidad de las 1209,81+$1237,97, la incidencia del VOR en es de (4396%) 4-CONCLUSIONES Considerar a la flexibilidad estratégica en las inversiones, herramientas de valuación de activos reales. Esto implica el uso de los modelos de valoración de opciones reales, esencialmente constituyen adaptaciones de los modelos empleados para valuar opciones financieras. Los modelos BS (Black y Scholes) y CRR binomial (Cox, Ross y Rubinstein) constituyen las versiones seminales en tiempo continuo y discreto respectivamente, utilizadas para resolver el complejo desafío de valuar la opcionalidad de un proyecto. Su efectividadd y síntesis es opacada por la falta de claridad en la explicitación de los conductores de valor del proyecto (flujos de fondos esperados, tasa de costo de capital, comportamiento de la inversión) durante la vida de la opción. Esta situación atenta contra la interpretación, difusión y uso de modelos simples y complejos de valoración de opciones reales como soporte en la toma de decisiones gerenciales; recurriendo a clásicos enfoques comoo el descuento de flujos de fondos (VAN estático). Consecuentemente se corre el riesgo de rechazar (aceptar) proyectos con potencialidad de crecimiento (pérdidas), cuya opcionalidad no es cuantificada por los modelos tradicionales. En el trabajo se presenta un algoritmo sencillo basado en la simulación Monte Carlo que explicita la conexión entree flujos, tasas de costo de capital, inversión y valor del proyecto, estee requiere solamente de tres pasos: Paso 1: Definición de la variable aleatoria, siendo el valor actual de los beneficios futuros en el momento de ejercicio t=n, Paso 2: Determinación del valor actual de la distribución de probabilidad anterior a la tasa de costo de capital y el valor actual del precio de ejercicio TC-194

197 XXVIII ENDIO, XXVI EPIO y RED M VIII Paso 3: Calcular el pago promedio en el instante t=0 donde se establece como restricción que el mínimo pago es igual a cero. Algebraicamente brinda iguales resultados que el modelo BS y CRR, a la luz de resultados obtenidos. La simulación Monte Carlo, a través de sus reportes; se explicita las causas de valores expandidos o estratégicos (VE) positivos cuando el VAN es negativo. La naturaleza de la opcionalidad en los proyectos se fundamenta en el tercer y cuarto momento estocástico (asimetría y curtosis), provocando un importante impacto sobre el VE a partir del VOR, conforme fue ilustrado en el caso bajo estudio. El modelo se adapta de forma sencilla permitiendo introducir comportamiento aleatorio en la inversión (precio de ejercicio) o combinación de estrategias (inversión diferida aleatoria o precio de venta aleatorio). La sencillez y transparencia del modelo lo convierte en una herramienta de comunicación eficaz, posibilitando que la gerencia justifique el curso de acción seleccionado ante las diferentes capas organizacionales involucradas, sin apartarse de la racionalidad correspondiente al criterio costo-beneficio BIBLIOGRAFÍA Baliero Filho; R y Rosenfeld,R (2004). Testing Option Pricing with Edgeworth Expansion. Physica A: Statistical Mechanis an its Application, Volumen 344, pp Black, F y Scholes, M. (1972). The Valuation of Options Contracts and a Test of Market Efficiency. Journal of Finance, Mayo.pp Black, F y Scholes, M. (1973). The Pricing of Options and Corporate Liabilities. Journal of Political Economy, Mayo-Junio.pp Boer, P. (2002). The Real Options Solutions: Finding Total Value in a High-Risk World. New York: John Wiley & Sons Inc. Borison, A. (2003). Real Options Analysis: Where are the Emperor s Clothes?, Standford: Standford University. Brandao, L, Dyer, J y Hahn, W. (2005). Using Binomial Decision Trees to Solve Real Options Valuations Problems. Journal of Decision Analysis, Issue 2, pp Brennam, M y Schwartz, E,. (1985). Evaluating Natural Resources Investment. Journal of Business, Issue 58, pp Brennan, M y Trigeorgis L,. (2000). Project Flexibility, Agency and Competition: New Development in the Theory and Application of Real Options. 1 ed. New York: Oxford University Press. Brous, P., (2011). Valuing an Early-Stage Biotechnology Investment as a Rainbow Option. Journal of Applied Corporate Finance, 23(2), pp Camara,A y Chung, S., (2006). Option Pricing for the Transformed-Binomial Class. Journal of Futures Markets, 26(8), pp Carmichael, D; Hersh,A y Praneeth, P,. (2011). Real Options Estimate Using Probabilistic Present Worth Analysis. The Engineering Economist, Volumen 56, pp Chance, D. y Peterson, P., (2002). Real Options and Investment Valuation. s.l.:the Research Foundation of AIMR. Chance, D., (2007). A Synthesis of Binomial Option Pricing Models for Lognormally Distributed Assets.. SSRN TC-195

198 XXVIII ENDIO, XXVI EPIO y RED M VIII pp Collan, M; Fullér, R y Mezei, J,. (2009). Fuzzy Pay-Off Method for Real Option Valuation. Journal of Applied Mathematics and Decision Systems, Volumen ID , pp Copeland, T y Antikarov, V,. (2001). Real Options. 1 ed. New York: Texere LLC. Cox, J, Ross, S y Rubinstein, M,. (1979). Option Pricing: A Simplified Approach. Journal of Financial Economics, Septiembre.pp Datar, V; Matews, S y Johnson, B,. (2007). A Practical Method for Valuing Real Options: The Boeing Approach. Journal of Applied Corporate Finance, Volumen 19, pp Dixit, A y Pindyck, R,. (1994). Investment under Uncertainty. 1 ed. New Jersey: Pricenton University Press. Fornero, R,. (2011). Las prácticas en las decisiones de inversión: sus características según los estudios empíricos. XXX Jornadas Nacionales de Docentes en Administración Financiera SADAF, Volumen 30, pp Haahtela, T,. (2010). Recombining Trinomial Tree for Real Option Valuation with Changing Volatility. SSRN-Social Science Research Network. Haahtela, T,. (2011(a)). Displaced Diffusion Binomial Tree for Real Option Valuation. SSRN pp Haahtela, T,. (2011(b)). Estimating Changing Volatility in Cash Flow Simulation Based Real Options Valuation with Regression Sum of Squared Error Method, SSRN: Social Science Research Network. Haug Gaarder, E., (2007). Derivatives: Models ond Models. 1 ed. Chichester : John Wiley & Sons. Jabbour, G, Kramin, M y Young, S,. (2001). Two-state Option Pricing: Binomial Models Revisited. Journal of Futures Markets, Noviembre, Volumen 21, pp Jarrow, R y Rudd, A,. (1982). Aproximate option valuation for arbitrary stochastic processes. Journal of Financial Economics, Volumen 10, pp Keema, A., (1988). Options in Real and Financial Markets, Erasmus: s.n. Kodukula, P y Chandra, P,. (2006). Project Valuation using Real Options: A practiioner s guide. s.l.:j Ross Publishing. Kulatilaka, N y Trigeorgis, L,. (1994). The General Flexibility To Swicht: Real Options Revisited. International Journal of Finance, Issue 2, pp Kulatilaka, N,. (1988). Valuing the Flexibility of Flexible Manufacturing Systems. IEEE Transactions in Engineering Management, Issue 22, pp Kulatilaka, N., (1995). Operating Flexibilities in Capital Budgeting: Substitutability and Complementary in Real Options. En: L. Trigeorgis, ed. Real Options in Capital Investment: Models, Strategies and Applications. Westport Conn.: Praeger. Mason, S y Merton, R,. (1985). The Role of Contingent Claims Analysis in Corporate Finance. En: Recent Advances in Corporate Finance. New York: Homewood Irwin. Mc Donal, R y Siegel, J,. (1986). Investment and the Valuation of Firms when here is an Option to Shut Down. International Economic Review, Issue 26, pp Merton, R,. (1973). The Theory of Rational Options Princing. Bell Journal of TC-196

199 XXVIII ENDIO, XXVI EPIO y RED M VIII Economics and Management Science, Primavera.pp Milanesi, G, Pesce, G y El Alabi, E, (2013). Technology-Based Start up Valuation using Real Opciones with Edgeworth Expansion. Journal of Financial and Accounting, 1(2), pp Milanesi, G y Tohmé F,. (2014). Árboles Binomiales Implícitos, Momentos Estocásticos de Orden Superior y Valuación de Opciones. Revista de Economía Política (REPBA), 12(7), pp Milanesi, G., (2013). Asimetría y Curtosis en el Modelo Binomial para valora Opciones Reales: caso de aplicación para empresas de base tecnológica. Estudios Gerenciales Journal of Management and Economics for Iberoamerica, 29(128), pp Milanesi, G., (2014). Modelo Binomial para la Valoración de Empresas y los efectos de la Deuda: Escudo Fiscal y Liquidación de la Firma. Journal of Economics, Finance and Administrative Science, 19(36), pp Myers, S y Majd, S,. (1990). Abandonment Value and Project Life. Advances in Futures and Options Research, Issue 4, pp Myers, S., (1977). Determinants of Corporate Borrowing. Journal of Financial Economics, Issue 5, pp Pindyck, R., (1988). Irreversible Investment, Capacity Choice and the Value of the Firm. American Economic Review, Issue 78, pp Rendleman, R y Bartter, B,. (1979). Two-state Option Pricing. Journal of Finance, Issue 34, pp Smit, H y Trigeorgis, L,. (2004). Strategic Investment: Real Options and Games. 1 ed. New Jersey(Estados Unidos): Princeton University Press. Smith, J y Nau, R,. (1995). Valuing Risky Projects: Option Pricing Theory and Decision Anaysis. Management Science, Issue 5, pp Smit, H,. (1996). The Valuating of Offshore Concessions in the Netherlands. Financial Management, Issue 26, pp Smith, J,. (2005). Alternative Approach for Solving Real Options Problems. Decision Analysis, Issue 2, pp Taleb, N., (2004). Fooled by Randomness: The Hidden Role of Chance in Life and Markets. New York: Random House. Trigeorgis, L y Mason, S,. (1987). Valuing Managerial Flexibiliy. Midland Corporate Finance, Volumen 5, pp Trigeorgis, L., (1988). A Conceptual Options Framework for Capital Budgeting. Advances in Futures and Options Research, Issue 4, pp Trigeorgis, L., (1991). A Log-Transformed Binomial Numerical Analysis Method for Valuing Compex Multi-Option Investments. Journal of Financial and Quantitative Analysis, 26(3), pp Trigeorgis, L., (1993). Real Options and Interactions with Financial Flexibility. Financial Management, Issue 22, pp Trigeorgis, L., (1995). Real Options in Capital Investment: Models, Strategies and Applications. 1 ed. London(United Kindgon): Praeger. Trigeorgis, L., (1997). Real Options: Managerial Flexibility and Strategy in Resource Allocations. 2 ed. Cambridge: MIT Press. Wang, A y Halal, W,. (2010). Comparision of Real Asset Valuation Models: A Literature Review. International Journal of Business and Management, Issue 5, pp TC-197

200 XXVIII ENDIO, XXVI EPIO y RED M VIII Wilmott, P, Howison, S y Dewynne, J,. (1995). The Mathematics of Financial Deivatives. s.l.:cambridge University Press. Wilmott, P,. (2009). Frequently Asked Questions in Quantitative Finance. Segunda ed. United Kingdom: John Wiley & Sons. TC-198

201 XXVIII ENDIO, XXVI EPIO y RED M VIII ANEXO: CUADROS MODELO BINOMIAL Y BS (PUNTO 2.4). Horizontes Max(Vt-I,0) $ 316,28 $ 446,08 $ 590,97 $ 752,71 $ 933,25 $ 1.134,79 $ 1.359,77 $ 95,83 $ 200,00 $ 316,28 $ 446,08 $ 590,97 $ 752,71 $ 933,25 $ 2,52 $ 95,83 $ 200,00 $ 316,28 $ 446,08 $ 590,97 $ - $ 2,52 $ 95,83 $ 200,00 $ 316,28 $ - $ - $ 2,52 $ 95,83 $ - $ - $ - $ - $ - $ - $ - $ - $ - $ - $ - $ - $ - $ - $ - $ - $ - $ - $ - $ - $ - $ - Tabla 1: Valores terminales modelo CRR Max V I;0 $ - Horizontes Probabilidades 70,511% 49,718% 35,056% 24,719% 17,429% 3,038% 0,092% 29,489% 41,586% 43,984% 41,351% 36,447% 12,705% 0,772% Σ(p) 100,000% 8,696% 18,395% 25,941% 30,485% 23,910% 3,067% Σ(p) 100,000% 2,564% 7,233% 12,750% 26,666% 7,696% Σ(p) 100,000% 0,756% 2,666% 19,517% 13,679% Σ(p) 100,000% 0,223% 9,795% 18,306% Σ(p) 100,000% 3,414% 19,140% 0,816% 16,009% 0,128% 10,880% 0,012% 6,067% 0,000% 2,791% Σ(p) 100,000% 1,061% 0,333% TC-199

202 XXVIII ENDIO, XXVI EPIO y RED M VIII Horizontes ,086% 0,018% 0,003% 0,000% 0,000% 0,000% 0,000% 0,000% Σ(p) 100,000% Tabla 2: Probabilidades nodos finales modelo CRR Horizontes Σ(p)xCtxe-ert $ 223,01 $ 221,78 $ 207,17 $ 186,06 $ 162,66 $ 66,96 $ 7,59 $ 28,26 $ 83,17 $ 139,11 $ 184,46 $ 215,39 $ 204,66 $ 49,73 Co $ 251,27 $ 0,22 $ 17,63 $ 51,88 $ 96,42 $ 271,33 $ 153,72 Co $ 305,17 $ - $ 0,18 $ 12,22 $ 200,72 $ 297,40 Co $ 363,91 $ - $ - $ 87,06 $ 402,62 Co $ 422,58 $ - $ 19,59 $ 403,50 Co $ 486,68 $ 0,09 $ 308,33 $ - $ 181,67 $ - $ 81,90 $ - $ 27,06 $ - $ 5,58 Co $ 850,40 $ 0,03 $ - $ - $ - $ - $ - $ - $ - $ - $ - Tabla 3: Valores expandidos (ecuación 5) Co $ 706,01 TC-200

203 XXVIII ENDIO, XXVI EPIO y RED M VIII Black-Scholes d1 2,538 2,155 2,054 2,033 2,047 2,253 2,732 d2 2,428 1,999 1,863 1,813 1,801 1,905 2,240 N(d1) 0,994 0,984 0,980 0,979 0,980 0,988 0,997 N(d2) 0,992 0,977 0,969 0,965 0,964 0,972 0,987 Co $ 239,22 $ 277,04 $ 312,93 $ 346,86 $ 378,97 $ 516,42 $ 706,24 Tabla 4: Valores BS (ecuación 1) TC-201

204 XXVIII ENDIO, XXVI EPIO y RED-M VIII GESTIÓN DE CADENA DE SUMINISTROS

205 XXVIII ENDIO, XXVI EPIO y RED M VIII UN MODELO DE OPTIMIZACIÓN PARA LA PLANIFICACIÓN ANUAL DE LA COSECHA FORESTAL EN EL NORESTE ARGENTINO DIEGO BROZ 1,3 - GUILLERMO DURAND 2 - DANIEL ROSSIT 1 - MARIANO FRUTOS 1 - DIEGO ROSSIT 1 1 Departamento de Ingeniería, Universidad Nacional del Sur, IIESS-CONICET. 2 Departamento de Ingeniería Química, Universidad Nacional del Sur, PLAPIQUI-CONICET. 3 Facultad de Ciencias Forestales, Universidad Nacional de Misiones. diego.broz@uns.edu.ar - gdurand@plapiqui.edu.ar - daniel.rossit@uns.edu.ar mfrutos@uns.edu.ar - diego.rossit@uns.edu.ar RESUMEN En el aprovechamiento forestal se lleva a cabo la mayor erogación económica de todo el ciclo productivo. Por este motivo, se deben establecer planes que minimicen los costos estableciendo óptimas estrategias de gestión de los recursos involucrados. En este contexto, se presenta un modelo basado en programación mixta-entera (PME) para la gestión de operaciones en un horizonte anual. Se busca minimizar los costos de cosecha, transporte, construcción de caminos, cambio de frente de cosecha y compra de rollos a terceros. Se definen dos escenarios: Número de Frentes Constantes (NFC) y Número de Frentes Variables (NFV). Los tiempos de cómputo de NFC fueron 31 veces superiores al NFV debido al uso de restricciones de igualdad. NFC implica un costo levemente superior al 2% en comparación a NFV. El transporte tuvo la mayor incidencia en la definición del programa de cosecha ya que un incremento del 20% de este costo, implica una alteración del 80% del plan base. Si bien los resultados y tiempos de cómputo fueron satisfactorios, la resolución de escenarios de mayor tamaño conllevará al uso de algoritmos más eficientes, como por ejemplo meta-heurísticas. Palabras Clave: Cosecha forestal - Programación mixta-entera. ABSTRACT The way how forest resources are used represents a great expenditure in the entire productive harvesting cycle. For this reason, is highly important to stablish a harvesting plan that minimizes the total cost. To achieve this, a mixedinteger-based model is introduced in order to plan the operations over a time horizon of one year. The objectives of this model is the minimization of the harvesting cost, including the expenditures of transport, roads construction, harvesting equipment movement and logs purchase. Two scenarios are defined: Number of Constants Fronts (NFC) and Number of Variables Fronts (NFV). The computation times for the NFC scenario are 31 times higher than for the NFV case due to the use of equality constraints. NFC is approximately 2% more expensive than NFV. The transport expenditure has the largest impact on the composition of the harvesting program cost; for example, an increase of 20% in transport cost provokes an escalation of 80% of the harvesting plan. Despite obtaining satisfactory results and computation times for the instances presented in this paper, the resolution of larger scenarios could lead to the implementation of more efficient algorithms, such as meta-heuristics. Key Words: Forest harvesting - Mixed-integer programming. TC 203

206 1. INTRODUCCIÓN XXVIII ENDIO, XXVI EPIO y RED M VIII La gestión de cualquier operación compleja requiere de planificación. En el sector forestal encontramos una gama de operaciones en diferentes niveles, las cuales deben ser llevadas a cabo para el logro de los objetivos de la empresa. Dentro de una organización, la planificación se divide en varios niveles (Betttinger et al., 2009; Méndez, 2013). En el nivel más alto de la jerarquía está la planificación estratégica, en la cual se fijan los objetivos a largo plazo (40 a 100 años) y se definen las condiciones bajo las cuales se debe operar. El siguiente nivel es la planificación táctica (10 a 20 años), la cual busca programar las operaciones de cosecha, especificando las áreas a ser intervenidas en una escala de tiempo más fina (Martell et al., 1998). Por último, se encuentra la planificación operativa, en la cual se organiza la ejecución de los planes tácticos. En este nivel se incluye detalles más precisos de la programación de las operaciones a corto plazo. Bettinger et al. (2009) incorpora en este nivel la programación de siembra y plantaciones forestales, el transporte de troncos, la selección y localización de la maquinaria de cosecha, la organización del capital humano, los arreglos de caminos, entre otras actividades. En el sector forestal, las operaciones de cosecha y transporte juegan un rol muy importante debido a que definen la rentabilidad del sistema debido a los altos costos incurridos. Esto motiva el desarrollo de herramientas como soporte para la toma de decisiones. Buongiorno y Gilles (2003) y Bettinger et al. (2009) recomiendan el uso de modelos matemáticos para la gestión del recurso forestal. Generalmente, los modelos operativos tienen como objetivo la determinación del programa de cosecha y abastecimiento de rollos a mínimo costo (Karlsson et al., 2004; López et al., 2008; Bredström et al., 2010; Yu et al., 2014; Rix et al., 2014), sin embargo, algunas aplicaciones buscan maximizar los beneficios en la venta de madera y sus derivados o el volumen de producción (Beaudoin et al., 2007; Abdullah et al., 2014). Sea cual fuere el enfoque, el factor común de estos modelos son los costos de operación y de logística. La logística es uno de los procesos que sustenta la producción industrial y con ello la producción de bienes y servicios. Por tal motivo, este costo tiene gran importancia en el costo final del producto o servicio. Según González et al. (2008), en la Argentina los costos de logística representan el 27% del PBI, en Brasil el 26% y en Chile el 18%. Dentro del ciclo de producción forestal, la cosecha forestal constituye una de las principales partidas de costos en el proceso de elaboración de materia prima para la industria maderera (Jacovine et al., 2005), ya que incide notablemente en los costos totales de producción, estimándose entre el 25 y el 30% del costo total del producto (Largo, 1996; Irigoyen, 2002). Según Matuda et al. (2014), los costos de cosecha y transporte, para el estado de San Pablo, Brasil, no son inferiores al 71%. Seixas (1992), menciona que los costos de transporte forestal para el Sur y Sudoeste de Brasil se encuentran entre el 33 y el 66% del costo total del producto forestal puesto en fábrica para distancias de 45 a 240 km. Según Weintraub et al. (1996), los costos de transporte forestal pueden llegar al 44% del costo de abastecimiento para las industrias en Chile. Martinelli (2001), menciona que los costos de transporte para el aprovechamiento de salicáceas, en la región continental, es del 61% con una distancia promedio de 220 km entre los puntos de producción y la fábrica. Aunque no mencionan una distancia media de TC 204

207 XXVIII ENDIO, XXVI EPIO y RED M VIII transporte, Balducci et al. (2012), identifican una incidencia del 32,2% de los costos de aprovechamiento para bosques nativos en el Noreste Argentino. Ésta fuerte incidencia de los costos logísticos exige a los administradores contar con sólidas herramientas de gestión que permitan minimizar las erogaciones y, en consecuencia, presentar precios competitivos y, con ello, posicionarse en el mercado. Para Epstein et al. (2007), los modelos de operación de cosecha deben definir los rodales a ser intervenidos, la estrategia de trozado, la locación de maquinaria de cosecha, la construcción y mantenimiento de caminos y la distribución de rollos. Además, subrayan que los modelos de investigación de operaciones han sido utilizados con éxito como soporte para la toma de decisiones en este ámbito. En este contexto Karlsson et al. (2004), plantean un modelo de planificación forestal anual para las empresas suecas basado en programación mixta-entera. El objetivo del modelo es la determinación de un programa de cosecha anual minimizando los costos y atendiendo cuestiones de surtido, caminos y condiciones meteorológicas variantes durante el año. Este modelo incorpora tres especies y dos tipos de producto (madera y pulpa), presenta frentes de cosecha mecanizada (harvester y forwarder) con costos asociados a cada rodal y los caminos forestales se definen en base a jerarquías y grupos. Por su parte, Beaudoin et al. (2007), presentan un modelo basado en programación mixta-entera que tiene por objetivo maximizar los beneficios producto de la venta de madera y chips de cinco especies forestales. Además, permite incorporar incertidumbre mediante la aplicación del método de Monte Carlo y un mecanismo de anticipación que permite tener en cuenta los costos de transporte de equipos. López et al. (2008), desarrollan un modelo basado en programación entera-binaria para la planificación del aprovechamiento forestal para la producción de pulpa, minimizando los costos involucrados. En este caso, se definieron cinco especies y un horizonte de planificación de 7 años. Se generaron diferentes escenarios basados en un caso base. Se concluye que el incremento medio anual y la superficie de cada lote son los parámetros más sensibles del modelo y por tal motivo afectan en forma significativa el programa de cosecha. Yu et al. (2014), establecen un modelo para la planificación de una cadena de suministro en tres niveles, siendo los rodales el nivel más alto, seguido por las estaciones de pre-tratamiento y finalmente las plantas generadoras de energía. El objetivo del modelo es la determinación de un programa de cosecha y flujo de biomasa para energía que minimice los costos de cosecha, transporte, procesamiento previo de la biomasa y stock. El modelo se basa en programación mixta-entera. Finalmente, en el trabajo de Rix et al. (2014) se define un modelo para la gestión táctica que busca minimizar los costos de transporte y stock. Además, los autores aplican una penalización por producción fuera de los requerimientos deseados de los equipos de cosecha y por insatisfacción de la demanda e inventario y descarte de madera. En este caso se trata de un modelo mixto-entero el cual, dada las dimensiones, es resuelto por el método branch and price, siendo este un híbrido entre el método branch and bound y el método de generación de columnas. En algunos casos los modelos están fuertemente orientados al caso de TC 205

208 XXVIII ENDIO, XXVI EPIO y RED M VIII estudio o a la región, por tal motivo, muchas veces no condice o no se ajustan a realidades particulares. Por ejemplo, en el Noreste Argentino, se suelen trabajar con al menos cuatro productos y entre dos a cinco industrias diferentes las cuales a su vez consumen productos con distinta clase diamétrica. Otros aspectos son el costo de traslado de los equipos entre rodales (cambio de frente) y la compra de madera a terceros para balancear la demanda de la industria. Estos aspectos motivan, en base a la bibliografía mencionada, al desarrollo de un modelo acorde a las necesidades de las distintas organizaciones. Este trabajo tiene como objetivo establecer una herramienta para la gestión forestal a nivel operativo aplicado a una empresa del Noreste Argentino. 2. DESARROLLO 2.1. Caso de aplicación Para la evaluación se utilizó información dasométrica, silvicultural y geográfica provista por la Empresa Alto Paraná S.A., radicada en la provincia de Misiones. Los centros de consumos están integrados por un aserradero, una fábrica de MDF 1, una planta de celulosa y una laminadora. En la Tabla 1 se aprecia la información provista por la empresa. Los costos de operación y compra de materia prima fueron determinados de forma independiente a los efectos de no revelar información de la empresa. En la Tabla 2 se presentan los parámetros utilizados en la planificación operativa y en la Tabla 3 se presenta la demanda mínima 2 de cada industria que conforma la organización. Tabla 1. Datos base del modelo de planificación operativa. Rodal Especie A FP VT N IS S AB DAP H Ce As La P T P T P T i1 P. taeda 29, , i2 P. taeda 3, , i3 P. taeda 3, , i4 P. taeda 2, , i5 P. taeda 25, , i6 P. taeda 1, , i7 P. taeda 26, , i8 P. taeda 41, , i9 P. taeda 14, , i10 P. taeda 1, , i11 P. taeda 56, , i12 P. taeda 2, , Medium-density fibreboard (MDF) o Tablero de fibra de densidad media. 2 Las cotas de demanda son establecidas de forma arbitraria, para el testeo del modelo, dada la imposibilidad del uso de todos los datos. TC 206

209 XXVIII ENDIO, XXVI EPIO y RED M VIII i13 P. taeda 26, , i14 P. taeda 26, , i15 P. taeda 1, , i16 P. taeda 5, , i17 P. taeda 11, , i18 P. taeda 7, , A: Área [ha]; FP: fecha de plantación [año]; VT: volumen total [m3/ha]; N: densidad [árboles/ha]; IS: índice de sitio [m]; S: sobrevivencia [%]; AB: área basal [m 2 ]; DAP: diámetro altura de pecho (1,3 m) [cm]; H: altura [m]; Ce, As, La: distancias pavimento (P) y tierra (T) desde rodal a celulosa, aserradero y laminadora [km], respectivamente. Tabla 2. Parámetros utilizados para la planificación operativa. Costos de transporte: 77% pavimento y 23% tierra $23 a $28 por kilómetro Costos de mantenimiento de camino $ y $ Cantidad de tramos o arcos terrados 14 Máximo número de frentes operativos 3 Volteo Extracción Trozado ABC Carga ABC 1 Feller Buncher 1 Skidder 1 Procesador 1 Grúa Producción m 3 por mes N de turnos 1 9 Hs Costo producción $40 a $51 por tonelada Costos cambio de frente $ a $ Costo compra a tercero (máximo 30 km.) $908 a $ por tonelada Transporte $750 Producto $158 a $371 por tonelada Tabla 3. Demanda mínima [t] de cada foresto-industria. Industria Ene. Feb. Mar. Abr. May. Jun. Jul. Ago. Sep. Oct. Nov. Dic. Planta de Celulosa Planta de MDF Aserradero Laminadora Se tomó una porción de 18 rodales de Pinus taeda L. con una amplitud etaria de 14 a 27 años, un grado de homogeneidad de 5, una densidad de 224 a 970 árboles/hectárea y un porcentaje de sobrevivencia del 95%. La superficie de los rodales oscila entre 1,1 a 56,1 hectáreas y la superficie total es de 290,1 hectáreas. El índice de sitio es de 21,6 metros para todos los rodales. Para la simulación del crecimiento y la producción forestal se utilizó el módulo de Simulación Forestal de FlorExcel 3.14 combinado con SisPinus. Se ajustó una función polinómica de 5to. grado para determinar el ahusamiento según TC 207

210 XXVIII ENDIO, XXVI EPIO y RED M VIII Oliveira (1995), en base a una muestra de 315 árboles cubicados de Pinus taeda L. en el estado de Paraná, Brasil. En la Tabla 4 se definieron los parámetros de surtido de productos. La pérdida en volumen y la longitud se estableció en 1% y 2 cm, respectivamente para todos los sub-productos. Tabla 4. Parámetros de surtido utilizados. Sub-producto Min DPF Max DPF Max DPG LongMin LongMax Laminable ,75 2,25 Aserrable Grueso ,4 2,4 Aserrable Fino ,4 2,4 Pulpable ,6 2,6 DPF: diámetro en punta fina [cm]; DPG: diámetro en punta gruesa [cm]; LongMin: longitud mínima de la troza [m]; LongMin: longitud máxima de la troza [m]. Por medio de la simulación se generó una base de datos conformada por los siguientes pronósticos: densidad, diámetro medio, altura media, área basal, frecuencia por clase diamétrica y volumen total y parcial de cada subproducto del fuste en cada período. Esto permite conformar los parámetros de entrada del modelo Descripción del sistema forestal En la Figura 1 se esquematiza un sistema forestal. Se cuenta con un determinado número de rodales en edad de cosecha, los cuales están interconectados por caminos consolidados y no consolidados. En algunos casos, estos caminos, fueron construidos solamente para llevar a cabo las plantaciones, por tal motivo fueron abandonados durante 15 a 20 años. En la Tabla 5 se define la relación producto-destino en función de la clase diamétrica. Figura 1. Esquematización de un sistema forestal e interacción de componentes. TC 208

211 XXVIII ENDIO, XXVI EPIO y RED M VIII Tabla 5. Relación producto destino de los productos forestales. Productos Triturables Aserrable fino Aserrable grueso Laminable Destinos k1 k2 k3 k4 Pulpa de celulosa j1 (x) Fábrica de tableros MDF j2 (x) Aserradero j3 (x) (x) Laminadora j4 (x) Donde (x) expresa que el producto k tiene destino j. En este caso, se ilustra un escenario con 10 rodales, 10 arcos o tramos de caminos, 4 industrias, 2 equipos o frentes de cosecha y 2 camiones. En este supuesto, en el primer período (p1) se cosecha los rodales 2 y 8 (i2 e i8) a los cuales se les asignan los frentes 1 y 2 (q1 y q2), respectivamente. El conjunto de arcos de vinculación, con el fin de evacuar la madera, para i2 {2,1} y para i8 {5,6,8}. Además, se supone que las condiciones meteorológicas en p1 son las ideales para la logística forestal. Por el contrario, en p6 las condiciones son adversas para el transporte y mantenimiento de los caminos. Para este período, se cosechará i1 e i6, los cuales comparten con i2 e i8 los arcos {5,1}. Con esto se infiere que el estándar de construcción o mantenimiento de estos tramos deben estar en función del mayor estándar de operación. Por tal motivo, cada arco tiene un costo en función del tiempo t. Esto se debe a que las precipitaciones y evapotranspiración son muy variables en cada t (mes). El costo unitario de transporte depende de la proporción asfalto/tierra (en promedio 84/16). El costo de cosecha está integrado por los costos de corte, arrastre, desrame y carga a borde de camino (ABC). Estos dependen de las características dasométricas del rodal. Cada frente de cosecha está integrado por equipos de operación y equipos auxiliares (comedor, dormitorios y baños) que define un costo de cambio de frente. La cantidad de frentes en cada período está definida y puede ser fijo o variable, permitiendo la contratación de más equipos. Cada rodal tiene definido un rango de operación por cada equipo lo cual asegura la cosecha íntegra. Cada producto tiene determinado uno o más destinos, y cada destino tiene una demanda a ser satisfecha por bosque propio y/o compra de terceros Modelo de planificación táctica Si bien el modelo planteado es acorde a la situación del Noreste Argentino, el mismo tiene su base en los trabajos de Rix et al. (2014) y Karlsson et al. (2004). En la Tabla 6 se definen los conjuntos, variables y parámetros del modelo matemático. TC 209

212 XXVIII ENDIO, XXVI EPIO y RED M VIII Tabla 6. Componentes del modelo matemático. Conjuntos I contabiliza los i-ésimos rodales, i = 1,, I. J indica los j-ésimos destinos, j = 1,, J. K identifica los k-ésimos productos, k = 1,, K. T determina los t-ésimos períodos del horizonte de planificación, t = 1,, T. R indica lo r-ésimos caminos del sistema, r = 1,, R. Q contabiliza los q-ésimos frentes de cosecha, q = 1,, Q. Variables binarias y rt P iqt Z iq fr iqt Variables continuas vt it 1 si se utiliza el camino r en t, 0 si no. 1 si el rodal i es cosechado por el frente q en el período t, 0 si no. 1 si el radal i es cosechado por el frente q, 0 si no. 1 se la cosecha del rodal i por el frente q se inicia en el período t, 0 si no. cantidad de madera en el rodal i y período t [t]. vc jkt cantidad de producto k a ser adquirido a terceros en el período t para complementar la demanda de la industria j [t]. vd ijkt cantidad de producto k del rodal i destinado a la industria j en el período t [t]. CosCam r costo de arreglo del camino r [$]. ccf iq costo de mudar el frente q al rodal i [$]. pr ikt cantidad de producto k en el rodal i en el período t [t]. x iqt indica la proporción del rodal i a ser cosechado por el frente q en el período t. Parámetros cco it costo de cosecha del rodal i en el período t [$]. com kt costo de compra de productos k a terceros en el período t [$]. cut ij costo unitario de transporte entre i y j [$]. d ij s i cap NP min max iq ; NP iq D min max jt ; D jt n t distancia de transporte entre i y j [km]. superficie del rodal i [ha]. capacidad de transporte de un camión 6 4 según normativa de transporte [30 t]. mínimo y máximo tiempo de operación del frente de cosecha q en el rodal i [período]. demanda mínima y máxima de cada industria j en cada período t [t]. define el número de frentes de cosecha en cada período. rc ir conjunto de arcos o caminos r que conectan al rodal i. cf q costo de cambio de frente o mudanza del equipo de cosecha q [$]. La ecuación 1 define la función objetivo del modelo, con la cual se busca minimizar los costos de arreglo de camino, los costos de cosecha, la compra de madera de terceros, los costos de transporte y de cambio de frente de equipos de cosecha en el horizonte de planificación. R I T J K T Min f = CosCam + cco vt + com vc r it it kt r i t j k t I J K T vd I Q ijkt + cut d + ccf cap ij ij iq i j k t i q jkt [1] Esta expresión se encuentra sujeta a un grupo de restricciones, las cuales están comprendidas entre las ecuaciones [2] a [22]. Mediante la ecuación [2] se busca definir los límites operativos de cosecha de cada rodal i. TC 210

213 XXVIII ENDIO, XXVI EPIO y RED M VIII La ecuación [3] evita que un rodal i sea cosechado por más de un frente q. La ecuación [4] asegura que la variable x iqt [0;1] con el objeto de lograr una cosecha parcial o total del rodal en cada período, por lo tanto, se debe cumplir que Σ t x iqt = 1. La variable binaria P iqt actúa como cota superior de x iqt. Mediante la ecuación [5] se asegura que si se da un valor P iqt = 1, entonces se debe cumplir que x iqt > 0, para ello se utiliza una ponderación S lo suficientemente pequeña para que se cumpla la restricción de forma consistente. Un ejemplo de esta inconsistencia sería se daría si P iqt = 1 y x iqt = 0, con lo cual no viola la [4] pero el resultados no es coherente, acarreando problemas de infactibilidad. La ecuación [6] asegura la cosecha del 100% del rodal, es decir, busca que no queden remanentes sin cosechar. Con la ecuación [7] se busca que cada frente coseche no más de un rodal por período. T min max NP z P NP z, i, q iq iq iqt iq iq t Q x iqt ziq = 1, i q [2] [3] P, i, q, t [4] iqt x P S, i, q, t [5] iqt iqt Q T xiqt = 1, i q I t Piqt 1, q, t Mediante la ecuación [8] se busca que cada frente q esté en un determinado rodal i en cada período t, con lo cual se logra la utilización plena de los equipos. Las ecuaciones [9], [10] y [11], aseguran el envío de cada producto k a la industria j de acuerdo a la Tabla 5. Las ecuaciones [12] y [13], aseguran la satisfacción de la demanda de la industria en base a bosque propio y compra a terceros. Mediante la ecuación [14] se obtiene la producción del rodal i en el período t. Por medio de la ecuación [15] se establece un nivel mínimo de cosecha para cada período t el cual es establecido por el valor de pm logrando, de esta manera, justificar la mudanza de los equipos de cosecha. Mediante la ecuación [16] se define el número máximo de rodales a ser cosechados en un mismo período t, siendo esto función del número de equipos disponibles (frentes de cosecha). x i Q Piqt = 1, i, t q Q vol s = pr, i, k, t iqt ikt i ikt q J pr = vd, i, k, t ikt j = 1 ijkt vdij1 t = 0, j = 3,4; i, t vdij 2t = 0, j = 1,2,4; i, t vdij 3t = 0, j = 1,2,4; i, t vd = 0, j = 1,2,3; i, t ij 4t [6] [7] [8] [9] [10] [11] TC 211

214 XXVIII ENDIO, XXVI EPIO y RED M VIII I K K min ijkt jkt jt i= 1 k= 1 k= 1 vd + vc D, t, j I K K vd + vc D max, t, j ijkt jkt jt i= 1 k= 1 k= 1 vt it K prikt = vtit, i, t k =1 Q pm Piqt, i, t q I Q iqt t, i q [12] [13] [14] [15] P n t [16] La ecuación [17] vincula la operación en un determinado rodal con el conjunto de caminos (arcos) para la evacuación de los productos, es decir, se vincula las variables binarias P iqt e y rt mediante el conjunto de arcos o rutas rc ir que conectan al nodo i. Con la ecuación [18] se determina el costo de arreglo del camino, el cual corresponde al mayor estándar requerido. Para ilustrar esto supongamos que el rodal 7 (i7) está integrado por r {2,4,5} y el rodal 9 (i9) por r {2,3,4} por tal motivo i7 i9 {2,4}. Si se supone que i7 es cosechado en verano e i9 en invierno, y además, que los mejores estándares de tránsito son requeridos para el invierno, al subconjunto de tramos {2,4} se les debe aplicar los estándares que la cosecha invernal requiera. Q yrt rcir Piqt, i, r, t q [17] CosCam y cac, r, t [18] r rt rt T cfq xiqt = ccfiq, i, q t [19] fr P P i q t iqt + iqt iqt + 1,,, [20] x iqt Q T friqt 1, i q t, P, y, fr, z [0,1] iqt rt iqt iq pr, vd, vt 0 ikt ijkt it Mediante la ecuación [19] se define el costo de traslado del frente q para la cosecha del rodal i. Las ecuaciones [20] y [21], buscan que los rodales sean cosechados en períodos consecutivos. Para ello la variable binaria fr iqt restringe el ingreso a un determinado rodal más de una vez, exceptuando los extremos con el objeto de permitir un programa con mayor flexibilidad. Con esto se busca priorizar la cosecha de determinados rodales de difícil acceso en períodos donde el tránsito en caminos terrados no implique altos estándares de mantenimiento. Finalmente, la expresión [22] establece la naturaleza de las variables Resultados [21] [22] Se plantearon cinco escenarios: base, incremento del costo de TC 212

215 XXVIII ENDIO, XXVI EPIO y RED M VIII transporte, operación, transporte y operación y, finalmente, el costo de compra a terceros en un 20%. Además, se definieron dos variantes: Número de Frentes Constantes (NFC) y Número de Frentes Variable (NFV) con el objetivo de determinar el comportamiento del modelo ante restricciones basadas en ecuaciones e inecuaciones. Para la resolución del modelo se utilizó GAMS y GUROBI como paquete de optimización para Programación Mixta Entera (PME). Debido a que este tipo de modelo es combinatorio y, como tal, requiere mucho tiempo de cómputo, se planteó una relajación (GAP) del 10%, siendo este valor la diferencia entre la mejor solución entera encontrada y la solución relajada (McCarl et al., 2013; GAMS, 2014). La ejecución se realizó en un computador con procesador Intel Core i3-2310m, CPU@ 2,10 GHz, 4 GB de memoria RAM (option threads = 0) y sistema operativo de 64 bits. El modelo presentó ecuaciones, variables continuas y discretas. Los tiempos de cómputo para las versiones NFC y NFV fueron de 1.349,5 y 35,5 segundos respectivamente. La demanda es satisfecha por bosques propios en un 69,1% y por compra a terceros en un 31,7%. Sin embargo, a nivel de costo, la compra a tercero implica casi el 70% del costo total. En la Tabla 8 se pueden ver los costos discriminados para las variantes NFC y NFV del caso base. Lograr un plan NFC implica un incremento del 0,33% del costo total y un 2,32% de los costos propios (este costo no incorpora la compra de productos de terceros). Tabla 8. Costo del escenario base con número de frentes constante y variable. NFC NFV Costos [$] Prop. total Prop. propio Costos [$] Prop. total Prop. propio Costo arreglo de caminos ,6% 27,4% ,9% 25,7% Costo de cosecha ,1% 22,7% ,1% 23,2% Costo compra a tercero ,7% ,3% - Costo de transporte ,0% 47,8% ,0% 48,9% Costo de cambio de frente ,7% 2,2% ,7% 2,2% Total ,0% 100,0% ,0% 100,0% Dentro de los costos propios, el costo de transporte implica en promedio el 48,9% de los costos, lo cual condice con lo expuesto por Seixas (1992), Weintraub et al. (1996) y Martinelli (2001). Le siguen los costos de arreglo de camino con 25,7%, de cosecha con 23,2% y cambio de frente con 2,2%. La proporción de los costos de cosecha y cambio de frente concuerdan con los resultados de Jacovine et al. (2005) y la adición de costos de cosecha y de transporte son equivalentes a los resultados de Matuda et al. (2014). En las Figuras 2, 3, 4 y 5 se pueden ver las cotas establecidas para las cuatro industrias y los niveles de abastecimiento en base a bosque propio y compra a terceros en función a NFC. TC 213

216 XXVIII ENDIO, XXVI EPIO y RED M VIII Cantidad [t] t1 t2 t3 t4 t5 t6 Período t7[mes] t8 t9 t10 t11 t12 Max. Demanda Celulosa Oferta Celulosa Bosque Min. Demanda Celulosa Compra a Terceros Celulosa Total Celulosa Figura 2. Niveles de producción y compra a terceros para la Planta de Celulosa. Cantidad [t] t1 t2 t3 t4 t5 t6 t7 Período [mes] t8 t9 t10 t11 t12 Max. Demanda MDF Oferta MDF Bosque Min. Demanda MDF Compra a Terceros MDF Total MDF Figura 3. Niveles de producción y compra a terceros para la Planta de MDF Cantidad [t] t1 t2 t3 t4 t5 t6 t7 t8 t9 t10 t11 t12 Max. Demanda Aserradero Período [mes] Oferta Aserradero Bosque Min. Demanda Aserradero Compra a Terceros Aserradero Total Aserradero Figura 4. Niveles de producción y compra a terceros para el Aserradero. TC 214

217 XXVIII ENDIO, XXVI EPIO y RED M VIII Cantidad [t] t1 t2 t3 t4 t5 Período t6 [mes] t7 t8 t9 t10 t11 t12 Max. Demanda Laminadora Oferta Laminadora Bosque Min. Demanda Laminadora Compra a Terceros Laminadora Total Laminadora Figura 5. Niveles de producción y compra a terceros para la Laminadora. La demanda de la Planta de Celulosa y MDF es satisfecha por bosques propios y de terceros. La participación de los bosques propios es de un 28% en la primera y de un 57% en la segunda. Por su parte, el Aserradero es satisfecho en un 100% por los bosques propios mientras que en la Laminadora este porcentaje corresponde al 70%. En las dos primeras industrias, la demanda es satisfecha en función a la cota inferior (las líneas de cota inferior y total están superpuestas) con lo cual, se puede llegar a pensar que el límite superior es redundante. Sin embargo, en el tercer y cuarto caso se puede considerar la importancia de esta cota ya que limita el exceso de materia prima según la capacidad de stock de las industrias. En la Tabla 9 se expone un análisis de sensibilidad del modelo base en función al incremento en un 20% de los costos logísticos y compra a terceros para un escenario NFC y NFV. Tabla 9. Análisis de sensibilidad en función al incremento de los costos en un 20%. Escenario NFC NFV Objetivo [$] Tiempo [s] Objetivo [$] Tiempo [s] Base , ,3 Inc. costo de transporte 20% , ,0 Inc. costo de operación 20% , ,4 Inc. costos de transporte y de operación 20% , ,3 Inc. costos de compra a tercero 20% , ,5 El incremento más significativo de los costos se ve reflejado en la compra a terceros. Esto se debe a que este costo representa el 70% del costo total de abastecimiento de madera. Los costos de transporte y de operación individualmente no superan el 1,7%. Los costos en NFC no superan el 1% en relación a NFV. Sin embargo, NFC requiere un tiempo de procesamiento entre 4 y 45 veces mayor. El principal factor que impacta en el programa de cosecha es el incremento del costo de transporte ya que provoca una variación del programa de cosecha en un 81%, seguido del incremento combinado y compra a terceros en un 69% y, finalmente, el incremento de los costos de operación TC 215

218 provoca una variación del 50%. 3. CONCLUSIONES XXVIII ENDIO, XXVI EPIO y RED M VIII Se propuso un modelo de planificación forestal operativo basado en programación mixta-entera con el objeto de establecer un programa de cosecha anual a mínimo costo. Se buscó asignar los frentes de cosecha, determinar los destinos de la materia prima, realizar la construcción y el mantenimiento de caminos y definir la cantidad de materia prima a adquirir a terceros para satisfacer las demandas de las industrias. En base al escenario analizado se obtuvo una solución con un GAP de 0,10 en un tiempo de cómputo razonable. El planteo en base a NFC y NFV no implicó costos económicos significativos, aunque este último es absurdo desde el punto de vista práctico, fue utilizado para un análisis comparativo. En el caso NFC el modelo requiere un adecuado dimensionamiento de los equipos de cosecha ya que de lo contrario presenta soluciones infactibles. Esto se debe a que la capacidad de los equipos es menor a la requerida para cumplir las metas de producción. Los costos de compra a terceros, transporte, camino y cosecha son los de mayor magnitud en la estructura en ese orden. A partir de un escenario base se llevó a cabo un análisis de sensibilidad considerando un incremento del 20% de los costos involucrados. La variación del costo de transporte reconfigura el programa de cosecha en un 81%, los costos combinados y de compra a terceros en un 69% y los costos de operación en un 50%, siendo este último el factor más estable. Si bien las soluciones obtenidas fueron satisfactorias, es posible que ante escenarios de mayor magnitud los tiempos de cómputo sean significativamente superiores, especialmente en el enfoque NFC. Esto podría conllevar al abordaje de algoritmos más eficientes, como por ejemplo meta-heurísticas. 4. REFERENCIAS ABDULLAH M., ABDULLAH S., HAMDAN A., ISMAIL R. (2014): Optimization model of selective cutting for timber harvest planning based on a simulated annealing approach. Journal of Computer Science, vol. 10, pp BALDUCCI E., SÁNCHEZ E., ELIANO P. (2012): Empresas forestales, modelos de operación y costos asociados para la región del NOA. Ed. del Subtrópico. BEAUDOIN D., LEBEL L., FRAYRET J. (2007): Tactical supply chain planning in the forest products industry through optimization and scenario-based analysis. Canadian Journal of Forest Research, vol. 37, pp BETTINGER P., BOSTON, K., SIRY J., GREBNER, D. (2009): Forest management and planning. Academic Press, California. USA. BREDSTRÖM D., JÖNSSON P., RÖNNQVIST M. (2010): Annual planning of harvesting resources in the forest industry. International Transactions in Operational Research, vol. 17, pp BUONGIORNO J.; GILLESS J. (2003): Decision methods for forest resource management. 1era. Ed. Academia Press, California. USA. EPSTEIN R., KARLSSON J., RÖNNQVIST M., WEINTRAUB A. (2007): TC 216

219 XXVIII ENDIO, XXVI EPIO y RED M VIII Harvest operational models in forestry. Handbook of operations research in natural resources. Springer, Nueva York, pp GAMS DEVELOPMENT CORPORATION (2014): The solvers manuals. Versión 12/06/14. GONZÁLEZ J., GUASCH J., SEREBRISKY T. (2008): Improving logistics costs for transportation and trade facilitation. The World Bank, Latin America and Caribbean Region, Policy research working paper series JACOVINE L., MACHADO C., DE SOUZA A., LEITE H. (2005): Avaliação da qualidade operacional em cinco subsistemas de colheita florestal. Revista Árvore, vol. 29, pp KARLSSON J., RÖNNQVIST M., BERGSTRÖM J. (2004): An optimization model for annual harvest planning. Canadian Journal of Forest Research, vol. 34, pp LÓPEZ R., CARRERO O., JEREZ M., QUINTERO M., STOCK J. (2008): Modelo preliminar para la planificación del aprovechamiento en plantaciones forestales industriales en Venezuela. Interciencia, vol. 33, pp MCCARL B. A., MEERAUS A., VAN DER EIJK P., BUSSIECK M., DIRKSE M., STEACY P. (2013): McCarl GAMS user guide. Versión 12/06/14. MARTELL D., GUNN E., WEINTRAUB A. (1998): Forest management challenges for operational researchers. European Journal of Operational Research, vol. 104, pp MARTINELLI L. E. (2001): Cosecha mecanizada y transporte de salicáceas en la región delta y continental. SilvoArgentina II. Misiones, Argentina. pp MATUDA J., ARAUJO L., COELHO R., PINTO A., COELHO H. (2014): Custos da colheita e transporte florestal da madeira de seringueira para uso como lenha no Centro-Oeste Paulista. XVII Seminário de Atualização sobre Sistemas de Colheita de Madeira e Transporte Florestal. Curitiba, Brasil. pp MÉNDEZ M. (2013): Modelado de un sistema de planificación y manejo de plantaciones forestales industriales. Tesis Doctoral. Universidad de los Andes, Mérida, Venezuela. OLIVEIRA E. B. (1995): Um sistema computadorizado de prognose do crescimento e produção de Pinus taeda L., com critérios quantitativos para a avaliação técnica e econômica de regimes de manejo. Tesis Doctoral. Universidad Federal de Paraná, Curitiba, Brasil. RIX G., ROUSSEAU L., PESANT G. (2014): A transportation-driven approach to annual harvest planning. Interuniversity Research Centre on Enterprise Networks Logistics and Transportation (CIRRELT). SEIXAS F. (1992): Uma metodologia de seleção e dimensionamento da frota de veículos rodovários para o transporte principal de madeira. Tesis Doctoral. Universidade de São Paulo, São Paulo, Brasil. WEINTRAUB A., EPSTEIN R., MORALES R., SERON J., TRAVERSO P. (1996): A truck scheduling system improves efficiency in the forest industries. Interfaces, vol. 26, pp YU Z., KLEIN C., JANG W. (2014): Multi period operational planning in woody biomass system. Industrial and systems engineering research conference. TC 217

220 Montreal, Canada. XXVIII ENDIO, XXVI EPIO y RED M VIII TC 218

221 XXVIII ENDIO, XXVI EPIO y RED-M VIII HERRAMIENTAS DE LA CALIDAD

222 XXVIII ENDIO, XXVI EPIO y RED-M VIII APLICACIÓN PRÁCTICA DEL MÉTODO DE DESPLIEGUE DE LA FUNCIÓN DE CALIDAD (QDF) AL DISEÑO DE UN BANCO DE ENSAYOS DIDACTICOS Leandro Reartes Sergio Gangi Daniel Pontelli Facultad de Ciencias Exactas, Físicas y Naturales Laboratorio de Ingeniería y Mantenimiento Industrial - Universidad Nacional de Córdoba leandro.reartes@gmail.com - sergio.gangi@hotmail.com - dpontelli@gmail.com Palabras Clave: Despliegue de la Función de Calidad Diseño Banco de Ensayos Didácticos RESUMEN EXTENDIDO 1. SITUACIÓN PROBLEMÁTICA. En la formación de ingenieros, como en toda carrera universitaria de grado, es clave la realización de actividades prácticas que favorezcan el desarrollo de competencias profesionales específicas. Este aspecto se hace más notorio en las asignaturas que tienen un perfil técnico como es el caso de la materia Mantenimiento Industrial. Para cubrir este requisito, en el departamento de Producción de la Facultad de Cs. Exactas, Físicas y Naturales de la UNC se decide desarrollar un Banco de Ensayos Didácticos (BED) que permita a los alumnos conocer las fallas de los equipos a través del análisis de los espectros vibratorios que cada desperfecto produce mediante simulación de condiciones mecánicas o eléctricas anómalas. Al abordar el diseño de este equipo, surge que las especificaciones son vagas y difusas. El usuario expresa con sus palabras las funciones esperadas del artefacto y es normal que estas carezcan del orden y la especificidad técnica necesaria para que el proceso de diseño satisfaga los objetivos buscados. Este trabajo muestra cómo se aborda esta dificultad y propone para lograr la calidad del diseño, una técnica de manejo de información llamada Despliegue de la Función de la Calidad. 2. HERRAMIENTA DE DISEÑO La tarea de diseñar es un proceso en el que se va aproximando a la solución ideal a través de sucesivas iteraciones de síntesis de una propuesta, su análisis y optimización (Budynas y Nisbett, 2008). El método Quality Function Deployment (QFD) o Despliegue de la Función de Calidad es una herramienta que permite desarrollar un diseño de calidad orientado a satisfacer al cliente. Interpreta la necesidad del usuario y la traduce en especificaciones que debe cumplir el producto y el proceso para alcanzar los objetivos de calidad que se utilizarán a lo largo de la fase de producción. Es una manera de asegurar la calidad del producto final, aun cuando el mismo este en la etapa de diseño. (Akao, 1990). El método utiliza como medio de desarrollo una serie de matrices relacionadas que representan un aspecto específico de los requisitos del producto y del proceso que lo elabora. Este trabajo se basa en el enfoque de cuatro fases del QFD (Jaiswal, 2012) pero lo aplica de modo particular ya que se utilizan solo las dos etapas iniciales. La primera se orienta a la planificación del producto y permite traducir los requisitos del cliente en especificaciones técnicas del producto (Fig.1.a). La RE-220

223 XXVIII ENDIO, XXVI EPIO y RED-M VIII segunda transforma esas especificaciones en características claves para el diseño de los componentes del producto (Fig.1.b). Las demás etapas en este caso no se aplican en este trabajo en razón de que están vinculadas con los procesos de transformación productiva y este es un producto único que no requiere de procedimientos complejos, solo ensamble. Las etapas utilizan estructuras similares de análisis llamadas Casa de la Calidad (House of Quality, HQ) (Fig.1a y 1b) y permite vincular los inputs (necesidades) y los requerimientos del diseño en la primera etapa o las características de componentes en la segunda. Están vinculadas entre si ya que el resultado de la primera alimenta la (3) (4) (1) (2) (5) (6) segunda. Fig. 1a. Planificación del producto Fig.1b Planificación de componentes 3. RESULTADOS OBTENIDOS En este trabajo se muestra el resultado del método aplicado a la etapa de planificación del producto ya que la mecánica se reitera en las otras etapas. Para conocer las necesidades del usuario (ver (1) en Fig. 1a.) se trabaja en un grupo focal con los docentes encargados de la materia. Las respuestas que surgen deben ser condensadas y luego, mediante la técnica diagrama de afinidad, se logra identificar dos tipos de requisitos: los requerimientos, que deben lograrse taxativamente y los requerimientos deseados, q ue son los deben cumplirse en la medida de lo posible pero no son obligatorios. Haciendo foco en los primeros se puede sintetizar en la Tabla 2: Requerimientos Descripción Conceptos De uso Establece relación usuario-equipfiable y de bajo mantenimiento El banco debe ser seguro, transportable, con- De función El banco debe permitir realizar varios ensayos Reflejan los principios y configuraciones, además de posibilitar futuras físicos técnicos de funcionamiento ampliaciones. A la vez debe ser atractivo, es decir que debe presentar buenas terminaciones Estructural Referidos a los componentes, partes y elementos de un producto El banco debe ser estable, modular, desarmable y resistente Relación con los medios Empleo de material de calidad y obtención de Técnico y métodos de manufactura de diseño. zado reducidas. buena precisión fijando tolerancias de mecani- productivo Formal Refieren a estos la rela- Expresa la percepción del diseño por el usuario, RE-221

224 XXVIII ENDIO, XXVI EPIO y RED-M VIII ción vinculadas a la forma del objeto. la adecuada captación del producto o sus componentes. Tabla 2: Descripción de los requerimientos del cliente Reque - rimietos De uso De función Técnico productivo Formales Necesidades del usuario Seguro para operar y manipular Transportable Múltiples configuraciones Posibilidad de futuras ampliaciones Diseño preciso Diseño atractivo Tabla 3: Resumen requerimientos y necesidades Ahora se debe dar la importancia a estos requerimientos mediante pesos Ui (ver (2) en Fig. 1a.). Para ello se utiliza la escala de 1, para la poca importancia o débil, 3 para una importancia media y 9 establecida para una gran importancia o fuerte. Con la técnica de grupo focal los participantes discuten el nivel de sus necesidades. El siguiente paso consiste en determinar los requisitos de diseño, los como se van a satisfacer los que. Esta matriz recopila las características técnicas resultantes de la etapa de análisis. (ver (3) en Fig. 1a.). Se define esta nueva matriz, que responde los que del usuario, con los siguientes requerimientos de diseño: Requerimientos de uso: Estas características expresan la interacción del banco y el usuario. Se satisfacen con las siguientes especificaciones: 1: ligero de peso, 2. dimensiones del banco reducidas y 3. protecciones mecánicas y eléctricas. Requerimientos de función. Responden a características de funcionalidad del banco, y se obtienen con: 1. elementos estándar, 2. ensayos posibles y 3. diseño modular. Requerimientos técnicos-productivos. El banco debe tener tolerancias fijadas reducidas, esto significa que el diseño deberá ser preciso y cumplir con tolerancias definidas. Requerimientos formales. Se satisfacen a partir del cumplimiento de los requerimientos anteriores. El diseño atractivo se obtiene en gran parte, al cubrir las necesidades del usuario con los aspectos de uso, funcionales, técnico-productivo. Ahora corresponde relacionar las matrices de necesidad del usuario (2) con la de requerimientos del diseño (3) en la matriz relaciones (4), que es el centro de la HQ. La asignación de los coeficientes entre los qué y los cómo se completan de acuerdo a los distintos niveles de relación existente entre estos. Para ello se utiliza la escala 1, 3 y 9 (propia del método) donde nuevamente el grupo focal participa para la valoración de los pesos de los como Vj. La matriz de objetivos del diseño (ver (5) en Fig. 1a.) contiene especificaciones concretas de los requerimientos de diseño. En cuanto a la ponderación técnica de la matriz (6) se logra normalizando el resultado de las combinaciones lineales de las columnas RD j y de esta manera se obtiene un peso relativo. En la siguiente expresión n indica la cantidad de necesidades del usuario. RE-222

225 < de 60 kg Altura: 1100 mm Ancho: 800 mm Según Decreto Reglam. 351/79 Suministro comercial Mínimo 5 Módulos intecambiables Tol. Lineal: 0,1 mm Tol. Radial Ra: 1,8 m XXVIII ENDIO, XXVI EPIO y RED-M VIII En la Tabla 4 se muestra la Casa de la Calidad aplicada a la planificación del producto en la que se obtiene la jerarquización de los requerimientos por combinación lineal por columnas y posterior normalización. Requerimietos del usuario De uso De función Técnico productivo Necesidades del usuario Seguro para operar y manipular Pesos Ligero de peso Protecciones Dimens. mecánicas y restringidas eléctricas Armado con elementos estándar Cantidad de ensayos posibles Diseño modular Tolerancias reducidas Transportable Múltiples configuraciones Posibilidad de futuras ampliaciones Requerimientos del diseño (RDj) Diseño preciso Formales Diseño atractivo Tabla 4: Casa de la calidad con la jerarquización de los requerimientos de diseño La jerarquización de los requisitos permite a los diseñadores tomar decisi o- nes más ajustadas a las necesidades del usuario y racionalizar recursos. 4. CONCLUSIONES La utilización de la herramienta QFD en el desarrollo de este equipamiento tecnológico didáctico permitió estructurar la información y desarrollar un proyecto enfocado en las necesidades del usuario. La aplicación de la metodología guió al proceso de diseño, permitió aclarar y fortalecer las ideas preliminares y redujo el número de iteraciones necesarias para lograr un objeto adecuado. Se presentó como un instrumento eficaz que complementó a las disciplinas tecnológicas en la toma de decisiones a la hora de definir un producto o un proceso, sobre todo cuando los recursos son limitados y los plazos reducidos. Permitió construir el banco con mínimos recursos y realizar las experie n- cias propuestas en el programa de la asigntura. 5. REFERENCIAS RDj % 11% 19% 10% 29% 8% 15% AKAO, Y. (1990): Quality Function Deployment: Integrating Customer Requirements into Product Design. Productivity Press. Cambridge,MA. EE.UU RE-223

226 XXVIII ENDIO, XXVI EPIO y RED-M VIII BUDYNAS, R. Y NISBETT, K. (2008): Diseño en Ingeniería Mecánica. Mc Graw Hill. México DF. JAISWAL, E. S. (2012): A case study on Quality Function Deployment (QFD). IOSR. Journal of Mechanical and Civil Engineering. Volume 3, Nº 6 (Nov-Dec. 2012), pp RE-224

227 XXVIII ENDIO, XXVI EPIO y RED-M VIII LÍNEAS DE ESPERA

228 XXVIII ENDIO, XXVI EPIO y RED-M VIII SISTEMAS DE PEAJE EN AUTOPISTAS HABILITACIÓN DE DOBLE CABINA EN LINEAS DE PAGO MIGUEL MIRANDA - RICARDO CARLEVARI - STELLA ROCCA PILAR MASSANES - DIOGENES PEREZ OTERO - LUCAS IGNACIO FORNES Facultad de Ingeniería Universidad Austral mmiranda@austral.edu.ar- rcarlevari@austral.edu.ar -rocca.stella@gmail.com mpilar.massanes@gmail.com - dpotero@gmail.com lucas_fornes@hotmail.com RESUMEN El presente trabajo se refiere a la conveniencia de habilitar una segunda cabina dispuesta en serie en carriles de pago de estaciones de peaje de autopistas de alto volumen, tales como las de las zonas urbanas y suburbanas de Buenos Aires. Estas autopistas están normalmente sujetas a determinadas regulaciones de levantamiento de barreras para aliviar la congestión que se produce en horas pico facilitando el paso sin peaje. Se formulan aquí modelos matemáticos para los carriles de pago, tanto para esquemas de cabina simple como de cabina doble en sistemas que levantan las barreras cuando la longitud de la cola de vehículos alcanza un número máximo admitido. Asimismo, se proporciona un criterio de optimalidad basado en costos para determinar la conveniencia y oportunidad de conmutar de un esquema a otro en función del flujo entrante de vehículos para las diferentes bandas horarias. Palabras Clave: Sistemas de colas - Estaciones de peajes de autopistas - Doble cabina - Procesos estocásticos - Optimización de canales. ABSTRACT This paper refers to the suitability of arranging an additional tollbooth in series with the first one in toll plaza lanes of high traffic-volume highways such as the Buenos Aires suburban and urban turnpikes. These tollways are subject to regulations which require barriers to be raised without charging any toll in order to alleviate the traffic congestion during rush hours. Mathematical models that describe a barrier toll-lane system which raises the gates when the queue length of vehicles reaches a maximum admitted number have been developed for both, single and double booth schemes. An optimality cost-based criterion to determine the appropriateness and opportunity of switching between these two schemes depending on the incoming flow of vehicles during the different hours is also provided. Key Words: Queueing systems - Double-booth toll stations - Stochastic processes in turnpikes - Channel optimization. 1. INTRODUCCIÓN Autopistas que sean capaces de permitir la movilización de personas y productos en forma rápida y confiable son vitales para sustentar el desarrollo de las poblaciones y sus economías. El parque automotor argentino ha experimentado un crecimiento de aproximadamente un 50% en la última década (Carlevari, 2013) habiendo TC-226

229 XXVIII ENDIO, XXVI EPIO y RED-M VIII llegado en la actualidad a casi 11 millones de vehículos, de los cuales, algo menos del 90% son automóviles. De esta manera, nuestro país, con una relación de alrededor de 4 habitantes por automóvil, se ubica entre los primeros países de América Latina. Por su parte, casi el 50% del total del parque automotor, está concentrado en la Ciudad Autónoma de Buenos Aires (CABA) y la Provincia de Buenos Aires. En relación con el incremento del parque automotor, la Tabla 1 indica el crecimiento del flujo vehicular experimentado entre los años 2003 y 2013, para las distintas rutas y autopistas del país. En particular, se observa que el crecimiento correspondiente a los accesos a Buenos Aires para el período está en el orden del 60%. Asimismo, puede verse que en el año 2013, en promedio, han ingresado o egresado a este distrito alrededor de un millón de vehículos por día. La Tabla 2 detalla las cifras correspondientes a la CABA desglosadas por tipo de acceso. A pesar del notable crecimiento del parque automotor y el consecuente incremento del flujo vehicular, la inversión en nuevas autopistas o ampliación de las existentes ha sido mínima, lo que ha provocado un preocupante aumento en la congestión vehicularen ellas. El peaje es necesario para el mantenimiento y ampliación del sistema de autopistas, pero los procesos de cobro que requieren la detención de los vehículos contribuyen notablemente a incrementarla congestión. El flujo de los automóviles que arriban a una estación de peajes en un sentido de circulación se divide generalmente por clases de pago (telepeaje, pago exacto, pago con cambio, tránsito pesado, etc.) y luego se distribuye proporcionalmente en los carriles o vías de pago, que están constituidos por una cabina de cobranza (canal), y una línea de espera (cola). Sin embargo, durante los períodos de intenso flujo, la capacidad de cobro de peajes de las cabinas existentes de cobro manual resulta insuficiente para atender el mayor volumen de vehículos y las colas comienzan a crecer exponencialmente. Estas demoras van en detrimento del beneficio en tiempo que deben tener los usuarios que pagan el peaje para utilizar las autopistas. La forma más común de compensar el embotellamiento que se produce aguas arriba de la estación de peaje es habilitando más vías de pago en paralelo durante las bandas horarias de alto tránsito. Sin embargo la cantidad de carriles que se pueden habilitar así está limitada, por un lado, al ancho de la plaza de peaje para asistir el pago del flujo vehicular en ambos sentidos de circulación, y por el otro, a la congestión y al incremento de accidentes que se produce en la mezcla de tránsito cuando los vehículos retornan a los carriles originales de la carretera luego de haber abonado el peaje. Otra forma de aliviar la saturación, menos conveniente por cierto para las concesionarias, es permitiendo la libre circulación durante un tiempo, hasta que la situación se normalice. En nuestro país hay algunas restricciones legales, tales como el Código de Tránsito y Transporte de la ciudad de Buenos Aires, que obligan a las empresas concesionarias a levantar las barreras para liberar el paso cuando la cantidad de vehículos esperando en cola, o el equivalente en un tiempo de espera en metros de extensión de la cola, supera un límite determinado. TC-227

230 XXVIII ENDIO, XXVI EPIO y RED-M VIII El levantamiento de barreras genera un lucro cesante a las concesionarias de las autopistas e incrementa la cantidad de accidentes que se producen aguas abajo de la zona de peaje al mezclarse nuevamente el tránsito. A fin de minimizar este impacto negativo cuando ya no hay posibilidad de abrir más vías en paralelo durante las bandas horarias de alta circulación vehicular, varias empresas agregan una segunda cabina dispuesta en serie en algunas o en todas las vías de pago. Si bien este esquema no tiene el nivel de eficiencia de una cabina adicional en paralelo, la frecuencia de levantamiento de barreras se reduce considerablemente. El presente trabajo busca cuantificar, mediante la modelización matemática, el flujo vehicular que abona el peaje, el flujo de libre pasaje, la longitud de cola de los carriles de pago, los tiempos de espera de los vehículos, y otras variables de eficiencia, comparando los efectos de operar los esquemas de un canal y de doble canal en serie en autopistas sujetas a regulaciones de liberación del peaje cuando se alcanza un número determinado de vehículos en espera, y examinando el impacto económico y los beneficios tanto para la empresas concesionarias como para los usuarios. La habilitación de segundas cabinas tiene un costo de oportunidad asociado que se debe balancear contra el lucro cesante que produce por tener que permitir libre circulación. Se desarrollarán aquí modelos poissonianos para ambos esquemas de carriles de pago, y se establecerá un criterio para decidir la oportunidad óptima para habilitar y deshabilitar la segunda cabina en base al flujo de tránsito que esté ingresando en la vía. Para ambos casos, se consideran las siguientes hipótesis: En la plaza de peaje, los vehículos que se dirigen al sector correspondiente a su clase de pago (por ejemplo, tránsito liviano -pago manual - con cambio) se distribuyen proporcionalmente en cada carril de pago disponible para dicha categoría, por ejemplo con ayuda de banderilleros. El proceso de ingresos de vehículos a la vía es poissoniano, y se conoce la tasa de promedio de arribos λ (o su inversa intervalo promedio entre arribos, T A ). El proceso de cobro en la cabina también es de tipo Poisson, y se conoce la tasa de procesamiento (o su inversa, la duración promedio del pago del peaje, T S ). El valor del peaje es fijo para todos los vehículos de la vía de pago. Se supone una condición de régimen permanente dentro de la banda horaria que se estudia. Los autos no abandonan la cola una vez que entraron en una fila determinada para pasarse a otra. Cuando el número de vehículos en la cola alcanza un valor igual a N c la barrera se levanta instantáneamente. Al levantarse la barrera, pasan sin abonar peaje los vehículos que estaban esperando en la vía, el que estaba en el trámite de pago y el vehículo recién ingresado a la cola. Mientras no haya levantamiento de barrera, todos los vehículos pagan el peaje. TC-228

231 XXVIII ENDIO, XXVI EPIO y RED-M VIII La nomenclatura que se utilizará en este trabajo es la correspondiente al texto SISTEMAS DE COLAS (Miranda, 2013). En particular, llamaremos: n : al número de vehículos que se encuentra en el sistema correspondiente a la vía de pago en un momento determinado, incluyendo los que están esperando en cola y el que está en la cabina. n c : al número de vehículos esperando en cola en ese instante. λ : Factor de tráfico del carril ρ μ λ n : a la tasa de arribos de vehículos cuando el estado de la vía es n. : a la tasa de peajes cobrados cuando el estado de la vía es n. n R n : a la tasa de exención de pago (número promedio de vehículos por unidad de tiempo liberados de pagar peaje) cuando el estado de la vía es n. λ N n 0 λ n p(n) : Tasa promedio de ingresos al carril. μ N n 0 μ n p(n) : Tasa promedio de egresos de vehículos que abonan. pago. R N n 0 R n p(n) : Tasa promedio de egresos de vehículos eximidos de Como el sistema se encuentra en régimen permanente, tendremos que el flujo de clientes ingresante al sistema es igual al flujo egresante: λ μ R [01] 2. DESARROLLO 2.1. Carril de pago con cabina simple La Figura 1 representa en forma esquemática un sistema de carril de pago constituido por una sola cabina con la correspondiente barrera, una línea de espera y una indicación de capacidad máxima para que pueda operar la apertura de barrera cuando el arribo de un nuevo vehículo excede la marca delimitante. La Figura 2 muestra la cadena de Markov correspondiente. Dado que cuando la cola alcanza a una cantidad igual a N C se levanta la barrera, el número máximo admitido en ella es N C -1; entonces, el número máximo de vehículos que podrá permanecer en el sistema es: N N C Para este sistema sin restricciones de capacidad ni impaciencia, de un solo canal, se verifica que: λ n λ n [02] TC-229

232 XXVIII ENDIO, XXVI EPIO y RED-M VIII 0 para n 0 μ n [03] μ para n 0 Por otra parte, el número de vehículos por unidad de tiempo que no paga, en función de los distintos estados es: 0 para n N 1 R n [04] (N 1) λ para n N Balanceando el flujo probabilístico entrante con el flujo probabilístico saliente de cada nodo de la cadena de la Figura 2, se tiene que las ecuaciones de estado de régimen permanente son: p (0) λ p(1) μ p(n) λ p(n) λ μ p(n 1) λ p(n 1) μ para 0 <n N-1 p (N) λ μ p(n 1) λ Eliminando cualquiera de las expresiones anteriores y agregando la condición de exhaustividad colectiva del sistema N 0 p(n) 1 se puede resolver el sistema de N+1 ecuaciones con N+1 incógnitas. El porcentaje de tiempo de ocupación del canal (que coincide en este caso con el número promedio de vehículos que se encuentra abonando el servicio y con la probabilidad de que un vehículo deba esperar para pagar) es: H 1 p(0) Cabe destacar que, como se trata de un sistema con una cantidad limitada de estados, el factor de tráfico no coincide con la probabilidad de tener que esperar H: λ ρ H μ Considerando [02], [03] y [04] tendremos que los valores de las tasas de ingreso a la vía, de vehículos que abonan el servicio y de vehículos que no paga el peaje por el levantamiento de barrera son: λ λ [05] μ μ 1 p(0) μ H [06] R N 1 λ p(n) [07] Por [01] la suma del flujo de egresos (que abonan y que no abonan el peaje) es igual al flujo de ingreso: λ μ R [01 ] El número promedio de clientes en el sistema y en cola será, respectivamente: TC-230

233 XXVIII ENDIO, XXVI EPIO y RED-M VIII L N n 0 n p(n) L N c (n 1) p(n) n 1 verificándose, por supuesto, que: L Lc H Aplicando la ley de Little (Little, 1961) y (Little, 2011), los tiempos promedio de permanencia de un vehículo en el sistema y de espera en cola (incluyendo tanto los que abonan el servicio como los que no lo hacen por levantamiento de barreras) serán, respectivamente: L W λ Lc Wc λ La probabilidad de que un vehículo no pague el servicio es: R p NP λ Finalmente, considerando que cada vez que se produce un levantamiento de barrera pasan sin pagar los N vehículos que están en el sistema más el recién arribado, la frecuencia promedio de levantamiento de barreras es: R γ CS N 1 o, lo que es lo mismo: γ CS λ p(n) y su inversa es el tiempo promedio que transcurre entre dos levantamientos sucesivos: 1 T CS γ CS En el Anexo 1 se muestra la formulación matemática de este modelo en el lenguaje del sistema LINGO 1 para una cantidad máxima de 10 rodados en el sistema (es decir que el levantamiento de la barrera se opera cuando habiendo 9 vehículos en cola se produce un arribo a la vía), que puede ser equivalente a una espera promedio de 2,5 min o 90 metros de extensión. En la tabla 3 se pueden observar los resultados obtenidos para las variables características del sistema para diferentes valores de tránsito comprendidos entre 0 y 2, que son los compatibles con los sistemas reales, ya que valores superiores para la referida cantidad máxima implicaría una altísima frecuencia de levantamiento de barreras. 1 Marca Registrada de Lindo Systems Inc. TC-231

234 XXVIII ENDIO, XXVI EPIO y RED-M VIII 2.2. Carril de pago con doble cabina (DC) Bajo este esquema se dispone de una segunda cabina (que denominaremos canal 2) ubicada en serie con la primera (canal 1), tal como puede observarse en alguna de las figuras 3 a 5. Para desarrollar este modelo supondremos las siguientes hipótesis adicionales a las del caso anterior: Los tiempos de servicio en ambos canales tienen idéntica distribución (igual parámetro ). Un vehículo que ingresa al puente de peaje cuando los dos canales están disponibles se deberá posicionar en la cabina que está más adelante (canal 2) para realizar el pago. En consecuencia, los conductores de los vehículos, o bien tienen experiencia en esta práctica, o bien el cajero del canal1 les indica en dicha situación que avancen hasta la cabina de adelante. Las condiciones operativas de los carriles de pago con doble cabina que definen los posibles estados que el sistema puede asumir son las siguientes: - Ambas cabinas vacías (carril vacío). - Un solo cliente en el carril, atendiéndose en el canal 2. - Dos o más clientes en el sistema, estando ambas cabinas cobrando el peaje (Figura 3). - Dos o más clientes en el sistema, habiéndose finalizado el cobro en el canal 1, mientras que en el canal 2 se está aún cobrando el peaje. En este caso se dice que la cabina 1 está bloqueada, e indicaremos esta situación con una b (Figura 4). - Uno o más clientes en el sistema, estando la cabina 2 desocupada y la cabina 1 procesando el cobro (Figura 5). Designaremos, entonces, a los estados en tres dimensiones (n c, n 1, n 2 ), en donde: n C indica la cantidad de usuarios que están esperando en la cola del carril en un instante determinado. n 1 se refiere a la condición del canal 1: 0 (sin clientes), 1 (atendiendo a un cliente), b (bloqueado esperando que termine el servicio de cobro del canal 2), y n 2 indica la condición del canal 2: 0 (sin clientes), 1 (atendiendo a un cliente). Como en cualquier sistema en donde no hay impaciencia ni restricciones de capacidad se verifica que la tasa de ingresos es independiente del estado del sistema: λn,n,n λn λ [02 ] c 1 2 Las tasas de cobro de peaje para los distintos estados posibles son: TC-232

235 μ nc,n1,n 2 0 μ 2 μ XXVIII ENDIO, XXVI EPIO y RED-M VIII para n,n 1 para n,n 1 para n,n ,0 0,1 1,0 b,1 1,1 [03 ] Se hace notar que las tasas de cobro de peaje son diferentes a las tasas de egreso de vehículos del sistema: μ' nc,n1,n 2 0 μ 2 μ para n,n 1 para n,n 1 para n,n ,0 0,1 1,0 1,1 b,1 [03 ] Observando la cadena markoviana de la Figura 6, correspondiente a este problema, se pueden plantear las siguientes ecuaciones de estado: p(0,0,0) p (0,b,1) p (0,0,1) λ λ λ p(0,b,1) μ μ p(0,1,1) p(0,0,0) p(0,0,1) μ λ p(0,1,0) p(1,b,1) μ p(1,1,0) p(n c μ -1,b,1) p(n c -1,1,1) p(n c -1,1,0) p(n c,b,1) p(n c,1,0) [08] p(n,b,1) λ μ p(n 1,b,1) λ p(n,1,1) c c c ; μ si 0 < n c N c -1 p(n, 1, 1) 2 p(n 111,, ) p(n 2 b, 1) p(n 2, 1, ) ; si 0 < n c N c -2 p(n p(n c c c c 0 c c -1,b,1) -1,1,1) λ λ μ 2 μ p(n c p(n -2,b,1) c λ -2,1,1) λ p(n c p(n -1,1,1) μ -1,1,1) Eliminando una de estas ecuaciones y agregando la condición de colectividad exhaustiva: p(0,0,0) p(0,0,1) N n c c 1 0 p(n c,1,1) N n c c queda definido un sistema de 3 N+2 ecuaciones e igual cantidad de incógnitas, que una vez resuelto permite determinar las variables características en función de ellas. Por ejemplo, la probabilidad de que un vehículo no tenga que esperar en la cola para que comience a ser atendido será: p(wc 0) p(0,0,0) p(0,0,1) mientras que su complemento es la probabilidad de que un vehículo que llega a la vía de pago no se atienda inmediatamente: c 1 0 p(n c μ,b,1) N n c c 1 0 p(n c,1,0) 1 λ TC-233

236 p (W C 0) N n c c 1 0 XXVIII ENDIO, XXVI EPIO y RED-M VIII p(n c,1,1) N n c c 1 0 p(n c,b,1) Llamaremos B al porcentaje de tiempo de inactividad de la cabina 1 como consecuencia de la ocupación activa de la cabina 2. Es decir, es la probabilidad de que el sistema se encuentre con el canal 1 en estado de bloqueo, que corresponde a la suma de las probabilidades de la fila superior de la Figura 6: B N n c c 1 0 p(n c,b,1) Por su parte, el porcentaje de tiempo ocioso de la cabina 2 se da por la ocupación del canal 1 que interrumpe el paso a un vehículo de la cola para que se posicione en la cabina 2 hasta tanto el primero termine de cobrar el peaje. Este porcentaje es igual a la suma de las probabilidades representadas por los nodos de la fila inferior de la Figura 6 y, considerando la expresión [08], tendremos que es también igual a B: N n c c 1 p(n 0 c,1,0) B Denominaremos A a la suma de las probabilidades de la fila central de la Figura 6, excluyendo p(0,0,0): A p( 0, 01, ) N De manera que: p(wc Y, luego: 2 B A 0) 1 n 2 c c 1 p(n c, 11, ) 0 B A p(0,0,0) p(0,0,1) 1 N n c c p(0,0,0) 1 0 p(n c,1,0) p(0,0,1) Las probabilidades de que las cabina 1 y 2 estén activamente ocupadas, es decir realizando el cobro de peaje serán, respectivamente: H 1 H 2 A B p(0,0,1) A B Puede observarse que el porcentaje de tiempo de ocupación activa de la cabina 2 es siempre mayor que el de la 1. Cuando el factor de tránsito es muy bajo, por ejemplo de valores menores a 0,5, la diferencia de ocupación es muy considerable y en general no se justifica la doble cabina. A medida que los valores de van creciendo, la probabilidad de no esperar en cola va disminuyendo, y en consecuencia también se reduce la diferencia entre los porcentajes de ocupación activa de las cabinas. Para valores muy grandes de (es decir, frente a situaciones completamente caóticas) dicha diferencia es muy pequeña. El número promedio de vehículos realizando el pago, o número TC-234

237 promedio de cabinas activas, será: XXVIII ENDIO, XXVI EPIO y RED-M VIII H H1 H2 p(0,01) 2 (A B) Llamaremos n a la cantidad total de vehículos en el sistema (incluyendo los que están esperando, abonando y en bloqueo), y las probabilidades asociadas son: p (0) p(0,0,0) p (1) p (2) p(n) p(n c p(0,0,1) p(0,1,1) p(n-2,1,1) 1) p(n c p(0,1,0) p(0,b,1) -1,1,1) p(1,1,0) p(n-2,b,1) p(n -1, b,1) c p(n-1,1,0) ; si 1 < n N c En base a ellas, se puede expresar el número promedio de vehículos en el sistema: L N c 1 n 0 n p(n) El número promedio de vehículos esperando en la cola es igual al número promedio de vehículos en el sistema menos los que se encuentran en las cabinas, ya sea abonando el peaje o en bloqueo: L c L H B El número promedio de vehículos que abona el peaje por unidad de tiempo, considerando [03 ], se calcula como la suma de: - la sumatoria de las probabilidades de los estados de la fila central de la Figura 6 (es decir, A) multiplicada por el número promedio de vehículos que egresan por unidad de tiempo desde esos estados habiendo abonado ( ), - la sumatoria de las probabilidades de los estados de la fila superior (B) multiplicada por los vehículos que egresan habiendo abonado el peaje (2 ), y - la sumatoria de las probabilidades de los estados de la fila inferior (B) multiplicada por el flujo de vehículos que egresan habiendo abonado ( ). Es decir, la tasa promedio de vehículos que abonan es: μ μ A Pero siendo: A 2 B Tendremos que: μ μ p(0) B p(0) B Teniendo en consideración [01] y [02 ] el número promedio de clientes que no abonan el servicio por unidad de tiempo es: R λ μ [01 ] TC-235

238 XXVIII ENDIO, XXVI EPIO y RED-M VIII Esta tasa de vehículos se puede desagregar para cada modalidad operativa considerando lo siguiente: Si al arribar un vehículo a la vía el estado del sistema es (N c -1,1,0) pasarán sin pagar N c +1 (es decir los N c -1 que estaban en la cola, el que estaba en la cabina y el recién arribado); si el estado es (N c -1,1,1) dejan de pagar N c +2 usuarios (los que están en la cola, los dos que estaban en las cabinas y el recién arribado); y si el estado es (N c -1, B, 1) se irán sin pagar N c +1 (esto es, los que estaban en cola, el vehículo que estaba en el segundo canal y el recién arribado, ya que el que estaba bloqueado en la primera cabina ya había abonado). Es decir: R nc,n1,n 2 0 (N (N C C para n 1) 2) λ λ c N C para n,n,n c para n,n,n c N N N C C C 1,1,0 1, b,1 1, 1,1 [04 ] por lo que las tasas de exención promedio para cada condición operativa serán: R R R 1,0 1,1 b 1 λ λ λ (N (N (N c c c 1) 2) 1) p(n -1,1,0) c p(n -1,1,1) c p(n -1,b,1) c Por supuesto que el flujo de vehículos con exención de pago, ya calculado en [01 ], será la suma de las tres tasas: R λ (Nc 1) p(n c-1,1,0) p(n c-1,b,1) (Nc 2) p(n c-1,1,1) [09] El resto de las variables características son: Tiempo promedio de permanencia global de un vehículo en el sistema: W L λ Tiempo promedio de permanencia de los que pagan el servicio: W P L μ Tiempo promedio de los que no pagan el servicio: W NP L R Lc Tiempo promedio de espera global en cola de un vehículo: Wc λ Tiempo promedio de espera en cola de un vehículo que abona peaje: Lc Wc P μ TC-236

239 XXVIII ENDIO, XXVI EPIO y RED-M VIII Tiempo promedio de espera en cola de un vehículo que no abona el Lc servicio: Wc NP R Tiempo promedio de espera por bloqueo: W B B λ μ Porcentaje de vehículos que pagan el servicio: p P λ R Porcentaje de vehículos que no abonan el peaje: p NP λ Finalmente, la frecuencia promedio de levantamiento de barreras será: γ DC R (N C 1,0 1) o, lo que es lo mismo: γ DC λ p(n c R (N C -1,1,0) 1,1 2) p(n c R (N C b,1-1,b,1) 2) p(n c -1,1,1) y su inversa es el tiempo promedio que transcurre entre dos levantamientos sucesivos: 1 T DC γ DC En el Anexo 2 se muestra el modelo matemático formulado con el sistema LINGO, para el caso en donde el levantamiento de barrera se opera cuando arriba el décimo vehículo a la cola del carril. En la tabla 4 se pueden observar los resultados de las variables características obtenidos para valores de tránsito comprendidos entre 0 y Determinación de la disposición óptima El costo de un carril de pago comprende, por un lado el lucro cesante debido a la pérdida de recaudación debido a la apertura de las barreras, y por el otro el costo de oportunidad de tener una o dos cabinas habilitadas (que incluye el sueldo del personal de atención y cualquier otro costo operativo necesario para operar el canal). Llamando p V al valor fijo del peaje que abona cada vehículo y c c al costo de oportunidad de una cabina (en pesos por unidad de tiempo), tendremos que el costo total de la vía por unidad de tiempo para el esquema de cabina simple (CS), es: Z p R CS c [10] cs v c en donde R cs es la expresión [07] del número de clientes eximidos del pago del servicio por unidad de tiempo para el esquema CS. Por su parte, tendremos que para la disposición de doble cabina (DC) el costo por unidad de tiempo será: Z DC pv RDC 2 cc [11] λ p(n c -1) TC-237

240 siendo XXVIII ENDIO, XXVI EPIO y RED-M VIII R DC la expresión [09] de exención de pago para este esquema. En consecuencia, la disposición óptima será la correspondiente a la del mínimo valor entre [44] y [55], es decir: Z OPT pv RDC 2 c c ; pv RCS c c [12] MIN Por supuesto, la función objetivo puede formularse como un problema de utilidades determinando la disposición que proporcione el máximo valor de: Z p μ 2 c ; p μ c [12 ] OPT v DC c v CS Dado que los flujos de liberación son función del factor de tráfico, conocida la velocidad promedio de atención, con la expresión [12] se puede determinar el esquema óptimo a disponer en base a la tasa de arribos que recibe la vía de pago en las distintas franjas horarias. En la tabla 5 se muestra, a título de ejemplo, el modelo de decisión formulado en una planilla de cálculo para un costo de canal de 1,12 $/minuto (calculado en base a sueldos y costos operativos promedios actuales) y un valor de peaje igual de 10$/vehículo. Por ejemplo asumiendo que la tasa de servicios es = 4 vehículos/minuto (es decir 15 segundos en promedio por cada pago), cuando la tasa de arribos es menor a λ = 2,8 por minuto (168 vehículos por hora), es decir menor a 0,7 conviene tener habilitada una sola cabina. Para tasas de arribo superiores a 2,8 ( mayor a 0,7) se debe habilitar la segunda cabina. 3. CONCLUSIONES Agregar cabinas en paralelo mejora notablemente la eficiencia del sistema. Por ejemplo para una ruta en la que se dispone una sola cabina en una de las direcciones, con = 1,6 la tasa de vehículos que abonan el peaje es 3,57430; mientras que con dos cabinas en paralelo, cada una de las cuales tendrá un factor de tráfico igual a 0,8, la tasa promedio se incrementa a 2,99151 x 2 = 5,98302 (es decir, aproximadamente un 67% mejor). Agregar una cabina en serie, en cambio, mejora parcialmente la eficiencia. Para el mismo ejemplo anterior de = 1,6, se tiene que la cantidad de vehículos que abonan peaje por unidad de tiempo con este esquema es 4,65466 (es decir, alrededor de 30%). El beneficio en términos de eficiencia de la doble cabina en serie contra la cabina simple es mayor cuanto mayor es el factor de tráfico. Para valores bajos del factor de tráfico (por ejemplo menor a 0,5) la mejora es muy pequeña. Otra conclusión interesante es que en vías de doble cabina, el canal que está dispuesto más adelante está siempre más activo que el que está detrás. Por ejemplo, para un = 0,6 el porcentaje de actividad del canal 2 es más del doble que el del canal 1 (alrededor de 41% y 18%, respectivamente). Para un = 1 el canal 2 está cerca de un 40% más activo que el 1, mientras que para = 1.6 solamente un 18%.Es decir, para factores de tráfico muy bajos, el canal que c MAX TC-238

241 XXVIII ENDIO, XXVI EPIO y RED-M VIII está dispuesto más adelante realiza casi toda la actividad de cobro, mientras que para valores muy altos la actividad efectiva de las cabinas se empareja. El porcentaje de inactividad forzada, que es el estado no operativo de una cabina debido exclusivamente al estado de operatividad de la otra cabina, es igual para ambos canales. En efecto, tal como se demostró aquí, la suma de las probabilidades de estado p(n c,b,1) es igual a la suma de probabilidades de estado p(n c,1,0). La diferencia de ocupación entre la cabina 2 y la cabina 1, en términos de porcentajes, es igual a la probabilidad p(0,0,1). Esta probabilidad es de una magnitud muy considerable para valores bajos de factor de tránsito y muy baja para situaciones caóticas de aglomeraciones vehiculares. La cantidad promedio de vehículos en el carril, y en consecuencia los tiempos de permanencia y espera, no son muy diferentes cuando se compara un sistema de un solo canal con uno de doble canal. Esto se debe a que la frecuencia de levantamiento de barreras es mucho mayor en el sistema de cabina única. Es decir, en términos de beneficio para los usuarios, cuando el factor de tránsito es alto, sería preferible quelas concesionarias no dispongan segundos canales, ya que el tiempo de espera es bastante similar, pero la frecuencia de apertura de barreras, y en consecuencia la probabilidad de no pagar peaje, es mucho mayor. Un modelo de estas características sería aplicable también para resolver otras situaciones prácticas con idéntica problemática operativa, como por ejemplo el de las estaciones de servicio con islas de carga de combustible que tienen dos surtidores en serie, en donde un vehículo que esté ubicado en la primera expendedora y que ya haya terminado el servicio no pueda abandonar la isla hasta tanto finalice el servicio del segundo surtidor si éste estuviera ocupado, y en donde también, un vehículo ubicado en la primera máquina expendedora que esté recibiendo el servicio impide el paso de otro vehículo al segundo surtidor que ya lo haya finalizado. En algunos procesos productivos con disposiciones de canales en serie para la realización de una única actividad puede darse una situación similar de inactividad forzada de un canal debida a la actividad del otro canal. 4. CONSIDERACIONES FINALES Una extensión natural al caso aquí planteado es el análisis comparativo de un sistema de doble cabina sin levantamiento de barreras, es decir con infinitos estados posibles, contra un sistema MM1. La formulación de un modelo matemático cuantitativo para el esquema de segunda cabina de pago en serie no es sencilla en absoluto, en virtud de la compleja vinculación probabilística entre los posibles estados que puede asumir el sistema. Sin embargo, en virtud de la propiedad de los sistemas de colas por la cual los arribos Poisson observan valores promedios de tiempos, podría intentarse aplicar este concepto PASTA (Whitt, 1990) y (Whitt, 2011) para determinar expresiones cuantitativas de las variables de eficiencia. Otra situación, que también implica un sistema con infinitos estados posibles, es el caso de peaje con levantamiento de barreras cuando se debe finalizar la cobranza del peaje TC-239

242 XXVIII ENDIO, XXVI EPIO y RED-M VIII del vehículo que estaba abonando el servicio en el momento del arribo del enésimo vehículo que obliga a la apertura. También aquí se anticipa una dificultosa formulación cuantitativa, por lo que la modelización matemática constituiría un interesante desafío intelectual. TABLAS TABLA 1: Flujo Vehicular por vías con peaje en Argentina (en miles) RUTA VARIACIÓN (%) RUTAS NACIONALES ,4 AUTOPISTAS INTERIOR de CABA ,1 ACCESOS a CABA ,4 Fuentes: CARLEVARI, R. (2013) e INDEC (Instituto Nacional de Estadística y Censos) TABLA 2: Flujo Vehicular por vías de acceso a CABA con peaje (en miles) ACCESOS a CABA VARIACIÓN (%) ACCESO NORTE ,1 ACCESO OESTE ,2 AUTOPISTA RICCHERI ,5 AUT. LA PLATA- BUENOS AIRES ,3 TOTAL ACCESOS a CABA ,4 Fuentes: CARLEVARI, R. (2013) e INDEC (Instituto Nacional de Estadística y Censos) TABLA 3: Valores de variables características para cabina única ρ H L c L R μ 0,0 0, , , , , ,1 0, , , , , ,2 0, , , , , ,3 0, , , , , ,4 0, , , , , ,5 0, , , , , ,6 0, , , , , ,7 0, , , , , ,8 0, , , , , ,9 0, , , , , ,0 0, , , , , ,1 0, , , , , ,2 0, , , , , ,3 0, , , , , ,4 0, , , , , ,5 0, , , , ,56182 TC-240

243 XXVIII ENDIO, XXVI EPIO y RED-M VIII 1,6 0, , , , , ,7 0, , , , , ,8 0, , , , , ,9 0, , , , , ,0 0, , , , ,60022 TABLA 4: Valores de variables características para doble cabina ρ H 1 H 2 H B L C L R μ 0,0 0, , , , , , , , ,1 0, , , , , , , , ,2 0, , , , , , , , ,3 0, , , , , , , , ,4 0, , , , , , , , ,5 0, , , , , , , , ,6 0, , , , , , , , ,7 0, , , , , , , , ,8 0, , , , , , , , ,9 0, , , , , , , , ,0 0, , , , , , , , ,1 0, , , , , , , , ,2 0, , , , , , , , ,3 0, , , , , , , , ,4 0, , , , , , , , ,5 0, , , , , , , , ,6 0, , , , , , , , ,7 0, , , , , , , , ,8 0, , , , , , , , ,9 0, , , , , , , , ,0 0, , , , , , , ,79445 TABLA 5: Tabla de decisión para = 4 v/min, c c = 1,12 $/min y p V = 10 $/v. CABINA SIMPLE DOBLE CABINA MINIMO Z ESQUEMA ÓPTIMO ρ R Z R Z 0,0 0, , , , ,12000 CS 0,1 0, , , , ,12000 CS 0,2 0, , , , ,12001 CS 0,3 0, , , , ,12038 CS 0,4 0, , , , ,12665 CS 0,5 0, , , , ,17388 CS 0,6 0, , , , ,38051 CS 0,7 0, , , , ,97578 CS 0,8 0, , , , ,63080 DC TC-241

244 XXVIII ENDIO, XXVI EPIO y RED-M VIII 0,9 0, , , , ,18936 DC 1,0 0, , , , ,18338 DC 1,1 0, , , , ,69868 DC 1,2 1, , , , ,74195 DC 1,3 1, , , , ,25360 DC 1,4 2, , , , ,14226 DC 1,5 2, , , , ,31501 DC 1,6 2, , , , ,69344 DC 1,7 3, , , , ,21773 DC 1,8 3, , , , ,84474 DC 1,9 4, , , , ,54429 DC 2,0 4, , , , ,29553 DC FIGURAS Marca delimitante CANAL Barrera λ μ R Figura 1 λ λ λ λ λ λ λ N-2 N-1 N λ Figura 2 CANAL 1 CANAL 1 CANAL 2 λ μ R Figura 3 TC-242

245 XXVIII ENDIO, XXVI EPIO y RED-M VIII CANAL 1 CANAL 2 λ b μ R Figura 4 CANAL 1 CANAL 2 λ μ R Figura 5 λ λ 0,b,1 1,b,1 λ 2,b,1 λ λ Nc-2,b,1 λ Nc-1,b,1 λ λ λ 0,0,0 0,0,1 0,1,1 1,1,1 λ λ Nc-3,1,1 λ Nc-2,1,1 λ N c -,1,1 λ λ 0,1,0 1,1,0 2,1,0 λ λ Nc-2,1,0 λ Nc-1,1,0 λ λ Figura 6 ANEXOS ANEXO 1: MODELO DE LINEA DE CABINA SIMPLE CON LEVANTAMIENTO DE BARRERAS EN N c = 10!PARAMETROS; LAMBDA = 10; MU = 4;! TIEMPO DEL SERVICIO; TS = 1/MU;! ECUACIONES DE ESTADO; P0 * LAMBDA = P1 * MU + P10 * LAMBDA ; P1 * (LAMBDA + MU) = P0 * LAMBDA + P2 * MU; P2 * (LAMBDA + MU) = P1 * LAMBDA + P3 * MU; P3 * (LAMBDA + MU) = P2 * LAMBDA + P4 * MU; P4 * (LAMBDA + MU) = P3 * LAMBDA + P5 * MU; P5 * (LAMBDA + MU) = P4 * LAMBDA + P6 * MU; P6 * (LAMBDA + MU) = P5 * LAMBDA + P7 * MU; TC-243

246 XXVIII ENDIO, XXVI EPIO y RED-M VIII P7 * (LAMBDA + MU) = P6 * LAMBDA + P8 * MU; P8 * (LAMBDA + MU) = P7 * LAMBDA + P9 * MU; P9 * (LAMBDA + MU) = P8 * LAMBDA + P10 * MU; P10 *(LAMBDA + MU) = P9 * LAMBDA ; P0 + P1 + P2 + P3 + P4 + P5 + P6 + P7 + P8 + P9 + P10 = 1; H = 1 - P0; H10 = P10;!PROBABILIDAD DE QUE UN CLIENTE TENGA QUE ESPERAR; PESPERAR = 1- P0 ;!LONGITUD DE SISTEMA; L = 1 * P1 + 2 * P2 + 3 * P3 + 4 * P4 + 5 * P5 + 6 * P6 + 7 * P7 + 8 * P8 + 9 * P * P10 ;!LONGITUD DE COLA; LC = 1 * P2 + 2 * P3 + 3 * P4 + 4 * P5 + 5 * P6 + 6 * P7 + 7 * P8 + 8 * P9 + 9 * P10 ; MURAYA = MU * H; RRAYA = LAMBDA * 11 * H10; PNOPAGAR = RRAYA/LAMBDA;!TIEMPOS DE PERMANENCIA Y ESPERA; W = L/LAMBDARAYA; WC = LC/LAMBDARAYA; ANEXO 2: MODELO DE LINEA DE PEAJE DE DOBLE CABINA CON LEVANTAMIENTO DE BARRERA EN N c = 10!PARAMETROS; LAMBDA = 12; MU = 4;! TIEMPO DEL SERVICIO; TS = 1/MU;! ECUACIONES DE ESTADO; P0_0_0 * LAMBDA = P0_1_0 * MU + P0_0_1 * MU + P0_B_1 * MU + P9_B_1 * LAMBDA + P9_1_1 * LAMBDA + P9_1_0 * LAMBDA ; P0_0_1 * (LAMBDA + MU) = P0_0_0 * LAMBDA + P1_1_0 * MU + P1_B_1 * MU; P0_1_1 * (LAMBDA + MU + MU)= P0_0_1 * LAMBDA + P2_1_0 * MU + P2_B_1 * MU; P1_1_1 * (LAMBDA + MU + MU)= P0_1_1 * LAMBDA + P3_1_0 * MU + P3_B_1 * MU; P2_1_1 * (LAMBDA + MU + MU)= P1_1_1 * LAMBDA + P4_1_0 * MU + P4_B_1 * MU; P3_1_1 * (LAMBDA + MU + MU)= P2_1_1 * LAMBDA + P5_1_0 * MU + P5_B_1 * MU; P4_1_1 * (LAMBDA + MU + MU)= P3_1_1 * LAMBDA + P6_1_0 * MU + P6_B_1 * MU; P5_1_1 * (LAMBDA + MU + MU)= P4_1_1 * LAMBDA + P7_1_0 * MU + P7_B_1 * MU; P6_1_1 * (LAMBDA + MU + MU)= P5_1_1 * LAMBDA + P8_1_0 * MU + P8_B_1 * MU; P7_1_1 * (LAMBDA + MU + MU)= P6_1_1 * LAMBDA + P9_1_0 * MU + P9_B_1 * MU; P8_1_1 * (LAMBDA + MU + MU)= P7_1_1 * LAMBDA ; P9_1_1 * (LAMBDA + MU + MU)= P8_1_1 * LAMBDA ; P0_1_0 * (LAMBDA + MU)= P0_1_1 * MU; P1_1_0 * (LAMBDA + MU)= P0_1_0 * LAMBDA + P1_1_1 * MU; P2_1_0 * (LAMBDA + MU)= P1_1_0 * LAMBDA + P2_1_1 * MU; P3_1_0 * (LAMBDA + MU)= P2_1_0 * LAMBDA + P3_1_1 * MU; P4_1_0 * (LAMBDA + MU)= P3_1_0 * LAMBDA + P4_1_1 * MU; P5_1_0 * (LAMBDA + MU)= P4_1_0 * LAMBDA + P5_1_1 * MU; P6_1_0 * (LAMBDA + MU)= P5_1_0 * LAMBDA + P6_1_1 * MU; P7_1_0 * (LAMBDA + MU)= P6_1_0 * LAMBDA + P7_1_1 * MU; P8_1_0 * (LAMBDA + MU)= P7_1_0 * LAMBDA + P8_1_1 * MU; P9_1_0 * (LAMBDA + MU)= P8_1_0 * LAMBDA + P9_1_1 * MU; P0_B_1 * (LAMBDA + MU) = P0_1_1 * MU; P1_B_1 * (LAMBDA + MU) = P0_B_1 * LAMBDA + P1_1_1 * MU; P2_B_1 * (LAMBDA + MU) = P1_B_1 * LAMBDA + P2_1_1 * MU; P3_B_1 * (LAMBDA + MU) = P2_B_1 * LAMBDA + P3_1_1 * MU; P4_B_1 * (LAMBDA + MU) = P3_B_1 * LAMBDA + P4_1_1 * MU; P5_B_1 * (LAMBDA + MU) = P4_B_1 * LAMBDA + P5_1_1 * MU; P6_B_1 * (LAMBDA + MU) = P5_B_1 * LAMBDA + P6_1_1 * MU; P7_B_1 * (LAMBDA + MU) = P6_B_1 * LAMBDA + P7_1_1 * MU; P8_B_1 * (LAMBDA + MU) = P7_B_1 * LAMBDA + P8_1_1 * MU; P9_B_1 * (LAMBDA + MU) = P8_B_1 * LAMBDA + P9_1_1 * MU; P0_0_1 + P0_1_1 + P1_1_1 + P2_1_1 + P3_1_1 + P4_1_1 + P5_1_1 + P6_1_1 + P7_1_1 + P8_1_1 + P9_1_1 + P0_B_1 + P1_B_1 + P2_B_1 + P3_B_1 + P4_B_1 + P5_B_1 + P6_B_1 + P7_B_1 + P8_B_1 + P9_B_1 + P0_1_0 + P1_1_0 + P2_1_0 + P3_1_0 + P4_1_0 + P5_1_0 + P6_1_0 + P7_1_0 + P8_1_0 + P9_1_0 + P0_0_0 = 1;!PROBABILIDAD DE QUE UN CLIENTE TENGA QUE ESPERAR; PESPERAR = 1- P0_0_0 - P0_0_1; PN_1_1 = P0_1_1 + P1_1_1 + P2_1_1 + P3_1_1 + P4_1_1 + P5_1_1 + P6_1_1 + P7_1_1 + P8_1_1 + P9_1_1; PN_1_0 = P0_1_0 + P1_1_0 + P2_1_0 + P3_1_0 + P4_1_0 + P5_1_0 + P6_1_0 + P7_1_0 + P8_1_0 + P9_1_0; PN_B_1 = P0_B_1 + P1_B_1 + P2_B_1 + P3_B_1 + P4_B_1 + P5_B_1 + P6_B_1 + P7_B_1 + P8_B_1 + TC-244

247 XXVIII ENDIO, XXVI EPIO y RED-M VIII P9_B_1; B = P0_B_1 + P1_B_1 + P2_B_1 + P3_B_1 + P4_B_1 + P5_B_1 + P6_B_1 + P7_B_1 + P8_B_1 + P9_B_1 ; H2 = P0_0_1 + P0_1_1 + P1_1_1 + P2_1_1 + P3_1_1 + P4_1_1 + P5_1_1 + P6_1_1 + P7_1_1 + P8_1_1 + P9_1_1 + P0_B_1 + P1_B_1 + P2_B_1 + P3_B_1 + P4_B_1 + P5_B_1 + P6_B_1 + P7_B_1 + P8_B_1 + P9_B_1 ; H1 = P0_1_1 + P1_1_1 + P2_1_1 + P3_1_1 + P4_1_1 + P5_1_1 + P6_1_1 + P7_1_1 + P8_1_1 + P9_1_1 + P0_1_0 + P1_1_0 + P2_1_0 + P3_1_0 + P4_1_0 + P5_1_0 + P6_1_0 + P7_1_0 + P8_1_0 + P9_1_0 ; H = H1 + H2; P0_0_1 + P0_1_0 + P1_1_0 + P2_1_0 + P3_1_0 + P4_1_0 + P5_1_0 + P6_1_0 + P7_1_0 + P8_1_0 + P9_1_0; PE_B1 = P0_B_1 + P1_B_1 + P2_B_1 + P3_B_1 + P4_B_1 + P5_B_1 + P6_B_1 + P7_B_1 + P8_B_1 + P9_B_1 ; PE_11 = P0_1_1 + P1_1_1 + P2_1_1 + P3_1_1 + P4_1_1 + P5_1_1 + P6_1_1 + P7_1_1 + P8_1_1 + P9_1_1 ; PE_10 = P0_1_0 + P1_1_0 + P2_1_0 + P3_1_0 + P4_1_0 + P5_1_0 + P6_1_0 + P7_1_0 + P8_1_0 + P9_1_0 ; TOTALPE = PE_B1 + PE_11 + PE_10; TOTAL = TOTALPE + P0_0_0 + P0_0_1; L = 1 * P1 + 2 * P2 + 3 * P3 + 4 * P4 + 5 * P5 + 6 * P6 + 7 * P7 + 8 * P8 + 9 * P * P * P11; LC = 1 * (P1_1_0 + P1_1_1 + P1_B_1) + 2 * (P2_1_0 + P2_1_1 + P2_B_1) + 3 * (P3_1_0 + P3_1_1 + P3_B_1) + 4 * (P4_1_0 + P4_1_1 + P4_B_1) + 5 * (P5_1_0 + P5_1_1 + P5_B_1) + 6 * (P6_1_0 + P6_1_1 + P6_B_1) + 7 * (P7_1_0 + P7_1_1 + P7_B_1) + 8 * (P8_1_0 + P8_1_1 + P8_B_1) + 9 * (P9_1_0 + P9_1_1 + P9_B_1) ; MURAYA = MU * (PE_11 + P0_0_1) + 2 * MU * B + MU * PE_10; RRAYA = LAMBDA * P9_1_0 * 11 + LAMBDA * (P9_1_1 + P9_B_1) * 12 ; SUMAFLUJO = MURAYA + RRAYA ; PNOPAGAR = RRAYA/LAMBDA; PPAGAR = MURAYA/LAMBDA; L = LC + H + B; W = L/LAMBDARAYA; WC = LC/LAMBDARAYA; WB = B/LAMBDARAYA; P0 = P0_0_0 ; P1 = P0_0_1 + P0_1_0 ; P2 = (P1_1_0 + P0_1_1 + P0_B_1) ; P3 = (P2_1_0 + P1_1_1 + P1_B_1) ; P4 = (P3_1_0 + P2_1_1 + P2_B_1) ; P5 = (P4_1_0 + P3_1_1 + P3_B_1) ; P6 = (P5_1_0 + P4_1_1 + P4_B_1) ; P7 = (P6_1_0 + P5_1_1 + P5_B_1) ; P8 = (P7_1_0 + P6_1_1 + P6_B_1) ; P9 = (P8_1_0 + P7_1_1 + P7_B_1) ; P10 = (P9_1_0 + P8_1_1 + P8_B_1); P11 = P9_1_1 + P9_B_1; 5. REFERENCIAS CARLEVARI, I.- CARLEVARI, R. (2013): La Argentina, Geografía Económica y Humana, 15ª Edición. Editorial: ALFAOMEGA, Buenos Aires. LINDO SYSTEMS INC (2013): LINGO. The Modeling Language and Optimizer, Lindo Systems Inc, USA LITLLE, J. D. C. (1961): A proof for the queuing formula: L = λ W, Operations Research, Vol. 9, No.3, págs , USA LITLLE, J. D. C. (2011): Little s Law as viewed on its 50th anniversary, Operations Research, Vol. 59, No. 3, Mayo Junio 2011, págs , USA MIRANDA, M. (2013): Teoría de Colas. 2ª edición. Editorial: EDUCA, Buenos Aires. WHIT, W., MELAMED B.(1990):On Arrivals That See Time Averages. Operations Research, vol. 38, No. 1, 1990, pp USA. WHITT, W. (2011): Stochastic-Process Limits: An Introduction to Stochastic- Process Limits and their Application to Queues (Springer Series in Operations Research and Financial Engineering). Springer. USA. TC-245

248 XXVIII ENDIO, XXVI EPIO y RED-M VIII OPTIMIZACIÓN LINEAL, NO LINEAL Y MULTIOBJETIVO

249 XXVIII ENDIO, XXVI EPIO y RED-M VIII APLICACIÓN DE UN MODELO CVRP-RB A UN CASO DE LOGÍSTICA INVERSA ANTONELLA CAVALLIN 1 - HERNAN VIGIER 2 - MARIANO FRUTOS 1 1 Departamento de Ingeniería, Universidad Nacional del Sur, IIESS-CONICET. 2 Departamento de Economía, Universidad Nacional del Sur, CEDETS (CIC-Universidad Provincial del Sudoeste). antocavallin@gmail.com - hvigier@uns.edu.ar - mfrutos@uns.edu.ar RESUMEN EXTENDIDO Se enmarca, en este trabajo, el problema de enrutamiento vehicular con restricciones de capacidad (CVRP) a un caso de logística inversa que trata sobre la recolección de material reciclable en un entorno urbano. Se plantea equilibrar las distancias transitadas por cada recolector (CVRP-RB), al igual que la cantidad de material obtenida entre los mismos. Se presenta un modelo multi-objetivo basado en programación lineal mixta-entera. Se utiliza el software GAMS con el solver CPLEX para encontrar soluciones óptimas en instancias reducidas. Se establecen ejemplos analíticos, donde se muestra la variación de las soluciones óptimas en función de las ponderaciones utilizadas para cada objetivo. PALABRAS CLAVES: Enrutamiento de Vehículos con Restricciones de Capacidad - Optimización Multi-objetivo - Logística Inversa - Reciclado. 1. INTRODUCCIÓN El concepto de logística inversa se ha desarrollado como el proceso de mover bienes de su destino final a otro punto, con el propósito de capturar valor que de otra manera no estaría disponible (Bai y Sarkis, 2013). El presente análisis toma como ejemplo de estudio a recolectores urbanos que transportan material reciclable mediante carros a tracción manual desde diferentes puntos de la ciudad hasta un depósito de acopio para su posterior venta. El propósito de este trabajo trata sobre el diseño de rutas de recolección que minimicen y equilibren las distancias transitadas, y equilibren el material recogido entre los recolectores. Para resolver el problema de diseño de ruta planteado es necesario partir del uso de técnicas como el modelo VRP (Vehicle Routing Problem) (Bodin y Golden, 1981), el cual determina el enrutamiento de una flota de vehículos para satisfacer la demanda de clientes con el objetivo de minimizar costos o distancia. En (Toth y Vigo, 2002) se muestra una recopilación de todas las variantes estudiadas a partir del VRP. Una de estas es el CVRP (Capacited Vehicle Routing Problem), el cual añade restricciones de capacidad vehicular (Frutos y Tohmé, 2012). En los últimos años se han desarrollado algoritmos enfocados al CVRP (Rodrigues Pereira Ramos, Gomes y Barbosa-Póvoa, 2014). Sin embargo, la literatura analizada sólo prioriza la minimización del costo total del enrutamiento sin considerar el costo individual que asume cada vehículo de la flota. Sólo en (Tzong-Ru y Ji-Hwa, 1999) se presenta un modelo que balancea el tiempo de trabajo realizado por cada vehículo (VRP-RB, VRP Route Balancing). En este trabajo se plantea un modelo alternativo de CVRP-RB. Además, se tomaron técnicas de modelamiento matemático para equilibrar la cantidad de material recolectado. Se siguieron los lineamientos básicos de la programación por compromiso o multi-objetivo de Zak, Redmer y Sawicki (2011). RE-247

250 2. MODELADO MATEMÁTICO XXVIII ENDIO, XXVI EPIO y RED-M VIII El problema aquí planteado consiste en establecer distintas rutas para la recolección de material reciclable. Es decir, se tiene un conjunto finito R de m recolectores urbanos R r, que deben transitar por distintos puntos de r 1 recolección o nodos i (i=1,...,n), que conforman un conjunto finito D. En cada nodo i es depositada una cantidad de material reciclable a recolectar q i. Para desarrollar el modelo se introducen algunas definiciones: d ij es la distancia r desde el nodo i al nodo j, x es una variable binaria que vale 1 si el recolector ij R r transita del nodo i al j, 0 en el otro caso, Q r es la cantidad de material recolectado por el recolector R r (ecuación 1), Q máx es la cantidad máxima recolectada individualmente (ecuación 2), Q mín es la cantidad mínima recolectada individualmente (ecuación 3), C es la capacidad máxima del r vehículo (se establece una flota homogénea), d es la distancia total recorrida por el recolector R r (ecuación 4). r r Q x ij qi (1) i, j D Q máx( Q r ) (2) máx Q mín( Q r ) (3) mín r r d x ij dij (4) i, j D En este caso se definieron 3 objetivos a evaluar. El primero, es minimizar la 1 distancia transitada total ( f ). El segundo, es minimizar las diferencias absolutas 2 de las distancias recorridas por cada par de recolectores ( f ). El tercer objetivo, y último, es minimizar la diferencia entre la cantidad máxima y mínima k* recolectada individualmente. Además, se determinaron los valores ideales ( f ) k y anti-ideales ( f * ) para cada objetivo k (k=1,2,3), y cada una de sus 3 ponderaciones w k, donde k 1w k 1. Por otro lado, se añade la variable auxiliar u i como nodo potencial del nodo i. En ecuaciones 5 a 15 se define el modelo. 1 1* 2 2* 3 3* f f f f f f Mín F w w w (Función objetivo) (5) S.t.: 1 1 1* 2 2 2* 3 3 3* f* f f* f f* f f 1 r r R d (distancia transitada total) (6) 2 r s f d d (diferencias absolutas de las distancias recorridas por cada par R r y R s ) (7) r, s R 3 f Qmáx Q mín (diferencia entre la cantidad máxima y mínima recolectada) (8) r Q C, r R (la capacidad del vehículo no debe ser superada) (9) i D r xij 1, j 0, r R (el nodo i es abandonado una sola vez) (10) RE-248

251 j D j D i D XXVIII ENDIO, XXVI EPIO y RED-M VIII r xij 1, i 0, r R (el nodo j es visitado una sola vez) (11) r x0 j 1, r R (el nodo 0 es abandonado 1 vez por cada R r ) (12) r xi 0 1, r R (el nodo 0 es visitado 1 vez por cada R r ) (13) r r x x 0, r R, i, j 0 D ( conservación del flujo en el recorrido) (14) ij i D j D ij u u m. x m 1, i, j 0 D, r R (eliminación de sub-recorridos) (15) r i j i, j 3. RESULTADOS Para la experimentación del modelo, se estableció un escenario reducido de 3 recolectores (R 1, R 2 y R 3 ), es decir m=1,2,3. Además, se incorporaron 12 puntos de recolección o nodos (i=1,2,,12). El nodo inicial o depósito se encuentra en i=0. Las distancias entre los nodos (mts) y la cantidad de material reciclable (Kg), está dispuesto en la Tabla 1. Luego, se calcularon los valores ideales y antiideales de cada objetivo (Tabla 2). Para ello, se asignó una ponderación igual a 1 al valor ideal que se quiere hallar y cero al resto. Se repite para cada caso y luego se analiza entre todos los valores obtenidos, cual es el anti-ideal de cada uno de ellos. Posteriormente se aplicó el modelo planteado con ponderaciones determinadas a partir de numerosas pruebas, con el fin de mostrar aquellas soluciones óptimas más representativas a la variación de los resultados a la vez que se obtenía un valor equilibrado para los tres objetivos (Tabla 3). Tabla 1. Distancia entre nodos (mts) y cantidad de material a recolectar (Kg). i i (q i ) i 0 i 1 i 2 i 3 i 4 i 5 i 6 i 7 i 8 i 9 i 10 i 11 i 12 i 0 (0) i 1 (17) i 2 (2) i 3 (10) i 4 (13) i 5 (6) i 6 (5) i 7 (8) i 8 (15) i 9 (10) i 10 (2) i 11 (9) i 12 (2) Tabla 2. Valores ideales y anti-ideales de cada objetivo. RE-249

252 XXVIII ENDIO, XXVI EPIO y RED-M VIII Ideal Anti-ideal 1 f f f CONCLUSIONES A diferencia de la gran mayoría de los trabajos revisados en la literatura, en esta investigación se resuelve un problema CVRP con equilibrado de los enrutamientos de cada vehículo del sistema (CVRP-RB), adicionando equilibrar el material recolectado. Se mostraron soluciones analíticas de tres escenarios reducidos con diferentes ponderaciones a los objetivos propuestos. Los resultados mostrados establecen el correcto modelado. Actualmente, se está experimentando con una mayor cantidad de recolectores y nodos reconociendo el gran incremento de tiempo de procesamiento que conlleva. Como investigación futura se propone una metodología para determinar puntos iniciales de búsqueda que reduzcan dichos tiempos de ejecución en el software GAMS. Tabla 3. Soluciones óptimas en cada caso analizado. w 1 : 0.5; w 2 : 0.1; w 3 : 0.4 Material recolectado (kg) Distancia (m) Recorrido R R R Función objetivo = ; f =5500; f =1800; f =2 w 1 : 0.1; w 2 : 0.5; w 3 : 0.4 Material recolectado (kg) Distancia (m) Recorrido R R R Función objetivo = ; f =6300; f =0; f =2 w 1 : 0.1; w 2 : 0.2; w 3 : 0.7 Material recolectado (kg) Distancia (m) Recorrido R R R Función objetivo = ; 5. AGRADECIMIENTOS 1 f =6200; 2 f =400; 3 f =0 Los autores agradecen a la Secretaria General de Ciencia y Tecnología de la Universidad Nacional del Sur (PGI 24/J056), a la Universidad Provincial del Sudoeste, a la Comisión de Investigaciones Científicas y al Consejo Nacional de Investigaciones Científicas y Tecnológicas. 6. REFERENCIAS RE-250

253 XXVIII ENDIO, XXVI EPIO y RED-M VIII BAI C., SARKIS J. (2013): Flexibility in reverse logistics: a framework and evaluation approach. Journal of Cleaner Production, vol. 47, pp BODIN L., GOLDEN B. (1981): Classification in Vehicle Routing and Scheduling. College of Business and Management, University of Maryland at College Park, vol. 11, pp FRUTOS M., TOHMÉ F. (2012): A New Approach to the Optimization of the CVRP through Genetic Algorithms. American Journal of Operations Research, vol. 2, pp RODRIGUES PEREIRA RAMOS T., GOMES M., BARBOSA-PÓVOA A. (2014): Planning a sustainable reverse logistics system: Balancing costs with environmental and social concerns. Omega, vol. 48, pp TOTH P., VIGO D. (2002): The Vehicle Rotuing Problem. Society for Industrial and Applied Mathematics, Italy. TZONG-RU L., JI-HWA U. (1999): A study of vehicle routing problems with load-balancing. International Journal of Physical Distribution & Logistics Managment, vol. 10 (10), pp ZAK J., REDMER A., SAWICKI P. (2011): Multiple objective optimization of the fleet sizing problem for road freight transportation. Journal of Advanced Transportation, vol. 45, pp RE-251

254 XXVIII ENDIO, XXVI EPIO y RED M VIII OPTIMIZACIÓN BI-OBJETIVO DE LA DURACIÓN Y COSTOS DE MANO DE OBRA EN EL PROBLEMA DE PROGRAMACIÓN DE PROYECTOS CON RECURSOS LIMITADOS CON FUERZA DE TRABAJO CALIFICADA E INCREMENTO DE HABILIDADES DR. JUAN GAYTÁN INIESTRA, MAT. ABELARDO E. DAMY SOLÍS Escuela de Ingeniería-Tecnológico de Monterrey Campus Toluca jgi@uaemex.mx, adamy@itesm.mx Palabras clave: Programación de proyectos - Multi-Habilidades - Multi-Modos - Problemas Multi-objetivo. 1. INTRODUCCIÓN El problema de Programación de Proyectos con Recursos Limitados (RCPSP) por sus siglas en inglés, es un tipo especial del problema de programación y puede describirse como un proyecto que consiste en un conjunto de actividades, las cuales deben ser procesadas a fin de completar el proyecto. Las actividades están ligadas por relaciones de precedencia y su ejecución requiere el uso de recursos con capacidades limitadas y disponibles en cada periodo del proyecto. Los orígenes del RCPSP se remontan a finales de los años 60, Pritsker, Watters y Wolfe (1969), desde entonces se ha convertido en un problema estándar en la Investigación de Operaciones. Debido a sus características, este problema y sus variantes pertenecen a la clase de problemas NP-duros, Blazewicz, Lenstra y Kan (1983). Las aplicaciones son muy diversas al igual que sus extensiones. Entre las extensiones más importantes del RCPSP, tenemos la versión multi-modos (MM-RCPSP) y la versión multi-habilidades (MSPSP). Lo que es particularmente importante de estas dos variantes es la flexibilidad de recursos, llamada así por Artigues, Demassey y Néron (2008), que consiste en que los recursos pueden ser asignados en diferentes formas, lo que resulta en diferentes tiempos de procesamiento de actividades y conduciendo a un incremento significativo en el número de soluciones factibles, por lo que se han diseñado algoritmos específicos para resolverlos. Una condición usual en proyectos con recursos limitados es que deben ser terminados a tiempo y al menor costo posible, satisfaciendo ciertas especificaciones y restricciones adicionales; esto conlleva a considerar al RCPSP un problema multi-objetivo. Sin embargo, como lo indican Odedairo y Oladokun (2011), al no entender la dimensión multi-objetivo de los proyectos, existe una gran posibilidad de fracasar. 2. PRESENTACIÓN DEL PROBLEMA En el presente trabajo se muestra una variante del RCPSP, en la cual se tienen las condiciones que se mencionan a continuación. El proyecto está representado en su forma actividades en nodos a través de una gráfica G(N,A) donde N es el conjunto de actividades, en el cual se incluyen dos actividades ficticias 1 y n, que representan el inicio y el fin del proyecto, respectivamente, y RE 252

255 XXVIII ENDIO, XXVI EPIO y RED M VIII A representa el conjunto de relaciones de precedencia del tipo inicio-fin con brecha cero. Para ejecutar cada actividad se requiere de un conjunto de personas con diferentes habilidades (ordenadas de forma ascendente de acuerdo al grado de dificultad a ser dominado) y de un conjunto de recursos físicos. Existen dos objetivos a minimizar, la duración y los costos de mano de obra, en donde el personal puede incrementar el nivel de sus habilidades a través de capacitación, involucrando tiempo y costos adicionales. La terminación del proyecto está sujeta a las siguientes restricciones: La fecha de inicio de cualquier tarea es posterior a la fecha de término de todos sus predecesores. Una única duración y una fecha de inicio deben ser elegidas para cada actividad en la solución final. El número de personas asignadas al trabajo en cualquier periodo debe satisfacer los requerimientos de habilidades de las actividades correspondientes. El número de recursos físicos asignados para la ejecución de una actividad en cualquier periodo del proyecto debe satisfacer los respectivos requisitos de la actividad. La duración del proyecto equivale a la conclusión de la última de las actividades que no tiene sucesores. Tanto el número de recursos humanos como el de recursos físicos están limitados en cualquier periodo del proyecto. La actualización de habilidades por medio de capacitación tiene tiempos y costos asignados dependiendo del nivel de habilidad y sólo es posible pasar al nivel inmediato superior de habilidad. El número de trabajadores subcontratados está limitado por las necesidades del proyecto. A continuación se muestra parte del modelo matemático, basado en la formulación de Pritsker (1969) y Demeulemeester y Herroelen (2002), incluyendo la descripción de variables en la tabla 1:,, 1 si la actividad se realiza con la habilidad 1,2,, y se termina al tiempo, 0 en otro caso 1 Si la actividad 1 es concluida al tiempo, 0 en otro caso 1 si la actividad es concluida al tiempo, 0 en otro caso Trabajadores disponbles con habilidad al tiempo Trabajadores subcontratados con habilidad al tiempo Tiempo requerido para capacitación en la habilidad. Trabajadores que recibieron capacitación para pasar de la habilidad a la habilidad 1 y están disponibles al tiempo Trabajadores con habilidad que fueron despedidos al tiempo Costo de un trabajador interno con habilidad Costo de subcontratar un trabajador con habilidad RE 253

256 XXVIII ENDIO, XXVI EPIO y RED M VIII Costo de despedir un trabajador con habilidad Costo de capacitar un trabajador con habilidad Una cota superior factible para la duración del proyecto Tiempo más corto de terminación de la actividad con la habilidad 1,2,, Tabla 1: Descripción de variables El modelo bi-criterio propuesto se Min {Z 1, Z 2 } s.a. describe enseguida: 0 1,,, 0 2 La ecuación (1) representa el tiempo de terminación de la actividad ficticia final y por tanto la duración del proyecto. La ecuación (2) representa los costos de mano de obra incluyendo trabajadores disponibles, capacitados, subcontratados y despedidos, todos ellos por habilidad y por periodo de tiempo. Se tienen además las siguientes restricciones, algunas de las cuales solamente serán mencionadas o referenciadas debido a razones de espacio: a) Restricciones que especifican que existe un único tiempo de terminación por actividad con una habilidad dada: 1 1,2,, b) Relaciones de precedencia y restricciones para los recursos, Pritsker et al. (1969). c) Relaciones entre los trabajadores disponibles, capacitados, subcontratados y despedidos con una habilidad dada en un periodo específico de tiempo:,,, 1,, 1, 1,, d) Restricciones que garantizan la no existencia de trabajadores despedidos, subcontratados y capacitados después de la terminación del proyecto. RE 254

257 e) Tipos de variables. 3. SOLUCIÓN DEL MODELO XXVIII ENDIO, XXVI EPIO y RED M VIII Para resolver el modelo se hace uso del lenguaje algebraico GAMS y con el solver Gurobi. 4. PROBLEMAS DE PRUEBA Y RESULTADOS Con el fin de evaluar la viabilidad del modelo al resolver instancias de tamaño real, se resolvieron problemas de 10, 32, 52 y 102 actividades, con 3 habilidades y 2 recursos físicos de la librería Project Generator (PROGEN). El problema de 10 actividades, se adaptó de un problema tomado de Demeulemeester et al. (2002). Para cada una de las instancias se obtuvieron los respectivos frentes de Pareto, (por motivos de espacio se expone sólo uno de ellos), mostrando con esto la posibilidad de programar las actividades de proyectos de tamaño real que incluyen las restricciones de recursos humanos y físicos haciendo uso de software comercial apoyándose con el modelo propuesto. Dur Cto 317, , , , , , , , ,900 Tabla 2. Frente de Pareto para la instanc ia de 32 activid ades, en las que se muestra que la disminución en la duración del proyecto aumenta el costo. 5. REFERENCIAS ARTIGUES C., DEMASSEY S. Y NÉRON E. (2008): Resource-Constrained Project Scheduling, Models, Algorithms, Extensions and Applications. John Wiley & Sons, Inc. Hoboken, NJ, USA. BLAZEWICZ J., LENSTRA J. Y KAN A. (1983): Scheduling subject to resource constraints: Classification and complexity. Discrete Applied Mathematics, vol. 5, num. 1, pp DEMEULEMEESTER E. L. Y HERROELEN, W. S. (2002): Project Scheduling. A Research Handbook. Kluwer Academic Publishers. Massachusetts, USA. INSTITUTE OF MANAGEMENT AND ECONOMICS, OPERATIONS MANAGEMENT GROUP: Project Generator ProGen/max and PSP/max library. ODEDAIRO B., OLADOKUN V. (2011): Relevance and Applicability of Multi- Resource Constrained Project Scheduling Problem. Engineering, objective Technology & Applied Science Research, Vol. 1, No. 6, pp RE 255

258 XXVIII ENDIO, XXVI EPIO y RED M VIII PRITSKER A. B., WATTERS L. J. Y WOLFE P. M. (1969): Multiproject Scheduling with Limited Resources: A Zero-one Programming Approach. Management Science, Vol. 16 No. 1, pp RE 256

259 XXVIII ENDIO, XXVI EPIO y RED M VIII UN MODELO DE ASIGNACIÓN DE PERSONAS PARA CUBRIR LA PORTERÍA Y VIGILANCIA DE UN EDIFICIO DE PROPIEDAD HORIZONTAL Eliana Barco Fernando A. Rodriguez ebarco@uns.edu.ar farodrig@uns.edu.ar Departamento de Ciencias de la Administración Universidad Nacional del Sur. RESUMEN En este trabajo se describe un modelo de programación lineal entera de asignación de recursos para cubrir la portería y vigilancia de un edificio de propiedad horizontal de la ciudad de Bahía Blanca, todos los días del año las 24 horas. El gasto de personal (sueldos, cargas sociales, sindicales, seguros, vestimenta, entre otros) representa un porcentaje significativo en el valor de las expensas, dejando poco margen para el resto de los gastos ordinarios que demanda un consorcio. Con estas características, la asignación de personal se torna un punto clave a la hora de proyectar las erogaciones de las expensas. El objetivo del presente trabajo es la utilización más eficiente de los recursos. Se modelizará el problema para asignar un conjunto de recursos limitados a turnos de trabajo de la mejor manera posible. De esta manera se busca disminuir los costos laborales, reducir la cantidad de personal efectivo, minimizar la utilización de horas extras y mejorar la utilización de horas normales que dispone el convenio colectivo de trabajo de acuerdo a la categoría laboral. Los resultados obtenidos muestran una asignación alternativa a la actual, con mejor aprovechamiento de recursos y reducción de costos. PALABRAS CLAVE: Asignación de personas Programación de turnos - Programación entera ABSTRACT This work describes an integer linear programming model of resource assignment for personnel of door and vigilance of a building place in Bahía Blanca city, every day and at all hours. Staff costs, as salary, social and labor contributions, insurances, clothing, represent an important percentage of the expensive value, leaving a little margin for the rest of ordinary disbursements that demand a consortium. With this particularity, the personnel assignment is a key issue al the moment of forecast the value and expenditures of expenses. The objective of the present work is an efficient use of resources. The problem will be modeled in order to assign to work shifts a set of limit resources. TC 257

260 XXVIII ENDIO, XXVI EPIO y RED M VIII With this work are being searching decrease labor cost, reduce effective employees, minimize the use of extra hours and improve the use of normal available hours that collective agreement allow for each category. The results show an alternative assignment, with best achievement and cost reduction. PALABRAS CLAVE: Staff assignment Shift programming - Entire programming 1. INTRODUCCIÓN El problema del transporte o distribución es un caso especial de programación lineal que se origina en la necesidad de transportar bienes de un punto a otro, y determinar la manera optima de realizarlo. Medina, Raya y Contreras (2007) indican que los modelos de transporte pueden aplicarse a diferentes contextos y situaciones que no sean transportar bienes, como son problemas de programación de la producción, de inventarios y de asignación de elementos. Dentro de los problemas de transportes, se encuentra el problema de asignación, el cual se origina en la necesidad de asignar hombres a trabajos y/o máquinas. En la mayoría de los casos, esta asignación cumple con la condición de que los recursos se asignan de modo único a una actividad (Anderson, Sweeney y Williams, 2004) (Eppen, 2000). Rodríguez Villalobos (2010), remarca que la condición necesaria y suficiente para que este tipo de problemas tenga solución, es que se encuentre balanceado, es decir, que los recursos totales sean iguales a las demandas totales. Medina et al. (2007) destacan que el problema de asignación y distribución de turnos a costo mínimo es de especial interés ya que una de las preocupaciones de los gerentes de las empresas y/o administradores es hacer más eficiente el uso de sus recursos escasos. En el caso objeto de estudio, se requiere determinar la asignación del personal de vigilancia de un edificio de propiedad horizontal de la ciudad de Bahía Blanca. La importancia de la asignación obedece a la alta incidencia que tiene en las expensas los diferentes costos laborales como son sueldos, cargas sociales, sindicales, seguros, vestimenta. El consorcio desea mantener el servicio de 24 horas, buscando alternativas para disminuir los costos que afectan fuertemente el valor de sus gastos ordinarios. Los problemas de asignación y programación de turnos son conocidos y han sido ampliamente estudiados. Miranda y Rey (2012) destacan que entre los enfoques de solución más comúnmente utilizados para modelar estos problemas, se encuentran los modelos de programación lineal entera. TC 258

261 XXVIII ENDIO, XXVI EPIO y RED M VIII Para la resolución del tema planteado, se utiliza la programación lineal con enteros. Prawa (2004) señala que este tipo de problemas tiene la particularidad que incluyen condiciones de integralidad: el valor de algunas o todas las variables debe ser entero. Es decir, no permite que las variables adopten valores fraccionarios. Esta condición no será relajada, dado el interés en que se determinen horas de trabajo enteras y no fracciones. En este trabajo se presenta un modelo de programación entera para resolver el problema de asignación de turnos del edificio y la cantidad de horas a trabajar por cada empleado, determinando las horas extras a realizar y en consecuencia a pagar. 2. DESCRIPCION DEL CASO DE ESTUDIO El problema a resolver por el Administrador de un consorcio de propiedad horizontal es la asignación del personal de portería, limpieza y vigilancia. El proceso actual para la asignación de horas y jornadas de vigilancia es manual y artesanal, realizado mensualmente, lo que ocasiona trabajo repetitivo, sin valor agregado y sujeto a errores Marco normativo La actividad bajo análisis se enmarca dentro del Convenio Colectivo de Trabajo 589/10, el cual en su art. 7º establece, en otras, a las siguientes categorías: Encargado/a Permanente: es quien tiene la responsabilidad directa ante el empleador del cuidado y atención del edificio, desempeñando sus tareas en forma permanente, habitual y exclusiva, Ayudante Permanente: es quien secunda al encargado/a en sus tareas, debiendo desempeñarlas en forma permanente, habitual y exclusiva Personal de Vigilancia Nocturna: es aquel que tiene a su cargo exclusivamente la vigilancia nocturna del edificio y sus instalaciones. Su jornada legal de trabajo será de 7 horas Descripción de las funciones y horarios del personal El edificio cuenta con personal las 24 horas, los 365 días del año. Considerando el marco normativo, durante el día se contratan dos personas, la encargada y el ayudante de limpieza, cuya jornada laboral diaria es de 8 horas. Entre ambos cubren el siguiente esquema de horarios: Lunes a viernes: 6:00 a 20:00 hs. Sábados: 6:00 a 13:00 hs. TC 259

262 XXVIII ENDIO, XXVI EPIO y RED M VIII En el horario de 9:00 a 11:00, ambos empleados se superponen en sus funciones, debido a que es el horario en que el ayudante de limpieza, realiza el mantenimiento del edificio, mientras la encargada cumple con sus funciones propias. El resto de los días y horarios (incluye los feriados) son cubiertos por dos personas, personal de vigilancia, cuya jornada laboral diaria es de 7 horas, pudiendo realizar horas extras. En este caso la jornada laboral diaria de cada uno no puede superar las 12 horas (entre el horario normal y las horas extras). Los días y horarios detallados corresponden a la jornada laboral del personal de vigilancia: Lunes a viernes 20:00 a 6:00 hs. Viernes 20:00 a sábados 6:00 hs. Sábados 13:00 a 20:00 hs. Sábados 20:00 a Domingo 20:00 hs. Domingo 20:00 a Lunes 6:00 hs Descripción del problema Considerando que las tareas del personal diurno no genera inconvenientes en los días y horarios de trabajo, ya que los mismos son fijos y no pueden sufrir alteraciones, el problema queda planteado en la asignación de personal de vigilancia, donde dadas las particularidades del caso, existen las siguientes cuestiones a resolver: Cantidad de personal: por cuestiones de índole laboral el consorcio solo quiere tener en su plantilla cuatro empleados, dos de los cuales son personal de vigilancia. Día de descanso semanal: legalmente, todos los empleados deben gozar de un descanso semanal de 24 horas continuadas. En el caso particular del personal de vigilancia, dado que los sábados y domingos solo son trabajados por estos, el descanso de 24 horas se otorga entre el lunes a las 0:00 hs y el viernes a las 24:00 hs Actualmente, el consorcio este descanso lo otorga por día calendario, entre el lunes y el viernes. Continuidad de la jornada laboral: en la actualidad por usos y costumbres del consorcio, aquel empleado que comienza a trabajar a las 20:00 hs de un día, en general cumple el turno completo, hasta las 6:00 hs del día siguiente. Riesgo de accidentes in-itinere: el traslado de los empleados desde su domicilio particular al laboral genera un riesgo de accidente. El hecho que en una misma jornada, dos empleados deban trasladarse duplica la posibilidad de siniestro. Horas extras: como el descanso del personal de vigilancia obligatorio, se otorga entre el lunes a las 0:00 hs y el viernes a las 24:00 hs., la cantidad de horas normales que pueden trabajar en este período es de TC 260

263 XXVIII ENDIO, XXVI EPIO y RED M VIII 44 horas entre los dos empleados. Este valor surge que en dos días, puede trabajar solo una persona (la otro goza de su descanso semanal), las 7 horas. normales. El resto de los tres días trabajan los dos empleados y se reparten entre ambos las 10 horas de la jornada. Por tal motivo en los dos días que solo trabaja un solo empleado, este debe realizar horas extras, 3 horas cada día. Domingos: en estas jornadas el personal de vigilancia debe cubrir las 24 horas, por tal motivo se divide el día en turnos de 12 horas cada uno. En este caso cada empleado debe realizar 5 horas extras. Costo de las horas extras: el cálculo de horas extras se realiza cuando el empleado trabaja más de 7 horas normales. Horas necesarias vs. horas normales: la cantidad de horas semanales a cubrir por el personal de vigilancia por semana es de 91 (Tabla Nº 1). Dado que existen dos personas de vigilancia que trabajan 7 horas diarias, 6 días a la semana, el total de horas normales disponibles semanalmente es 84. La diferencia entre las horas necesarias y disponibles muestra que es necesario contratar 7 horas extras. Esta diferencia representa la menor cantidad de horas extras a contratar, si no existiesen limitaciones como horas diarias, francos, jornadas completas, horas de descanso. Detalle Jornada total Lunes a viernes 20:00 hs. a 6:00 hs. 10 hs c/día 40 Viernes 20:00 hs. a sábados 6:00 hs. 10 hs 10 Sábados 13:00 hs. a 20:00 hs. 7 hs 7 Sábados 20:00 hs. a Domingo 20:00 hs. 24 hs 24 Domingo 20:00 hs. a Lunes 6:00 hs. 10 hs 10 Total de horas a cubrir por semana 91 Tabla N 1 Horas a cubrir por semana Horas ociosas: cada persona de vigilancia cumple con la jornada normal de 7 horas, solo sábado, domingo y el día que su par tiene franco. El resto de los tres días, que completan su jornada semanal, no llega a cumplir las 7 horas, porque trabajan ambos empleados para cubrir una jornada de 10 horas. Esto hace que se estén abonando con el sueldo horas normales y no se estén utilizando. En la Tabla Nº 2 se muestra la asignación actual para una semana, quedando de manifiesto el uso de horas extras y la subutilización de horas normales. Se puede observar que la cantidad de horas normales utilizadas son de 63, de las 84 disponibles. Es decir, existen 21 horas ociosas. Las horas extras pagadas ascienden a 28 por semana. TC 261

264 XXVIII ENDIO, XXVI EPIO y RED M VIII ASIGNACION REALIZADA POR EL CONSORCIO lunes martes mierc jueves Empleado T1 T6 T1 T6 T1 T6 T1 T6 N E N E N E N E N E N E N E N E A B Hs Normal Hs Extra Empleado viernes sabado domingo T1 T6 T1 T3 T6 T4 T5 T6 N E N E N E N E N E N E N E N E A B Hs Normal Hs Extra Hs Normal 63 Hs Normal - Emp. A 28 Hs Normal - Emp. B 35 Hs Extra 28 Hs Extra - Emp. A 11 Hs Extra - Emp. B 17 TABLA N 2 Asignacion manual realizada por el consorcio de las horas por turnos 2.4. Objetivo El objetivo principal de este trabajo es asignar personal de vigilancia nocturno de un edificio de forma tal de minimizar las horas extras y las horas normales ociosas que ya se encuentran pagas con el sueldo, determinando los días, turnos y cantidad de horas que trabajarán los empleados de vigilancia. El objetivo secundario es encontrar nuevas alternativas y posibilidades de optimización del sistema, a ser presentadas ante el consorcio. 3. DESARROLLO 3.1. Estructuración del Modelo El primer paso fue plantear los requisitos y condiciones, que se plasmaran en las restricciones del problema: El turno diurno es de 6:00 a 20:00 hs., de lunes a viernes, y sábados de 6:00 a 13:00 hs. El trabajo diurno tiene una jornada laboral de 8 horas. El turno nocturno contempla los horarios no cubiertos por el diurno: lunes a viernes de 20:00 hs. hasta las 6:00 hs. del día siguiente y sábado de 13:00 hs. a lunes a las 6:00 hs. El trabajo nocturno tiene una jornada laboral de 7 horas diarias. Los empleados nocturnos tienen un franco los días de semana (lunes a viernes). TC 262

265 XXVIII ENDIO, XXVI EPIO y RED M VIII La jornada laboral no puede exceder las 12 horas corridas (entre horas normales y horas extras). Entre una jornada laboral y la siguiente debe haber 12 horas de descanso. El segundo paso fue evaluar si se mantenía la forma de asignar por día, buscando minimizar el cambio de personal en una misma jornada. Dado que no hay restricción legal que exija que la jornada completa de 10 horas sea realizada por un solo empleado, se decidió que esa jornada pueda ser realizada por los dos empleados. De esta forma, la jornada queda compuesta por dos turnos: de 20:00 a 24:00 hs, y de 0:00 a 6:00 hs del día siguiente. Para los fines de semana no hay variación en cuanto a la forma de considerar la jornada Construcción del modelo Variables Las variables se definieron como la cantidad de horas a asignar a cada empleado en horas normales o extras, a cada turno. Los turnos son definidos y nomenclados como: Turno 1: 0:00 a 6:00 hs Turno 3: 13:00 a 20:00 hs Turno 4: 0:00 a 8:00 hs Turno 5: 8:00 a 20:00 hs Turno 6: 20:00 a 24:00 hs Observación: El turno 2 no se tiene en cuenta porque es el asignado al personal diurno. Cada variable queda definida como: X FPij Donde: F: índice del día, donde F = L, M, X, J, V, S, D P: índice del empleado, donde P = A, B i: índice de turno de trabajo, donde i = 1, 3, 4, 5, 6 j: índice del tipo de hora, donde j = N, E X LA1N : cantidad de horas normales del empleado A, en el turno 1 (0:00 a 6:00 hs) el día lunes X LA1E : cantidad de horas extra del empleado A, en el turno 1 el día lunes X LA6N : cantidad de horas normales del empleado A, en el turno 6 (20:00 a 24:00 hs) el día lunes X LA6E : cantidad de horas extra del empleado A, en el turno 6 el día lunes.. X DB6E : cantidad de horas extra del empleado B, en el turno 6 el día domingo TC 263

266 XXVIII ENDIO, XXVI EPIO y RED M VIII Función objetivo Asignar tiempos de trabajos al personal de vigilancia de manera que se minimicen las horas ociosas y el uso de horas extras. Esto se traduce en la minimización del costo. Se planteó el problema por el término de una semana. Antes de definir la función objeto, es necesario considerar que los empleados de vigilancia tienen sueldos mensuales, los cuales cubren una cierta cantidad de horas normales. El objetivo principal es maximizar el uso de estas horas (minimizando las horas ociosas) y minimizar la utilización de las horas extras, que se abonan por encima de remuneración mensual. Por estos motivos, para la resolución del problema con el Solver, se planteó el objetivo de minimizar costos, y se otorgó un valor de referencia para las horas normales de $ 10 (igual para ambos empleados) y uno mayor en un 50% para las horas extras (también igual para ambos empleados). De esta forma nos aseguramos de que primero sean asignadas las horas normales (ya pagas) y luego las extras. Si se planteara como minimización de cantidad de horas, deberíamos asignar un peso a cada tipo de hora, similar a como se planteó. Realizadas las aclaraciones, la función objetivo queda definida: Min Σ c Pj X FPij Donde: F: índice del día, donde F = L, M, X, J, V, S, D P: índice del empleado, donde P = A, B i: índice de turno de trabajo, donde i = 1, 3, 4, 5, 6 j: índice del tipo de hora, donde j = N, E c Pj : costo por hora de trabajo Donde los valores que puede tomar c Pj, son: c AN : costo la hora normal del empleado A = 10 c BN : costo la hora normal del empleado B = 10 c AE : costo la hora extra del empleado A = 15 c BE : costo la hora extra del empleado B = Restricciones Restricción 1: Cantidad de horas normales diarias que puede trabajar cada empleado. Σ X FPij R F, Para j = N ; Para F= L, M, X, J, V, S, D P = A, B i= 1, 3, 4, 5, 6 TC 264

267 XXVIII ENDIO, XXVI EPIO y RED M VIII Donde: R F: son las horas normales máximas de cada dia F; R F = 7 para todo F Σ X FPij 7 Restricción 2: Cantidad de horas que deben cubrir en cada turno. Σ X FPij = R Fi, Para i=1, 3, n Para : F= L, M, X, J, V, S, D; P = A, B; j= N, E Donde: R Fi : son los requerimientos de horas de cada turno i. R F1 = 6 para F = L, M, X, J, V, S Σ X FP1j = 6 R F3 = 7 para F = S Σ X SP3j = 7 R F4 = 8 para F = D Σ X DP4j = 8 R F5 = 12 para F = D Σ X FP5j = 12 R F6 = 4 para todo F Σ X FP6j = 4 Restricción 3: Los fines de semana cada empleado no puede trabajar más de 12 horas. (horas normales más horas extras) Σ X FPij = R Fij, Para F = S, D Para: P = A, B; i = 1, 3, 4, 5, 6 ; j= N, E Donde: R Fij: son las horas totales maximas de cada dia F; R Fij = 12 para F = S, D Σ X FPij 12 Restricción 4: Cada empleado no puede trabajar más de 12 horas seguidas TC 265

268 XXVIII ENDIO, XXVI EPIO y RED M VIII Σ X FPij = R Fij, Para F = L, S, D Para: P = A, B; i = 1, 3, 4, 5, 6 ; j= N, E Donde: R Fij: son las horas totales seguidas de las turnos del fin de semana; R Fij = 12, para todo P y ; j Horas seguidas sab-dom : X SP3j + X SP6j + X DP4j 12 Horas seguidas domingo: Σ X DPij 12, para i= 4, 5 Horas seguidas domingo: Σ X DPij 12, para i= 5, 6 Horas seguidas dom lun : X DP5j + X DP6j + X LP1j 12 Restricción 5: Cada empleado debe tener un descanso semanal, otorgado entre lunes a viernes. Cantidad de horas normales semanales que puede trabajar cada empleado. Σ X FPij R P, Para j = N ; Para F= L, M, X, J, V P = A, B i= 1, 6 Donde: R P: son las horas normales maximas de lunes a viernes; R P = 22 para todo P Σ X FPiN 22 Restricción 6: Las horas extras del turno 6 las realiza el empleado que ya cumplió sus horas normales y no el otro. X FP1N + X FP6E R P, Para F= L, M, X, J, V P = A, B Donde: R P: son las horas normales del turno 1 R P = 6 para todo F X FAiN + X FBiE 6 Restricción 7: mínimo de horas extras semanal por empleado 1. Σ X FPij R P, Para j = E ; Para F= L, M, X, J, V P = A, B i= 1, 6 Donde: 1 Esta condición se incluye para asegurar que ambos empleados realicen horas extras, y ambos tengan francos. TC 266

269 XXVIII ENDIO, XXVI EPIO y RED M VIII R P: son las horas extras mínimas de lunes a viernes; R P = 2 para todo P Σ X FPiN 2 Restricción 8: debe haber 12 hs de descanso entre dos turnos consecutivos 2. Σ X FPij R, Para j = N ; Para F= S, D P = A, B i= 4, 6 Donde: R : horas normales mínimas que trabajan los empleados R = 7 Σ X FPiN 7 Restricción 9: variables enteras. La asignación se realiza por hora entera, no permitiendo fracciones Σ X FPij = entero, Para todo P, F, i, j Restricción 10: no negatividad. Σ X FPij 0, Para todo P, F, i, j 3.3. Implementación del modelo Para la resolución del modelo se utilizó la macro Solver de Excel, del paquete office de Microsoft, que sirve para resolver problemas de optimización lineal y no lineal; como así también se pueden indicar restricciones enteras sobre las variables de decisión. Durante la implementación en Solver y ejecución del modelo, surgieron errores, inconsistencias y condiciones no satisfechas. Se fueron corrigiendo, ajustando y adicionando restricciones de forma de lograr los objetivos planteados. En lo que respecta a la definición de las variables, en un principio fueron definidas para un empleado todos los subíndices F, i, j, (X PFij ) y luego definidas para el otro empleado. Definidas de esta forma las variables, la forma de resolución del Solver, es asignar por orden de aparición. Así, la primera 2 Esta condición toma importancia los fines de semana. Implica que quien se retira el sábado a las 6 hs no puede ingresar hasta las 18 hs del mismo sábado. TC 267

270 XXVIII ENDIO, XXVI EPIO y RED M VIII solución que se encontró asignaba primero al empleado A hasta cubrir el total de horas permitidas, y luego recién comenzaba a asignar al empleado B. Para salvar los diferentes problemas, en primer lugar, se re-definieron las variables, no cambiándose el significado, sino el orden de las mismas: se definieron por día, luego por empleado, turno y tipo de hora X FPij. Luego se agregaron condiciones sobre horas extras que limiten la cantidad de horas por turno netas a trabajar, hasta lograr un modelo que reflejara el total de los requisitos Resultados Al resolverse el problema mediante Solver, quedó asignada cada persona a un turno, cada día, indicando la cantidad de horas normales y extras de cada empleado, considerando el período de una semana completa. Dada la particularidad de los problemas de transporte y asignación, se encontraron soluciones alternativas. Se fueron analizando y comparando hasta seleccionar aquella donde existe menos recambio de empleados que se traduce en menor riesgo de accidentes in-itinere. Algunas soluciones alternativas descartadas implicaban que uno de los empleados trabajara solo 2 horas por jornada. Además del aumento del riesgo, este tipo de soluciones aumenta los costos y tiempos de traslado, trae aparejada ineficiencia y ocasiona reticencia en el empleado. En la Tabla Nº 3 se muestra la solución obtenida de Solver. Podemos observar que ambos empleados trabajan la misma cantidad de horas normales y solo se observa una diferencia en la cantidad de horas extras. Estas últimas se irán compensando a lo largo del mes, ya que ambos empleados irán alternando semanalmente la realización de las mismas. TC 268

271 XXVIII ENDIO, XXVI EPIO y RED M VIII ASIGNACION DE LAS HORAS POR TURNOS lunes martes mierc Empleado N E N E N E N E N E N E N E N E A B Hs Normal Hs Extra Empleado T1 T6 T1 T6 T1 T6 viernes sabado domingo T1 T6 T1 T3 jueves T6 T4 T5 T6 N E N E N E N E N E N E N E N E A B Hs Normal Hs Extra Hs Normal 72 Hs Normal - Emp. A 36 Hs Normal - Emp. B 36 Hs Extra 19 Hs Extra - Emp. A 11 Hs Extra - Emp. B 8 TABLA N 3 Asignacion de las horas por turnos La Tabla Nº 4 resume que empleado trabajará en cada jornada. A su vez, muestra comparativamente el trabajo por día calendario. En ambos casos se observan las jornadas de descanso de 24 horas. T1 T6 POR TURNO Empleado Lu 20 M a 20 M i 20 Ju 20 Vi 20 Sa 13 Sa 20 Do 8 Do 20 M a 6 M i 6 Ju 6 Vi 6 Sa 6 Sa 20 Do 8 Do 20 Lu 6 A B POR DIA TABLA N 4 Asignacion de los empleados por turnos y por dia calendario Total totales 91 Empleado Lu M a M i Ju Vi Sa Do Total Normal Extra A B totales Si analizamos la asignación manual que realiza el consorcio (ver Tabla Nº 2), comparada con la asignación del modelo desarrollado, podemos observar como se logró la disminución de las horas ociosas (72 63 = 9 hs). Lo mismo ocurrió con las horas extras (28 19 = 9 hs), lográndose un ahorro semanal de 9 hs extras que realizan entre ambos empleados. Otro dato importante a tener en cuenta es la distribución de las horas normales trabajadas, que en el caso del consorcio se observa una gran disparidad entre ambos empleados, siendo similares las obtenidas con el solver. TC 269

272 XXVIII ENDIO, XXVI EPIO y RED M VIII 4. CONCLUSIÓN La aplicación de programación lineal al caso elegido permitió la evaluación del sistema, la búsqueda de nuevas alternativas, la asignación objetiva de personal, la reducción de las horas normales ociosas y de horas extras. El resultado es un modelo que determina de manera simultánea la asignación de una persona a un turno y la cantidad de horas que trabajará en dicho turno. El modelo obtenido permitió alcanzar el objetivo de reducir las horas extras y la ociosidad de horas normales semanales. El objetivo secundario era determinar nuevas alternativas. Estas fueron surgiendo en la etapa de construcción y definición de variables. Entre las nuevas alternativas se planteó que, a pesar del aumento de riesgo por accidente en in-itinere, en cada jornada puedan asistir las dos personas de vigilancia. Es decir, que el turno completo no sea realizado por la misma persona sino que se permita turno cortado. Se considera como una alternativa que agrega valor, evaluar la posibilidad de extender la cantidad de horas diarias que debe cubrir el personal de vigilancia, haría que se eliminaran las horas normales ociosas y permitiría que el personal diurno, en estas horas, puedan desarrollar otras tareas, como por ejemplo ampliar tiempo dedicado a la limpieza. Otra alternativa era contratar un quinto empleado. Del análisis de los resultados, surge que la cantidad de horas extras a cubrir no son significativas como para justificar la contratación de un empleado adicional. Esta conclusión permite avalar el criterio adoptado por el consorcio de no aumentar el staff, lo cual implicaría tener mayores riesgos laborales, ausencias, etc. Por último, se podría evaluar la asignación si se cambia la forma de trabajo: en lugar de asignar por día, realizar la asignación por jornada laboral. El análisis de la asignación de esta alternativa, así como extender el horario nocturno, constituyen futuras líneas de análisis. 5. REFERENCIAS ANDERSON, D, SWEENEY, D y WILLIAMS, T. (2004): Métodos Cuantitativos para los Negocios. Thomson Editors, 9na edición. EPPEN, G. D (2000): Investigación de Operaciones en la Ciencia Administrativa, Prentice- Hall, México. MEDINA LEÓN, S. V., RAYA DÍAZ, K. y CONTRERAS ORENDAIN, M. R. (2007): Utilización del modelo de transporte para la asignación de trabajos TC 270

273 XXVIII ENDIO, XXVI EPIO y RED M VIII a máquinas considerando prioridades. Revista Académica de la Ingeniería, FI-UADY, 11-2, pp MIRANDA, J. y REY P. A. (2012): Un modelo de programación entera basado en patrones para la asignación de salas de clases para una facultad de medicina. Congreso Latino-Iberoamericano de Investigación Operativa. Rio de Janeiro. PRAWA, J (2004): Métodos y modelados de Investigación de operaciones I: Modelos determinísticos. Limusa, México RODRÍGUEZ VILLALOBOS, A (2010): Grafos - software para la construcción, edición y análisis de grafos. Bubok Publishing S.L., España. TC 271

274 XXVIII ENDIO, XXVI EPIO y RED-M VIII PLANIFICACIÓN Y PROGRAMACIÓN: CPM Y PERT

275 XXVIII ENDIO, XXVI EPIO y RED M VIII PLANES 1999 Y 2009 DE LA LICENCIATURA EN SISTEMAS DE INFORMACIÓN DE LA FACENA UNNE: UN ANÁLISIS COMPARATIVO MEDIANTE CPM ROMERO, JOSÉ L. - CAPUTO, LILIANA N. - PORCEL, EDUARDO A. DAPOZO, GLADYS N. Facultad de Ciencias Exactas y Naturales y Agrimensura (FACENA) UNNE joseluisromero@live.com.ar proflcaputo@gmail.com porcelfel@arnet.com.ar gndapozo@exa.unne.edu.ar RESUMEN El objetivo del presente trabajo es determinar - desde la perspectiva de los diseñadores del currículum - qué trayectos de formación son determinantes para graduarse en el tiempo establecido por el plan 2009 de la Licenciatura en Sistemas de Información de la Facultad de Ciencias Exactas y Naturales y Agrimensura (FACENA) de la Universidad Nacional del Nordeste (UNNE), y compararlos con los del plan 1999, analizados por Herrmann et al. (2002). Para lograr dicho objetivo, los planes de estudios se analizaron mediante el método de programación por camino crítico. Al comparar los resultados se observó una disminución en el número de actividades críticas en el plan 2009 y que los trayectos de formación que determinan su duración mínima están en un todo de acuerdo con las líneas temáticas en que se fundamenta el perfil profesional propuesto por el plan de estudios. Palabras Claves: Método del camino crítico Plan de estudios Correlatividades Duración mínima. ABSTRACT The objective of this study is to determine - from the perspective of the authors of the curriculum - what training paths are crucial to graduate on time for the 2009 plan of the Bachelor of Information Systems from Facultad de Ciencias Exactas y Naturales y de Agrimensura (FACENA) of Universidad Nacional del Nordeste (UNNE) and compare them with the results obtained in the 1999 career plan, analyzed by Hermann et al (2002), To achieve this objective, the career paths were analyzed using critical path method. Comparing the results, it appears that the number of critical activities from the 2009 career path has decreased and that the training paths that determine the minimum duration of the career are in full agreement with the thematic lines in which the professional profile proposed by the curriculum is based. Key Words: Critical Path Methods (CPM) Curriculum Correlative system Minimum length. 1. INTRODUCCION El rendimiento académico de los alumnos ha sido, y es, preocupación de las autoridades universitarias desde los años 90. Por tal motivo, en distintas universidades de nuestro país y América Latina grupos de investigadores han TC 273

276 XXVIII ENDIO, XXVI EPIO y RED M VIII focalizado su interés en el estudio de este fenómeno desde diversas perspectivas y enfoques. Ana María García de Fanelli (2014) señala que la mayoría de los estudios realizados centra la atención en aspectos relacionados con los alumnos (condiciones socio-económicas, formación previa, calificaciones, etc.), minimizando otros factores relacionados con la dinámica de las instituciones en las cuales se lleva a cabo el acto educativo. Entre los trabajos que sí toman en cuenta estos factores puede mencionarse el de Urionabarrenetxea Zabalandikoetxea y García Merino (2013) quienes analizan la incidencia en el rendimiento académico de los estudiantes de aspectos tales como el uso de las TICs en la enseñanza, el tamaño del grupo-clase, la existencia o no de instancias presenciales en el cursado de asignaturas, características de los docentes y su metodología de enseñanza, utilizando diversos indicadores de rendimiento académico. Con este mismo enfoque, el Grupo de Matemática Aplicada a la Investigación Educativa de la Facultad de Ciencias Exactas y Naturales y Agrimensura (FACENA) ha analizado los planes de estudios de las carreras de Licenciatura en Sistemas y Licenciatura en Sistemas de la Información (Herrmann, Sosa y Cáceres, 2002), Profesorado en Matemática (Caputo, 2005), Profesorado en Física (Galiana y Caputo, 2006) y Profesorado en Biología (Galiana, Lamas y Caputo, 2007), utilizando Programación por Camino Crítico (CPM), y redes de actividades ciertas, según la metodología explicitada en Caputo, 2007, a fin de establecer la incidencia del régimen de correlatividades en la duración de los estudios. Esta metodología se utilizó para el análisis del desempeño en el Ciclo Básico de la carrera de Licenciatura en Ciencias Biológicas de egresados de la misma, hallándose las rutas críticas más frecuentes y las tareas (y en consecuencia, las asignaturas que determinan la duración real de dicho ciclo (Caputo, Porcel y Avalos, 2014). Asimismo, utilizando CPM y redes de actividades estocásticas se modelizaron los trayectos optativos de formación de la carrera de Licenciatura en Sistemas de Información y se calcularon las probabilidades de cada ejecución del proyecto, según el trayecto elegido por los estudiantes, concluyéndose que estas preferencias están vinculadas más a factores curriculares, tales como el sistema de acreditación, que a los contenidos de las asignaturas que se pueden cursar en cada espacio curricular (Caputo, Porcel y Cáceres, 2011). Por su parte, Dapozo, López y Porcel en 2011 observaron que la duración promedio real de la carrera era casi el doble de su duración teórica, y que las asignaturas de formación matemática y del Trabajo Final de Aplicación eran las responsables de dicha duración, como consecuencia de su ubicación en el plan de estudios y sus correlatividades. En esta misma línea, se ha formulado este trabajo, cuyos objetivos son: determinar, desde las expectativas de los hacedores de la currícula, qué trayectos de formación son determinantes para graduarse en el tiempo establecido por el plan de estudios de la Licenciatura en Sistemas de Información (plan 2009) de la FACENA, y comparar los resultados obtenidos con los del trabajo Determinación de las tareas críticas de planes de estudio de las carreras Licenciatura en Sistemas y Licenciatura en Sistemas de TC 274

277 XXVIII ENDIO, XXVI EPIO y RED M VIII Información de la FACENA (UNNE), ya mencionado, realizado por Herrmann, Cáceres y Sosa (2002), en el cual los autores determinaron dichos trayectos de formación, pero correspondientes al plan de estudios 1999 de la carrera y los compararon con los correspondientes a la Licenciatura en Sistemas, que estuviera vigente hasta DESARROLLO 2.1. Plan de estudios 2009 de la carrera Consideraciones Generales El plan de estudios está organizado por asignaturas con una duración teórica de 5 años lectivos. Consta de 27 asignaturas cuatrimestrales, un examen de idiomas (denominado Inglés Técnico Informático) y una tesina llamada Proyecto Final de Carrera, cuya elaboración y defensa están previstos en el último año de estudios. La currícula contempla una titulación intermedia de Analista Programador Universitario. Para obtener dicho título, el estudiante debe aprobar las 17 asignaturas correspondientes a los tres primeros años de estudios y la prueba de idioma ya citada. En la Tabla 1 se presentan las asignaturas del plan de estudios, su ubicación en la carrera y los requisitos previos (correlatividades) exigidos, tanto para iniciar el cursado de cada asignatura como para rendir su examen final. Cabe señalar que no existen restricciones respecto al número de asignaturas a cursar en cada cuatrimestre, siempre que se reúnan los requisitos antes mencionados. La formulación del plan pone de manifiesto la existencia de ciertas líneas temáticas o disciplinares que, a su vez, implican diferentes trayectos de formación: programación, gestión de datos, infraestructura y manejo de información. El énfasis puesto en la formación enmarcada en estas líneas, queda de manifiesto en el plan de estudios cuando al hacer referencia al perfil del graduado afirma que: El Analista Programador Universitario entiende en el desarrollo, modificación y mantenimiento de aplicaciones informáticas (especificación, diseño, codificación, prueba, verificación y validación, documentación e implementación de aplicaciones en organizaciones empresariales o similares), en la producción de software en las empresas, mediante la utilización de herramientas de desarrollo de uso generalizado en el mercado laboral. Y también: El Licenciado en Sistemas de Información es un profesional que posee significativos fundamentos teóricos de Informática y conocimiento actualizado de las tecnologías, de modo de orientarse especialmente al mercado profesional vinculado con los Sistemas Informáticos, en particular los aspectos propios del manejo de software y datos dentro de una organización. Posee una sólida formación en Ingeniería de Software, Programación, Bases de Datos, Arquitecturas de computadoras, Sistemas TC 275

278 XXVIII ENDIO, XXVI EPIO y RED M VIII Operativos, Redes y Sistemas y Organizaciones, lo que le brinda un marco conceptual que le permitirá el cumplimiento de las actividades reservadas a la titulación. (FACENA UNNE, 2009) Trayectos Optativos de Formación De las 27 asignaturas antes mencionadas, tres tienen carácter de optativas y cada una de ellas supone 3 opciones posibles, según se detalla a continuación: Optativa I: Opciones: Modelos y Simulación, Inteligencia Artificial y Estadística Inferencial. Optativa II: Opciones: Integración de redes, Arquitectura y Sistemas Operativos Avanzados. Optativa III: Opciones: Gestión de Recursos Informáticos, Diseño Web centrado en el Usuario, Formulación y Evaluación de Proyectos y Tópicos Avanzados de Ingeniería de Software. Cabe señalar que el carácter optativo de estas asignaturas es en lo que respecta a sus contenidos, pero es necesario aprobar las 3 asignaturas para graduarse Modalidades de evaluación y acreditación En general, la aprobación de una asignatura requiere la aprobación de dos o más evaluaciones parciales durante su cursado (es decir, regularizar la asignatura ) y de un examen final integrador de todos los contenidos del programa, cuyas fechas están establecidas por la Institución en diez turnos a lo largo del año lectivo. La normativa vigente permite a los alumnos rendir en condición de libres un examen integrador equivalente a las evaluaciones parciales implementadas durante el cursado. En caso de aprobarlo, el alumno adquiere la condición de regular en la asignatura por 5 turnos de exámenes, con lo cual puede cumplir las exigencias de correlatividades exigidas para el cursado de asignaturas posteriores. Dado que, prácticamente, se implementa un turno de examen por mes, podría decirse que esta regularidad tiene una duración de 5 meses, al cabo de los cuales de no haber aprobado la asignatura - el estudiante deberá volver a rendirla en condición de libre o recursarla. Por otra parte, la Institución posee otros regímenes de acreditación tales como el de promoción sin examen final o un régimen mixto (si el estudiante reúne ciertas condiciones de asistencia y aprobación de las evaluaciones parciales promociona y, si alcanza sólo algunas, regulariza la asignatura). El tipo de acreditación de cada asignatura es una decisión que compete al responsable de cátedra, por lo cual no está explicitado en la currícula objeto de estudio de este trabajo, y por ello no se explicitan cuáles son las asignaturas y modalidades que corresponden a cada uno de estos regímenes Metodología El método de programación por camino crítico (CPM) es una metodología utilizada para la programación y control de proyectos. Los proyectos que pueden analizarse mediante este método están constituidos por TC 276

279 XXVIII ENDIO, XXVI EPIO y RED M VIII una serie de tareas o actividades que tienen asociada una duración, entre las cuales existe una relación de orden parcial (llamada de precedencia) tal que, si dos tareas no están relacionadas directa o indirectamente entre sí es porque pueden realizarse simultáneamente. Es usual representar un proyecto mediante una red o grafo es decir, un conjunto de puntos (llamados vértices o nodos) y flechas (arcos). En este tipo de proyectos existen actividades tales que, de retrasarse su ejecución, se incrementa el tiempo de ejecución del proyecto. Dichas tareas son las denominadas tareas críticas y tienen holguras o márgenes totales nulos (la holgura total de cada tarea es el tiempo que ésta puede retrasarse sin que ello afecte la duración total del proyecto). Un camino del grafo constituido en su totalidad por actividades críticas se denomina ruta crítica, camino crítico o camino de valuación máxima. En consecuencia, la duración mínima del proyecto está dada por la suma de las duraciones de las actividades de un camino crítico del proyecto. (Taha, 1998) En este trabajo, se considera que el plan de estudios de la carrera es el proyecto a analizar. Las actividades del proyecto están dadas por las tareas de regularizar y/o aprobar cada una de las asignaturas del plan y la relación de precedencia entre las tareas está determinada por el régimen de correlatividades (Ver Tabla 1). Así pues, para el análisis del plan de Licenciatura en Sistemas de Información (plan 2009), se ha considerado que por cada asignatura existen dos tareas: una que consiste en regularizarla (tarea de tipo R) y otra en aprobarla (tipo A). En consecuencia el proyecto consta de 56 actividades (2 por cada una de las 27 asignaturas, aprobar Inglés Técnico Informático y aprobar la defensa de la tesina). La duración de cada tarea se estima como la diferencia entre la fecha de finalización de la misma y la fecha en que han sido ejecutadas todas sus precedentes. Por ejemplo, si la tarea D, tiene como precedentes a las tareas A, B y C, siendo las fechas en que finalizaron, F(D), F(A), F(B) y F(C) respectivamente, la duración de la tarea D se calcula como : F(D) Máx{ F(A), F(B), F(C)}. Dado que se quiere determinar la duración mínima de la carrera, se han utilizado tiempos optimistas de realización de las tareas, fijándose como unidad de tiempo el día. A los efectos de comparar los resultados con los provistos por Herrmann et al. (2002), al analizar el plan de estudios 1999, se realizaron las siguientes consideraciones: a) La duración de la tarea de aprobación de cada asignatura del plan es de 30 días (equivalentes al mes establecido por el antecedente citado). b) La aprobación de la asignatura i (tarea que se denota con Ai) está precedida por la correspondiente actividad de regularizarla, es decir, por Ri. c) Para las i - ésimas asignaturas que no tienen exigencias previas de correlatividad, el momento más próximo de inicio de la tarea Ri es el momento de inicio del proyecto (es decir, el momento de ingreso a la carrera), independientemente del cuatrimestre o año de estudios al cual corresponda. Para estas asignaturas, el año lectivo correspondiente al primer año de estudios comienza el 1 de marzo de dicho año. Así, si la asignatura i está en estas condiciones y corresponde al primer cuatrimestre, la ejecución de Ri se extiende desde el 1 de marzo al 30 de junio del primer TC 277

280 XXVIII ENDIO, XXVI EPIO y RED M VIII año de estudios, es decir, su duración es de 121 días (aproximadamente, un cuatrimestre) y, si corresponde al segundo cuatrimestre, su duración es de 274 días (del 1 de marzo al 30 de noviembre del primer año). d) La duración de la tarea de aprobación de cada asignatura del plan es de 30 días (Idem Herrmann et al., 2002) y se corresponden con los inmediatamente siguientes a haberla regularizado, con lo cual las fechas de aprobación se reducen al 30 de julio y al 30 de diciembre de cada año lectivo, según la asignatura corresponda al primero o al segundo cuatrimestre, respectivamente. e) Las asignaturas optativas, se incluyen sin hacer referencia a las opciones dispuestas para cada una de ellas, pues hacerlo implicaría el uso de una red de actividades estocásticas y el escaso número de alumnos que hasta el momento han cursado y/o aprobado dichas asignaturas no permite el cálculo probabilístico que su uso supone. Cabe señalar que todas las opciones de cada optativa se rigen por los mismos requisitos de correlatividades. f) Para la defensa del Proyecto Final de Carrera, se exige haber aprobado todas las asignaturas. Entonces, para que la defensa del Proyecto Final se realice en época de exámenes (Febrero), se le asigna a esta tarea una duración de 45 días en lugar de los 30 días asignados al resto de las asignaturas. g) Si bien Caputo (2007) aconseja el uso de relajaciones para representar los recesos (de invierno y de verano), en este trabajo se procedió como en el de Herrmann et al., 2002, sumando dichos intervalos de tiempo a la duración de las tareas de regularización cuyas ejecuciones se inician al término de dichos recesos. h) De esta manera, los años lectivos se extienden: Primer año: Del 1 de marzo al 30 de diciembre del año de ingreso (10 meses). Segundo, Tercero y Cuarto año: Del 31 de diciembre del año anterior, al 30 de diciembre del año siguiente (12 meses). Quinto año: Del 31 de diciembre del cuarto año de estudios, al 15 de febrero del sexto año (13,5 meses). Para obtener las holguras totales de las tareas y la duración mínima del proyecto se utilizaron las ecuaciones usuales de cálculo de CPM cuando se trabaja con un proyecto representado por un grafo con actividades en los vértices. (Pérez Mackeprang, Azcona, Carignano, y Castro, 1998). La gráfica de la red se presenta en la Figura 1, confeccionada aplicando el método de actividades en los vértices (como propone Caputo, 2007) utilizando el aplicativo WinQSB 2.0. En aquella, para cada una de las tareas se indica, en el centro del nodo, el nombre de la actividad y, de izquierda a derecha y de arriba abajo, el tiempo más próximo de inicio, el más próximo de finalización, el más tardío de inicio y el más tardío de finalización. Las actividades se ordenaron en la gráfica, TC 278

281 XXVIII ENDIO, XXVI EPIO y RED M VIII en la secuencia prevista en el plan de estudios, utilizando una fila para cada año lectivo Resultados Al analizar el plan de estudios 2009 mediante CPM se determinó que su duración mínima es de 1810 días. Esta duración supera en 45 días a la prevista en el plan de estudios (que es de 1765 días, considerados desde el 1 de marzo del año de ingreso hasta el 31 de diciembre del año de egreso), lo cual es normal por la forma en que se estimó la duración de la aprobación del Trabajo Final de Carrera (ver ítem f de 2.2). Por la forma en que fueron calculadas las duraciones de las tareas, los momentos de inicio y finalización obtenidos al usar CPM se corresponden con las disposiciones reglamentarias de la Facultad, en cuanto a inicio y finalización de clases y al calendario de exámenes. Se obtuvo un conjunto de 17 actividades críticas (13 de tipo R), distribuidas en dos rutas críticas: Una de ellas (Ruta Crítica 1 en la Tabla 2), formada por las tareas de regularizar Algoritmos y Estructuras de Datos I (R2), Algoritmos y Estructuras de Datos II (R4), Paradigmas y Lenguajes (R6), Programación Orientada a Objetos (R9), Base de Datos I (R17), Base de Datos II (R22) y Optativa III (R27), seguidas de aprobar Optativa III (A27) y Proyecto Final de la Carrera (A29); la segunda (Ruta Crítica 2 de la Tabla 2) está constituida por las actividades de regularizar Lógica y Matemática Computacional (R3), Arquitectura y Organización de Computadoras (R7), Sistemas Operativos (R10), Comunicación de Datos (R13), Redes de Datos (R21) y Optativa II (R26), así como también aprobar Comunicación de Datos (A13), Optativa II (A26) y Proyecto Final de la Carrera (A29). Estas rutas se señalan con rojo en la Figura 1. Cabe observar que las rutas 1 y 2 comparten sólo la aprobación del Proyecto Final de la Carrera; lo cual parece indicar que, entre las expectativas de los diseñadores del currículum, figura la posibilidad de que, en caso de retrasos en la ejecución de algunas tareas de una de ellas, aún cuando el estudiante no pueda graduarse en 5 años se reduzca lo más posible el retraso en el egreso. Este objetivo explica, en gran medida, la ausencia de correlatividades esperables desde las lógicas disciplinares, como por ejemplo el requisito de haber regularizado Algebra para cursar Lógica y Matemática Computacional. Las tareas de la Ruta Crítica 1 corresponden a las asignaturas vinculadas con la programación, más aquellas relacionadas con el diseño y gestión de datos, mientras que la 2 contiene actividades de asignaturas que corresponden a la formación en conceptos más vinculados con el hardware, tales como Arquitecturas, Sistemas Operativos y Redes, más complejos y alejados de las aplicaciones concretas. Determinadas las holguras totales de las actividades de regularización que no resultaron críticas resulta que sólo las de Economía Aplicada (R19), Taller de Programación I (R12) y Taller de Programación II (R15) superan el año (775 días las holguras de las dos primeras y 563 días la de la última). La TC 279

282 XXVIII ENDIO, XXVI EPIO y RED M VIII holgura total de R23 (Métodos Computacionales), en cambio, es de exactamente 1 año. Así pues, puede afirmarse que estas cuatro son las únicas asignaturas del plan que pueden recursarse sin incrementar la duración de la carrera (los talleres mencionados pueden ser recursados hasta 2 veces). Las holguras totales de las restantes actividades de tipo R oscilan entre 4 y 11 meses, período de tiempo suficiente para que los alumnos, de no haber alcanzado la condición de alumno regular al finalizar el cursado, puedan hacerlo mediante un examen final en condición de libres, según lo explicitado en Comparación con el plan de estudios Breve descripción del plan de estudios 1999 El plan de estudios 1999 de la carrera Licenciatura en Sistemas de Información estuvo vigente desde el año 2000 al 2009, inclusive. Su duración teórica era de 4 años lectivos, e incluía una titulación intermedia de Programador Universitario de Aplicaciones. Constaba de 25 asignaturas cuatrimestrales, un examen de traducción de inglés y la elaboración y aprobación del Trabajo Final de Aplicación (actividades éstas correspondientes al último año de estudios). Es decir, que el número de asignaturas (y de tareas necesarias para analizar el proyecto por CPM) es, prácticamente, el mismo que en el plan La distribución de las asignaturas por año y cuatrimestre se presenta en la Tabla 3. De las 25 asignaturas mencionadas, sin embargo, 4 eran de carácter optativo (en el mismo sentido que se explicitara en 2.1): Optativa I, II, III y IV, con correlatividades y opciones diferentes a las del plan Cambios en los trayectos optativos de formación A fin de cumplir los requerimientos de los estándares definidos en el proceso de acreditación de la carrera, el plan 2009 presenta marcadas modificaciones de los trayectos optativos de formación. En efecto, las asignaturas Conceptos Teóricos Básicos, Arquitectura de Computadoras y Redes de Altas Prestaciones (optativas en el plan 1999) fueron incorporadas al nuevo plan con carácter obligatorio y con la denominación de Teoría de la Computación, Arquitectura y Organización de Computadoras y Redes de Datos, respectivamente. En cambio, los contenidos correspondientes a Introducción al Diseño Digital y los Microprocesadores, Estadística Descriptiva, Evaluación de Sistemas de Procesamiento de Datos y Protección de Datos, Seguridad de Comunicaciones y Criptografía fueron incorporados a los contenidos mínimos de Arquitectura y Organización de Computadoras, Probabilidad y Estadística, Ingeniería de Software II y Auditoría y Seguridad Informática, respectivamente. El plan 2009 no contiene asignaturas equivalentes a Investigación Operativa (Optativa I) y a Diseño de Compiladores y Traductores (Optativa II). Finalmente, Modelos y Simulación, Inteligencia Artificial, Estadística Inferencial, Computación Gráfica y Gestión de Centros de Cómputos (optativas en el plan 1999), permanecen como optativas en el plan vigente, aunque las dos últimas TC 280

283 XXVIII ENDIO, XXVI EPIO y RED M VIII con la denominación de Diseño Web Centrado en el Usuario (Optativa III) y Gestión de Recursos Informáticos (Optativa III), respectivamente. Todas estas modificaciones, explican en gran medida la reducción del número de optativas de 4 en el plan 1999 a 3 en el plan Actividades críticas y flexibilidad de las currículas Los resultados de la comparación de ambos planes se presentan en la Tabla 4. Se puede comprobar que para el plan 1999, tal como se indica en el trabajo de Herrmann et al (2002) la duración mínima de la carrera es de 47 meses (aproximadamente, 1410 días) y resultaron críticas 21 tareas, 18 correspondientes a actividades de regularización y 3 a actividades de aprobación. También se observa que las tareas de regularización que resultaron críticas en ambos planes son 10 (resaltadas en color rosa en la Tabla 4), para 3 de ellas resultaron críticas también sus aprobaciones. Las asignaturas cuyas regularidades resultaron actividades críticas en el análisis del plan 1999 pero no en el 2009 son 6 (resaltadas en color naranja en la Tabla 4) y corresponden, en su mayoría, a la formación matemática. Las asignaturas cuyas regularidades resultaron actividades críticas en el análisis del Plan 2009 pero no en el 1999 son 3 (resaltadas en color verde en la Tabla 4). Dos de ellas, Arquitectura y Organización de Computadoras (R7) y Redes de Datos (R21), eran asignaturas optativas en el plan 1999 y sus contenidos pasaron a ser obligatorios en el plan nuevo. Una situación similar se presenta con las tareas de aprobación de Comunicaciones de Datos y las optativas II y III, cuyas equivalentes en el nuevo plan cambiaron su ubicación y requisitos de correlatividad respecto del anterior. No es posible comparar los valores de las holguras totales de las actividades no críticas de ambos planes, ya que el análisis del plan 1999 no registra dicha información. 3. CONSIDERACIONES FINALES A partir de los resultados obtenidos, puede concluirse que los trayectos de formación que determinan la duración mínima de la carrera, contienen asignaturas fundamentales para la formación profesional del informático. El que está vinculado con la programación y la gestión de datos se corresponde con el perfil profesional del Analista Programador Universitario, y el vinculado con la infraestructura y manejo de información incluye asignaturas que terminan de configurar, en gran medida, el perfil profesional del Licenciado en Sistemas de Información, perfiles ambos oportunamente citados en Herrmann et al (2002) afirman que en el caso de la carrera Licenciatura en Sistemas de Información aparece un nivel de criticidad mayor que en la Carrera Licenciatura en Sistemas Este hecho llama la atención, más aún teniendo en cuenta que en las dos, el número de asignaturas es prácticamente el mismo y están ubicadas en períodos de tiempo que difieren en un año (pp. 2-3). Puede observarse que en el presente trabajo se presenta la situación inversa: al incrementarse la duración de la carrera de 4 a TC 281

284 XXVIII ENDIO, XXVI EPIO y RED M VIII 5 años, el número de actividades críticas descendió de 21 a 17, lo cual permite afirmar que la currícula ha alcanzado mayor flexibilidad respecto a la anterior. Puede observarse en la Tabla 4, que mientras en el plan 1999 las regularidades de nueve asignaturas de primero y segundo año resultaban críticas, en el plan actual sólo lo son siete, de las cuales cinco son comunes a ambos planes. Esta situación podría resultar un paliativo al elevado número de alumnos recursantes problemática recurrente que se observó existía en los primeros años, entre los estudiantes del plan anterior (Dapozo et al., 2011). De igual manera, se espera que la mayor flexibilidad del plan 2009 con respecto al plan anterior comprobada en este estudio, favorezca la reducción de la duración real de la carrera. El presente trabajo servirá de base para - en el futuro - comparar las rutas críticas teóricas obtenidas, con las resultantes de las ejecuciones reales del proyecto que realizarán los egresados de la carrera, lo cual permitirá determinar la incidencia del régimen de correlatividades en la duración de la misma, y proponer modificaciones a la currícula que favorezcan un mejor desempeño de sus estudiantes. TC 282

285 XXVIII ENDIO, XXVI EPIO y RED M VIII TABLA 1: Ubicación y correlatividades de las asignaturas en el plan 2009 Asignatura Año Cuat. Tareas Predecesoras Duración Holgura Total Algebra R1 No tiene 121días 276 días 1º A1 R1 30 días 276 días Algoritmos y Estructura de R2 No tiene 121días 0 Datos I A2 R2 30 días 123 días Lógica y Matemática 1º R3 No tiene 274 días 0 Computacional A3 R3, A1 30 días 305 días Algoritmos y Estructura de 2º R4 R2 153 días 0 Datos II A4 A2, R4 30 días 182 días Sistemas y Organizaciones R5 No tiene 274 días 123 días A5 R5 30 días 458 días Paradigmas y Lenguajes R6 R4, A2 212dias 0 A6 A4, R6 30 días 429 días Arquitectura y Organización 1º R7 R3, A2 212dias 0 de Computadoras A7 A3,R7 30 días 123 días Cálculo Diferencial e Integral R8 R3, A1 212dias 153 días 2º A8 A3, R8 30 días 824 días Programación Orientada a R9 R6, A4 153 días 0 Objetos A9 A6, R9 30 días 306 días Sistemas Operativos 2º R10 R7, A4 153 días 0 A10 A7, R10 30 días 183 días Administración y Gestión de R11 R5 365 días 123 días Organizaciones A11 A5, R11 30 días 298 días Taller de Programación I R12 R9, A6 213 días 775 días A12 A9, R12 30 días 898 días Comunicación de Datos 1º R13 R10, A7 213 días 0 A13 A10, R13 30 días 0 Ingeniería de Software I R14 R9, R11, A5 213 días 123 días 3º A14 A9, A11, R14 30 días 123 días Taller de Programación II R15 R12, R14, A9, 153 días 775 días A15 A12, A14, R15 30 días 775 días 2º Probabilidad y Estadística R16 R8 519 días 153 días A16 A8, R16 30 días 335 días Base de Datos I R17 R9, A7 366 días 0 A17 A14, R17 30 días 670 días Inglés Técnico Informático A28 No tiene 30 días 1780 Ingeniería de Software II R18 R14, A11 365días 123 días A18 A14, R18 30 días 123 días Economía Aplicada 1º R19 R14, A11 365días 518 días A19 A14, R19 30 días 518 días Teoría de la Computación R20 R16, A7 212 días 153 días 4º A20 A16, R20 30 días 488 días Redes de Datos R21 A dias 0 A21 R21 30 días 335 días Base de Datos II 2º R22 R17, A días 0 A22 A17, R22 30 días 335 días Métodos Computacionales R23 R16, A8 365 días 365 días A23 A16, R23 30 días 365 días Auditoría y Seguridad R24 R21, R22, A días 153 días Informática 1º A24 A21, A22, R24 30 días 153 días Optativa I R25 R20, A días 153 días A25 A20, R25 30 días 153 días Optativa II R26 R días 0 5º 2º A26 A21, R26 30 días 0 Optativa III R27 R22, A días 0 A27 A22, R27 30 días 0 Proyecto Final de Carrera 1º y 2º A29 Todas las act.a 45 días 0 TC 283

286 XXVIII ENDIO, XXVI EPIO y RED M VIII FIGURA 1: Red de Camino crítico. Licenciatura en Sistemas de Información. Plan FACENA UNNE. TABLA 2: Tareas críticas del proyecto Ruta Crítica Actividades que la forman 1 R2 R4 R6 R9 R17 R22 R27 A27 A29 2 R3 R7 R10 R13 A13 R21 R26 A26 A29 TC 284

287 XXVIII ENDIO, XXVI EPIO y RED M VIII TABLA 3: Ubicación y correlatividades de las asignaturas en el plan 1999 Asignatura Año Cuatrimestre Tarea Predecesoras Matemática I 1R No tiene 1A 1R Introducción a la Informática 2R No tiene 1º 2A 2R Sociología de las 3R No tiene Organizaciones 3A 3R 1º Matemática II 4R 1R 4A 4R, 1A Programación I 5R 2R 2º 5A 5R, 2A Sistemas Administrativos I 6R 3R 6A 6R, 3A Programación II 7R 2A, 5R 7A 7R, 5A Programación III 8R 2A, 5R 1º 8A 8R, 5A Sistemas Administrativos II 9R 6R, 3R 9A 6A, 9R Probabilidad y Estadística 10R 4R, 1A 2º 10A 4A, 10R Sistemas Operativos 11R 7R, 8R, 5A 11A 7A, 8A, 11R 2º Programación IV 12R 7R, 8R, A 12A 7A, 8A, 12R Laboratorio de 13R 7R, 8R, 5A Programación 13A 7A, 8A, 13R Inglés Técnico Informático 14A Optativa I 15R 10R, 11R, 9A 15A 10A, 11A, 15R Diseño y Administración de 16R 12R, 13A 1º Datos 16A 12A, 16R Auditoría y Gestión de 17R 10R, 9A Proyectos 17A 10A, 17R 3º Teleprocesos y Sistemas 18R 16R,11A Distribuidos 18A 16A,18R Métodos Numéricos 19R 15R,10A 2º 19A 15A, 19R Optativa II 20R 15R, 10A 20A 15A, 20R Bases de Datos 21R 18R, 16A, 14A 21A 18A, 21R Optativa III 22R 20R, 14A, 15A 1º 22A 20A, 22R Análisis de Sistemas I 23R 18R, 14A 23A 19A, 23R Análisis de Sistemas II 4º 24R 23R, 19R 24A 23A,24R Seminario Profesional 25R 21R, 23R, 20A 2º 25A 21A,23A, 25R Optativa IV 26R 22R,20A 26A 22A, 26R Trabajo Final de Aplicación 27A Todas lasact. A TC 285

288 XXVIII ENDIO, XXVI EPIO y RED M VIII TABLA 4: Comparación de los planes 1999 y 2009 Asignatura Plan 2009 Plan 1999 Nombre Críticas Nombre Críticas Algebra Ninguna Matemática I R Algoritmos y Estructura de Datos I R Introducción a la Informát. R Lógica y Matemática Computacional R Sin equivalencia Algoritmos y Estructura de Datos II R Programación I R Sistemas y Organizaciones Ninguna Sociología de las Org. Ninguna Paradigmas y Lenguajes R Programación III R Arquitectura y Organización de R Arquitectura de Ninguna Computadoras Computadoras (Optativa) Cálculo Diferencial e Integral Ninguna Matemática II R Programación Orientada a Objetos R Programación IV R Sistemas Operativos R Sistemas Operativos R Administración y Gestión de Ninguna Sist. Administrativos I Ninguna Organizaciones Taller de Programación I Ninguna Programación II R Comunicación de Datos R y A Teleproceso y Sist. Dist. R Ingeniería de Software I Ninguna Análisis de Sistemas I R Taller de Programación II Ninguna Laboratorio de Program. Ninguna Probabilidad y Estadística Ninguna Probabilidad y Estadística R Base de Datos I R Base de Datos R Inglés Técnico Informático No Inglés Técnico Informático No Ingeniería de Software II Ninguna Análisis de Sistemas II Ninguna Economía Aplicada Ninguna Sist. Administrativos II Ninguna Teoría de la Computación Ninguna Conceptos Teóricos Básicos (Optativa I) Ninguna Redes de Datos R Redes de Altas Prest. Ninguna Base de Datos II R Diseño y Adm. de Datos R Métodos Computacionales Ninguna Métodos Numéricos Ninguna Protección de Datos, Seguridad de Ninguna Comunicaciones y Auditoría y Seguridad Informática Ninguna Criptografía (Optativa IV) Auditoría y Gestión de Proyectos Ninguna Optativa I Ninguna Optativa I R Optativa II R y A Optativa II R Optativa III R y A Optativa III R Seminario Profesional R y A Proyecto Final de la Carrera A Trabajo Final de A Aplicación No corresponde al plan vigente Optativa IV R y A 4. REFERENCIAS TC 286

289 XXVIII ENDIO, XXVI EPIO y RED M VIII CAPUTO, L. (2005). Profesorado en Matemática de FACENA UNNE (Plan 2001): Análisis de su plan de estudios por camino crítico. Revista de la Escuela de Perfeccionamiento en Investigación Operativa, Nº 26. pp Tandil, Bs. As. ISSN CAPUTO, L. (2007). C.P.M.: Su aplicación para el análisis de planes de estudios de carreras del Nivel Superior. Primera Parte: Uso de Redes de Actividades Ciertas. Revista de la Escuela de Perfeccionamiento en Investigación Operativa Nº 28 pp Tandil (Bs. As.). ISSN CAPUTO, L., PORCEL, E., AVALOS, J. (2014). Ciclo Básico de la Licenciatura en Ciencias Biológicas de FACENA UNNE: Análisis por CPM del desempeño de sus graduados. Anales de las Cuartas Jornadas de Ingreso y Permanencia en Carreras Científicas y Tecnológicas. Facultad de Ciencias Exactas, Ingeniería y Agrimensura. Universidad Nacional de Rosario. ISBN CAPUTO, L.; PORCEL, E.; CÁCERES, B. (2011). Trayectos optativos de formación de una carrera de grado en Informática. Su modelización mediante redes de actividades estocásticas. Revista de la Escuela de Perfeccionamiento en Investigación Operativa Nº 32. Tandil (Bs. As.). ISSN DAPOZO, G., LÓPEZ, M., PORCEL, E. (2011). Duración de los estudios de alumnos de carreras de Informática. El caso de la Licenciatura en Sistemas de Información de la FaCENA (UNNE). Actas del XXIV Encuentro Nacional de Docentes en Investigación Operativa (ENDIO). XXII Escuela de Perfeccionamiento en Investigación Operativa (EPIO). Universidad Tecnológica Nacional. Facultad Regional Buenos Aires. Buenos Aires. Argentina. FACENA UNNE (2009). Plan de estudios de Licenciatura en Sistemas de Información. Anexo Resolución Nº 1137/09 C.S. Versión obtenida el 04/12/14. GALIANA, J., CAPUTO, L. (2006). Plan de estudios del Profesorado en Física de la FACENA UNNE: Análisis de su régimen de correlatividades por el método de camino crítico. Anales del XIX Encuentro Regional de Docentes en Investigación Operativa y XVII Escuela de Perfeccionamiento en Investigación Operativa ISBN X. GALIANA, J., LAMAS, J., CAPUTO, L. (2007). Profesorado en Biología de la FACENA UNNE. Análisis de su plan de correlatividades mediante camino crítico y redes de actividades estocásticas. Anales de la XVIII Escuela de Perfeccionamiento en Investigación Operativa. Mar del Plata (Bs. As.). ISBN X. TC 287

290 XXVIII ENDIO, XXVI EPIO y RED M VIII GARCÍA DE FANELLI, A. (2014). Rendimiento académico y abandono universitario: Modelos, resultados y alcances de la producción académica en la Argentina. Revista Argentina de Educación Superior. Año 6. Número 8. ISSN pp HERRMANN, C., SOSA, M., CÁCERES, R. (2002). Determinación de las tareas críticas de planes de estudio de las carreras Licenciatura en Sistemas y Licenciatura en Sistemas de Información de la FACENA (UNNE). Reunión Anual de Comunicaciones Científicas y Tecnológicas de SEGCYT - UNNE Versión obtenida el 15/10/14 Código de Resumen: D PÉREZ MACKEPRANG, C; ALBERTO, C.; CARIGNAGNO, C. Y CASTRO, S. (1998). Programación por camino crítico, introducción al método: actividades en los vértices. Revista de la Escuela de Perfeccionamiento en Investigación Operativa Nº 14. pp TAHA, H. (1998) Investigacion de Operaciones, Una Introducción.6ª Edición. Prentice Hall. México. 916 páginas. URIONABARRENETXEA ZABALANDIKOETXEA, S., GARCÍA MERINO, J. (2013). Factores dependientes de la gestión universitaria como determinantes del rendimiento del alumno: un análisis multivariante. Revista de Educación, 361. pp DOI / x RE Versión obtenida el 04/12/14. htpp:// TC 288

291 XXVIII ENDIO, XXVI EPIO y RED-M VIII TECNOLOGÍA DE LA INFORMACIÓN

292 XXVIII ENDIO, XXVI EPIO y RED-M VIII DISEÑO DE ONTOLOGÍA PARA SISTEMAS DE GESTIÓN DEL CONOCIMIENTO APLICADO A UNA RED DE ONGs DE AYUDA SOCIAL PROYECTO KOINONÍA DOS REIS, MARIA R. 1 - MINVIELLE, MARTINA 2 - GARRIDO, JACQUELINA 2 - XODO, DANIEL 3 - BUENO, MOISES 3 Facultad de Ciencias Exactas-Grupo de Investigación en Informática de Gestión del Instituto de Investigación en Tecnología Informática Avanzada (INTIA) - UNCPBA dosreis@econ.unicen.edu.ar tinaminvielle07@gmail.com - jacquelina_86@hotmail.com - daniel.xodo@gmail.com - bueno@econ.unicen.edu.ar Palabras Clave: Ontología Dominio Gestión del Conocimiento - ONG Ayuda Social RESUMEN EXTENDIDO El presente trabajo surge a partir de una serie de investigaciones y herramientas que se vienen realizando con el objeto de gestionar el conocimiento de los datos utilizados por un conjunto de organizaciones no gubernamentales (ONGs) de ayuda social (e.g. Benito et al., 2012; Bueno et al., 2011; Dos Reis et al., 2014; Xodo et al., 2012). En este resumen se presentan los avances obtenidos en el desarrollo de una ontología de dominio, a partir de los datos utilizados por Cáritas San Cayetano de Tandil en su accionar en red junto a otras sedes de Cáritas y organizaciones de la comunidad, brindando servicios de ayuda social. El objetivo subyacente es encontrar una forma óptima de compartir la información entre las organizaciones miembros de la red, en el desarrollo de un SIBO (Sistema de Información basado en Ontologías), buscando estandarizar conceptos en los dominios referentes. En el contexto mencionado, la identificación de significaciones similares permite analizar y tomar decisiones en base a información sensible de la población objetivo (los beneficiarios) con cierto grado de similitud de criterio. La comprensión de la naturaleza de diferentes relaciones semánticas ayuda a crear representaciones del conocimiento más precisas pudiendo usarlas apropiadamente en la recuperación de la información (Weller, 2010). El trabajo se enfocó principalmente en la identificación del segmento de dominio, y en el modelado y diseño de la ontología de forma tal que pueda ser utilizada para generar y personalizar un sistema de gestión del conocimiento. Este sistema analiza las problemáticas de las familias que se asisten en función de sus necesidades básicas insatisfechas (NBI). El grupo de trabajo se basó en un modelo de encuesta de recolección de datos utilizado en Cáritas, el cual constituye un modelo estándar que puede usarse también en otras ONGs con el objeto de relevar información de las familias que asiste cada institución. Se utilizaron las herramientas Protégé y Protégé para modelar formalmente las clases, subclases y relaciones que hacen a la definición ontológica del dominio. 1 Docente e Investigadora de la Facultad de Ciencias Exactas y Facultad de Ciencias Económicas - UNCPBA 2 Alumnas de la Carrera Ingeniería de Sistemas - Facultad de Ciencias Exactas UNCPBA. 3 Docente e Investigador de la Facultad de Ciencias Exactas - UNCPBA RE-290

293 XXVIII ENDIO, XXVI EPIO y RED-M VIII 1. OBJETIVOS Seleccionar el segmento del dominio apropiado para elaborar un SIBO (Sistema de Información Basado en Ontologías). Describir cuestiones informales de la ontología a desarrollar. Identificar los propósitos, ámbito de aplicación y grado de formalización requerido. Desarrollo inicial de la ontología mediante la utilización de modelos tipo PROTEGE Descripción de clases, subclases y relaciones. 2. ONTOLOGIAS OWL (Web Ontology Language) Las ontologías son usadas para capturar el conocimiento acerca del dominio de interés. Una ontología describe los conceptos en el dominio y también las relaciones que existen entre estos conceptos. Uno de los últimos estándares en lenguaje de ontologías es OWL. Es un conjunto de operadores, basado en un modelo de lógica que permite que los conceptos complejos puedan ser construidos en definiciones basadas en conceptos simples. El modelo lógico permite el uso de un Reasoner que puede chequear que todas las definiciones en la ontología son mutuamente consistentes y también pueden reconocer qué conceptos encajan bajo qué definiciones. El Reasoner puede ayudar a montar la jerarquía correctamente. Las ontologías OWL tienen los mismos componentes que la herramienta Protégé permite modelar. Sin embargo, la terminología usada para describir estos componentes es distinta. Una ontología OWL consiste en Individuos, Propiedades, Relaciones y Clases, que se corresponden con Instancias, Data Property, Object Property y Classes de Protégé (Stanford University, 2014). 3. METODOLOGÍA APLICADA 3.1. Definición de Clases, Relaciones, Propiedades e Individuos Las clases OWL son interpretadas como conjuntos que contienen individuos. Ellas son caracterizadas usando descripciones formales (en términos matemáticos) que muestran los requerimientos para que un miembro pertenezca a la clase. Los individuos representan objetos en el dominio. En base a la encuesta, las clases y subclases desarrolladas se pueden apreciar en la Figura 1 y las relaciones, presentes en la Figura 2, unen a los individuos del dominio con un rango específico. OWL permite que el significado de las relaciones sean enriquecidas con el uso de las propiedades características. Las diferentes características que una propiedad puede tener son: funcional, inversa funcional, transitiva, simétrica, anti simétrica, reflexiva e irreflexiva (Weller, 2010). Así por ejemplo en la relación bien_satisface_necesidad se puede definir una propiedad asimétrica, debido a que un bien puede satisfacer una necesidad, pero no se da a la inversa. Los objetos se describen por medio de un conjunto de características o atributos llamados propiedades o slots. Estos almacenan diferentes clases de valores. Las especificaciones, rangos y restricciones sobre estos valores se denominan facets. RE-291

294 XXVIII ENDIO, XXVI EPIO y RED-M VIII Figura 1: Clases Figura 2: Relaciones En Protégé estas propiedades son vistas como Data Properties ya que utilizan la idea de relaciones vista anteriormente pero en vez de relacionarse con otros individuos de la ontología, lo hace con un tipo primitivo. Por ejemplo las propiedades de la clase salud se pueden visualizar en la siguiente Figura: Figura 3: Ejemplo de Propiedades de Clase La definición de propiedades tiene en cuenta las restricciones del dominio que debía cumplir el tipo primitivo al que hacían referencia. En el ejemplo salud_tiene_discapacidad_tipo, puede tomar sólo un valor definido en una categoría de la variable nomi nal como está precisada en la encuesta. También se verifica que la relación sea funcional, es decir, que el individuo siempre tome ese valor y una única vez Uso de un Reasoner Para verificar que una ontología es consistente Protégé brinda la posibilidad de utilizar Reasoners. Los mismos analizan las restricciones tanto de Data como de Objects para verificar que todas las clases puedan ser satisfechas (es decir, puedan contener individuos). El uso de Reasoners posibilita verificar el avance del desarrollo de la ontología. 4. RESULTADOS Una vez concluido el proceso de definición ontológica, se trabajó sobre la importación de los datos ya existentes en las bases de datos. Esta tarea trajo aparejada la necesidad de utilizar un lenguaje semántico SWRL (Semantic Web Rule Language) con el fin de crear las reglas y logísticas de la RE-292

295 XXVIII ENDIO, XXVI EPIO y RED-M VIII ontología que no estaban instanciadas de forma explícita. El resultado se considera la primera versión de una ontología de necesidades a ser utilizada por el SIBO a ser implementado en primera instancia en la sede de Cáritas San Cayetano de Tandil. 5. CONCLUSIONES La ontología desarrollada tiene grado clasificatorio enteramente, restringiendo las características que deben tener una persona, un bien y una necesidad para ser considerados como tal por la institución. La evolución de la misma llevará a un análisis más profundo que requiera automatizar la carga de datos, obteniendo como resultado las necesidades que se deben satisfacer de forma urgente por parte de las instituciones y qué proyecto las satisfarán. El desarrollo del SIBO, teniendo presente una proyección de alcance global en la operatoria de las organizaciones, facilitaría a futuro la toma de decisiones y convalidación de la información con independencia de regionalismos o lenguajes informales. 6. REFERENCIAS BENITO, D.; PEREYRA, C.; VERZI, C.; DOS REIS, M.; BUENO, M. (2012): Conocimiento en Acción: Construcción de una Herramienta de Gestión Web para dar soporte a una Agrupación de Organizaciones No Gubernamentales de Carácter Social. Anales del XXV ENDIO XXIII EPIO. ISBN Buenos Aires, Argentina. 30 de mayo al 01 de junio de 2012 BUENO M., DOS REIS M., ILLESCAS G., TRIPODI G., VALLEJOS I., MÉNDEZ CASARIEGO I. (2011): Conocimiento en Acción: Métodos de Asignación de Alimentos a Grupos Familiares. Proyecto Koinonía. ISSN Revista de la Escuela de Investigación Operativa. Año XIX Nº 32 pp DOS REIS, M.; BUENO, M.; XODO, D. (2014): Conocimiento en Acción: Asignación de Recursos a Familias carentes mediante la aplicación de un algoritmo genético. Proyecto Koinonía. ISSN ISSN Revista de la Escuela de Investigación Operativa. Año XXII Nº 35 pp Mayo STANFORD UNIVERSITY - CENTER FOR BIOMEDICAL INFORMATICS RESEARCH (2014): WebProtégé User Guide. Última consulta: 13/02/ WELLER, K. (2010): Knowledge Representation in the Social Semantic Web. De Gruyter Saur. Knowledge & Information XODO, D.; BUENO, M.; ILLESCAS, G.; DOS REIS, M. (2012): Ingeniería del Conocimiento en la Ayuda Social. Memorias del XIV Whorkshop de RE-293

296 XXVIII ENDIO, XXVI EPIO y RED-M VIII Investigadores en Ciencias de la Computación. WICC Posadas, Misiones, Argentina, 26 y 27 de abril de RE-294

297 XXVIII ENDIO, XXVI EPIO y RED M VIII HERRAMIENTA DE SOPORTE PARA LA TOMA DE DECISIONES EN ORGANIZACIONES DE ASISTENCIA SOCIAL. PROYECTO KOINONÍA DR. ILLESCAS, GUSTAVO 1 MG. BUENO, MOISÉS 2 MG. DOS REIS, ROSA 3 RECOFSKY, EMILIANO 4 4 WEIMANN, RAMIRO H. Facultad de Ciencias Exactas-Grupo de Investigación en Informática de Gestión del Instituto de Investigación en Tecnología Informática Avanzada (INTIA)-Universidad Nacional del Centro de la Provincia de Buenos Aires (UNCPBA)-Tandil (7000), Argentina. illescas@exa.unicen.edu.ar bueno@econ.unicen.edu.ar - dosreis@econ.unicen.edu.ar recofskye@gmaill.com ramiroweimann@gmail.com RESUMEN El presente trabajo muestra los avances en la construcción de una herramienta de soporte para la toma de decisiones que permita predecir los productos a ser adquiridos por organizaciones de asistencia social con el fin de ser distribuidos eficientemente a sus beneficiarios. Para lograr este objetivo se ha propuesto el desarrollo de un prototipo utilizando los principios de la minería de datos mediante métodos de inteligencia artificial, aprendizaje automático, estadística y sistemas de bases de datos. Esto nos permitirá, mediante el conocimiento adquirido sobre los beneficiarios, ser capaces de interpretar sus objetivos, expectativas y deseos. Posteriormente este análisis nos será de utilidad para llevar a cabo un estudio y realizar un tratamiento de datos masivos para extraer conclusiones e información relevante. En este trabajo se presentan los resultados de caso de estudio y aplicación en la organización de asistencia social Cáritas (en particular la Parroquia San Cayetano de la ciudad de Tandil), utilizando la herramienta matemática de minería de datos Weka, la cual permite extraer patrones, tendencias y regularidades para describir y comprender mejor los datos y predecir comportamientos futuros. Palabras Clave: Necesidades Básicas Insatisfechas - Promoción Humana - Minería de datos - Cáritas - Weka. ABSTRACT The present work shows progress in building a support tool for decision making that enables us to predict those products that will be acquired by social assistance organizations with the aim of being efficiently distributed to beneficiaries. 1 Docente e investigador de la Facultad de Ciencias Exactas y Facultad de Ciencias Humanas - UNCPBA 2 Docente e Investigador de la Facultad de Ciencias Exactas - UNCPBA 3 Docente e investigador de la Facultad de Ciencias Exactas y Facultad de Ciencias Económicas - UNCPBA 4 Alumnos de la carrera Ingeniería de Sistemas - Facultad de Ciencias Exactas - UNCPBA TC 295

298 XXVIII ENDIO, XXVI EPIO y RED M VIII To achieve this goal, the development of a prototype using the principles of data mining by means of Artificial Intelligence methods, automatic learning, statistic systems and databases has been proposed. This will allow us -through that knowledge acquired on beneficiaries- to be capable of interpreting its objectives, expectations and desires. Afterwards, this analysis will be useful for conducting an investigation and perform bulk data processing to extract conclusions and relevant information. In this paper we present the results of case studies and application in the welfare organization Caritas (especially in the San Cayetano Perish, located in Tandil city), using the Data mining tool Weka, which is used not only to extract patterns, trends and regularities so as to describe and understand the data more efficiently, but also to predict future behavior. Key Words: Unsatisfied Basic Needs - Human Promotion - Data Mining - Cáritas - Weka. 1. INTRODUCCIÓN La noción de asistencia social está asociada a un servicio que se presta para solucionar problemas de diversa índole y mejorar las condiciones de vida de las personas. El trabajo de las organizaciones de asistencia social se orienta a que todos los individuos puedan satisfacer sus necesidades básicas insatisfechas. Las prestaciones englobadas en el concepto pueden ser muy variadas e incluir desde apoyo educativo hasta la facilitación de una vivienda, pasando por la entrega de alimentos o de remedios. En general lo mencionado se engloba en el concepto de Promoción Humana (Sitio Web Cáritas). En el presente trabajo se optó por presentar como caso de estudio y aplicación a la organización de asistencia social Cáritas, en particular la Parroquia San Cayetano de la ciudad de Tandil, que coordina y organiza la pastoral caritativa, procurando generar y dar respuestas integrales a las problemáticas de las Necesidades Básicas Insatisfechas desde los valores de la dignidad, la justicia y la solidaridad. Uno de sus propósitos es atender necesidades específicas y urgentes de familias que se encuentran en situación de pobreza, descuido, abandono o marginación social. En su accionar, Cáritas realiza varios programas de ayuda social, uno de ellos es la entrega de un bolsón alimentario de periodicidad mensual a un conjunto de familias carenciadas. Este bolsón es entregado en las distintas sedes que componen la Parroquia mencionada precedentemente y en forma conjunta con las distintas Cáritas de otras parroquias (Recofsky y Weimann, 2014). Para abordar el caso de estudio es necesario, mediante el conocimiento adquirido sobre los beneficiarios, ser capaz de interpretar sus objetivos, expectativas y deseos. Como podemos observar en el desarrollo del presente trabajo, esto puede conseguirse a partir de la utilización de técnicas propuestas por la Minería de Datos (MD), que puede definirse como un proceso de descubrimiento de nuevos y significativos elementos (relaciones, patrones y tendencias) al examinar grandes cantidades de datos. TC 296

299 XXVIII ENDIO, XXVI EPIO y RED M VIII Para llegar a los objetivos no bastan las herramientas genéricas, se necesita también capacidad analítica para identificar estos elementos a partir de los datos estratégicos de una organización. La MD provee un método automático, brindándonos un conjunto de técnicas, para descubrir patrones en datos, sin la tendenciosidad y la limitación de un análisis sustentado meramente en la intuición humana. Además, muchos conjuntos de datos son demasiados grandes e intrincados para tratamiento manual (Pérez López Y Santín González, 2007; Vieira Braga et al., 2009). Por tal motivo, la MD está generalmente asociada a Bases de Datos especiales denominadas Data Warehouse. Estas Bases de Datos permiten la integración rápida de datos oriundos de diferentes fuentes. En este trabajo se presenta un caso de estudio, utilizando la herramienta matemática de MD Weka, la cual permite extraer patrones, tendencias y regularidades para describir y comprender mejor los datos y predecir comportamientos futuros. 2. DESARROLLO 2.1. Estado del arte En el año 2012, y como tarea relacionada el Proyecto Koinonia 5, se propuso realizar un trabajo de cátedra para la materia Investigación Operativa en el que, mediante la Teoría de Utilidad y el Algoritmo de Bellman, se optimizó la distribución de recursos realizada mensualmente. En lugar de asignar recursos a familias uniformemente, se le entregará a cada familia lo que necesita a fin de maximizar el beneficio total. Así, al principio de cada mes, quienes llevan adelante la organización de Cáritas, podrán asignar eficientemente los productos a las familias teniendo en cuenta sus necesidades básicas. Como producto de este trabajo se publicó un artículo en el XXVI Encuentro Nacional de Docentes en Investigación Operativa (ENDIO) que tuvo lugar en Córdoba, en mayo de 2013 (Illescas et al. 2013). En este contexto, el presente trabajo propone resolver un problema central en Cáritas en el que, cada vez que se produce una entrada de dinero, ya sea por donaciones, Roperito, Colectas +x-, etc., se trabaja de forma intuitiva, por parte de un voluntariado, el cual decide qué productos se compran para luego distribuir a los beneficiarios. Por ese motivo, se considera de interés contar con una herramienta que asista al personal encargado de Cáritas al momento de la toma de decisiones. Actualmente, y en el marco del Proyecto Koinonia, existe una Base de Datos (BD) que permite centralizar la información, con datos obtenidos mediante encuestas y asignaciones que se otorgaron mes a mes a los beneficiarios. Esta BD contiene una cantidad no menor a mil encuestas, lo cual sería prácticamente imposible que intuitivamente se pueda obtener información relevante de ellos. Luego de una búsqueda exhaustiva de herramientas (libres 5 Proyecto Koinonia: es una organización civil sin fines de lucro que brinda servicios tecnológicos a otras organizaciones de acción social (Sitio Web, Proyecto Koinonia). TC 297

300 XXVIII ENDIO, XXVI EPIO y RED M VIII o comerciales), no se encontró ninguna que cubriera este requerimiento, por lo que se decidió proponer el desarrollo del prototipo que se muestra en este trabajo. A su vez, se están dando los primeros pasos hacia la formalización de esta temática como plan de tesis de grado en ingeniería de sistemas. 2.2 Solución propuesta Como objetivo de este trabajo se planificó desarrollar un prototipo de ayuda para la toma de decisiones utilizando MD. Se planteó integrar una serie de funcionalidades que permitieran predecir específicamente qué productos y cantidad necesitará Cáritas a futuro de acuerdo a lo sucedido en años anteriores y a los nuevos datos que va ingresando la persona encargada del sistema, y de esa forma brindar asistencia para la correcta toma de decisiones a la hora de comprar los productos que serán distribuidos a los beneficiarios. Se tomó como entrada del prototipo una BD en la cual están registradas las familias que forman parte de Cáritas, junto con sus características socioeconómicas. La información alojada en la BD se transforma a un tipo de dato estructurado, el cual será entrada de la herramienta de MD Weka. Ésta, estudia y analiza la información generando reglas, las cuales sirven para llevar a cabo un análisis con el que se produce el resultado final. Para facilitar la usabilidad del prototipo se realizó una interfaz de usuario simple e intuitiva, ya que concretamente se pondrá a disposición de un voluntario de Cáritas a quien se le brindará una capacitación para el uso de la herramienta y su correspondiente puesta en marcha. El usuario del prototipo podrá seleccionar el período de tiempo del cual se llevará a cabo la predicción. También podrá ingresar nuevos datos que formarán parte de la BD de Cáritas, junto con información relevante que será de gran ayuda al estudio y análisis de los mismos, como por ejemplo el precio de cada producto y el dinero disponible. La respuesta del prototipo será una sugerencia de cómo deberá ser usado el dinero recaudado, la cual se podrá visualizar de forma gráfica o numérica. 2.3 Descripción de la solución En este apartado se explican los pasos que se han ido siguiendo para la realización del proyecto, cuyo objetivo principal es crear un prototipo capaz de realizar predicciones sobre los productos que necesitará Cáritas en un mes determinado. En primer lugar, se detalla el proceso seguido desde la definición y obtención de los datos hasta el estudio de éstos para la generación de los modelos de predicción. Este proceso es clave para el desarrollo del proyecto, ya que serán estos datos a partir de los cuales se desarrolla toda esta primera fase de creación de los modelos de predicción. Una vez definidos los datos a obtener y realizada dicha recolección, se detalla el proceso de análisis de los datos. TC 298

301 XXVIII ENDIO, XXVI EPIO y RED M VIII El funcionamiento de este prototipo se compone de siete fases bien diferenciadas, que se describen a continuación Fase 1 Selección de datos La primera fase consiste en decidir qué datos serán excluidos y cuáles usados para el análisis. El proceso de selección de datos muchas veces se engloba dentro de un concepto más amplio, denominado reducción de datos, aunque este término puede englobar también la agregación, la generalización o incluso la comprensión de datos. En la Figura 1 se puede observar la BD con las tablas que se consideraron. Estas son recurso_g_porfecha donde se encuentran registradas las cantidades otorgadas de cada producto históricamente a los beneficiarios, people que contiene información relevante de cada uno de los beneficiarios, las tablas rkn_preg_opcion y rkn_encues_rpta que juntas brindan información importante acerca de las encuestas que se le realizaron a los beneficiarios Fase 2: Adaptación de la BD A continuación detallaremos las tablas que fueron agregadas a la BD original, necesarias para el desarrollo del proyecto. Se optó por crear tabla_directa, en la que se produce una integración de los datos, la información que contiene es la combinación de múltiples tablas. Esta tabla contendrá registros que son provistos de tres lugares diferentes, y gracias a los cuales quedará registrado la totalidad de las necesidades de los beneficiarios. Por otro lado, se creó la tabla ingreso_directo, que es una de las tablas por las cuales se carga tabla_directa. En esta tabla se introduce información de las necesidades de los beneficiarios ingresadas desde la interfaz gráfica. Esto quiere decir que no se genera mediante consultas a otras tablas ni otro tipo de información, este conjunto de datos se va cargando cuando un beneficiario cree necesario reflejar una necesidad. Otra de las tablas importantes para la carga de información en tabla_directa es la tabla conversiones. Cumple la función de intermediaria entre rkn_preg_opcion y rkn_encues_rpta, donde existe información muy importante para nuestro estudio; conversiones relaciona una característica determinada del beneficiario con un producto. Sin esta tabla, existe información de manera implícita, pero ante la existencia de la misma, ésta queda explícita. La tabla precios contiene un registro de los precios de los diferentes productos. Las nuevas tablas adaptadas a la BD se muestran en la Figura Fase 3: Optimización de tabla directa TC 299

302 XXVIII ENDIO, XXVI EPIO y RED M VIII El tiempo computacional de obtención de resultados de la herramienta Weka está directamente afectado por el tamaño del fichero de entrada a la misma. Así mismo, el tamaño fichero de entrada está directa y proporcionalmente relacionado con el tamaño de tabla_directa. Son importantes en tabla_directa las relaciones entre cantidades de los diferentes tipos de productos, por lo tanto, estudiando los registros de esta tabla y una vez completa la fase de carga de la misma, se observó que se podían eliminar varios de los registros contenidos en ella, reduciendo el tiempo computacional, sin perder la información más importante de esta tabla como se mencionó anteriormente. La optimización se encarga de reducir la cantidad de registros de tabla_directa, de forma proporcional entre cada producto que se encuentra cargado, como se ve en la Figura 3. Con esta optimización realizada se garantiza un resultado igual al que sería sin la misma, dado que nunca se pierde la relación entre las cantidades de los diferentes tipos de productos, con un tiempo computacional menor al obtener una reducción en el tamaño del fichero de entrada Fase 4: Preparación de los datos Esta fase cubre todas las actividades necesarias para conformar el conjunto de datos final a partir de los datos en bruto iniciales. Se realizan modificaciones principalmente sintácticas a los datos que no cambian su significado, pero que son requeridas por la herramienta de modelado. Concretamente, lo que se hace es un pasaje de la información de tabla_directa a la estructura de fichero soportada por la herramienta de modelado (en el formato denominado arff ), como se muestra en la Figura Fase 5: Análisis de datos con la herramienta Weka A continuación se mostrará un ejemplo de cómo es el resultado devuelto por Weka teniendo en cuenta los datos de entrada. Se mostrará, también, el flujo de datos hasta llegar al mismo. El primer paso consiste en generar los registros de tabla_directa teniendo en cuenta información de la BD, en la Figura 3 se aprecia cómo se obtiene de la tabla recurso_g_porfecha. En el segundo paso, como se ve en la Figura 4, se muestra la creación del archivo que se será de entrada para la herramienta de modelado. Ahora, con el fichero ya generado, la herramienta se encuentra lista para hacer el estudio correspondiente. En tal sentido la herramienta utiliza el algoritmo Predictive Apriori, provisto por Weka, encargándose de generar las reglas que se ven en la Figura 5 que servirán para llevar a cabo el estudio y predicción. Una vez que se obtuvieron los resultados devueltos por Weka, se dividió cada regla en Consecuente y Consecuencia, como se puede ver en la Figura 6. TC 300

303 2.3.6 Fase 6: Estudio y Predicción XXVIII ENDIO, XXVI EPIO y RED M VIII El siguiente paso es estudiar y analizar la información obtenida por la herramienta hasta el momento. Como se explicó en la fase anterior, se cuenta con una lista de reglas, cada una de estas contiene un consecuente (el mes en cuestión) y una Consecuencia (Figura 7). Esta etapa pretende explicar cómo el prototipo obtiene los resultados finales. El resultado final mostrará una lista de productos, cada uno con la cantidad de unidades que se deben comprar del mismo. En un principio, el usuario ingresa el mes elegido para llevar a cabo la predicción. Los productos que se considerarán y formarán parte del universo de productos son obtenidos de las reglas devueltas por la herramienta (Figura 5). Estos son agua, harina, arroz y polenta. Para el tratamiento de cada producto se elige una regla, como se aprecia en la Figura 8, que contiene el producto en cuestión con un SI (agua=si). Hacemos lo mismo con el resto de los productos y resulta lo siguiente: Agua --> 3 Harina --> 2 Arroz --> 0 Polenta --> 0 Hasta el momento, se fue modificando el resultado obtenido de la herramienta de modelado, hasta llegar a la anterior lista de productos, cada uno con su determinado valor de cantidad de reglas. Por lo tanto, observando esta lista se puede apreciar aproximadamente que, agua fue de mayor necesidad, así como también harina, pero no lo fueron ni arroz ni polenta (ya que no se había registrado ningún ingreso en el mes de enero), esta afirmación se basa en el valor de cantidad de reglas sobre el total. Para obtener el resultado final se calcula un valor total de cantidad de reglas, este valor es la suma de las reglas de los diferentes productos, en nuestro ejemplo =5. Lo llamaremos cantidad_reglas_total. Entonces se puede obtener en forma de porcentajes, como se muestra a continuación: Agua --> 3/5 = 60% Harina --> 2/5 = 40% Arroz --> 0/5 = 0% Polenta --> 0/5 = 0% Fase 7: algoritmo de aproximación Greedy Como se comentó en el contexto del problema que trata de resolver el presente trabajo, lo que se tiene es una cantidad de dinero para comprar productos que serán repartidos entre los diferentes beneficiarios, por lo tanto ya se tiene en porcentaje que tan necesario es un producto para realizar la ayuda en la toma de decisión. Pero falta incluir la variable precio del producto. Por lo tanto, mediante un algoritmo de aproximación Greedy (Zanarini, 2009), TC 301

304 XXVIII ENDIO, XXVI EPIO y RED M VIII se genera el resultado final del prototipo. Este algoritmo nos calculará el dinero a gastar en productos, sin sobrepasar el monto total destinado a tal efecto y respetando el porcentaje de compra de unidades entre cada uno de ellos, como veremos a continuación. Agua = 60% Harina = 40% Monto a gastar = $420 Precio por unidad de agua = 10 Precio por unidad de harina = 20 El algoritmo de aproximación tiene como entrada los porcentajes de cada producto, precios de productos y monto a gastar. Este algoritmo debe encontrar cuántas unidades de cada producto se deben comprar, por lo tanto realiza varias iteraciones (ver Tabla 1) aproximándose al valor de monto a gastar, siempre respetando el porcentaje de cada producto, esto significa que, como vemos en las diferentes iteraciones, 12 y 8 respetan el mismo porcentaje que 6 y 4 (60 % y 40 %), lo mismo que 18 y 12. Por lo tanto, este algoritmo de aproximación itera estos valores hasta llegar al valor más cercano, sin sobrepasarse del monto a gastar. Este valor se obtiene multiplicando las unidades a comprar de cada producto por su precio. La suma conforma el monto total a gastar. Como se ve en la Iteración 3, el algoritmo propone comprar 18 unidades de Agua y 12 unidades de Harina, el monto a gastar correspondiente a esta asignación parcial es: Unidades a comprar de Agua * Precio unidad de Agua + Unidades a comprar de Harina * Precio unidad de Harina= 18*10+12*20= 420. Como vemos en la iteración 3, el algoritmo encontró valores de compra de unidades, tales que su precio gastado es el que más se acerca al precio que se tiene para gastar. Por lo tanto el algoritmo encontró la solución, maximiza la cantidad de unidades a comprar de cada producto y minimiza la diferencia entre el monto a gastar en estos y el monto que se posee. 3. CONCLUSIONES La idea central de este proyecto ha sido la de desarrollar una herramienta de fácil uso e intuitiva que ayude a la toma de decisión del personal encargado de esta área (ver Figura 9). La MD es una herramienta con un gran potencial y que resulta aplicable en un sinfín de proyectos, circunstancias y finalidades. Sin ser exhaustivos en la enumeración, herramientas de esta índole son propicias para el tomador de decisiones para poder monitorear, simular, evaluar y predecir la demanda de recursos. Por otra TC 302

305 XXVIII ENDIO, XXVI EPIO y RED M VIII parte permiten cuantificar e informar lo realizado a los efectos de mostrar resultados e incentivar las donaciones o mejorar la oferta. A su vez, estas herramientas son de importancia para terceros, en especial al estado, que puede obtener información adicional en el tratamiento de diversas problemáticas tales como detectar focos de enfermedades, analizar causas posibles de alguna problemática social, dimensionar el alcance de algún servicio a la comunidad como podría ser la instalación de un centro de día, un comedor o una sala sanitaria. A través de este trabajo, realizamos una introducción en la obtención de información relevante de masas de datos compactas en un tema sensible como es la satisfacción de necesidades básicas insatisfechas. Hemos analizado numerosos métodos de cálculo y obtención de resultados que provee la MD como clustering, clasificación y predicción, entre otros, logrando un mayor grado de objetividad en la toma de decisiones al momento de establecer las compras de los productos que serán distribuidos a los beneficiarios. Si bien se puede profundizar más en la MD, esto no forma parte del objetivo de este trabajo. A partir del uso de la herramienta de modelado Weka, se han podido analizar y aplicar de manera práctica y constructiva varios de los métodos de MD nombrados anteriormente que se encuentran implementados en la misma. Se pudieron interpretar los resultados y discernir entre atributos influyentes y no influyentes, filtrando instancias de la gran masa de datos obtenidos. Las pruebas anteriormente vistas han demostrado que los métodos utilizados son útiles a la hora de solucionar la problemática que fueron planteadas. Para eso fueron claves los datos suministrados a la hora de realizar el proceso de MD, ya que para que se obtenga información relevante se deben tener la mayor cantidad de atributos y registros posibles en la BD, con el fin de encontrar alguna relación entre los datos y así generar un modelo donde se puedan identificar las relaciones existentes. En este caso se presentó un ejemplo concreto y simple para mejor entendimiento del proceso que se lleva a cabo, pero como se mencionó anteriormente, el prototipo será más efectivo cuando se inserten grandes cantidades de datos. Uno de los temas importantes para continuar avanzando con el análisis, es la posibilidad de incorporar conocimiento al modelo de manera permanente. Es decir que en lugar de trabajar con toda la información del problema a priori, es posible continuar incorporando información que se refleje en el modelo con una cierta periodicidad. Esto permitirá cambiar el comportamiento del sistema inteligente a largo plazo. Dentro del entorno de aplicación utilizado para la realización de esta investigación, el uso de la MD implica la obtención de diversos beneficios y ventajas para los interesados. Las ventajas van más allá de los resultados o reglas obtenidas por la aplicación de los algoritmos y tienen que ver con la aplicación que de este conjunto de reglas obtenidas se haga por parte del usuario final. En este caso, se pueden considerar las consultas generadas como un resultado secundario de la misma y que pueden demostrar a las personas interesadas, de qué manera pueden ser utilizados estos resultados para su beneficio (Recofsky y Weimann, 2014). TC 303

306 XXVIII ENDIO, XXVI EPIO y RED M VIII Es importante mencionar que los resultados y el accionar de la herramienta presentada en este trabajo es parte de un grupo de servicios evaluados para ser ofrecidos por la organización civil Proyecto Koinonía. En este sentido las autoridades del proyecto valoran el accionar de la herramienta propuesta y es intención su puesta en producción en el corto a mediano plazo, dependiendo sobre todo del recurso humano, en su mayoría voluntariado y de recursos tecnológicos de las instituciones usuarias. 4. TABLAS / FIGURAS Iteración 1 Iteración 2 Iteración 3 Agua Harina Tabla 1: Iteraciones del Algoritmo Greedy. Figura 1: Diagrama de Entidades y Relaciones de la BD original. TC 304

307 XXVIII ENDIO, XXVI EPIO y RED M VIII Figura 2: Nuevas tablas agregadas al diseño de la BD original. TC 305

308 XXVIII ENDIO, XXVI EPIO y RED M VIII Id Mes Producto 1 enero HARINA Id Mes Producto 10 enero HARINA 1 enero AGUA 11 enero AGUA 2 enero AGUA Id Nombre Cant Valor Fecha 3 enero AGUA 1 HARINA /01/ enero AGUA 4 enero HARINA 2 AGUA /01/ marzo LECHE 5 enero HARINA 3 LECHE /03/ marzo ARROZ 4 POLENTA /03/ marzo LECHE 7 marzo ARROZ 5 ARROZ /03/ marzo POLENTA 8 marzo LECHE 9 marzo LECHE recurso_g_porfecha 35 marzo POLENTA 10 marzo POLENTA 36 marzo ARROZ 11 marzo POLENTA 40 marzo ARROZ tabla_directa tabla_directa (luego de la optimización) Figura 3: Generación de registros de tabla_directa. tabla_directa Fichero arff Id Mes Producto 1 enero AGUA 2 enero AGUA 3 enero AGUA 4 enero HARINA 5 enero HARINA 6 marzo ARROZ 7 marzo ARROZ 8 marzo LECHE 9 marzo LECHE 10 marzo POLENTA 11 marzo POLENTA Figura 4: Creación de fichero arff a partir de tabla_directa. TC 306

309 XXVIII ENDIO, XXVI EPIO y RED M VIII Figura 5: Resultado suministrado por la herramienta weka. Figura 6: Tratamiento de reglas de la herramienta TC 307

310 XXVIII ENDIO, XXVI EPIO y RED M VIII Figura 7: Filtrado de reglas. Figura 8: Selección de reglas necesarias. TC 308

311 XXVIII ENDIO, XXVI EPIO y RED M VIII Figura 9: Primer versión del prototipo desarrollado 5. REFERENCIAS ILLESCAS G., BUENO M., DOS REIS M., XODO D., PÉREZ C., RECOFSKY E., WEIMANN R. (2013): Optimización en la asignación de recursos. Indicadores de transición de la decisión a la acción. Anales del XXVI ENDIO XXIV EPIO. Córdoba, Argentina. PÉREZ LÓPEZ C. Y SANTÍN GONZÁLEZ D. (2007): Minería de datos: Técnicas y herramientas. Ediciones Paraninfo. Madrid, España. RECOFSKY E. Y WEIMANN, R. (2014). Entrevista al Párroco de la Iglesia San Cayetano, Padre Fabián Gerez. Reporte interno. Tandil, Argentina. Sitio Web CARITAS: Sitio Web PROYECTO KOINONIA: VIEIRA BRAGA L., ORTIZ VALENCIA L, RAMIREZ CARVAJAL S. (2009): Introducción a la minería de datos. Editora E-papers. Rio de Janeiro, Brasil. ZANARINI D. (2009): Algoritmos Greedy. Biblioteca digital de la Licenciatura en Ciencias de la Computación. Facultad de Ciencias Exactas, Ingeniería y Agrimensura. Universidad Nacional de Rosario. Versión obtenida el 15/09/14 TC 309

312 ESTUDIO DE LA EFICIENCIA DE LOS CAPS DE LA CIUDAD DE RIO CUARTO. ESQUEMA METODOLÓGICO Y ESTADO DE AVANCE MARIANA ARBURUA - ERNESTO L. FERREYRA - JUAN M. GALLARDO - ADRIANA L. IÑIGUEZ - PATRICIA A. IÑIGUEZ - FERNANDO J. NEGRO Facultad de Ciencias Económicas - Universidad Nacional de Río Cuarto mariana_arburua@hotmail.com - eferreyra@eco.unrc.edu.ar juanmagallardo2009@hotmail.com ainiguez@fce.unrc.edu.ar piniguez@eco.unrc.edu.ar - negrofj@yahoo.com RESUMEN En el presente se muestra el esquema metodológico seguido en el proceso de investigación del estudio de la eficiencia de los CAPS de la ciudad de Río Cuarto, realizando una breve reseña de los resultados alcanzados y las dificultades halladas con el objetivo de aportar a futuros estudios similares. Del procedimiento seguido se concluye que esta investigación empírica, como muchas realizadas en Argentina y tal vez en América Latina, tiene un diseño metodológico que conduce al logro de los objetivos planteados. Pero, como también surge de la revisión de la literatura, los resultados finales se ven limitados por la ausencia de información adecuada. Esto conduce a la necesidad que toda investigación empírica, además de aportar los resultados concretos, debería proveer la definición de la información que como mínimo debe disponerse para que estas estimaciones resulten útiles a la toma de decisiones por parte de quienes gestionan las unidades. Palabras Clave: Eficiencia - CAPS - DEA - Metodología INTRODUCCIÓN Los Centros de Atención Primaria de la Salud (CAPS) integran el sistema público de salud. La evaluación del funcionamiento de este tipo de establecimientos es de suma importancia, en especial en lo referido a su eficiencia operativa y la calidad de los servicios que brindan a la población. A partir de ello, mediante un análisis de eficiencia técnica, es posible identificar las unidades que utilizan de manera efectiva los recursos puestos a su disposición y, por el contrario, las unidades ineficientes, ya sea porque no son capaces de obtener la máxima producción con los recursos disponibles, o bien tienen capacidad instalada ociosa. En este marco se plantea el estudio de la eficiencia de los CAPS de la ciudad de Río Cuarto, mediante un proyecto de investigación que tiene por objetivos coadyuvar al diagnóstico y mejora del estado actual del Servicio de Atención Primaria de Salud en la ciudad de Río Cuarto; realizar un análisis de eficiencia técnica de los mismos e Investigar si existe influencia significativa de variables exógenas en los grados de eficiencia. En el presente se muestra el esquema metodológico seguido en el proceso de investigación con una breve reseña de los resultados alcanzados y las dificultades halladas con el objetivo de aportar a futuros estudios similares. ETAPAS METODOLÓGICAS: RESULTADOS ALCANZADOS Y DIFICULTADES HALLADAS 1. Investigación documental sobre estudios empíricos que abordan el problema de la eficiencia del servicio de atención primaria de la salud en diferentes organizaciones dentro del sistema de salud de diversos países. Resultados: Se revisaron 25 estudios empíricos. Los enfoques no paramétricos, en especial DEA, tienen una clara predominancia, dada la necesidad de definir tecnologías multi-output, permitiendo la inclusión de variables referidas no sólo a la producción, sino también referentes a la calidad del output. En pocos casos de los revisados se utilizan métodos de fronteras estocásticas, consolidando previamente los múltiples outputs en uno único. Se observa el uso de técnicas de regresión simple, logística, etc.- para determinar las causas de la ineficiencia, ya sea por efecto de variables no controlables o por otras características de los centros o de sus gestores que podrían ser determinantes de los niveles de eficiencia. Todos los estudios coinciden en que, por definición, cualquier medida de la producción de la atención primaria debería capturar el impacto de los servicios en el estado de salud (actual y futuro) de los pacientes. Pero, la falta de información adecuada provoca que la observación de dicha relación causal no resulte sencilla. Así, los investigadores adoptan los llamados modelos orientados a la actividad, donde los outputs de la atención primaria se aproximan por los niveles de actividad de las unidades de atención de la salud como por ejemplo, el número de consultas registradas, las prestaciones de enfermerías, las inmunizaciones efectuadas, los controles prenatales, los controles por prueba de papanicolau, actividades de educación y de prevención para la salud, etc.. Respecto de los inputs, los indicadores más utilizados se refieren a los recursos humanos. 2. Análisis descriptivo del servicio que prestan los CAPS en la ciudad de Río Cuarto. Resultados: A través de entrevistas con los responsables del área de salud; revisión de normas legales vigentes y relevamiento de las operaciones inherentes a la atención primaria de la salud, se puede concluir que, el sistema de atención primaria de la salud de la ciudad de Río Cuarto - situada al suroeste de la provincia de Córdoba y con una población cercana a los habitantes, se encuentra bajo la administración de la Municipalidad de Río Cuarto y está integrado por 17 centros distribuidos en todo el ejido municipal. Cada CAPS tiene definido un radio de influencia y, en consecuencia, una población potencial beneficiaria de los servicios. Sintéticamente, cada centro es efector de las siguientes prestaciones, aunque no todos abarcan la totalidad: asistencia sanitaria a demanda, programada y urgente en la consulta, prescripción y realización, en su caso, de procedimientos diagnósticos y terapéuticos, actividades de prevención y promoción de la salud, atención familiar y comunitaria, actividades de información y vigilancia en la protección de la salud, atención y prestación de servicios específicos relativos a la mujer, la infancia y a la salud bucodental. 3. Identificación de las principales características de la población potencial beneficiaria de los servicios de cada uno de los CAPS de Río Cuarto. Definición de variables no controlables. Dificultades: Para estudiar las características socio-económicas de la población potencial beneficiaria es necesaria información que puede ser suministrada por el Censo Nacional a nivel de radio y fracción o por relevamiento realizado por el municipio. Como no resultó factible acceder con ese nivel de detalle al Censo 2010 y el municipio no posee relevamiento de población beneficiaria, se trabaja con los resultados del Censo Provincial Resultados: Mediante un Análisis de Componentes Principales se realiza un estudio exploratorio que facilita las características sustanciales de la población beneficiaria de cada CAPS, proporcionando las coordenadas factoriales de cada unidad en estudio, resumiendo en un par de valores, la influencia de las principales variables. De esta forma, se logra obtener un par de variables cuantitativas no correlacionadas, que pueden utilizarse en un modelo de eficiencia técnica como variables no controlables a efectos de discriminar si las condiciones económicas, educativas y de estructura de los hogares de la población potencial beneficiaria influyen en el nivel de productividad del CAPS. Así, el análisis realizado permite distinguir cuáles CAPS registran un entorno económicoeducativo desfavorable y cuáles uno más favorable. 4. Análisis de diversas propuestas metodológicas en DEA con inputs no controlables. Resultados: Se cotejan cinco métodos para controlar o eliminar los efectos de las variables no controlables. La prueba se realiza utilizando datos de otras investigaciones. Así, se compara un método de una única etapa DEA con tres de múltiples etapas DEA y uno múltiples etapas mixtas (DEA y Análisis de Regresión). Se concluye que la medida de la influencia de cada variable es disímil entre los cinco métodos. Si bien resulta necesario probarlo en muchos más de un caso, pudo observarse que sobre los resultados finales influyen significativamente los resultados del modelo que se resuelva en la primera etapa. Esta tendencia a sobrevalorar la influencia del input utilizado en el modelo de la primera etapa provoca que las conclusiones a la que se arriben deban ser adoptadas con la debida cautela. Por otra parte, al reducir el número de variables, se observó una mejor performance en todos los métodos aplicados para estudiar los efectos del input no controlable. No obstante las limitaciones indicadas, se reveló la utilidad de este tipo de análisis pues, el hecho de no distinguir entre inputs discrecionales y no discrecionales puede conducir a conclusiones un tanto alejadas de la realidad. 5. Definición de variables inputs y outputs controlables. Dificultades: La red de atención primaria de la salud de la Ciudad de Río Cuarto no dispone de un sistema de información integral. Se poseen registros, pero el modo de llevarlos a cabo y la disgregación de los datos, implica que la recolección y organización de los mismos no resulte sencilla. Mediante el esfuerzo y el interés de los miembros directivos de la Subsecretaría de Salud se obtuvieron datos los que se organizaron en 67 variables. No fue factible construir variables referidas a la calidad o eficacia de las prestaciones. Resultados: Mediante el análisis de las correlaciones, su significatividad y modelos de regresión se identifican 18 variables relevantes que podrían incluirse en el modelo. La distinción entre qué variables son estrictamente inputs u outputs de la actividad de los CAPS se realiza tomando en consideración las experiencias de aplicaciones similares revisadas en la investigación documental. Se identifican como inputs: los insumos utilizados y las horas semanales trabajadas por pediatras, ginecólogos, odontólogos, psicólogos, trabajadores sociales y enfermeros; y como outputs: el número de consultas atendidas por pediatras, médicos clínicos, odontólogos, psicólogos, el número de inmunizaciones, inyectables y control de signos vitales realizados, la atención de la madre y el niño, la cantidad de leche y medicamentos entregados, como así también el número de radiografías efectuadas. El número de variables no resulta adecuado para alcanzar niveles razonables de discriminación por lo que se debe aplicar un método de selección de variables que no sólo considere las relaciones entre ellas, sino también su contribución a la medida de eficiencia. 6. Selección de variables por aplicación de diversas propuestas metodológicas para DEA. Resultados: Esta etapa se encentra en desarrollo, en primera instancia se ha procedido a analizar algunos métodos de selección de variables; unos basados en herramientas e indicadores estadísticos y otros en métodos de decisión. Del estudio realizado se pudo concluir que los métodos que utilizan herramientas e indicadores estadísticos resultan más robustos, siendo su potencialidad comparada por diversos autores en casos reales y simulados. Mientras que, los que se basan en otros métodos de decisión multicriterio aún no tienen mucha difusión, siendo su desempeño comparado sólo por los propios autores, no hallándose en la literatura cotejo alguno con los métodos de enfoque estadístico. ETAPAS METODOLÓGICAS PENDIENTES DE EJECUCIÓN Restan por ejecutar las últimas tres etapas que permitirán la elaboración del informe final a la Secretaría de Salud de Municipalidad de Río Cuarto. Para las Etapa 7 y 8 ya se han estudiado los modelos sólo resta definir el tipo de rendimiento a escala, que dependerá de las variables que finalmente resulten seleccionadas. 7. Aplicación de diversos métodos para el estudio de la eficiencia técnica de los CAPS. 8. Aplicación de diversos métodos para estudiar la influencia de las variables no controlables en la eficiencia técnica de los CAPS. 9. Estudio de los resultados obtenidos. CONCLUSIONES Esta investigación empírica, como muchas realizadas en Argentina y tal vez en América Latina, tiene un diseño metodológico que conduce al logro de los objetivos planteados. Pero, como también surge de la revisión de la literatura, los resultados finales se ven limitados por la ausencia de información adecuada. Lo anterior indica claramente la necesidad de una medición más apropiada de la producción de la atención primaria basada en indicadores cuantitativos, así como cualitativos. La precisión requerida para la medición de la producción sigue siendo un tema controvertido y desafiante que se advierte ampliamente reconocido y debatido, pero permanece sin una resolución, en términos de investigación empírica. Esto conduce a la necesidad que toda investigación empírica, además de aportar los resultados concretos, provea la definición de la información que debería como mínimo disponerse para que estas estimaciones resulten útiles a la toma de decisiones por parte de quienes tienen la responsabilidad de gestionar las unidades.

313 XXVIII ENDIO, XXVI EPIO y RED-M VIII DEL 20 AL 22 DE MAYO DE 2015 BAHÍA BLANCA UNIVERSIDAD NACIONAL DEL SUR TERMINALES PORTUARIAS ARGENTINAS: EVOLUCIÓN DE SU EFICIENCIA, ÍNDICES DE MALMQUIST RESUMEN: La función de los puertos es actuar como agentes de intercambio entre el transporte marítimo y el terrestre. En la actualidad, los puertos han sobrepasado esa función y se han convertido en centros logísticos multimodales. Debido a esta nueva funcionalidad es que se desprende el carácter multiproductivo de la actividad portuaria, en la cual intervienen organismos y empresas privadas que compiten entre sí por obtener un lugar destacado dentro del sector portuario. Esta competencia puede ser analizada mediante la determinación de la eficiencia técnica que cada una posee. Para ello, una de las metodologías más utilizadas es la técnica DEA (Data Envelopment Analisys), la cual hace posible capturar el desempeño total de una terminal y comparar la eficiencia de las diferentes terminales. Además, se determinaran los índices de Malmquist de cambios en la productividad para cada terminal, y así analizar la evolución temporaria. El desarrollo práctico de esta investigación consiste en el análisis de las principales terminales portuarias de Argentina. Mediante la utilización de la técnica DEA se obtendrá la eficiencia de cada DMU (Decision Making Unit) involucrada en el análisis, con el objetivo de comparar las distintas terminales y analizar de qué forma cada una de ellas, en el caso de que sean ineficientes, deberían modificar los indicadores de forma tal de aproximarse a la frontera de eficiencia. PALABRAS CLAVES: Eficiencia portuaria, Data Envelopment Analisys, Índices de Malmquist. Daniel Carbone 1, Mariano Frutos 1,2, Ricardo Casal 1 1 Departamento de Ingeniería, UNS. Av. Alem 1253, Bahía Blanca (8000), Buenos Aires, Argentina. 2 Instituto de Investigaciones Económicas y Sociales del Sur, CONICET. daniel.carbone@uns.edu.ar, mfrutos@uns.edu.ar, rcasal@uns.edu.ar INTRODUCCIÓN. Los puertos son considerados el portal de entrada, enlace y salida de las operaciones de comercio exterior de una región determinada. Las zonas de influencia pueden ser del tipo industrial o agrícola. Es por ello, que los puertos, en función del tipo de carga que manejan, determina la infraestructura de la que disponen. La infraestructura que debe ofrecer una terminal portuaria es: equipos de carga y descarga, áreas de almacenamiento, muelles que permitan el acceso de buques apropiados y un sistema que posibilite el acceso fluido de distintos medios de transportes (Tongzon y Sawant, 2007). Los puertos sufren la presión tanto interna como externa, teniendo que demostrar una estrategia adecuada y la correcta utilización de recursos escasos. La forma de identificar el consumo de esos recursos es a través de indicadores, los cuales son necesarios para la planificación de las operaciones operativas y estratégicas (Doerr y Sánchez, 2006). La determinación de una medida de eficiencia portuaria es un trabajo arduo debido al gran número de parámetros implicados, así como la carencia de datos actualizados y confiables (Bergantinoa et al., 2013). En este trabajo se propone determinar y comparar la eficiencia de las principales terminales agroexportadoras pertenecientes al sistema marítimo fluvial de Argentina, con la finalidad de poder identificar cuál es la escala de operación, de qué manera consumen los recursos e identificar cuáles son los parámetros que los hacen eficientes. METODOLOGÍA. Se utilizó la técnica DEA (Data Envelopment Analysis) para cuantificar una medida de eficiencia individual para cada una de las terminales portuarias o DMU (Decision Making Unit) observada a partir de su distancia respecto a la frontera de eficiencia (Cullinane et al., 2004; Ji y Lee, 2009). La frontera de eficiencia refleja una tecnología de referencia que se elabora a partir de los inputs (capacidad de almacenaje, profundidad de calado, longitud de los muelles y capacidad de transferencia de carga) y outputs (exportaciones) de las observaciones de la muestra. Además, se determinaron los índices de Malmquist de cambios en la productividad para cada terminal, y así analizar la evolución temporaria (Estache et al., 2004). Cabe destacar que la expresión del índice de Malmquist se descompone en cambio en la eficiencia y en cambio en la tecnología. El cambio en la eficiencia se puede descomponer en cambio de la eficiencia técnica pura y cambio en la eficiencia de escala. RESULTADOS. En la Figura 1, se muestra el bajo porcentaje de terminales eficientes. Las causales de estos valores se deber a una escala de trabajo que no es la óptima, y a problemas coyunturales del mercado internacional. Las terminales con mayor eficiencia corresponden en su gran mayoría a las pertenecientes al corredor de mayor actividad agrícola: ACA FACA, GLENCORE TOEPFER, PUNTA ALVEAR CARGILL y TERMINAL BAHÍA BLANCA. En la Tabla 1 se identifica para cada una de las DMU el índice de Malmquist, lo que demuestra cómo se ha realizado el cambio en cada una de las eficiencias que podemos determinar. En base a esta Tabla, se identifica que el 56% de las terminales lograron un cambio favorable en la utilización de la tecnología o de la adecuación de sus instalaciones, lo que significa que se han modernizado o que están utilizándola correctamente. Un porcentaje menor se observa cuando se analiza el cambio en la eficiencia técnica, lo que hace que se mantenga el mismo porcentaje al momento de analizar la variación de los cambios en la productividad total de los factores, pero que dicha variación positiva en la variación del cambio de la tecnología no fue acompañada en el mismo porcentaje para el cambio de eficiencia pura relacionada con la gestión, que es de apenas 28%. Los cambios que se observan en la variación de la eficiencia de escala es del 44% aproximadamente lo que indica que cerca de la mitad de las terminales está trabajando en una escala cercana a la óptima. Además, se observa que un 20% está operando con una escala muy desfavorable, y existe solo una que es muy arcada lo fuera de escala Figura 1. Eficiencia Eficiencias de cada Terminal Portuaria. Tabla 1. Índices de Malmquist. ÍNDICES DE MALMQUIST DMU tfpch effch techch pech sech SERVICIOS PORTUARIOS 2,1087 2, , ,06792 RAMALLO 2, , , , ,00345 OFICIAL 0, , , , ,01423 TERMINAL 0, , , , SERVICIOS PORTUARIOS III 0, , , , , SERVICIOS PORTUARIOS VI 0, , , , , SERVICIOS PORTUARIOS VII 0, , , , ,55294 PUNTA ALVEAR CARGILL 44, 856 1, , ,13134 ARROYO SECO TOEPFER 0, , , , , GRAL. LAGOS DREYFUS 1, , , , ,11002 ACA 0, , , , , VICENTIN SA 1, , , , ,36551 DEMPA BUNGE SA 2, , , , ,16326 PAMPA BUNGE SA 4, , , , ,47901 TERMINAL NIDERA 1, , , , , QUEBRACHO CARGILL 0, , , , , TERMINAL N6 0, , , , ,3945 TRANSITO TOEPFER 0, , , , , TERMINAL CARGILL 6, , , ,01007 TERMINAL QUEQUÉN 0, , , , , ACA FACA 0, , , ,72587 TERMINAL BAHÍA BLANCA 2, , , , ,00788 GLENCORE TOEPFER 0, , , ,10282 OLEAGINOSA MORENO PG 1, , , , ,09843 CARGILL 0, , , , , Referencia: tfpch: cambio en la productividad total de los factores, effch: cambio en la eficiencia técnica, techch: cambio en la tecnología, pech: cambio en la eficiencia técnica pura, sech: cambio en la eficiencia de escala. CONCLUSIONES. Se utilizó DEA para determinar la eficiencia de las terminales portuarias de Argentina y se identificaron cuales de ellas eran eficientes. De esta manera se definieron los criterios a modificar para lograr que las terminales ineficientes puedan aproximarse a la frontera de eficiencia. Se determinaron los índices de Malmquist, mediante la utilización de una base de datos de la evolución temporaria de los criterios utilizados como inputs y outputs. Dichos índices nos dan una idea de cómo ha sido la evolución de los criterios, si esa evolución ha sido favorable o no. Como conclusión, se destaca que más del 50% de las terminales operan en una escala correcta y que la eficiencia técnica, producto de la gestión ronda cerca del 80%. Con esto se evidencia que los directivos de las terminales han tomado decisiones acertadas en los aspectos estratégicos. Se concluye, además, que el sistema portuario Argentino tiene una alta capacidad de servicio al comercio exterior, pero deberá producir cambios que favorezcan el desarrollo y competitividad de las empresas y generar una modernización de las actividades portuarias para favorecer el desarrollo del transporte multimodal. BERGANTINOA A. S., MUSSOB E., PORCELLIC F. (2013): Port Management Performance and Contextual Variables: Which Relationship? Methodological and Empirical Issues. Research in Transportation Business & Management, vol.8 (1), pp CULLINANE K., SONG D. W., JI P., WANG T. F. (2004): An application of DEA windows analysis to container port production efficiency. Review of Network Economics, vol. 3 (2), pp DOERR O., SÁNCHEZ R. J. (2006): Indicadores de productividad para la industria portuaria. Aplicable en América Latina y el Caribe. División de Recursos Naturales e Inf., CEPAL, vol. 1, pp ESTACHE A., TOVAR DE LA FÉ B., TRUJILLO L. (2004): Sources of efficiency gains in port reform: a DEA decomposition of a Malmquist TFP index for Mexico. Utilities Policy, vol. 12 (4), pp JI Y., LEE C. (2009): Data Envelopment Analysis. The Stata Journal, vol. 10 (2), pp TONGZON J. L., SAWANT L. (2007): Port choice in a competitive environment: from the shipping lines perspective. Applied Economics, vol.39 (4), pp

314 MÉTODO DE CLASSIFICAÇÃO DE EMPRESAS QUANTO AO POTENCIAL DE AUMENTO DE EFICIÊNCIA ENERGÉTICA DANIEL CORTELETTI MÁRCIO R. BASOTTI JEFFERSON O. GOMES JORGE A.P. MONDADORI MISCHEL C. N. BELDERRAIN ITA - Instituto Tecnológico de Aeronáutica dcorteletti@gmail.com mbasotti@gmail.com gomes@ita.br jorge.mondadori@pr.senai.br carmen@ita.br RESUMO Devido a necessidade de ações de melhoria em eficiência energética na indústria brasileira, buscou-se através do uso de ferramentas de estruturação de problemas (PSM), a identificação de critérios que permitam revelar o potencial de melhoria em ações de eficiência energética em diferentes empresas. Posteriormente, um método multicritério de análise de decisão (MCDA) foi utilizado para avaliar um grupo de empresas do setor industrial, classificando-as em três níveis: alto, médio e baixo potencial de melhoria em ações de eficiência energética. Palavras Chave: Eficiência Energética - PSM MCDA VFB AHP Sort - Classificação INTRODUÇÃO No Brasil, são poucas as indústrias que conseguem determinar o quanto de energia realmente é agregado em seus produtos e processos, e quanto é desperdiçado. As causas da ineficiência no consumo de recursos energéticos variam em função das características dos produtos e dos processos de produção (da eficiência dos sistemas de fabricação, da gestão da produção e da manutenção, dos projetos de leiautes produtivos e dos bens de capital). Para Godoi (2011) estas características perpassam temas, tais como, cultura e valores dos tomadores de decisão. O principal desafio deste trabalho é utilizar métodos que permitam classificar as empresas em função de seu potencial de melhoria, identificando dentre as alternativas possíveis, quais são as prioritárias e que oferecem maior oportunidade e viabilidade. O objetivo deste trabalho é classificar um dado conjunto de indústrias em grupos de alto, médio ou baixo potencial de melhorias em eficiência energética. MÉTODO Identificação do contexto decisório: Iniciamos pela definição das principais características do problema, identificação das principais restrições, valores relevantes e principais envolvidos. Identificação dos stakeholders: Indústrias (gestores, administradores, engenheiros de processo, equipes de manutenção, operadores de máquinas e equipamentos); Prestadores de serviços na área de energia; Organizações (sindicatos, concessionárias de energia, arranjos produtivos locais) Identificação dos valores: Dimensão econômica (Produtividade, Eficiência, Competitividade) Dimensão ambiental (Preservação do meio ambiente e dos recursos naturais) Dimensão social (Segurança no trabalho, Cumprimento de normas, Qualidade de vida) Restrições: Culturais - Desconfianças, empirismo, resistência à mudanças. Desconhecimento. Climáticas - Variações de temperatura e condições de luminosidade durante as estações. Econômicas - Falta de recursos financeiros para realizar mudanças. Falta de incentivo. Recursos humanos - Número de pessoas capacitadas é limitado. Recursos físicos - Equipamentos são muito caros, e a quantidade é limitada. Acesso aos dados - Dificuldade em uso de métodos invasivos, que exigem parada momentânea dos processos produtivos e limitações de acesso a dados que possam revelar informações sigilosas da empresa. Identificação das possíveis causas da baixa eficiência energética: Tabela 2: Vetor prioridade AHP RESULTADO Figura 1: Mapa cognitivo - Agrupamento das causas Modelo multicritério: Para cada uma das 7 categorias apontadas na etapa anterior, define-se um critério de avaliação aplicado a cada empresa a ser classificada. Porém, cada critério pode possuir um peso diferente, uma vez que o impacto de cada categoria pode não ser o mesmo. Com um novo envolvimento dos stakeholders anteriormente citados, e utilizando-se o método de comparação par a par, chega-se ao vetor de prioridade utilizado pelo método Analytic Hierarchy Process (AHP) [SAATY (1980)], que aponta os critérios de dimensionamento, manutenção e processos como os principais responsáveis pela baixa eficiência energética nas indústrias. Posteriormente, através de um VFB realizado com os stakeholders, buscase identificar as principais causas da baixa eficiência energética na indústria. Para identificar quais são os fatores externos ou internos que estão relacionados à ineficiência dos processos, utilizou-se a ferramenta Value Focused Brainstorming (VFB) [Kenney 2012] envolvendo quatro representantes (stakeholders), representados pela indústria, técnicos de manutenção, técnicos de eficiência energética e prestadores de serviços, devidamente sensibilizados pelos valores e restrições apontados na identificação do contexto decisório. Os resultados obtidos individualmente foram agrupados por similaridade através do uso de palavras chave e consenso entre os envolvidos. Estruturação das causas: Através de um mapa cognitivo, as causas são relacionadas de maneira a estabelecer os níveis hierárquicos e agrupamentos. [EDEN (2004)]. Eliminando-se as redundâncias, os elementos foram agrupados em 7 grandes categorias: VALUE FOCUSED BRAINSTORMING Iluminação com processos inadequados e pouco eficientes. Não aproveitamento de recursos energéticos naturais. Sistemas de ar condicionado e isolação térmica inadequada. Desbalanceamento de fases em sistemas trifásicos. Parametrização inadequada / falhas de configuração. Programas e automações pouco eficientes. Exaustão de atuadores por subdimensionamento. Fator de potência calculado incorretamente. Dimensionamento incorreto de atuadores pneumáticos. Dimensionamento incorreto de motores. Equipamento superdimensionado. Projetos mal feitos em relação à carga e demanda. Máquinas e equipamentos obsoletos. Utilização de equipamentos inadequados. Falta de instrumentos para medições. KEYWORD AMBIENTE AMBIENTE AMBIENTE CONFIGURAÇÃO CONFIGURAÇÃO CONFIGURAÇÃO DIMENSIONAMENTO DIMENSIONAMENTO DIMENSIONAMENTO DIMENSIONAMENTO DIMENSIONAMENTO DIMENSIONAMENTO EQUIPAMENTOS EQUIPAMENTOS EQUIPAMENTOS Desconhecimento do fluxo de energia pelo processo, e do quanto ele agrega valor no produto final. FLUXO Fluxo de processos redundantes ou caminhos longos. Leiautes ineficientes. Movimentos mal dimensionados. Baixa qualidade da fonte de energia. Contratos mal feitos com fornecedora de energia. Falta de iniciativa. Falta de preocupação / foco em EE por parte da gerência. Grande quantidade de empresas de pequeno porte que adquirem máquinas usadas obsoletas. Maioria dos sistemas de motorização elétrica obsoletos ou de idade elevada. Painéis elétricos mal acabados (aperto de parafusos, terminais mal prensados, cabos enrolados). Falta de conhecimento. Falta de informação sobre a importância ou impacto das ações de EE no nível operacional. Falta de recursos humanos capacitados ou com conhecimentos em EE. Insipiência, inexperiência. Computadores ligados em ociosidade. Fuga de corrente por contato. Perdas causadas por cargas indutivas grandes. Perdas térmicas isolamento térmico ruim. Vazamentos em sistemas pneumáticos. Falta de sincronia nos processos, gargalos e ociosidade nos processos. Processos inadequados. Produto desenvolvido sem preocupação com o processo e a EE do mesmo. Má refrigeração de painéis elétricos de força e comando. Postos de transformação/subestações distantes das cargas principais (maiores). Cargas que causam harmônicas (ruídos elétricos). Falta de reaproveitamento energético. Falta de aproveitamento de energia solar ou eólica em processos térmicos. Indisponibilidade de alternativa energética (Ex. Gás natural no lugar de Energia). FLUXO FLUXO FLUXO FONTE GESTÃO GESTÃO GESTÃO GESTÃO GESTÃO PERDAS INFORMAÇÃO INFORMAÇÃO INFORMAÇÃO INFORMAÇÃO OCIOSIDADE PERDAS PERDAS PERDAS PERDAS PROCESSO PROCESSO PROCESSO PROJETO PROJETO QUALIDADE REAPROVEITAMENTO REAPROVEITAMENTO ALTERNATIVA Tabela 1: Resultado do VFB - Principais causas da baixa eficiência energética industrial no Brasil Figura 2: Lista de alternativas avaliadas e classificadas Definidos os pesos, a matriz multicritério é aplicada em cada alternativa, gerando um indicador de potencial que é utilizado para a classificação. Nesta aplicação do método AHP Sort, [ISHIZAKA, PEARMAN e NEMERY (2012)] duas alternativas artificialmente criadas serviram de fronteiras entre as classes de alto, médio e baixo potencial. Como resultados, obteve -se um novo arranjo de classificação das alternativas, identificadas por alto, médio (moderado) e baixo desempenho. CONCLUSÃO A característica multidimensional da avaliação do potencial de melhorias em eficiência energética a torna complexa e difícil de ser padronizada. Ferramentas de análise multicritério aliados a métodos de classificação auxiliam a tornar o processo mais homogêneo, e mesmo que haja inconsistências em um primeiro momento, os resultados podem ser dinamicamente ajustados até a obtenção de uma boa sintonia para o contexto. Sugere-se a continuação e aprofundamento deste trabalho, através da definição dos métodos ou ferramentas para análise de cada dimensão e no refinamento da estruturação do problema e dos pesos dos critérios. REFERÊNCIAS EDEN C. (2004): Analyzing cognitive maps to help structure issues or problems. European Journal of Operational Research, vol. 159, pp GODOI J. M. A. (2011): Eficiência energética industrial: um modelo de governança de energia para a indústria sob requisitos de sustentabilidade. Dissertação de Mestrado, Energia, Universidade de São Paulo, São Paulo. Recuperado em , de ISHIZAKA A., PEARMAN C., NEMERY P. (2012): AHPSort: an AHP based method for sorting problems, International Journal of Production Research, 50(17), pp Gestão despreocupada; Falta de informação; Processos ineficientes; Práticas / materiais inadequados; Falhas de manutenção; Qualidade da energia; Erros de dimensionamento; KENNEY R. L. (2012): Value-focused Brainstorming. Decision Analysis, 9(4), pp SAATY T. (1980): The analytic hierarchy process. McGraw-Hill. New York, USA.

315 XXVIII ENDIO, XXVI EPIO y RED-M VIII Facultad de Ciencias Económicas - UNICEN SOFTWARE LIBRE COMO ELEMENTO ESENCIAL EN UNA CÁTEDRA UNIVERSITARIA: UN COMPROMISO POSTERGADO MARIELA E. NARES - GLORIA R. TROVATO Facultad de Ciencias Económicas - UNICEN nares@econ.unicen.edu.ar - trovato@econ.unicen.edu.ar RESUMEN Se presenta una propuesta de implementación de software libre asociados a la totalidad de las temáticas que se enseñan en la materia Técnicas Cuantitativas para el Management y los Negocios II, de la Licenciatura en Administración de la Universidad Nacional del Centro. La idea surge de sucesivas reuniones de cátedra. Luego de la búsqueda de software asociado a cada tema impartido, se analizó la posibilidad de implementación de un programa progresivo incluyendo a los docentes y abarcando la totalidad de temas. Palabras Clave: Software libre Cátedra universitaria Docente Alumno. 1. INTRODUCCIÓN La Licenciatura en Administración de la Universidad Nacional del Centro -UNICENcuenta con el dictado de la materia Técnicas Cuantitativas para el Management de los Negocios II -TCM II-, en el tercer año. La misma es de carácter cuatrimestral e imparte conocimientos sobre técnicas de Investigación Operativa -IO- aplicadas y herramientas para la toma de decisiones. A lo largo de los años, se ha buscado no sólo impartir conocimientos teóricos, sino también realizar el modelamiento, resolución y análisis de casos a través de software de referencia para cada temática en particular. Actualmente, se trabaja con aplicativos de Microsoft Office, Expert Choice y Win QSB, caracterizados los dos primeros por ser software privado. El objetivo consiste en analizar la posibilidad de trabajar en pos de implementar el desarrollo de prácticas de laboratorio de la materia TCM II, a través de software libre. Esta modificación en los contenidos a nivel materia implica una actualización de los conocimientos de los docentes para, finalmente, lograr que el alumno se vea beneficiado respecto a los conocimientos adquiridos. 2. METODOLOGÍA La situación descripta surge como tema de análisis en las sucesivas reuniones de cátedra, considerándose desde hace algunos años como uno de los temas primordiales a tratar que sin embargo, no ha logrado imponerse a las actividades diarias de los docentes. Ello implica generar una búsqueda de software libre que puedan cubrir las necesidades de los docentes y alumnos y, por otro lado, requiere el compromiso de formación del cuerpo docente respecto de los nuevos sistemas. Con anterioridad a determinar qué cambios realizar en el uso de nuevas tecnologías, se llevó a cabo una búsqueda intensiva de software o aplicativos que dieran resolución a los temas encuadrados en la materia, que a su vez fueran de fácil acceso/instalación por parte del alumno, que responda a acciones intuitivas, y que ofrezca información o gráficas con valor y real aporte a la interpretación de los resultados que ayudan a la resolución del problema en particular. Seguidamente se consideró realizar una planificación de las modificaciones a incorporar en las sucesivas cursadas de la materia en cuestión. 3. RESULTADOS En una primera instancia se recabó información sobre software libre disponibles y desde la cátedra se consideraron viables para el tratamiento de los temas de IO que se imparten en la materia TCM II y en función de los criterios mencionados al momento de la selección, los encuadrados en la TABLA 1. Cada una de estas alternativas presenta sus particularidades respecto de la resolución de un problema. Analizar dichas particularidades implica considerar qué es lo que se pretende que el alumno sepa usar y qué le será de mayor utilidad en su futuro como profesional. Por otro lado, se consideran cuestiones asociadas a los desafíos que involucran los docentes a la hora de aprender a utilizar nuevas TICs dentro del aula. Uno de los factores primordiales para lograr una mayor comprensión por parte de los alumnos del uso de las nuevas TICs, aplicadas a la IO, es fomentar la adaptación y uso de los nuevos sistemas y software libre por parte del cuerpo docente. Así, a modo de resumen, se pueden mencionar cuáles son las mayores barreras para el docente. Poca motivación para modificar la estructura de enseñanza aplicada a lo largo del tiempo, independientemente de los resultados que ha dado. Falta de tiempo para interiorizarse en las nuevas tecnologías libres disponibles y aprender a utilizarlas. Ausencia de agentes motivadores externos que demanden el uso de las tecnologías propiamente dichas o de nuevas metodologías de resolución. Por otro lado es dable hacer referencia a los beneficios que conllevaría un cambio en la enseñanza a través de software libre. Mayor grado de adaptación del alumno a distintos medios y/o metodologías de resolución de situaciones reales. Generación de nuevos conocimientos técnicos: técnicas de modelado, modelos de resolución, aplicabilidad de recursos disponibles. Aumento de la capacidad de análisis de diferentes modos de presentación de resultados. Desarrollo de conocimientos básicos de programación y habilidad para la comprensión de las mismas. Generar interés en la actualización no solo de conocimientos, sino de herramientas para la resolución de problemas. Interiorizar sobre la existencia y el desarrollo de software libre. 4. CONCLUSIONES El trabajo en equipo dentro de una cátedra universitaria es posible y el consenso que se logre sobre temas estratégicos es esencial para lograr la implementación de las acciones. Es factible trabajar en pos de la implementación de software libre en la enseñanza de la IO y es sumamente enriquecedor, tanto para docentes como para alumnos. Los primeros generan nuevos conocimientos y los segundos tienen la posibilidad de realizar prácticas en ambientes de código abierto y que podrán utilizar en cualquier momento que lo precisen. Llevar adelante este tipo de proyectos es un avance en pos de la educación abierta que brinde iguales posibilidades a todos los actores. En el caso analizado, la búsqueda y selección efectuada fue el primer paso para un compromiso postergado. PROGRAMACIÓN LINEAL TRANSPORTE Y ASIGNACIÓN GEOGEBRA LINGO TORA R STORM LINDO WIN QSB PHP SIMPLEX INVOP ADMINISTRACIÓN DE PROYECTOS WIN QSB PROJECTLIBRE TEORÍA DE COLAS GESTIÓN DE INVESTARIOS WIN QSB WIN QSB TEORÍA DE JUEGOS WIN QSB GAMBIT SIMULACIÓN R WINSTATS TEORÍA DE LA DECISIÓN AHP Online System M-MACBETH TABLA 1

Los costos de gestionar la cadena de suministros y la eficiencia en las operaciones: hasta cuánto hay que invertir en la gestión?

Los costos de gestionar la cadena de suministros y la eficiencia en las operaciones: hasta cuánto hay que invertir en la gestión? Mohamad, Jorge Alejandro Los costos de gestionar la cadena de suministros y la eficiencia en las operaciones: hasta cuánto hay que invertir en la gestión? Preprint del artículo publicado en Revista Énfasis

Más detalles

LOGISTICA D E COMPRAS

LOGISTICA D E COMPRAS LOGISTICA D E COMPRAS 1. - Concepto de compras OBTENER EL (LOS) PRODUCTO(S) O SERVICIO(S) DE LA CALIDAD ADECUADA, CON EL PRECIO JUSTO, EN EL TIEMPO INDICADO Y EN EL LUGAR PRECISO. Muchas empresas manejan

Más detalles

SÍNTESIS Y PERSPECTIVAS

SÍNTESIS Y PERSPECTIVAS SÍNTESIS Y PERSPECTIVAS Los invitamos a observar, a identificar problemas, pero al mismo tiempo a buscar oportunidades de mejoras en sus empresas. REVISIÓN DE CONCEPTOS. Esta es la última clase del curso.

Más detalles

Introducción En los años 60 s y 70 s cuando se comenzaron a utilizar recursos de tecnología de información, no existía la computación personal, sino que en grandes centros de cómputo se realizaban todas

Más detalles

1. Construcción de Planes de Acción Sectoriales (PAS)

1. Construcción de Planes de Acción Sectoriales (PAS) 1. Construcción de Planes de Acción Sectoriales (PAS) La construcción de los PAS es la prioridad de trabajo de la ECDBC en el 2013. Los PAS estarán constituidos por diferentes medidas de mitigación (políticas,

Más detalles

Proceso: AI2 Adquirir y mantener software aplicativo

Proceso: AI2 Adquirir y mantener software aplicativo Proceso: AI2 Adquirir y mantener software aplicativo Se busca conocer los estándares y métodos utilizados en la adquisición de y mantenimiento del software. Determinar cuál es proceso llevado a cabo para

Más detalles

de la empresa Al finalizar la unidad, el alumno:

de la empresa Al finalizar la unidad, el alumno: de la empresa Al finalizar la unidad, el alumno: Identificará el concepto de rentabilidad. Identificará cómo afecta a una empresa la rentabilidad. Evaluará la rentabilidad de una empresa, mediante la aplicación

Más detalles

PROCEDIMIENTO DE PRESTACIÓN DE SERVICIOS TECNOLÓGICOS

PROCEDIMIENTO DE PRESTACIÓN DE SERVICIOS TECNOLÓGICOS PROCEDIMIENTO DE PRESTACIÓN DE SERVICIOS TECNOLÓGICOS OBJETIVO Facilitar el proceso de enlace entre la comunidad universitaria, el sector productivo e instituciones gubernamentales mediante el aprovechamiento

Más detalles

Metodología básica de gestión de proyectos. Octubre de 2003

Metodología básica de gestión de proyectos. Octubre de 2003 Metodología básica de gestión de proyectos Octubre de 2003 Dentro de la metodología utilizada en la gestión de proyectos el desarrollo de éstos se estructura en tres fases diferenciadas: Fase de Éjecución

Más detalles

1.1 EL ESTUDIO TÉCNICO

1.1 EL ESTUDIO TÉCNICO 1.1 EL ESTUDIO TÉCNICO 1.1.1 Definición Un estudio técnico permite proponer y analizar las diferentes opciones tecnológicas para producir los bienes o servicios que se requieren, lo que además admite verificar

Más detalles

IMPACTO DEL DESARROLLO TECNOLOGICO EN LA AUDITORIA

IMPACTO DEL DESARROLLO TECNOLOGICO EN LA AUDITORIA V REUNIÓN DE AUDITORES INTERNOS DE BANCA CENTRAL 8 AL 11 DE NOVIEMBRE DE 1999 LIMA - PERÚ IMPACTO DEL DESARROLLO TECNOLOGICO EN LA AUDITORIA Claudio Urrutia Cea Jefe de Auditoría BANCO CENTRAL DE CHILE

Más detalles

VALIDACIÓN (HOMOLOGACIÓN) DE PROVEEDORES. Ciudad de Panamá, noviembre 2011

VALIDACIÓN (HOMOLOGACIÓN) DE PROVEEDORES. Ciudad de Panamá, noviembre 2011 VALIDACIÓN (HOMOLOGACIÓN) DE PROVEEDORES Ciudad de Panamá, noviembre 2011 TEMAS A TRATAR Escenario actual de las organizaciones. Evolución de la Calidad Principios de la Gestión de la Calidad. Beneficio

Más detalles

CAPÍTULO 4. FORMA DE EVALUACIÓN CMM. 4.1 Evolución de los métodos de valoración del SEI

CAPÍTULO 4. FORMA DE EVALUACIÓN CMM. 4.1 Evolución de los métodos de valoración del SEI CAPÍTULO 4. FORMA DE EVALUACIÓN CMM Tanto para el programa ALTA como para este trabajo de tesis, es importante conocer no sólo el modelo de Capacidad de Madurez, sino la forma en que se evalúa el nivel

Más detalles

DE VIDA PARA EL DESARROLLO DE SISTEMAS

DE VIDA PARA EL DESARROLLO DE SISTEMAS MÉTODO DEL CICLO DE VIDA PARA EL DESARROLLO DE SISTEMAS 1. METODO DEL CICLO DE VIDA PARA EL DESARROLLO DE SISTEMAS CICLO DE VIDA CLÁSICO DEL DESARROLLO DE SISTEMAS. El desarrollo de Sistemas, un proceso

Más detalles

CAPITULO III A. GENERALIDADES

CAPITULO III A. GENERALIDADES CAPITULO III INVESTIGACION DE CAMPO SOBRE EL DISEÑO DE UN SISTEMA AUTOMATIZADO DE CONTROL INVENTARIO Y EXPEDIENTES DE MENORES DE EDAD PARA EL CENTRO DE DESARROLLO INTEGRAL LA TIENDONA EN LA ZONA METROPOLITANA

Más detalles

Modificación y parametrización del modulo de Solicitudes (Request) en el ERP/CRM Compiere.

Modificación y parametrización del modulo de Solicitudes (Request) en el ERP/CRM Compiere. UNIVERSIDAD DE CARABOBO FACULTAD DE CIENCIA Y TECNOLOGÍA DIRECCION DE EXTENSION COORDINACION DE PASANTIAS Modificación y parametrización del modulo de Solicitudes (Request) en el ERP/CRM Compiere. Pasante:

Más detalles

Elementos requeridos para crearlos (ejemplo: el compilador)

Elementos requeridos para crearlos (ejemplo: el compilador) Generalidades A lo largo del ciclo de vida del proceso de software, los productos de software evolucionan. Desde la concepción del producto y la captura de requisitos inicial hasta la puesta en producción

Más detalles

Cadena de valor. Cadena de valor genérica. Actividades primarias. Actividades de apoyo Actividades primarias

Cadena de valor. Cadena de valor genérica. Actividades primarias. Actividades de apoyo Actividades primarias Cadena de valor La cadena de valor habla del valor total que un consumidor está dispuesto a pagar por un producto o servicio dividiendo esto en actividades de valor que desempeña la empresa y el margen

Más detalles

CAPÍTULO IV METODOLOGÍA PARA EL CONTROL DE INVENTARIOS. En este capítulo se presenta los pasos que se siguieron para la elaboración de un sistema de

CAPÍTULO IV METODOLOGÍA PARA EL CONTROL DE INVENTARIOS. En este capítulo se presenta los pasos que se siguieron para la elaboración de un sistema de CAPÍTULO IV METODOLOGÍA PARA EL CONTROL DE INVENTARIOS En este capítulo se presenta los pasos que se siguieron para la elaboración de un sistema de inventarios para lograr un control de los productos.

Más detalles

RESUMEN CUADRO DE MANDO

RESUMEN CUADRO DE MANDO 1. Objetivo Los objetivos que pueden alcanzarse, son: RESUMEN CUADRO DE MANDO Disponer eficientemente de la información indispensable y significativa, de modo sintético, conectada con los objetivos. Facilitar

Más detalles

Eficiencia Energética con ISO 50001

Eficiencia Energética con ISO 50001 Eficiencia Energética con ISO 50001 Mejore el desempeño energético de su organización, reduzca sus costos de producción o provisión de servicios y logre mayor competitividad: organizaciones en todo el

Más detalles

-OPS/CEPIS/01.61(AIRE) Original: español Página 11 5. Estructura del programa de evaluación con personal externo

-OPS/CEPIS/01.61(AIRE) Original: español Página 11 5. Estructura del programa de evaluación con personal externo Página 11 5. Estructura del programa de evaluación con personal externo 5.1 Introducción Esta sección presenta la estructura del programa de evaluación con personal externo. Describe las funciones y responsabilidades

Más detalles

IMI: máxima calidad en la gestión de proyectos con SAP Business One

IMI: máxima calidad en la gestión de proyectos con SAP Business One IMI: máxima calidad en la gestión de proyectos con SAP Business One Partner de implementación Compañía Ingeniería y Mantenimiento Industrial Ltda. Industria Ingeniería, construcción y operaciones Productos

Más detalles

DATOS DE CONSUMO DE LOS GRANDES CONSUMIDORES: SERVICIOS DE CATERING, CENTROS EDUCATIVOS Y OTRAS ENTIDADES DE LANZAROTE OCTUBRE NOVIEMBRE 2011

DATOS DE CONSUMO DE LOS GRANDES CONSUMIDORES: SERVICIOS DE CATERING, CENTROS EDUCATIVOS Y OTRAS ENTIDADES DE LANZAROTE OCTUBRE NOVIEMBRE 2011 DATOS DE CONSUMO DE LOS GRANDES CONSUMIDORES: SERVICIOS DE CATERING, CENTROS EDUCATIVOS Y OTRAS ENTIDADES DE LANZAROTE OCTUBRE NOVIEMBRE 2011 PROYECTO MERCALANZAROTE Elaborado por el personal del Proyecto

Más detalles

CAPITAL RIESGO: EL PLAN DE NEGOCIOS

CAPITAL RIESGO: EL PLAN DE NEGOCIOS CAPITAL RIESGO: EL PLAN DE NEGOCIOS Importancia del Plan de Negocios Por: Juan Luis Blanco Modelo Blanco, Ureña & Asociados El plan de negocios o business plan es el conjunto de ideas en las que se fundamenta

Más detalles

Para poder controlar se tiene que medir! Por qué desarrollar una cultura de la medición en la empresa?

Para poder controlar se tiene que medir! Por qué desarrollar una cultura de la medición en la empresa? EL CONTROL DE LA GESTION EMPRESARIAL BASADA EN INDICADORES manuelponce@partnerconsulting.com.pe El control de la gestión empresarial es cada vez una preocupación latente en las organizaciones. Preguntados

Más detalles

PERFIL DEL PUESTO POR COMPETENCIAS Sepa cómo construirlo y evitar bajos desempeños posteriores

PERFIL DEL PUESTO POR COMPETENCIAS Sepa cómo construirlo y evitar bajos desempeños posteriores PERFIL DEL PUESTO POR COMPETENCIAS Sepa cómo construirlo y evitar bajos desempeños posteriores Martha Alicia Alles Es contadora pública nacional, doctora por la Universidad de Buenos Aires en la especialidad

Más detalles

REPUTACIÓN LO QUE TOMA AÑOS CONSTRUIR PUEDE VERSE AFECTADO CRITICAMENTE POR UN SOLO EVENTO

REPUTACIÓN LO QUE TOMA AÑOS CONSTRUIR PUEDE VERSE AFECTADO CRITICAMENTE POR UN SOLO EVENTO REPUTACIÓN LO QUE TOMA AÑOS CONSTRUIR PUEDE VERSE AFECTADO CRITICAMENTE POR UN SOLO EVENTO Este documento es propiedad intelectual de MORE, Market & Opinion Research, por lo que cualquier tema relacionado

Más detalles

I INTRODUCCIÓN. 1.1 Objetivos

I INTRODUCCIÓN. 1.1 Objetivos I INTRODUCCIÓN 1.1 Objetivos En el mundo de la informática, la auditoría no siempre es aplicada en todos las empresas, en algunos de los casos son aplicadas por ser impuestas por alguna entidad reguladora,

Más detalles

Capítulo 5. Conclusiones.

Capítulo 5. Conclusiones. Capítulo 5. Conclusiones. En este capítulo se hace un análisis de la investigación más allá de los datos arrojados en la realización del estudio Delphi para identificar las competencias de los líderes

Más detalles

ENFOQUE ISO 9000:2000

ENFOQUE ISO 9000:2000 ENFOQUE ISO 9000:2000 1 PRESENTACION En 1980 la IOS (INTERNATIONAL ORGANIZATION FOR STANDARDIZATION) organismo de origen europeo, enfoco sus esfuerzos hacia el establecimiento de lineamientos en términos

Más detalles

Formulación de Planificación Estratégica

Formulación de Planificación Estratégica Formulación de Planificación Estratégica Global Value Consulting - 2011 Pablo Rojas E. 2 Planificación Estratégica Formulación de la Planificación Estratégica Porque hacer una Formulación de la Planificación

Más detalles

"Diseño, construcción e implementación de modelos matemáticos para el control automatizado de inventarios

Diseño, construcción e implementación de modelos matemáticos para el control automatizado de inventarios "Diseño, construcción e implementación de modelos matemáticos para el control automatizado de inventarios Miguel Alfonso Flores Sánchez 1, Fernando Sandoya Sanchez 2 Resumen En el presente artículo se

Más detalles

ERP GESTION LOGÍSTICA

ERP GESTION LOGÍSTICA ERP GESTION LOGÍSTICA o Introducción El objetivo de este módulo reside en dar soporte informático al control de sus existencias para poder responder en cualquier momento a la cuestión Qué cantidad y cuánto

Más detalles

CMMI (Capability Maturity Model Integrated)

CMMI (Capability Maturity Model Integrated) CMMI (Capability Maturity Model Integrated) El SEI (software engineering institute) a mediados de los 80 desarrolló el CMM (modelo de madurez de la capacidad de software). CMMI: CMM integrado, una mezcla

Más detalles

2.1 Clasificación de los sistemas de Producción.

2.1 Clasificación de los sistemas de Producción. ADMINISTRACION DE OPERACIONES Sesión 2: La Administración de operaciones II Objetivo específico 1: El alumno conocerá la clasificación de los sistemas de producción, los sistemas avanzados de manufactura

Más detalles

CAPÍTULO 1 PROYECTO DE TESIS. Proyecto de Tesis. 1.1 Introducción

CAPÍTULO 1 PROYECTO DE TESIS. Proyecto de Tesis. 1.1 Introducción CAPÍTULO 1 PROYECTO DE TESIS 1.1 Introducción La tesis que a continuación se desarrolla se desprende de un Simulador de Negocios llevado a cabo a lo largo del semestre de primavera 2004, éste es organizado

Más detalles

Lean Supplier: Por una Mejora Continua en la Cadena de Abastecimiento

Lean Supplier: Por una Mejora Continua en la Cadena de Abastecimiento Lean Supplier: Por una Mejora Continua en la Cadena de Abastecimiento Índice Antecedentes del Programa 3 Descripción del programa 3 Alianzas 5 Objetivos 5 Descripción de los Destinatarios 5 Impacto en

Más detalles

INTRODUCCIÓN CAPITULO I 1.1 PLANTEAMIENTO DEL PROBLEMA.

INTRODUCCIÓN CAPITULO I 1.1 PLANTEAMIENTO DEL PROBLEMA. CAPITULO I 1.1 PLANTEAMIENTO DEL PROBLEMA. Hoy en día las empresas en México quieren ocupar un lugar privilegiado en un mercado cambiante y lleno de retos. Por esa razón necesitan crear nuevas estrategias

Más detalles

Ciclo de vida y Metodologías para el desarrollo de SW Definición de la metodología

Ciclo de vida y Metodologías para el desarrollo de SW Definición de la metodología Ciclo de vida y Metodologías para el desarrollo de SW Definición de la metodología La metodología para el desarrollo de software es un modo sistemático de realizar, gestionar y administrar un proyecto

Más detalles

SISTEMAS Y MANUALES DE LA CALIDAD

SISTEMAS Y MANUALES DE LA CALIDAD SISTEMAS Y MANUALES DE LA CALIDAD NORMATIVAS SOBRE SISTEMAS DE CALIDAD Introducción La experiencia de algunos sectores industriales que por las características particulares de sus productos tenían necesidad

Más detalles

Normas chilenas de la serie ISO 9000

Normas chilenas de la serie ISO 9000 Normas chilenas de la serie ISO 9000 Hernán Pavez G. Director Ejecutivo del Instituto Nacional de Normalización, INN, Matías Cousiño N 64, 6 Piso, Santiago, Chile. RESUMEN: en nuestro país las empresas

Más detalles

Factores fundamentales para el desarrollo de relaciones de cooperación duraderas y sostenibles

Factores fundamentales para el desarrollo de relaciones de cooperación duraderas y sostenibles 1 2 Mercados abiertos, tecnología muy desarrollada y competencia feroz, hacen que las empresas busquen cada día nuevas maneras de mantener e incrementar su competitividad. Una forma es a través de la cooperación

Más detalles

Guía para la elaboración de Proyectos de Formación Sindical Ambiental e Investigación en Trabajo y Desarrollo Sustentable

Guía para la elaboración de Proyectos de Formación Sindical Ambiental e Investigación en Trabajo y Desarrollo Sustentable Guía para la elaboración de Proyectos de Formación Sindical Ambiental e Investigación en Trabajo y Desarrollo Sustentable 1- Denominación del Proyecto Esto se hace indicando, de manera sintética y mediante

Más detalles

EASY TIME REPORT Because time is money. For real. Gestión de tiempos profesionales

EASY TIME REPORT Because time is money. For real. Gestión de tiempos profesionales EASY TIME REPORT Because time is money. For real. Gestión de tiempos profesionales Brochure EL QUE NO BUSCA SOLUCIONES, ENCUENTRA PROBLEMAS. Hoy a las empresas no les alcanza con adaptarse a los cambios.

Más detalles

Sistema de clasificación de proveedores (SQS)

Sistema de clasificación de proveedores (SQS) Sistema de clasificación de proveedores (SQS) para visibilidad global de proveedores de Shell www.shell.com/supplier/qualification Sistema de clasificación de proveedores (SQS) Shell valora la relación

Más detalles

La evaluación del desempeño del personal es un punto muy delicado, ya que debe ser objetiva y justa para no generar conflictos

La evaluación del desempeño del personal es un punto muy delicado, ya que debe ser objetiva y justa para no generar conflictos Evaluación del desempeño y competencias Jack Fleitman La evaluación del desempeño del personal es un punto muy delicado, ya que debe ser objetiva y justa para no generar conflictos Para que exista un sistema

Más detalles

AUDITORÍA ADMINISTRATIVA INFORME. 1. Brindar a la organización los elementos necesarios para mejorar su funcionamiento.

AUDITORÍA ADMINISTRATIVA INFORME. 1. Brindar a la organización los elementos necesarios para mejorar su funcionamiento. Naturaleza AUDITORÍA ADMINISTRATIVA INFORME Auditoria Administrativa Alcance Toda la empresa Antecedentes No existen Objetivos 1. Brindar a la organización los elementos necesarios para mejorar su funcionamiento.

Más detalles

E-PROCUREMENT PARA FACILITAR LA INTEGRACIÓN EN LA SUPPLY CHAIN

E-PROCUREMENT PARA FACILITAR LA INTEGRACIÓN EN LA SUPPLY CHAIN E-PROCUREMENT PARA FACILITAR LA INTEGRACIÓN EN LA SUPPLY CHAIN Con cada vez mayores presiones de la competencia, cada vez más las empresas utilizan las adquisiciones electrónicas (eprocurement) en un intento

Más detalles

CONSTRUCCIÓN DE LAS RELACIONES CON EL CLIENTE.

CONSTRUCCIÓN DE LAS RELACIONES CON EL CLIENTE. TEMA 6 CONSTRUCCIÓN DE LAS RELACIONES CON EL CLIENTE. 1.- MARKETING DE RELACIONES.?? Del marketing de TRANSACCIONES al marketing de RELACIONES.?? Los CLIENTES se transforman en SOCIOS y la empresa debe

Más detalles

índice UA 1: GESTIÓN DE ALMACÉN UA 2: GESTIÓN DE STOCKS UA 3: GESTIÓN Y PREPARACIÓN DE PEDIDOS UA 4: GESTIÓN Y PREPARACIÓN DE INVENTARIOS

índice UA 1: GESTIÓN DE ALMACÉN UA 2: GESTIÓN DE STOCKS UA 3: GESTIÓN Y PREPARACIÓN DE PEDIDOS UA 4: GESTIÓN Y PREPARACIÓN DE INVENTARIOS índice UA 1: GESTIÓN DE ALMACÉN 5 Fundamentos de la gestión de almacenes. Configuración del almacén. Tipos de carga y almacenamiento. Equipos para manipulación y almacenamiento. UA 2: GESTIÓN DE STOCKS

Más detalles

1.1 Planteamiento del problema

1.1 Planteamiento del problema 1.1 Planteamiento del problema La calidad en el servicio poco a poco toma una gran importancia en todos los negocios. Por el simple hecho de que los clientes exigen siempre lo mejor. Antes, la oferta era

Más detalles

Is not jus power, is reliability and trust. Yei Systems S.A. de C.V.

Is not jus power, is reliability and trust. Yei Systems S.A. de C.V. Is not jus power, is reliability and trust Yei Systems S.A. de C.V. Nos es muy grato dirigirnos a Usted para ofrecerle nuestros servicios de Auditoría de sistemas, Desarrollo de software y Seguridad Informática

Más detalles

Norma ISO 14001: 2015

Norma ISO 14001: 2015 Norma ISO 14001: 2015 Sistema de Gestión Medioambiental El presente documento es la versión impresa de la página www.grupoacms.com Si desea más información sobre la Norma ISO 14001 u otras normas relacionadas

Más detalles

DESARROLLO DE MERCADOS PARA EL SECTOR DE COMPONENTES DE LA AUTOMOCIÓN VÍA ESTRATEGIAS DE POSICIONAMIENTO COMPETITIVO EN LA CADENA LOGÍSTICA

DESARROLLO DE MERCADOS PARA EL SECTOR DE COMPONENTES DE LA AUTOMOCIÓN VÍA ESTRATEGIAS DE POSICIONAMIENTO COMPETITIVO EN LA CADENA LOGÍSTICA LOGISTICA DESARROLLO DE MERCADOS PARA EL SECTOR DE COMPONENTES DE LA AUTOMOCIÓN VÍA ESTRATEGIAS DE POSICIONAMIENTO COMPETITIVO EN LA CADENA LOGÍSTICA Actualmente, en cualquier entorno productivo, la logística

Más detalles

1.2 SISTEMAS DE PRODUCCIÓN

1.2 SISTEMAS DE PRODUCCIÓN 19 1.2 SISTEMAS DE PRODUCCIÓN Para operar en forma efectiva, una empresa manufacturera debe tener sistemas que le permitan lograr eficientemente el tipo de producción que realiza. Los sistemas de producción

Más detalles

LAS GRANDES EMPRESAS DEL IEF ABREN SUS REDES INTERNACIONALES AL RESTO DE COMPAÑÍAS FAMILIARES, PARA QUE SE LANCEN A EXPORTAR EN MEJORES CONDICIONES

LAS GRANDES EMPRESAS DEL IEF ABREN SUS REDES INTERNACIONALES AL RESTO DE COMPAÑÍAS FAMILIARES, PARA QUE SE LANCEN A EXPORTAR EN MEJORES CONDICIONES Podrán beneficiarse hasta 1.100 compañías de las organizaciones territoriales vinculadas al Instituto de la Empresa Familiar LAS GRANDES EMPRESAS DEL IEF ABREN SUS REDES INTERNACIONALES AL RESTO DE COMPAÑÍAS

Más detalles

Prácticas ITIL para un mejor flujo de trabajo en el helpdesk

Prácticas ITIL para un mejor flujo de trabajo en el helpdesk Prácticas ITIL para un mejor flujo de trabajo en el helpdesk Se diferencia tres partes de gestión para mejorar la resolución de las incidencias de soporte técnico según el marco ITIL: 1. Gestión de Incidencias

Más detalles

2.11.1 CONTRATAS Y SUBCONTRATAS NOTAS

2.11.1 CONTRATAS Y SUBCONTRATAS NOTAS NOTAS 1 Cuando en un mismo centro de trabajo desarrollen actividades trabajadores de dos o más empresas, éstas deberán cooperar en la aplicación de la normativa sobre prevención de riesgos laborales. A

Más detalles

CAPITULO I 1.1. EL TEMA: MODELO DE PLANIFICACIÓN FINANCIERA PARA INCREMENTAR LA RENTABILIDAD EN EL LARGO PLAZO EN LA

CAPITULO I 1.1. EL TEMA: MODELO DE PLANIFICACIÓN FINANCIERA PARA INCREMENTAR LA RENTABILIDAD EN EL LARGO PLAZO EN LA CAPITULO I 1.1. EL TEMA: MODELO DE PLANIFICACIÓN FINANCIERA PARA INCREMENTAR LA RENTABILIDAD EN EL LARGO PLAZO EN LA FÁBRICA DE CONCENTRADOS LA ORIENTAL 9 1.2. ANÁLISIS DE LA SITUACIÓN PROBLEMÁTICA El

Más detalles

CRITERIOS GENERALES PARA LA DETERMINACIÓN DE POSICIÓN DE DOMINIO

CRITERIOS GENERALES PARA LA DETERMINACIÓN DE POSICIÓN DE DOMINIO CRITERIOS GENERALES PARA LA DETERMINACIÓN DE POSICIÓN DE DOMINIO De acuerdo a lo dispuesto por la Ley Nº 18.159 de 20 de julio de 2007 Promoción y Defensa de la Competencia se entiende que uno o varios

Más detalles

Cómo seleccionar el mejor ERP para su empresa Sumario ejecutivo

Cómo seleccionar el mejor ERP para su empresa Sumario ejecutivo Índice completo de la Guía Índice completo de la Guía 1. Quién debe leer esta guía? 3 2. Qué es un ERP? 7 2.2. Qué es un ERP?... 9 2.3. Cuál es el origen del ERP?... 10 2.4. ERP a medida o paquetizado?...

Más detalles

LA LOGÍSTICA COMO FUENTE DE VENTAJAS COMPETITIVAS

LA LOGÍSTICA COMO FUENTE DE VENTAJAS COMPETITIVAS LA LOGÍSTICA COMO FUENTE DE VENTAJAS COMPETITIVAS Los clientes compran un servicio basandose en el valor que reciben en comparacion con el coste en el que incurren. Por, lo tanto, el objetivo a largo plazo

Más detalles

El plan de mercadeo. Material de apoyo. El plan de mercadeo

El plan de mercadeo. Material de apoyo. El plan de mercadeo Universidad de San Carlos de Guatemala Facultad de Ciencias Económicas Escuela de Administración de Empresas Área de Mercadotecnia Mercadotecnia III El plan de Es un documento de trabajo que detalla acciones

Más detalles

Administración por Procesos contra Funciones

Administración por Procesos contra Funciones La administración moderna nos marca que en la actualidad, las organizaciones que no se administren bajo un enfoque de procesos eficaces y flexibles, no podrán sobrepasar los cambios en el entorno y por

Más detalles

Cadena de Valor y Estrategias Genéricas 1. Prof. Marcelo Barrios

Cadena de Valor y Estrategias Genéricas 1. Prof. Marcelo Barrios Cadena de Valor y Estrategias Genéricas 1 1 Nota Técnica Preparada por el del Área de Política de Empresa de EDDE.. Primera versión: Noviembre 2001. Noviembre de 2003. 1 Cadena de Valor y Estrategias Genéricas

Más detalles

LICENCIA PLATAFORMA ERM

LICENCIA PLATAFORMA ERM LICENCIA PLATAFORMA ERM 1. Introducción A una década de haber arrancado un nuevo milenio las organizaciones experimentan una serie de retos debido a la manera de hacer negocios, la sociedad, el mercado

Más detalles

Análisis y cuantificación del Riesgo

Análisis y cuantificación del Riesgo Análisis y cuantificación del Riesgo 1 Qué es el análisis del Riesgo? 2. Métodos M de Análisis de riesgos 3. Método M de Montecarlo 4. Modelo de Análisis de Riesgos 5. Qué pasos de deben seguir para el

Más detalles

Los principales conceptos para mejorar la gestión de Marketing: preguntas clave

Los principales conceptos para mejorar la gestión de Marketing: preguntas clave Los principales conceptos para mejorar la gestión de Marketing: preguntas clave Luis Muñiz Economista y Consultor en sistemas de información y estrategia Nos puede describir que es la gestión de Marketing

Más detalles

CAPÍTULO III. MARCO METODOLÓGICO. del Hotel y Restaurante El Mandarín S.A. de C.V. en la ciudad de San Miguel.

CAPÍTULO III. MARCO METODOLÓGICO. del Hotel y Restaurante El Mandarín S.A. de C.V. en la ciudad de San Miguel. CAPÍTULO III. MARCO METODOLÓGICO. III.A. HIPÓTESIS. III.A.1. HIPÓTESIS GENERAL. H 1 La elaboración de un diseño de Plan Estratégico contribuye a mejorar la competitividad del Hotel y Restaurante El Mandarín

Más detalles

Administración de la Cadena de Suministro

Administración de la Cadena de Suministro Planeación y Forecasting Gestión Abastecimiento Gestión Almacenes Gestión Stock Gestión Pedidos y Distribución Gestión Servicio al Cliente Mejores Practicas del Supply Chain Confección de Indicadores de

Más detalles

0. Introducción. 0.1. Antecedentes

0. Introducción. 0.1. Antecedentes ISO 14001:2015 0. Introducción 0.1. Antecedentes Conseguir el equilibrio entre el medio ambiente, la sociedad y la economía está considerado como algo esencial para satisfacer las necesidades del presente

Más detalles

CAPÍTULO 1 INTRODUCCIÓN

CAPÍTULO 1 INTRODUCCIÓN CAPÍTULO 1 INTRODUCCIÓN 1.0 INTRODUCCIÓN El desarrollo económico en la actualidad, ha propiciado una gran expansión de los mercados que comienzan a verse saturados de bienes, y el problema fundamental

Más detalles

Boletín de Consultoría Gerencial Gestión de la Cadena de Suministros (Supply Chain Management): Gestión Integral de la Cadena

Boletín de Consultoría Gerencial Gestión de la Cadena de Suministros (Supply Chain Management): Gestión Integral de la Cadena www.pwc.com/ve 4 Inicio Boletín de Consultoría Gerencial Gestión de la Cadena de Suministros (Supply Chain Management): Gestión Integral de la Cadena Boletín Digital No. 5-2011 Espiñeira, Sheldon y Asociados

Más detalles

Sistema de Gestión de Proyectos Estratégicos.

Sistema de Gestión de Proyectos Estratégicos. [Documento versión 2.0 del 24/06/2015] Sistema de Gestión de Proyectos Estratégicos. El sistema de Gestión de Proyectos Estratégicos (GPE), es una poderosa herramienta para administrar y gestionar los

Más detalles

Tecnología de la Información. Administración de Recursos Informáticos

Tecnología de la Información. Administración de Recursos Informáticos Tecnología de la Información Administración de Recursos Informáticos 1. Recursos informáticos: Roles y Responsabilidades 2. Áreas dentro del Departamento de Sistemas 3. Conceptos asociados a proyectos

Más detalles

Antecedentes Programa de Nuevos Dominios Genéricos de Alto Nivel (gtld)

Antecedentes Programa de Nuevos Dominios Genéricos de Alto Nivel (gtld) Programa de Nuevos Dominios Genéricos de Alto Nivel (gtld) Memorando Explicativo Versión preliminar para el debate: Exenciones para los gobiernos de las tarifas de presentación de objeciones Fecha de publicación

Más detalles

Tecnologías para una Educación de Calidad Cierre de Brecha Digital Estándar de Coordinación Informática Ámbito de Mantenimiento.

Tecnologías para una Educación de Calidad Cierre de Brecha Digital Estándar de Coordinación Informática Ámbito de Mantenimiento. Cierre de Brecha Digital Estimado Sostenedor y Director, Dirigida al Sostenedor y al Establecimiento Educacional El Ministerio de Educación se encuentra implementando el plan Tecnologías para una Educación

Más detalles

TIPO DE CAMBIO, TIPOS DE INTERES Y MOVIMIENTOS DE CAPITAL

TIPO DE CAMBIO, TIPOS DE INTERES Y MOVIMIENTOS DE CAPITAL TIPO DE CAMBIO, TIPOS DE INTERES Y MOVIMIENTOS DE CAPITAL En esta breve nota se intentan analizar las relaciones existentes en el sector español entre tipo de cambio, tasa de inflación y tipos de interés,

Más detalles

COMO MEDIR LA EFECTIVIDAD DE LA CONCIENTIZACIÓN

COMO MEDIR LA EFECTIVIDAD DE LA CONCIENTIZACIÓN COMO MEDIR LA EFECTIVIDAD DE LA CONCIENTIZACIÓN Ing. Carlos Ormella Meyer Los planes de concientización especialmente en seguridad de la información han sido muchas veces terreno fértil de opiniones discordantes,

Más detalles

CAPÍTULO VI CONCLUSIONES Y RECOMENDACIONES

CAPÍTULO VI CONCLUSIONES Y RECOMENDACIONES CAPÍTULO VI CAPÍTULO VI CONCLUSIONES Y RECOMENDACIONES El CRM considera el potencial para aumentar las ventas de la empresa a través de programas destinados a los clientes actuales recurriendo a promociones

Más detalles

Sistemas de Información Geográficos (SIG o GIS)

Sistemas de Información Geográficos (SIG o GIS) Sistemas de Información Geográficos (SIG o GIS) 1) Qué es un SIG GIS? 2) Para qué sirven? 3) Tipos de datos 4) Cómo trabaja? 5) Modelos de datos, Diseño Conceptual 6) GeoDataase (GD) 7) Cómo evaluamos

Más detalles

UN RECORRIDO POR LA FAMILIA ISO

UN RECORRIDO POR LA FAMILIA ISO UN RECORRIDO POR LA FAMILIA ISO 2 de Mayo de 2006 BOLETIN 26 Introducción a la Familia ISO La serie ISO 9000 consta de cuatro normas básicas respaldadas por otros documentos. ISO 9000:2000, Quality management

Más detalles

Gestión de Outsourcing Logístico para almacén de productos farmacéuticos. Benites López, Erick Oscar.

Gestión de Outsourcing Logístico para almacén de productos farmacéuticos. Benites López, Erick Oscar. CAPÍTULO 3. OUTSOURCING LOGÍSTICO. 3.1 Concepto. El área de la logística ha evolucionado de forma continua desde su concepción como una mera función de transporte y distribución hasta una disciplina mucho

Más detalles

IDEA DE NEGOCIO EDUGER LOGISTIC GERMAN EDUARDO BALSERO MORALES PROFESOR: GERARDO ANDRES ARCOS CELIS

IDEA DE NEGOCIO EDUGER LOGISTIC GERMAN EDUARDO BALSERO MORALES PROFESOR: GERARDO ANDRES ARCOS CELIS IDEA DE NEGOCIO EDUGER LOGISTIC GERMAN EDUARDO BALSERO MORALES PROFESOR: GERARDO ANDRES ARCOS CELIS CORPORACIÓN UNIVERSITARIA IBEROAMERICANA TECNOLOGIA EN LOGISTICA INFORMATICA BOGOTA D.C. 2013 INTRODUCCIÓN

Más detalles

Planificación de Sistemas de Información

Planificación de Sistemas de Información Planificación de Sistemas de Información ÍNDICE DESCRIPCIÓN Y OBJETIVOS... 1 ACTIVIDAD 1: INICIO DEL PLAN DE SISTEMAS DE INFORMACIÓN... 4 Tarea 1.1: Análisis de la Necesidad del... 4 Tarea 1.2: Identificación

Más detalles

Unidad 1. Fundamentos en Gestión de Riesgos

Unidad 1. Fundamentos en Gestión de Riesgos 1.1 Gestión de Proyectos Unidad 1. Fundamentos en Gestión de Riesgos La gestión de proyectos es una disciplina con la cual se integran los procesos propios de la gerencia o administración de proyectos.

Más detalles

INFORME DE RESULTADOS: CLIMA LABORAL. UNIDAD PARA LA DOCENCIA VIRTUAL (Diciembre de 2013)

INFORME DE RESULTADOS: CLIMA LABORAL. UNIDAD PARA LA DOCENCIA VIRTUAL (Diciembre de 2013) INFORME DE RESULTADOS: CLIMA LABORAL. UNIDAD PARA LA DOCENCIA VIRTUAL (Diciembre de 2013) En el curso 2008/09, la Universidad de La Laguna, en línea con sus prioridades estratégicas, emprendió el proceso

Más detalles

Preocupaciones del liderazgo de Cadena de Suministro

Preocupaciones del liderazgo de Cadena de Suministro Agosto 2014 Preocupaciones del liderazgo de Cadena de Suministro Ing. Jesús Campos Cortés CPIM, CIRM, C.P.M, PMP,CQIA, CEI, CSCP, CPSM, CPF, PLS, CS&OP Resumen Ejecutivo Las cadenas de suministro son

Más detalles

Planificación de Sistemas de Información

Planificación de Sistemas de Información Planificación de Sistemas de Información ÍNDICE DESCRIPCIÓN Y OBJETIVOS...1 ACTIVIDAD 1: INICIO DEL PLAN DE SISTEMAS DE INFORMACIÓN...4 Tarea 1.1: Análisis de la Necesidad del...4 Tarea 1.2: Identificación

Más detalles

K2BIM Plan de Investigación - Comparación de herramientas para la parametrización asistida de ERP Versión 1.2

K2BIM Plan de Investigación - Comparación de herramientas para la parametrización asistida de ERP Versión 1.2 K2BIM Plan de Investigación - Comparación de herramientas para la parametrización asistida de ERP Versión 1.2 Historia de revisiones Fecha VersiónDescripción Autor 08/10/2009 1.0 Creación del documento.

Más detalles

í Í 1.1.- Justificación e Importancia del presente Trabajo de Investigación La sociedad espera que el sector productivo contribuya al desarrollo económico y al progreso, reduciendo así sus efectos ambientales

Más detalles

CÓMO MEJORAR LA GESTIÓN DE SERVICIOS TI USANDO MEJORES PRÁCTICAS?

CÓMO MEJORAR LA GESTIÓN DE SERVICIOS TI USANDO MEJORES PRÁCTICAS? CÓMO MEJORAR LA GESTIÓN DE SERVICIOS TI USANDO MEJORES PRÁCTICAS? Soluciones a partir de la experiencia colectiva Quinto Desayuno Club CIO 30 julio 2015 Contenido Prólogo...2 Personas...2 Procesos...2

Más detalles

FASE SEIS ACOMPAÑAMIENTO EN LA GESTIÓN DEL NEGOCIO. I. Metodología. 1. Objetivo de la fase. 2. Descripción de la fase

FASE SEIS ACOMPAÑAMIENTO EN LA GESTIÓN DEL NEGOCIO. I. Metodología. 1. Objetivo de la fase. 2. Descripción de la fase FASE SEIS ACOMPAÑAMIENTO EN LA GESTIÓN DEL NEGOCIO I. Metodología 1. Objetivo de la fase Asegurar que las redes sean capaces de ejecutar el negocio planificado de manera sostenible. 2. Descripción de la

Más detalles

I. Información General del Procedimiento

I. Información General del Procedimiento PR-DGSE-5 Octubre 211 I. Información General del Objetivo: Describir los pasos a seguir para la realización de las al Sistema de Gestión de Calidad de la, del MINERD. Alcance: Este procedimiento aplica

Más detalles

CAPITULO VI ESTRATEGIAS DE OUTSOURCING

CAPITULO VI ESTRATEGIAS DE OUTSOURCING CAPITULO VI ESTRATEGIAS DE OUTSOURCING Cuando una compañía decide llevar a cabo un proceso de outsourcing debe definir una estrategia que guíe todo el proceso. Hay dos tipos genéricos de estrategia de

Más detalles

EMPRESAS PÚBLICAS DE MEDELLÍN E.S.P. DIRECCIÓN CONTROL INTERNO PROYECTO NORMALIZACIÓN ACTIVIDAD DE AUDITORÍA INTERNA

EMPRESAS PÚBLICAS DE MEDELLÍN E.S.P. DIRECCIÓN CONTROL INTERNO PROYECTO NORMALIZACIÓN ACTIVIDAD DE AUDITORÍA INTERNA DCI-PN-EA-01 VERSIÓN 02 Página 2 de 12 TABLA DE CONTENIDO 1. INTRODUCCIÓN... 3 2. ROL... 3 3. PROFESIONALIDAD... 3 4. AUTORIDAD... 4 5. ORGANIZACIÓN... 4 6. INDEPENDENCIA Y OBJETIVIDAD... 5 7. ALCANCE...

Más detalles

Las diez cosas que usted debe saber sobre las LICENCIAS de los derechos de Propiedad Industrial e Intelectual

Las diez cosas que usted debe saber sobre las LICENCIAS de los derechos de Propiedad Industrial e Intelectual Las diez cosas que usted debe saber sobre las LICENCIAS de los derechos de Propiedad Industrial e Intelectual 1.- Qué se entiende por Transferencia de Tecnología?. La transferencia de tecnología es el

Más detalles

Observatorio Bancario

Observatorio Bancario México Observatorio Bancario 2 junio Fuentes de Financiamiento de las Empresas Encuesta Trimestral de Banco de México Fco. Javier Morales E. fj.morales@bbva.bancomer.com La Encuesta Trimestral de Fuentes

Más detalles

Capitulo 1. 1. Formulación del Problema. Diseño de un plan de capacitaciones para fortalecer las competencias del recurso

Capitulo 1. 1. Formulación del Problema. Diseño de un plan de capacitaciones para fortalecer las competencias del recurso Capitulo 1 1. Formulación del Problema 1.1 Titulo Descriptivo del Problema Diseño de un plan de capacitaciones para fortalecer las competencias del recurso humano de las empresas hoteleras de la ciudad

Más detalles