El autor Mario Piattini ha publicado 24 artículo(s):
La adaptación de procesos es una tarea crucial. Sin embargo, no es sencillo hacer cambios de forma ad-hoc dentro de un proceso y esperar que sea correcto y consistente. Cualquier organización se enfrenta continuamente a este reto cuando lleva a cabo sus proyectos de acuerdo a sus modelos de procesos teniendo en cuenta las características de cada proyecto. Como resultado, se obtienen versiones del modelo de procesos que cada vez es menos manejable ante los múltiples cambios realizados de forma ad-hoc. La solución pasa por dotar a los procesos software de mecanismos adecuados para la adaptación sistemática y además aprovechar el conocimiento obtenido en cada adaptación para mejorar el propio modelo de procesos. Con todo ello en este artículo se presenta el ciclo SPRINTT para la institucionalización de procesos software que promueve la adaptación y estandarización de variantes y el paradigma de Procesos Ricos en Variantes (VRP) en el que se basa. El paradigma integra la variabilidad dentro de los procesos, para adaptarlos según cada proyecto, de manera sencilla y consistente. La propuesta se ha aplicado en un caso de estudio para la definición de procesos adaptables de Desarrollo Global de Software. Finalmente se propone extender este enfoque a nivel de contexto para vincular cambios en la organización y variaciones dentro de un proceso rico en variantes.
Autores: Tomás Martínez-Ruiz / Félix García / Mario Piattini /
Palabras Clave: Adaptación de procesos - Procesos ricos en variantes - Rationale Management - Variabilidad
El interés por la computación cuántica ha crecido exponencialmente debido a su prometedor poder computacional para resolver ciertos problemas. Este nuevo paradigma de computación posiblemente afectar+AOE el desarrollo de los futuros sistemas de información. Sin embargo, los actuales sistemas de información clásicos no podrán ser reemplazados en su totalidad sin más por sistemas de in-formación completamente cuánticos. En lugar de esto, se evolucionar+AOE hacia sistemas de información clásico-cuánticos. As+AO0, las organizaciones deberán evaluar qu+AOk partes del sistema de información deben modernizar con aplicaciones cuánticas específicas que se integrarán en estos sistemas de información híbridos. Desafortunadamente, no existen técnicas ni procesos concretos para hacer frente a este desafío. Esta investigación preliminar presenta la reingeniería, y más específicamente la modernización del software utilizando principios de ingeniería dirigida por modelos, como una solución de migración hacia sistemas de información híbridos. Este artículo propone un proceso de modernización adaptado a partir del proceso de modernización del software que facilita la integración de programas cuánticos en los sistemas de información clásicos empleando estándares utilizados en la industria como UML y KDM.
Autores: Luis Jiménez-Navajas / Ricardo Pérez-Castillo / Mario Piattini /
Palabras Clave: Computación Cuántica - KDM - MDE - Modernización del Software - Reingeniería - UML
La calidad del software está adquiriendo durante los últimos años una gran importancia, principalmente debido a que el software está presente en prácticamente todo lo que nos rodea. Para poder controlar dicha calidad se hace necesario llevar a cabo evaluaciones del software, que inicialmente se centraron en los procesos de desarrollo y que durante los últimos años se están enfocando más en la calidad del propio producto software. Para poder evaluar la calidad de un producto software se requiere de varios elementos entre los que se pueden destacar: un modelo de calidad, las métricas que se van a utilizar, el proceso de evaluación y las herramientas de soporte que automaticen todo lo posible el proceso. El presente artículo expone un entorno integrado que permite llevar a cabo la evaluación de la calidad del producto software, alineando todos los elementos anteriores a un estándar internacional como es la nueva familia de normas ISO/IEC 25000. Dicho entorno se ha validado además mediante su aplicación en un laboratorio de evaluación acreditado y la realización de varios proyectos piloto con una entidad de certificación, cuyo resultado ha sido la obtención de los primeros productos certificados por AENOR en mantenibilidad software a nivel internacional.
Autores: Moisés Rodríguez / Mario Piattini /
Palabras Clave: certificación del producto software - ISO/IEC 25000 - laboratorio de evaluación - mantenibilidad - métricas de calidad - modelo de calidad
Las interacciones entre atributos de calidad del software pueden ser conflictivas, situación que podría dificultar que el software cumpla con las expectativas de los participantes. Los conflictos entre los requisitos de calidad pueden identificarse al revisar tablas de interacción que muestren el tipo de contribución potencial que tendría una característica de calidad sobre otra. Por tanto, realizamos una revisión de la literatura para recopilar las tablas de interacción publicadas. Tras la revisión de los artículos seleccionados, proponemos una técnica para construir tablas de interacción, la cual fue aplicada en los modelos de calidad de usabilidad, mantenibilidad y seguridad. Con la intención de corroborar la información de las tablas, realizamos una encuesta exploratoria cuyo objetivo es determinar si las empresas advierten las interacciones, y en su caso, conocer cómo las gestionan. Los resultados señalan que este es un tema de interés y que la práctica actual requiere de soporte metodológico adecuado.
Palabras clave: requisitos de calidad del software, interacción entre características de calidad, conflicto entre características de calidad, tablas de interacción.
Autores: Gabriel Alberto García-Mireles / Ma Ángeles Moraga / Félix García / Mario Piattini /
Palabras Clave:
La realización de procesos de negocio (PNs) mediante servicios presenta varias ventajas frente a otras opciones tales como desacoplar la definición de los PN de las tecnologías que los implementan, promover la reutilización de los servicios entre distintos PNs, y facilitar el análisis del impacto de los cambios, tanto en la definición de los PNs como en su implementación. En el framework MINERVA se propone un enfoque MDA para la generación automática de servicios en SoaML desde PNs en BPMN2, mediante transformaciones QVT. Hemos validado las transformaciones propuestas por medio de un experimento que se centró en evaluar dos características de calidad: la adecuación de las transformaciones propuestas (en relación con lo que los usuarios esperan modelar por sí mismos a partir del modelo de PN) y la entendibilidad de los modelos de servicios que se generan (por medio del significado de los elementos generados y sus relaciones). Hemos encontrado que el 82% y el 75% de los participantes prefiere y entiende, respectivamente, el diseño que proponemos.
Autores: Andrea Delgado / Francisco Ruiz / Ignacio García-Rodríguez de Guzmán / Mario Piattini /
Palabras Clave: experimentación - generación automática - modelos de PNs y servicios - SoaML y BPMN2 - transformaciones QVT - validación empírica
For a couple of decades, process quality has been considered as one of main factors in the delivery of high quality products. Multiple models and standards have emerged as a solution to this issue, but the harmonization of several models in a company for the fulfillment of its quality requirements is no easy task. The difficulty lies in the lack of specific guidelines and in there not being any homogeneous representation which makes this labor less intense. To address that situation, this paper presents an Ontology of Process-reference Models, called PrMO. It defines a Common Structure of Process Elements (CSPE) as a means to support the harmonization of structural differences of multiple reference models, through homogenization of their process structures. PrMO has been validated through instantiation of the information contained in different models, such as CMMI-(ACQ, DEV), ISO (9001, 27001, 27002, 20000-2), ITIL, Cobit, Risk IT, Val IT, BASEL II, amongst others. Both the common structure and the homogenization method are presented, along with an application example. A WEB tool to support the homogenization of models is also described, along with other uses which illustrate the advantages of PrMO. The proposed ontology could be extremely useful for organizations and other consultants that plan to carry out the harmonization of multiple models. Keywords: Harmonization of multiple models and standards; homogenization; mapping; integration; ontology, processes.
Autores: César Pardo / Félix García / Francisco J. Pino / Mario Piattini / María Teresa Baldassarre /
Palabras Clave:
Autores: Abel Lorente Ramírez / Ignacio García-Rodríguez de Guzmán / Mario Piattini /
Palabras Clave:
Con el fin de realizar una adecuada gestión de sus procesos, las empresas cada vez están más interesadas en disponer de procesos de negocio que presenten grados de calidad óptimos. Estos procesos de negocio que son ejecutados por las empresas son a menudo obtenidos utilizando técnicas de ingeniería inversa a partir de sus propios sistemas de información. Sin embargo, estos modelos de procesos de negocio que son obtenidos suelen tener un grado menor de calidad debido a la pérdida semántica que conllevan, y no siempre corresponden a representaciones exactas de los procesos de negocio actuales. En este trabajo se presentan todos los problemas detectados que deben ser abordados para mejorar la calidad de los procesos de negocio especialmente recuperados mediante ingeniería inversa. Entre estos dichos problemas se encuentran la no recuperación automática de elementos relevantes en el modelo o la recuperación de elementos que no son relevantes, el exceso de elementos de granularidad fina que disminuye el nivel de abstracción, entre otros. Este trabajo también sugiere una técnica para mejorar un modelo de procesos de negocio a lo largo de tres fases: reparación, refactorización y mejora semántica.
Autores: María Fernández-Ropero / Ricardo Pérez-Castillo / Mario Piattini /
Palabras Clave: Desafíos de procesos de negocio - Entendibilidad - Modelos de procesos de negocio - Modificabilidad - Refactorización
Companies are increasingly conscious of the importance of Enterprise Architecture (EA) to represent and manage IT and business in a holistic way. EA modelling has become decisive to achieve models that accurately represents behaviour and assets of companies and lead them to make appropriate business decisions. Although EA representations can be manually modelled by experts, automatic EA modelling methods have been proposed to deal with drawbacks of manual modelling, such as error-proneness, time-consumption, slow and poor re-adaptation, and cost. However, automatic modelling is not effective for the most abstract concepts in EA like strategy or motivational aspects. Thus, companies are demanding hybrid approaches that combines automatic with manual modelling. In this context there are no clear relationships between the input artefacts (and mining techniques) and the target EA viewpoints to be automatically modelled, as well as relationships between the experts’ roles and the viewpoints to which they might contribute in manual modelling. Consequently, companies cannot make informed decisions regarding expert assignments in EA modelling projects, nor can they choose appropriate mining techniques and their respective input artefacts. This research proposes a decision support system whose core is a genetic algorithm. The proposal first establishes (based on a previous literature review) the mentioned missing relationships and EA model specifications. Such information is then employed using a genetic algorithm to decide about automatic, manual or hybrid modelling by selecting the most appropriate input artefacts, mining techniques and experts. The genetic algorithm has been optimized so that the system aids EA architects to maximize the accurateness and completeness of EA models while cost (derived from expert assignments and unnecessary automatic generations) are kept under control.
Autores: Ricardo Pérez-Castillo / Francisco Ruiz / Mario Piattini /
Palabras Clave: ArchiMate - Enterprise Architecture - Genetic algorithm - reverse engineering - Viewpoint
Cada vez más organizaciones son conscientes de la necesidad de cuidar la ca-lidad de sus activos de datos y de realizar esfuerzos para asegurar la calidad de sus repositorios de datos. Estos esfuerzos se han acentuado incluso más con la adopción de tecnologías como Big Data, Analytics y Deep Learning, o IoT, y se han orientado en dos direcciones: asegurar el valor de los datos de repositorios organizacionales, y mejorar la madurez de los procesos de gobierno, gestión y calidad de datos. En DQTeam, spin-off de la UCLM ofrecemos a las organizacio-nes servicios de consultoría para mejorar sus datos en las dos aproximaciones usando como referencia estándares abiertos internacionales con la posibilidad de certificación internacional por parte de AENOR tanto los niveles de calidad de sus productos de datos como la madurez organizacional de sus procesos relacio-nados.
Autores: Fernando Gualo / Mario Piattini / Ismael Caballero /
Palabras Clave: Calidad de Datos - Certificación - Gestión de calidad de datos - Gestión de datos - Gobierno de datos - ISO 25012 - ISO 8000-61 - ISO 8000-62 - MAMD
Since business processes supported by traditional systems are implicitly defined, correlating events into the appropriate process instance is not trivial. This challenge is known as the event correlation problem. This paper presents an adaptation of an existing event correlation algorithm and incorporates it into a technique to collect event logs from the execution of traditional information systems. The technique first instruments the source code to collect events together with some candidate correlation attributes. Secondly, the algorithm is applied to the dataset of events to discover the best correlation conditions. Event logs are then built using such conditions. The technique has been semi-automated to facilitate its validation through an industrial case study involving a writer management system and a healthcare evaluation system. The study demonstrates that the technique is able to discover the correlation set and obtain well-formed event logs enabling business process mining techniques to be applied to traditional information systems.
Autores: Ricardo Pérez-Castillo / Barbara Weber / Ignacio García-Rodríguez de Guzmán / Mario Piattini / Jakob Pinggera /
Palabras Clave: Case Study - Event Correlation - Event Model - Process Mining
Business processes, most of which are automated by information systems, have become a key asset in organizations. Unfortunately, uncontrolled maintenance implies that information systems age over time until they need to be modernized. During software modernization, ageing systems cannot be entirely discarded because they gradually embed meaningful business knowledge, which is not present in any other artifact. This paper presents a technique for recovering business processes from legacy systems in order to preserve that knowledge. The technique statically analyzes source code and generates a code model, which is later transformed by pattern matching into a business process model. This technique has been validated over a two year period in several industrial modernization projects. This paper reports the results of a family of case studies that were performed to empirically validate the technique using analysis and meta-analysis techniques. The study demonstrates the effectiveness and efficiency of the technique.
Autores: Ricardo Pérez-Castillo / José A. Cruz-Lemus / Ignacio García-Rodríguez de Guzmán / Mario Piattini /
Palabras Clave: Business process - Case Study - Meta-analysis - Static Analysis
Autores: J. David Patón-Romero / Mario Piattini /
Palabras Clave:
Para poder optimizar el rendimiento que las organizaciones esperan de sus datos, necesitan tenerlos datos gobernados de acuerdo con sus estrategias or-ganizacionales. Para ello tienen que desarrollar e implantar Sistemas de Go-bierno de Datos. El diseño, implantación y mantenimiento de estos sistemas requiere del despliegue y coordinación de diversos elementos. Pero en la realidad, hemos podido constatar que las organizaciones se encuentran con una serie de problemas que les impiden implantar sistemas de gobierno de datos que respondan a sus necesidades y expectativas. En este artículo se propone un marco metodológico +IBM compuesto por un modelo de sistema de gobierno de datos y un proceso para su diseño, implantación y mantenimiento – alineado al estándar internacional ISO/IEC 38505 y basado en el Modelo Alarcos de Mejora de Datos (MAMDv3.0). El proceso (KCAE) consta de cuatro etapas: Conocimiento (para determinar lo que se sabe sobre los datos y lo que se requiere saber), Control (para determinar si el control ejercido sobre los datos a través de las políticas es suficiente de acuerdo con el obje-tivo requerido), Adaptación (para dirigir la organización hacia la transforma-ción del control actual hacia el control requerido), y Explotación (para su-pervisar si las adaptaciones y el control son suficientes para lograr los objeti-vos empresariales deseados). Finalmente se describe cómo us+APM el marco para el caso concreto de un servicio en una universidad española.
Autores: Ismael Caballero / Mario Piattini / Fernando Gualo /
Palabras Clave: Gobierno de datos - ISO/IEC 38505 - KCAE - Modelo Alarcos de Mejora de Datos (MAMD) - Sistema de Gobierno de Datos
Los modelos de procesos de negocio se han convertido en uno de los activos más importantes para las organizaciones. Las organizaciones intentan disponer de representaciones precisas de sus procesos de negocio, por lo que deben enfrentarse, durante el ciclo de vida de los procesos de negocio, a defectos en la calidad en dichas representaciones como, por ejemplo, la falta de entendibilidad y modificabilidad. Estos defectos se acentúan cuando los modelos de procesos de negocio han sido extraídos mediante ingeniería inversa (por ejemplo desde los sistemas de información que los soportan parcialmente). En este caso, la refactorización puede ser usada para modificar la representación de los procesos de negocio preservando su comportamiento externo. Este trabajo propone una técnica para seleccionar el conjunto de operadores de refactorización más apropiado en cada caso a fin de maximizar la mejora de entendibilidad y modificabilidad de los modelos de procesos de negocio. La técnica considera un conjunto de medidas presentes en la literatura para evaluar entendibilidad y modificabilidad, y define un conjunto de indicadores para dichas medidas para priorizar la aplicación de cada uno de los operadores de refactorización.
Autores: María Fernández-Ropero / Ricardo Pérez-Castillo / Mario Piattini /
Palabras Clave: Entendibilidad - Modelos de procesos de negocio - Modificabilidad - Refactorización
Autores: Aurora Vizcaíno / David Valencia / Juan Pablo Soto / Lilia García-Mundo / Mario Piattini /
Palabras Clave:
Los datos son uno de los activos más importantes de las organizaciones. Prueba de ello son las iniciativas que están surgiendo para disponer y analizar la mayor cantidad de datos posibles (efecto Big Data), pudiendo así poder descubrir patrones de comportamiento de posibles clientes. Así es frecuente que las organizaciones adquieran datos de terceras partes, datos que son usados como base para los procesos de negocio. Pero, en general, si los datos adquiridos no tienen un nivel de calidad adecuado, entonces no podrá extraerse de ellos el máximo rendimiento. Para evitar esto, es posible establecer acuerdos a niveles de servicio para la adquisición de datos, que es el principal objeto de este artículo. Para ello, se puede usar ISO 8000 partes 100 a 140, que tratan específicamente sobre el intercambio de datos maestros. Para facilitar dicho intercambio de datos, proponemos el uso de un framework que permite combinar los servicios web que satisfacen los correspondientes requisitos de la familia de estándares. Dicho framework consiste en dos componentes: I8K una arquitectura de servicio e ICS-API una interfaz de programación de aplicaciones que permite usar I8K-. La principal aportación de este artículo radica en describir cómo usar el framework para implementar los aspectos tecnológicos de los acuerdos a niveles de servicio, cuando la calidad de datos tiene que ser tenida en cuenta durante el intercambio de datos como parte de la operativa.
Autores: Ismael Caballero / Isabel Bermejo / Luisa Parody / Mª Teresa Gómez López / Rafael M. Gasca / Mario Piattini /
Palabras Clave: Acuerdo a nivel de servicio - Calidad de Datos - I8K - Intercambio de Datos Maestros - ISO 8000-1x0
La Arquitectura Empresarial (AE) se ha convertido en un impulsor y facilitador de la transformación digital en las empresas, ya que permite administrar TI y negocio de una forma holística e integrada al establecer conexiones entre las preocupaciones tecnológicas y la estratégica del negocio. El modelado de la AE es fundamental para representar con precisión el negocio y sus activos de TI de forma interrelacionada. Este modelado es importante cuando las empresas comienzan a administrar su AE, pero también cuando se remodela con el fin de conseguir su realineamiento en un mundo cambiante. La AE suele ser modelada por un grupo reducido de expertos de forma manual, lo que es propenso a errores, requiere mucho tiempo y dificulta la realineación continua. Por el contrario, otras propuestas de modelado automático de AE inspeccionan algunos artefactos como código fuente, bases de datos, servicios, etc. Las propuestas de modelado automatizado hasta la fecha se centran en el análisis de artefactos individuales con transformaciones aisladas hacia ArchiMate u otras notaciones y/o marcos de AE. As+AO0, en es-te artículo se propone un enfoque MDE mediante el uso de Knowledge Discovery Metamodel (KDM) para representar toda la información intermedia recuperada de los artefactos de los sistemas de información, que luego se transforma automáticamente en modelos ArchiMate. La contribución principal de este artículo es la transformación de modelos entre KDM y ArchiMate. La principal implicación de esta propuesta es que los modelos ArchiMate se generan automáticamente a partir de un repositorio de conocimiento común. De este modo, las relaciones entre arte-factos de diferente naturaleza se pueden explotar para obtener representaciones de AE más completas y precisas, favoreciendo además su realineamiento continuo.
Autores: Ricardo Pérez-Castillo / Andrea Delgado / Francisco Ruiz / Virginia Bacigalupe / Mario Piattini /
Palabras Clave: ArchiMate - Arquitectura Empresarial - ATL - Knowledge Discovery Metamodel - MDE - Model Transformation
Durante la ejecución de procesos de negocios que implican a varias
organizaciones, normalmente se intercambian Datos Maestros. Es necesario que dichos datos tengan niveles adecuados de calidad, ya que de otro modo, puede ocurrir que los procesos de negocio fallen. Si los datos intercambiados llevasen información sobre su nivel de calidad, entonces sería posible decidir si pueden
usarse o no en dichos procesos. Las partes 100 a 140 de ISO/TS 8000 pueden ayudar a proporcionar esta información de forma usable. En concreto I8K, una implementación de referencia con fines académicos del citado estándar, puede ser usado para tal fin. Lamentablemente, la eficiencia de I8K cae cuando se trata de evaluar la calidad de grandes volúmenes de Datos Maestros. Este artículo describe la extensión realizada sobre la arquitectura I8K para solventar los problemas de rendimiento al evaluar grandes volúmenes de datos utilizando tecnologías Big Data.
Autores: Bibiano Rivas / Jorge Merino / Manuel Serrano / Ismael Caballero / Mario Piattini /
Palabras Clave: Big Data - Calidad de Datos - I8K – Intercambio de datos Maestros
Artículo Relevante ya publicado:Título: A systematic mapping study about socio-technical congruenceAutores: José María Sierra, Aurora Vizcaíno, Marcela Genero, Mario PiattiniNombre de la conferencia o revista de publicación: Information and Software Technology Número: Volume 94Mes: Februaro Año de la publicación: 2018 (Es importante resaltar que se aceptó el 6 de Octubre de 2017 por lo cual cumple los requisitos)Páginas: 111-129 DOI: https://doi.org/10.1016/j.infsof.2017.10.004Indicios de calidad (factor de impacto, número de citas, etc): ( posición de la revista: 16/106, factor de impacto: 2.694, puesto que se publicó en febrero de 2018 todavía no tiene citas)
Autores: José María Sierra / Aurora Vizcaíno / Marcela Genero / Mario Piattini /
Palabras Clave: Coordination - Distributed and Global Software Development - Socio-technical Congruence
Every company wishes to improve its system quality and security, all the more soin these times of digital transformation, since having a good quality and security management system is essential to any company+IBk-s commercial survival. Such needs are even more pressing for small and medium-sized enterprises (SMEs), given their limited time and resources. To address these needs, a Spanish company, Proceso Social, has developed an innovative method called +IBw-SevenWeeks+IB0 to allow SMEs to create or improve their quality and security management systems in just seven weeks, with a view to obtaining one or both of the ISO 9001 and ISO/IEC 27001 certifications. We have evaluated the effectiveness and usefulness of SevenWeeks by carrying out a multi-case study of 26 Spanish companies, based on independent sources of evidence. This allowed us to corroborate that SevenWeeks was indeed effective for and perceived as usefulby all the companies, as it enabled them to create their own quality and security management systems in only seven weeks and to obtain the necessary ISO certification. The interviewees found SevenWeeks to be an agile and intuitive method, easy to implement, which reduces costs and effort. We also include some recommendations to improve and further develop the method.
Autores: Domingo Gaitero / Marcela Genero / Mario Piattini /
Palabras Clave: ISO 9001 - ISO/IEC 27001 - multi-case study - quality management system - security management system - SME
La sostenibilidad es un requisito de calidad que debe tenerse en cuenta a la hora de desarrollar el software. Sin embargo, es posible que existan ciertos conflictos entre el resto de características de calidad que tiene que cumplir un producto software y la sostenibilidad. Teniendo esto en cuenta, en este artículo se ha realizado un estudio de las interacciones existentes entre las características de calidad del producto software y la sostenibilidad dentro del contexto de las aplicaciones software. Para ello, se ha realizado una SMS (Systematic Mapping Study) obteniendo como resultado que la interacción entre la eficiencia del rendimiento y la eficiencia energética es la más estudiada y analizada y que esa interacción es bastante positiva. Además, parece existir una interacción positiva entre la fiabilidad y la usabilidad con respecto a la eficiencia energética, por el contrario, la seguridad tiene un impacto negativo en la eficiencia energética. Por otro lado, la idoneidad funcional y la mantenibilidad pueden tener tanto un impacto positivo como negativo en los diferentes objetivos de la sostenibilidad. En definitiva, se ha detectado que es necesario realizar un esfuerzo mayor de investigación para determinar el impacto que existe en las interacciones entre las características tradicionales de calidad del software y la sostenibilidad. Finalmente, destacar que las propuestas existentes deberían ser validadas en entornos industriales.
Autores: Gabriel Alberto García-Mireles / Ma Ángeles Moraga / Felix Garcia / Coral Calero / Mario Piattini /
Palabras Clave: Software - Software Quality Assessment - Sustainability
En la actualidad, las empresas se encuentran con el hecho de que sus sistemas de información empiezan a encontrarse obsoletos y sin apenas capacidad de maniobra para afrontar los cambios tanto tecnológicos como negocio que pueden surgir (y surgirán). El principal problema de esta obsolescencia es la cantidad de conocimiento embebido en el portafolio de sistemas de las empresas. Esto hace que la opción de desechar los sistemas actuales y sustituirlos por otros nuevos sea una opción que no resulta viable. La arquitectura orientada a servicios, también conocida como SOA, puede verse como otra fase dentro de la evolución del software, y que permite dotar a la infraestructura software de las empresas de esa flexibilidad de que en estos momentos adolece. Por ello, es posible que ésta sea la opción más adecuada ante la disyuntiva que se presenta con los sistemas heredados, permitiendo que los mismos evolucionen hacia este paradigma tecnológico. Este trabajo presenta una versión inicial de un entorno para la generación de especificaciones en SoaML a partir de sistemas heredados, facilitando así la migración de estos sistemas hacia el paradigma SOA.
Autores: Ignacio García-Rodríguez de Guzmán / Ricardo Pérez-Castillo / Mario Piattini /
Palabras Clave: KDM - legacy system - rchitecture-Driven Modernization - service elicitation - service migration - SoaML
Developing low quality software (with design flaws, poor quality code, etc) lead to a product with an inner cost that could be measured by using technical debt, that could be consider as the economical effort to solve all the existing design problems of a given software. As time goes on, software quality is acquiring new dimensions, and one of the most important one in the recent years (required by our society) is Software Sustainability, that could be understood as the degree of environmental-friendliness of a soft-ware system. So, following the idea of technical debt, we propose the concept of Ecological Debt which purpose is to measure the economical effort to develop a sustainable software following the Green-in principles.
Autores: Ignacio García-Rodríguez de Guzmán / Felix Oscar García / María Ángeles Moraga / Mario Piattini /
Palabras Clave: ecological debt - greenability - software sustainability - technical debt