Ingeniería y Ciencia de Datos
URI permanente para esta colección:
Artículos en la categoría Ingeniería y Ciencia de Datos publicados en las Actas de las XXV Jornadas de Ingeniería del Software y Bases de Datos (JISBD 2021).
Notificar un error en esta colección
Examinar
Envíos recientes
Resumen Datos de Sensores de Tráfico Semánticos: La Experiencia en TRAFAIRDesimoni, Federico; Ilarri, Sergio; Po, Laura; Rollo, Federica; Trillo-Lado, Raquel. Actas de las XXV Jornadas de Ingeniería del Software y Bases de Datos (JISBD 2021), 2021-09-22.Las ciudades modernas deben hacer frente a problemas urgentes relacionados con los sistemas de transporte, tales como la congestión del tráfico, la seguridad, la contaminación y los efectos en la salud. Para ello, las administraciones públicas han desplegado infraestructuras en las vías de comunicación, como cámaras y sensores para recoger datos sobre las condiciones ambientales y del tráfico. En el caso de los datos de los sensores de tráfico, no sólo los datos en tiempo real son esenciales, sino que los valores históricos también deben conservarse y publicarse. Cuando los datos históricos y en tiempo real de las ciudades inteligentes estén disponibles, ser+AOE posible iniciar un debate conjunto sobre la evolución futura de la ciudad basado en la evidencia. El proyecto TRAFAIR (Understanding Traffic Flows to Improve Air Quality) busca comprender cómo el tráfico afecta a la calidad del aire urbano. Para ello se desarrolla una plataforma para proporcionar datos y predicciones en tiempo real sobre la calidad del aire en varias ciudades de Europa, lo que implica, entre otras tareas, el despliegue de sensores de calidad del aire de bajo coste, la recopilación e integración de datos, el modelado y la predicción, la publicación de datos abiertos y el desarrollo de aplicaciones para usuarios finales y administraciones públicas. Este trabajo se centra explícitamente en el modelado y la anotación semántica de los datos de tráfico. En él presentamos las herramientas y técnicas utilizadas en el proyecto y validamos nuestras estrategias para el modelado de datos y su enriquecimiento semántico en dos ciudades: Módena (Italia) y Zaragoza (España). La evaluación experimental incluida muestra que nuestra aproximación para publicar datos enlazados es eficaz.Resumen An index for moving objects with constant-time access to their compressed trajectoriesRodríguez Brisaboa, Nieves; Gagie, Travis; Gómez Brandón, Adrián; Navarro, Gonzalo; Paramá, José R.. Actas de las XXV Jornadas de Ingeniería del Software y Bases de Datos (JISBD 2021), 2021-09-22.As the number of vehicles and devices equipped with GPS technology has grown explosively, an urgent need has arisen for time- and space-efficient data structures to represent their trajectories. The most commonly desired queries are the following: queries about an object's trajectory, range queries and nearest neighbor queries. In this paper we consider that the objects can move freely and we present a new compressed data structure for storing their trajectories, based on a combination of logs and snapshots, with the logs storing sequences of the objects' relative movements and the snapshots storing their absolute positions sampled at regular time intervals. We call our data structure ContaCT because it provides Constant-time access to Compressed Trajectories. Its logs are based on a compact partial-sums data structure that returns cumulative displacement in constant time, and allows us to compute in constant time any object's position at any instant, enabling a speedup when processing several other queries. We have compared ContaCT experimentally with another compact data structure for trajectories, called GraCT, and with a classic spatio-temporal index, the MVR-tree. Our results show that ContaCT outperforms the MVR-tree by orders of magnitude in space and also outperforms the compressed representation in time performance.Resumen A decision-making support system for Enterprise Architecture ModellingPérez-Castillo, Ricardo; Ruiz-González, Francisco; Piattini Velthuis, Mario Gerardo. Actas de las XXV Jornadas de Ingeniería del Software y Bases de Datos (JISBD 2021), 2021-09-22.Companies are increasingly conscious of the importance of Enterprise Architecture (EA) to represent and manage IT and business in a holistic way. EA modelling has become decisive to achieve models that accurately represents behaviour and assets of companies and lead them to make appropriate business decisions. Although EA representations can be manually modelled by experts, automatic EA modelling methods have been proposed to deal with drawbacks of manual modelling, such as error-proneness, time-consumption, slow and poor re-adaptation, and cost. However, automatic modelling is not effective for the most abstract concepts in EA like strategy or motivational aspects. Thus, companies are demanding hybrid approaches that combines automatic with manual modelling. In this context there are no clear relationships between the input artefacts (and mining techniques) and the target EA viewpoints to be automatically modelled, as well as relationships between the experts' roles and the viewpoints to which they might contribute in manual modelling. Consequently, companies cannot make informed decisions regarding expert assignments in EA modelling projects, nor can they choose appropriate mining techniques and their respective input artefacts. This research proposes a decision support system whose core is a genetic algorithm. The proposal first establishes (based on a previous literature review) the mentioned missing relationships and EA model specifications. Such information is then employed using a genetic algorithm to decide about automatic, manual or hybrid modelling by selecting the most appropriate input artefacts, mining techniques and experts. The genetic algorithm has been optimized so that the system aids EA architects to maximize the accurateness and completeness of EA models while cost (derived from expert assignments and unnecessary automatic generations) are kept under control.Artículo Bringing SPARQL to compact data structuresRamos-Vidal, Delfina; de Bernardo Roca, Guillermo. Actas de las XXV Jornadas de Ingeniería del Software y Bases de Datos (JISBD 2021), 2021-09-22.We present an architecture for the efficient storing and querying of large RDF datasets. Our proposal aims at storing RDF datasets in very reduced space while providing full SPARQL support. To do this, our solution builds on top of HDT, an RDF serialization framework, and its integration with the Jena query engine. We propose a set of extensions to this framework, in order to integrate a variety of space-efficient compact data structures as the underlying data representation, while taking advantage of the high-level capabilities to answer SPARQL queries. Our proposal provides a common mechanism to apply low-level data structures in complex query scenarios involving SPARQL queries, usually not supported by these solutions.Resumen Tool for materializing OWL ontologies in a column-oriented databaseReyes-Álvarez, Liudmila; Roldán-García, María del Mar; Aldana-Montes, José F.. Actas de las XXV Jornadas de Ingeniería del Software y Bases de Datos (JISBD 2021), 2021-09-22.El término Linked Data, o Datos Vinculados, hace referencia a conjuntos de datos interconectados y estructurados semánticamente, que están descritos con el lenguaje RDF (Resource Description Framework). Sobre los datos RDF se suelen construir vocabularios y ontologías con lenguajes como OWL (Web Ontology Language), que ayudan a estructurar el dominio de conocimiento de los datos. El éxito de los Linked Data es tal, que la Linked data cloud, o la Nube de Datos Vinculados, es actualmente la fuente de datos estructurada más grande de la historia y, por tanto, ofrece un entorno muy interesante tanto para realizar consultas, como para realizar razonamiento formal sobre los datos, aprovechando las capacidades de las ontologías. Debido al tamaño de los Linked Data, estas técnicas de razonamiento deben ser altamente escalables, y basadas en algoritmos paralelos y distribuidos. Además, la rapidez con la que evolucionan los Linked Data insinúa que estas técnicas de razonamiento deben ser incrementales para ofrecer resultados en tiempo real. Desde nuestro punto de vista, el primer paso para cumplir con estos desafíos es diseñar un modelo de almacenamiento de OWL/RDF optimizado, distribuido y masivo, que permita la implementación de algoritmos de razonamiento altamente escalables. En este contexto, han surgido las bases de datos NoSQL (Not Only SQL) como la infraestructura más utilizada para gestionar Big RDF Data. Además, las bases de datos NoSQL ofrecen la posibilidad de materializar de manera eficiente los resultados del razonamiento, abriendo as+AO0 el camino hacia el razonamiento incremental. Finalmente, las bases de datos NoSQL se han diseñado específicamente para proporcionar almacenamiento distribuido y escalable de grandes conjuntos de datos. En este artículo presentamos nuestra propuesta para materializar ontologías OWL, previamente clasificadas, en una base de datos NoSQL. Este proceso de materialización permite el almacenamiento distribuido de datos RDF aprovechando la distribución inherente de los nodos de la base de datos NoSQL. Además, esta propuesta supone el primer paso hacia un enfoque novedoso para el razonamiento OWL escalable, que permite, por tanto, el razonamiento escalable sobre Linked Data. Para validar nuestra propuesta, hemos desarrollado un prototipo de una herramienta que almacena una ontología OWL en una base de datos Cassandra siguiendo nuestro enfoque. Finalmente, presentamos nuestra estrategia de razonamiento para computar el cierre transitivo de la ontología OWL utilizando esta base de datos Cassandra.Artículo System for EIT reconstruction based on Machine Learning techniquesAller Domínguez, Martín; Mera Pérez, David; Cotos Yáñez, José Manuel; Díaz Lago, Ledicia. Actas de las XXV Jornadas de Ingeniería del Software y Bases de Datos (JISBD 2021), 2021-09-22.Electrical Impedance Tomography (EIT) is a non-invasive technique that can be used to obtain information from inside bodies. To reconstruct internal body images using EIT, it is necessary to solve a mathematical ill-posed problem called inverse problem. We have developed a software called SageTomo that is able to reconstruct EIT images using Machine Learning techniques to solve the inverse problem. Furthermore, SageTomo allows users both to train and store Machine Learning models for EIT reconstruction, as well as to generate and store datasets for training these models.Artículo Utilización de estructuras compactas para la generalización cartográfica de información geográfica vectorialRodríguez Brisaboa, Nieves; Cortiñas, Alejandro; Gutiérrez-Asorey, Pablo; Rodríguez Luaces, Miguel; Varela Rodeiro, Tirso. Actas de las XXV Jornadas de Ingeniería del Software y Bases de Datos (JISBD 2021), 2021-09-22.A pesar de la madurez tecnológica de los Sistemas de Información Geográfica, todavía existen retos de investigación relevantes en el campo relacionados con las problemáticas del almacenamiento y representación eficientes de la información. En este trabajo presentamos un proyecto de investigación en curso centrado en el desarrollo de nuevas estructuras de datos para almacenar información geográfica para contextos en los que se espera que se genere una cantidad de datos inmensa.Resumen BIGOWL: Knowledge Centered Big Data AnalyticsBarba-González, Cristóbal; García-Nieto, José Manuel; Roldán-García, María del Mar; Navas Delgado, Ismael; Nebro, Antonio J.; Aldana-Montes, José F.. Actas de las XXV Jornadas de Ingeniería del Software y Bases de Datos (JISBD 2021), 2021-09-22.En las últimas décadas el aumento de fuentes de información en diferentes campos de la sociedad desde la salud hasta las redes sociales ha puesto de manifiesto la necesidad de nuevas técnicas para su análisis, lo que se ha venido a llamar el Big Data. Los problemas clásicos de optimización no son ajenos a este cambio de paradigma, como por ejemplo el problema del viajante de comercio (TSP), ya que se puede beneficiar de los datos que proporciona los diferentes sensores que se encuentran en las ciudades y que podemos acceder a ellos gracias a los portales de Open Data. Cuando estamos realizando análisis, ya sea de optimización o machine learning en Big Data, una de las formas más usada de abordarlo es mediante workflows de análisis. Estos están formados por componentes que hacen cada paso del análisis. El flujo de información en workflows puede ser anotada y almacenada usando herramientas de la Web Semántica para facilitar la reutilización de dichos componentes o incluso el workflow completo en futuros análisis, facilitando as+AO0, su reutilización y a su vez, mejorando el proceso de creación de estos. Para ello se ha creado la ontología BIGOWL, que permite trazar la cadena de valor de los datos de los workflows mediante semántica y además ayuda al analista en la creación de workflow gracias a que va guiando su composición con la información que contiene por la anotación de algoritmos, datos, componentes y workflows. La problemática que ha abordado y resuelto BIGOWL se encuentra en dar estructura a esta información para poder ser integrada en los componentes. Para para validar el modelo semántico, se presentan una serie de consultas SPARQL y reglas de razonamiento para guiar el proceso de creación y validación de dos casos de estudio, que consisten en: primero, el procesamiento en streaming de datos de tráfico real con Spark para la optimización de rutas en el entorno urbano de la ciudad de Nueva York+ADs y segundo, clasificación usando algoritmos de minería de datos de un conjunto de datos académicos como son los de la flor de Iris.Resumen Crowdsourcing Espacial con Agentes Móviles en Redes de VehículosUrra, Oscar; Ilarri, Sergio. Actas de las XXV Jornadas de Ingeniería del Software y Bases de Datos (JISBD 2021), 2021-09-22.En los últimos años, la industria del automóvil ha mostrado interés en la incorporación de dispositivos informáticos y de comunicación en los automóviles, gracias a avances tecnológicos en estos campos, con el fin de satisfacer la creciente demanda de aplicaciones y servicios +ACI-conectados+ACI. Aunque las redes ad hoc vehiculares (VANET) aún no se han desarrollado por completo, podrían usarse en un futuro cercano como medio para proporcionar diversas aplicaciones y servicios relevantes que necesitan el intercambio de datos entre vehículos y otras fuentes de datos. En este artículo, proponemos un esquema de crowdsourcing espacial para la recopilación oportunista de información dentro de un área de interés en una ciudad o región (por ejemplo, para obtener mediciones sobre el medio ambiente, como la concentración de ciertos gases en la atmósfera, o información como la disponibilidad de plazas de aparcamiento en un área), utilizando comunicaciones vehiculares ad hoc. Presentamos un método que aprovecha la tecnología de agentes móviles para lograr la recopilación distribuida y la consulta de datos entre vehículos en dicho escenario. La propuesta est+AOE respaldada por un extenso conjunto de simulaciones realistas que demuestran la viabilidad de la aproximación presentada.Artículo Desarrollo dirigido por modelos de políticas de seguridad en bases de datos orientadas a grafosBlanco Bueno, Carlos; Garcia Rosado, David; Fernandez-Medina, Eduardo. Actas de las XXV Jornadas de Ingeniería del Software y Bases de Datos (JISBD 2021), 2021-09-22.La importancia de la seguridad de los datos est+AOE aumentando actualmente en todo el mundo debido al enorme número de transacciones de información que se producen continuamente. Cantidades cada vez mayores de datos, incluyendo información sensible y personal, se cargan en NoSQL y otras tecnologías de Big Data para su análisis y procesamiento. Sin embargo, los enfoques de seguridad actuales no tienen en cuenta las características especiales de estas tecnologías, dejando los datos sensibles y personales sin protección y arriesgándose as+AO0 a sufrir graves pérdidas monetarias y daños a la marca. En este artículo, nos centramos en garantizar la seguridad de las bases de datos NoSQL orientadas a grafos siguiendo paradigmas como la +ACI-seguridad por diseño+ACI y la +ACI-ingeniería dirigida por modelos+ACI. Para ello, proponemos un metamodelo que permite al diseñador modelar las políticas de seguridad sobre las estructuras específicas de las bases de datos orientadas a grafos y una serie de transformaciones que permiten obtener de forma automatizada su correspondiente implementación en un gestor de bases de datos orientadas a grafos concreto, Neo4J. Por último, aplicamos el marco propuesto a un caso de estudio del ámbito sanitario.Artículo BrEarth: Tecnología de almacenes de datos para el cerebro de la tierraMartinez Casas, David; Ríos Viqueira, José Ramón; Taboada González, Jose A.. Actas de las XXV Jornadas de Ingeniería del Software y Bases de Datos (JISBD 2021), 2021-09-22.En este artículo se describen de forma breve los requisitos de una nueva tecnología para la construcción de almacenes de datos en el ámbito de la observación y modelado ambientalResumen Fostering Sustainability through Visualization Techniques for Real-Time IoT Data: A Case Study Based on Gas Turbines for Electricity ProductionLavalle, Ana; Teruel, Miguel A.; Maté, Alejandro; Trujillo, Juan. Actas de las XXV Jornadas de Ingeniería del Software y Bases de Datos (JISBD 2021), 2021-09-22.Improving sustainability is a key concern for industrial development. Industry has recently been benefiting from the rise of IoT technologies, leading to improvements in the monitoring and breakdown prevention of industrial equipment. In order to properly achieve this monitoring and prevention, visualization techniques are of paramount importance. However, the visualization of real-time IoT sensor data has always been challenging, especially when such data are originated by sensors of different natures. In order to tackle this issue, we propose a methodology that aims to help users to visually locate and understand the failures that could arise in a production process.This methodology collects, in a guided manner, user goals and the requirements of the production process, analyzes the incoming data from IoT sensors and automatically derives the most suitable visualization type for each context. This approach will help users to identify if the production process is running as well as expected+ADs thus, it will enable them to make the most sustainable decision in each situation. Finally, in order to assess the suitability of our proposal, a case study based on gas turbines for electricity generation is presented.Resumen Improving Distance-Join Query Processing with Voronoi-Diagram based Partitioning in SpatialHadoopGarcía-García, Francisco; Corral, Antonio; Iribarne, Luis; Vassilakopoulos, Michael. Actas de las XXV Jornadas de Ingeniería del Software y Bases de Datos (JISBD 2021), 2021-09-22.SpatialHadoop is an extended MapReduce framework supporting global indexing techniques that partition spatial datasets across several machines and improve spatial query processing performance compared to traditional Hadoop systems. SpatialHadoop supports several spatial operations (e.g.,K Nearest Neighbor search, range query, spatial intersection join, etc.) and seven spatial partitioning techniques (Grid, Quadtree, STR, STR+ACs, k-d tree, Z-curve and Hilbert-curve). Distance-Join Queries (DJQs), like the K Nearest Neighbors Join Query (KNNJQ) and K Closest Pairs Query (KCPQ), are common operations used in numerous spatial applications. DJQs are costly operations, since they combine spatial joins with distance-based search. Data partitioning improves the management of large datasets and speeds up query performance.Therefore, performing DJQs efficiently with new partitioning methods in SpatialHadoop is a challenging task. In this paper, a new data partitioning technique based on Voronoi-Diagrams is designed and implemented in SpatialHadoop. Moreover, improved KNNJQ and KCPQ MapReduce algorithms, using the new partitioning mechanism, are also designed and developed for SpatialHadoop. Finally, the results of an extensive set of experiments with real-world datasets are presented, demonstrating that the new partitioning technique and the improved DJQ MapReduce algorithms are efficient, scalable and robust in SpatialHadoop.Resumen Semantrix: A Compressed Semantic MatrixRodríguez Brisaboa, Nieves; Fariña, Antonio; Navarro, Gonzalo; Varela Rodeiro, Tirso. Actas de las XXV Jornadas de Ingeniería del Software y Bases de Datos (JISBD 2021), 2021-09-22.We present a compact data structure to represent both the duration and length of homogeneous segments of trajectories from moving objects in a way that, as a data warehouse, it allows us to efficiently answer cumulative queries. The division of trajectories into relevant segments has been studied in the literature under the topic of Trajectory Segmentation. In this paper, we design a data structure to compactly represent them and the algorithms to answer the more relevant queries. We experimentally evaluate our proposal in the real context of an enterprise with mobile workers (truck drivers) where we aim at analyzing the time they spend in different activities. To test our proposal under higher stress conditions we generated a huge amount of synthetic realistic trajectories and evaluated our system with those data to have a good idea about its space needs and its efficiency when answering different types of queries.Artículo Integración de algoritmos de Machine Learning en Bases de Datos de ArraysVillarroya Fernández, Sebastián; Rey Presas, Andrea; Berges, Adrián. Actas de las XXV Jornadas de Ingeniería del Software y Bases de Datos (JISBD 2021), 2021-09-22.La integración de algoritmos de aprendizaje automático en bases de datos de arrays ha sido una línea de investigación a la que no se le ha dedicado un gran esfuerzo investigador durante mucho tiempo. Sin embargo, en los últimos años se ha experimentado una explosión en la cantidad de trabajo investigador en este campo. En esta propuesta de trabajo se introducen las bases de datos de arrays y se proponen una serie de objetivos obtenidos a partir de algunos de los principales problemas encontrados en la literatura actual.Artículo Aplicación de la lógica difusa en la medición y mejora de la congruencia socio-técnica en proyectos distribuidos de softwareManjavacas, Antonio; Vizcaíno, Aurora; Olivas, José Ángel. Actas de las XXV Jornadas de Ingeniería del Software y Bases de Datos (JISBD 2021), 2021-09-22.La actual tendencia a la descentralización en el desarrollo de software ha supuesto múltiples retos relacionados con la comunicación y la coordinación entre equipos de trabajo geográficamente distribuidos. Estas dificultades han motivado el desarrollo de una métrica, denominada Congruencia Socio-Técnica (STC), cuyo objetivo es medir la disparidad entre los requisitos de coordinación de las organizaciones y las actividades de coordinación que realmente están siendo llevadas a cabo. Este trabajo propone la incorporación de razonamiento aproximado y conocimiento experto en el desarrollo de FENCE, una herramienta orientada a medir y mejorar los niveles de STC en el marco de las organizaciones. Por un lado, FENCE supone un avance en la medición de la STC, al hacer uso de la lógica difusa para mejorar, humanizar y flexibilizar su cálculo. Por otro lado, FENCE ofrece un sistema experto destinado a mejorar los niveles de STC de las organizaciones, aportando as+AO0 soluciones a los problemas de comunicación y coordinación existentes. La herramienta, evaluada por múltiples profesionales del sector TI, ha supuesto un avance con respecto a las propuestas existentes, logrando aumentar la concienciación de sus usuarios en materia de comunicación y colaboración.Resumen Efficient Distance Join Query Processing in Distributed Spatial Data Management SystemsGarcía-García, Francisco; Corral, Antonio; Iribarne, Luis; Vassilakopoulos, Michael; Manolopoulos, Yannis. Actas de las XXV Jornadas de Ingeniería del Software y Bases de Datos (JISBD 2021), 2021-09-22.Due to the ubiquitous use of spatial data applications and the large amounts of such data these applications use, the processing of large-scale distance joins in distributed systems is becoming increasingly popular. Distance Join Queries(DJQs) are important and frequently used operations in numerous applications, including data mining, multi-media and spatial databases. DJQs (e.g., k Nearest Neighbor Join Query, k Closest Pair Query, +A7U Distance Join Query, etc.) are costly operations, since they involve both the join and distance-based search, and performing DJQs efficiently is a challenging task. Recent Big Data developments have motivated the emergence of novel technologies for distributed processing of large-scale spatial data in clusters of computers, leading to Distributed Spatial Data Management Systems(DSDMSs). Distributed cluster-based computing systems can be classified as Hadoop-based or Spark-based systems. Based on this classification, in this paper, we compare two of the most recent and leading DSDMSs, SpatialHadoop and LocationSpark, by evaluating the performance of several existing and newly proposed parallel and distributed DJQ algorithms under various settings with large spatial real-world datasets. A general conclusion arising from the execution of the distributed DJQ algorithms studied is that, while SpatialHadoop is a robust and efficient system when large spatial datasets are joined (since it is built on top of the mature Hadoop platform), LocationSpark is the clear winner in total execution time efficiency when medium spatial datasets are combined (due to in-memory processing provided by Spark). However, LocationSpark requires higher memory allocation when large spatial datasets are involved in DJQs (even more so when k and +A7U are large). Finally, this detailed performance study has demonstrated that the new distributed DJQ algorithms we have pro-posed are efficient, robust and scalable with respect to different parameters, such as dataset sizes, k, +A7U and number of computing nodes.Resumen Unleashing Constraint Optimisation Problem solving in Big Data environmentsValencia Parra, Álvaro; Varela Vaca, Ángel Jesús; Parody, Luisa; Gómez-López, María Teresa. Actas de las XXV Jornadas de Ingeniería del Software y Bases de Datos (JISBD 2021), 2021-09-22.The use of optimisation problems helps organisations manage their resources, time, and costs of their processes. The increase in the amount of consumable data, as well as the emergence of more sophisticated use cases, lead to a high number of variables and input data. Consequently, the resolution of huge quantities of Constraint Optimisation Problems (hereinafter, COPs), and the complexity of them, takes an extra effort to model and solve. In this paper, we aim at helping stakeholders model their COPs and integrate different data sources with the COP variables and input data, and solving the COPs in a distributed environment by means of Big Data techniques. In order to face these challenges, we developed FABIOLA (Fast Big Constraint Laboratory). It allows solving COPs from large datasets in a systematic way. It relies on several modern Big Data technologies, and we provide a user-friendly interface to facilitate the COP modelling, the execution of them, and the analysis of the results. The approach is applied to an industrial scenario, in which several electricity wholesale companies employ constraint optimisation techniques to optimise the tariff which their customers might hire. By means of asymptotic analysis, we evaluate the performance of our proposal, determining the degree to which the distribution of COPs improves the execution time with respect to the sequential execution as the complexity of the dataset increases. Promising results are obtained. FABIOLA isolates the resolution of COPs from where the data is located. Our systematic framework facilitates the integration of different data sources, the selection of the inputs of the COPs, the definition of optimisation models, their execution, and querying the results.Artículo Herramienta para la Visualización de la Movilidad durante la PandemiaCortiñas, Alejandro; Rodríguez Luaces, Miguel; Pedreira, Oscar. Actas de las XXV Jornadas de Ingeniería del Software y Bases de Datos (JISBD 2021), 2021-09-22.En este artículo presentamos una herramienta prototipo desarrollada entre los meses de mayo a julio del 2020, durante la situación de pandemia por el COVID-19, para mostrar la información de movilidad proporcionada por el gobierno. La herramienta pretende ser una prueba de concepto de aplicación ligera de análisis de datos espaciales, y fruto de este desarrollo surgieron varias ideas que se están llevando a cabo en la actualidad, y una nueva línea de investigación relacionada con la generación ágil de aplicaciones de mapas con indicadores gráficos mediante un lenguaje específico de dominio. Describimos aqu+AO0 la motivación, el diseño de la herramienta, y el producto desarrollado.