Ingeniería y Ciencia de Datos
URI permanente para esta colección:
Artículos en la categoría Ingeniería y Ciencia de Datos publicados en las Actas de las XXVII Jornadas de Ingeniería del Software y Bases de Datos (JISBD 2023).
Examinar
Examinando Ingeniería y Ciencia de Datos por Título
Mostrando 1 - 20 de 29
Resultados por página
Opciones de ordenación
Resumen A reference framework for the implementation of data governance systems for industry 4.0Yebenes, Juan; Zorrilla, Marta Elena. Actas de las XXVII Jornadas de Ingeniería del Software y Bases de Datos (JISBD 2023), 2023-09-12.The fourth industrial revolution, or Industry 4.0, represents a new stage of evolution in the organization, management and control of the value chain throughout the product or service life cycle. This is mainly based on the digi-talization of the industrial environment by means of the convergence of In-formation Technologies (IT) and operational Technologies (OT) through cyber-physical systems and the Industrial IoT (IIoT) and the use of data gen-erated in real time for gaining insights and making decisions. Therefore, data becomes a critical asset for Industry 4.0 and must be managed and governed like a strategic asset. We rely on Data Governance (DG) as a key instrument for carrying out this transformation. This paper presents the design of a spe-cific governance frame-work for Industry 4.0. First, this contextualizes data governance for Industry 4.0 environments and identifies the requirements that this framework must address, which are conditioned by the specific fea-tures of Industry 4.0, among others, the intensive use of big data, the cloud and edge computing, the artificial intelligence and the current regulations. Next, we formally define a reference framework for the implementation of Data Governance Systems for Industry 4.0 using interna-tional standards and providing several examples of architecture building blocks.Artículo Arquitectura de un Framework para la Generación Automatizada de Datasets Temporales en Data LakesSal, Brian; de La Vega, Alfonso; López Martínez, Patricia; García-Saiz, Diego; Grande, Alicia; López, David; Sánchez Barreiro, Pablo. Actas de las XXVII Jornadas de Ingeniería del Software y Bases de Datos (JISBD 2023), 2023-09-12.En los últimos años, los data lakes se han popularizado como solución para el almacenamiento centralizado de grandes volúmenes de datos heterogéneos procedentes de fuentes dispares. Estos datos suelen tener un marcado carácter temporal, ya que los datos suelen extraerse periódicamente de diversas fuentes a diferentes frecuencias y se almacenan directamente en crudo. Por tanto, estos datos deben ser adecuadamente preprocesados antes de ser consumidos por las aplicaciones que los explotan. Esta tarea de preprocesamiento se realiza actualmente de manera manual, mediante la escritura de scripts en lenguajes de transformación de datos. Este proceso es laborioso, costoso y, por lo general, propenso a errores. Para tratar de aliviar este problema, este artículo presenta la arquitectura inicial de Hannah, un framework que busca automatizar la generación de datasets para la minería de series temporales a partir de datos en bruto provenientes de data lakes. El objetivo es que, utilizando la menor cantidad de información posible como entrada, el framework sea capaz de recuperar los datos requeridos del data lake y procesarlos para que encajen adecuadamente dentro de un dataset.Resumen Beyond TPC-DS, a benchmark for Big Data OLAP systems (BDOLAP-Bench)Tardío, Roberto; Maté, Alejandro; Trujillo, Juan. Actas de las XXVII Jornadas de Ingeniería del Software y Bases de Datos (JISBD 2023), 2023-09-12.Online Analytical Processing (OLAP) systems with Big Data support allow storing tables of up to tens of billions of rows or terabytes of data. At the same time, these tools allow the execution of analytical queries with interactive response times, thus making them suitable for the implementation of Business Intelligence applications. However, since there can be significant differences in query and data loading performance between current Big Data OLAP tools, it is worthwhile to evaluate and compare them using a benchmark. But we identified that none of the existing approaches are really suitable for this type of system. To address this, in this research we propose a new benchmark specifically designed for Big Data OLAP systems and based on the widely adopted TPC-DS benchmark. To overcome TPC-DS inadequacy, we propose (i) a set of transformations to support the implementation of its sales data mart on any current Big Data OLAP system, (ii) a choice of 16 genuine OLAP queries, and (iii) an improved data maintenance performance metric. Moreover, we validated our benchmark through its implementation on four representative systems.Artículo Chatbot based on clinical literature for decision supportSanchez-Montejo, Irene; Telleria-Orriols, Carlos; Trillo-Lado, Raquel. Actas de las XXVII Jornadas de Ingeniería del Software y Bases de Datos (JISBD 2023), 2023-09-12.Clinical practice guidelines try to provide the state-of-the-art in diagnostic and treatment methods for each disease, by a systematic review of the scientific evidence, but it can be difficult to keep up to date in a context of healthcare in constant evolution. Improvements in Deep Learning and Natural Language Processing have allowed to perform multiple applications, such as conversational agents (chatbots or virtual assistants), that are designed to simulate a human conversation. Language models behind these systems are able to analyze a huge collection of documents with unstructured data and extract the essential information from each one, easing the fast consultation of guidelines by practitioners and patients. This article provide an approach of a thesis plan to analyze different techniques and language models, and develop a chatbot able to answer according to clinical practice guidelines and other high-quality biomedical literature in a real-time decision support system for healthcare professionals, patients, and caregivers.Resumen CompareML: A Novel Approach to Supporting Preliminary Data Analysis Decision MakingFernández-García, Antonio Jesús; Preciado, Juan Carlos; Prieto Ramos, Álvaro E.; Sánchez-Figueroa, Fernando; Gutiérrez Gallardo, Juan Diego. Actas de las XXVII Jornadas de Ingeniería del Software y Bases de Datos (JISBD 2023), 2023-09-12.There are a large number of machine learning algorithms as well as a wide range of libraries and services that allow one to create predictive models. With machine learning and artificial intelligence playing a major role in dealing with engineering problems, practising engineers often come to the machine learning field so overwhelmed with the multitude of possibilities that they find themselves needing to address difficulties before actually starting on carrying out any work. Datasets have intrinsic properties that make it hard to select the algorithm that is best suited to some specific objective, and the ever-increasing number of providers together make this selection even harder. These were the reasons underlying the design of CompareML, an approach to supporting the evaluation and comparison of machine learning libraries and services without deep machine learning knowledge. CompareML makes it easy to compare the performance of different models by using well-known classification and regression algorithms already made available by some of the most widely used providers. It facilitates the practical application of methods and techniques of artificial intelligence that let a practising engineer decide whether they might be used to resolve hitherto intractable problems. Thus, researchers and engineering practitioners can uncover the potential of their datasets for the inference of new knowledge by selecting the most appropriate machine learning algorithm and determining the provider best suited to their data.Artículo Detección de Intrusiones en Redes de Comunicaciones Usando Minería de DatosCalvera, Arturo; Ilarri, Sergio; Tricas, Fernando. Actas de las XXVII Jornadas de Ingeniería del Software y Bases de Datos (JISBD 2023), 2023-09-12.Los ciberataques son una importante amenaza a la cual los/as ciudadanos/as están expuestos/as diariamente. En el contexto del proyecto NEAT-AMBIENCE, se aborda el diseño de técnicas de gestión de datos para ayudarles a enfrentarse a problemas modernos y mejorar sus vidas diarias. Por ello, en este trabajo en concreto, consideramos cómo ayudar a usuarios/as de sistemas informáticos a protegerse de ciberataques mediante técnicas de minería de datos. En particular, realizamos una evaluación experimental comparando el rendimiento de diversas técnicas de minería de datos, que muestra que dichas técnicas pueden ayudar a detectar diversos tipos de intrusiones. Además, hemos desarrollado una herramienta de apoyo a la evaluación y dos aplicaciones de detección de intrusiones, habiendo evaluado con una prueba de concepto su potencial utilización en un entorno real. El trabajo muestra cómo con las técnicas de gestión de datos apropiadas es posible proporcionar asistencia a los usuarios en la difícil tarea de proteger sus sistemas.Resumen Diagnosis and Prognosis of Mental Disorders by means of EEG and Deep Learning: A Systematic Mapping StudyRivera, Manuel J.; Teruel, Miguel A.; Maté, Alejandro; Trujillo, Juan. Actas de las XXVII Jornadas de Ingeniería del Software y Bases de Datos (JISBD 2023), 2023-09-12.Electroencephalography (EEG) is used in the diagnosis and prognosis of mental disorders because it provides brain biomarkers. However, only high-ly trained doctors can interpret EEG signals due to its complexity. Machine learning has been successfully trained with EEG signals for classifying mental disorders, but a time consuming and disorder-dependant feature en-gineering (FE) and subsampling process is required over raw EEG data. Deep Learning (DL) is positioned as a prominent research field to process EEG data because (i) it features automated FE by taking advantage of raw EEG signals improving results and (ii) it can be trained over the vast amount of data generated by EEG. In this work, a systematic mapping study has been performed with 46 carefully selected primary studies. Our goals were (i) to provide a clear view of which are the most prominent study top-ics in diagnosis and prognosis of mental disorders by using EEG with DL, and (ii) to give some recommendations for future works. Some results are: epilepsy was the predominant mental disorder present in around half of the studies, convolutional neural networks also appear in approximate 50% of the works. The main conclusions are (i) processing EEG with DL to detect mental disorders is a promising research field and (ii) to objectively com-pare performance between studies: public datasets, intra-subject validation, and standard metrics should be used. Additionally, we suggest to pay more attention to ease the reproducibility, and to use (when possible) an availa-ble framework to explain the results of the created DL models.Artículo Distributed algorithms for big spatial and spatio-textual query processingGarcia-Muñoz, Raul; García-García, Francisco; Corral, Antonio. Actas de las XXVII Jornadas de Ingeniería del Software y Bases de Datos (JISBD 2023), 2023-09-12.A vast amount of geo-referenced data is generated daily by mobile devices, GPS-enabled devices, and other sensors, increasing the importance of spatio-textual analyses of such data. Big Spatio-Textual Data requires new distributed processing technologies for managing, storing, analyzing, and visualizing large-scale spatio-textual data. Distributed Spatio-Textual Data Management Systems (DSTDMSs) consist of shared nothing clusters of computers specifically designed for distributed processing of large-scale spatio-textual data. This paper presents our emerging work on designing new storage methods and query processing algorithms for Apache Sedona (a recent open-source in-memory cluster computing system for spatial data processing) to support batch and streaming spatio-textual data processing. Our research aims to incorporate new partitioning methods and indexing mechanisms that will help to implement new (static and continuous) spatio-textual queries, especially distance-based spatio-textual joins. Finally, we will evaluate the new proposals with exhaustive experiments over Apache Sedona as a DSTDMS, analyzing and drawing conclusions from the experimental result.Resumen e-LION: Data integration semantic model to enhance predictive analytics in e-LearningPaneque, Manuel; García-Nieto, José Manuel; Roldán-García, María del Mar. Actas de las XXVII Jornadas de Ingeniería del Software y Bases de Datos (JISBD 2023), 2023-09-12.In the last years, Learning Management systems (LMSs) are acquiring great importance in online education, since they offer flexible integration platforms for organising a vast amount of learning resources, as well as for establishing effective communication channels between teachers and learners, at any direction. These online platforms are then attracting an increasing number of users that continuously access, download/upload resources and interact each other during their teaching/learning processes, which is even accelerating by the breakout of COVID-19. In this context, academic institutions are generating large volumes of learning-related data that can be analysed for supporting teachers in lesson, course or faculty degree planning, as well as administrations in university strategic level. However, managing such amount of data, usually coming from multiple heterogeneous sources and with attributes sometimes reflecting semantic inconsistencies, constitutes an emerging challenge, so they require common definition and integration schemes to easily fuse them, with the aim of efficiently feeding machine learning models. In this regard, semantic web technologies arise as a useful framework for the semantic integration of multi-source e-learning data, allowing the consolidation, linkage and advanced querying in a systematic way. With this motivation, the e-LION (e-Learning Integration ONtology) semantic model is proposed for the first time in this work to operate as data consolidation approach of different e-learning knowledge-bases, hence leading to enrich on-top analysis. For demonstration purposes, the proposed ontological model is populated with real-world private and public data sources from different LMSs referring university courses of the Software Engineering degree of the University of Malaga (Spain) and the Open University Learning. In this regard, a set of four case studies are worked for validation, which comprise advance semantic querying of data for feeding predictive modelling and time-series forecasting of students’ interactions according to their final grades, as well as the generation of SWRL reasoning rules for student’s behaviour classification. The results are promising and lead to the possible use of e-LION as ontological mediator scheme for the integration of new future semantic models in the domain of e-learning.Resumen Efficient distributed algorithms for distance join queries in spark-based spatial analytics systemsGarcía-García, Francisco; Corral, Antonio; Iribarne, Luis; Vassilakopoulos, Michael. Actas de las XXVII Jornadas de Ingeniería del Software y Bases de Datos (JISBD 2023), 2023-09-12.Apache Sedona (formerly GeoSpark) is a new in-memory cluster computing system for processing large-scale spatial data, which extends the core of Apache Spark to support spatial datatypes, spatial partitioning techniques, spatial indexes, and spatial operations (e.g., spatial range, nearest neighbor, and spatial join queries). It is actively under development by the Apache Software Foundation, and it has been recently graduated to as Apache Top Level Project. Other Spark-based spatial analytics systems have been also proposed in the literature, like Simba and LocationSpark, but currently they are not updated for long time. Distance-based Join Queries (DJQs), like nearest neighbor join (kNNJQ) or closest pairs queries (kCPQ), are used in numerous spatial applications (e.g., GIS, location-based systems, continuous monitoring streaming systems, etc.), but they are not supported by Apache Sedona. Therefore, in this paper, we investigate how to design and implement efficient DJQ distributed algorithms in Apache Sedona, using the most appropriate spatial partitioning, spatial indexing, and other optimization techniques (e.g., repartitioning and less data). The results of an extensive set of experiments with real-world datasets are presented, demonstrating that the proposed kNNJQ and kCPQ distributed algorithms are efficient (in terms of total execution time and memory requirements), scalable (varying k values, sizes of datasets and number of executors), and robust in Apache Sedona. Moreover, we have also experimentally compared Apache Sedona, LocationSpark and Simba, showing Apache Sedona the best performance for kCPQ in all cases, and for kNNJQ when the joined datasets are medium-sized, whereas LocationSpark is the winner for kNNJQ when the combined datasets are large-sized, and Simba shows the lowest performance in all considered cases. Finally, we can conclude that Apache Sedona shows the best performance for kCPQ and competitive results for kNNJQ.Resumen Enabling Efficient Distributed Spatial Join on Large Scale Vector-Raster Data LakesVillarroya Fernández, Sebastián; Ríos Viqueira, José Ramón; Cotos Yáñez, José Manuel; Taboada González, Jose A.. Actas de las XXVII Jornadas de Ingeniería del Software y Bases de Datos (JISBD 2023), 2023-09-12.Both the increasing number of GPS-enabled mobile devices and the geographic crowd-sourcing initiatives, such as Open Street Map, are determinants for the large amount of vector spatial data that is currently being produced. On the other hand, the automatic generation of raster data by remote sensing devices and environmental modeling processes was always leading to very large datasets. Currently, huge data generation rates are reached by improved sensor observation systems and data processing infrastructures. As an example, the Sentinel Data Access System of the Copernicus Program of the European Space Agency (ESA) was publishing 38.71 TB of data per day during 2020. This paper shows how the assumption of a new spatial data model that includes multi-resolution parametric spatial data types, enables achieving an efficient implementation of a large scale distributed spatial analysis system for integrated vector-raster data lakes. In particular, the proposed implementation outperforms the state-of-the-art Spark-based spatial analysis systems by more than one order of magnitude during vector raster spatial join evaluation.Artículo Evolución eficiente de bases de datos en la reingeniería de bibliotecas digitalesRamos-Vidal, Delfina; Rodríguez Brisaboa, Nieves. Actas de las XXVII Jornadas de Ingeniería del Software y Bases de Datos (JISBD 2023), 2023-09-12.A principios de los años 2000, hubo un gran esfuerzo mundial por desarrollar bibliotecas digitales que facilitasen el acceso a documentos digitalizados a través de Internet, dando lugar a grandes sistemas de información que permiten gestionar y consultar el contenido de estas bibliotecas. Dos décadas después, estos sistemas han ido quedando obsoletos y se quieren completar. En este artículo proponemos una herramienta para faciliar la evolución de grandes bases de datos documentales.Resumen GeoSPARQL Query Support for Scientific Raster Array DataAlmobydeen, Shahed Bassam; Ríos Viqueira, José Ramón; Lama Penín, Manuel. Actas de las XXVII Jornadas de Ingeniería del Software y Bases de Datos (JISBD 2023), 2023-09-12.Este artículo describe el diseño de una solución de procesamiento de consultas GeoSPARQL, llamada GeoLD, para datos raster científicos. La solución permite la implementación de endpoints SPARQL sobre servicios web que siguen el estándar Web Coverage Processing Service (WCPS) del OGC. Así, no será necesario incorporar funciones específicas de arrays raster en el lenguaje de consulta para habilitar la consulta semántica de este tipo de datos. Para lograr esto, en primer lugar se definen soluciones de mapeado entre coberturas raster y RDF, basadas en estándares bien conocidos de mapeado relacional-RDF del W3C. A continuación, el álgebra SPARQL se extiende con un nuevo operador que permite delegar parte de la consulta GeoSPARQL en el servicio WCPS. La optimización de consultas reemplaza las partes del plan de consulta SPARQL que pueden delegarse en el servicio WCPS por instancias de este nuevo operador WCPS. La implementación de un primer prototipo se ha realizado extendiendo el motor de consultas ARQ de Apache Jena. El componente Petascope proporciona la implementación del servicio WCPS sobre la base de datos de arrays raster Rasdaman. Una evaluación inicial con datos reales de tipo meteorológico muestra, como era de esperar, que GeoLD tiene un rendimiento mejor que una implementación de referencia GeoSPARQL basada en una base de datos espacial.Artículo Hacia el descubrimiento de datos geoespaciales y medioambientales basado en palabras claveRey Presas, Andrea; Ríos Viqueira, José Ramón; Martinez Casas, David; Luaces Cachaza, David. Actas de las XXVII Jornadas de Ingeniería del Software y Bases de Datos (JISBD 2023), 2023-09-12.En este artículo se introduce la motivación y los objetivos de una línea de investigación sobre descubrimiento de datos espacio-temporales basado en palabras clave, que se está iniciando en el grupo de investigación COGRADE de la Universidade de Santiago de Compostela. Los retos principales tienen que ver con la mejora de los métodos actuales de acceso para poder utilizarse durante el filtrado basado en palabras clave sobre propiedades no textuales y con conjuntos de gran volumen.Artículo Herramienta SIG para la consulta y gestión de datos de transporte público masivosRodríguez Brisaboa, Nieves; Gutiérrez-Asorey, Pablo; Letelier, Benjamín; Varela Rodeiro, Tirso. Actas de las XXVII Jornadas de Ingeniería del Software y Bases de Datos (JISBD 2023), 2023-09-12.En este proyecto presentamos una herramienta para los administradores del transporte público orientada a facilitar el análisis y la explotación de información de los movimientos de la ciudadanía en la red de transportes. Esta línea de investigación es especialmente relevante en vista de los cambios que la movilidad urbana está experimentando en los últimos años, incluyendo aquellos propiciados por la implantación de tarjetas de viajero para validar el acceso al transporte público. La solución que proponemos combina tecnologías SIG con estructuras de datos compactas para el almacenamiento y consulta de datos de movilidad en redes de transporte. En este artículo nos centraremos en detallar nuestra estrategia para almacenar e indexar los datos de movilidad.Resumen Human Activity Recognition From Sensorised Patient´s Data in Healthcare: A Streaming Deep Learning-Based ApproachHurtado Requena, Sandro; García-Nieto, José Manuel; Popov, Anton; Navas Delgado, Ismael. Actas de las XXVII Jornadas de Ingeniería del Software y Bases de Datos (JISBD 2023), 2023-09-12.Physical inactivity is one of the main risk factors for mortality, and its relationship with the main chronic diseases has experienced intensive medical research. A well-known method for assessing people’s activity is the use of accelerometers implanted in wearables and mobile phones. However, a series of main critical issues arise in the healthcare context related to the limited amount of available labeled data to build a classification model. Moreover, the discrimination ability of activities is often challenging to capture since the variety of movement patterns in a particular group of patients (e.g. obesity or geriatric patients) is limited over time. Consequently, the proposed work presents a novel approach for Human Activity Recognition (HAR) in healthcare to avoid this problem. This proposal is based on semi-supervised classification with Encoder-Decoder Convolutional Neural Networks (CNNs) using a combination strategy of public labeled and private unlabeled raw sensor data. In this sense, the model will be able to take advantage of the large amount of unlabeled data available by extracting relevant characteristics in these data, which will increase the knowledge in the innermost layers. Hence, the trained model can generalize well when used in real-world use cases. Additionally, real-time patient monitoring is provided by Apache Spark streaming processing with sliding windows. For testing purposes, a real-world case study is conducted with a group of overweight patients in the healthcare system of Andalusia (Spain), classifying close to 30 TBs of accelerometer sensor-based data. The proposed HAR streaming deep-learning approach properly classifies movement patterns in real-time conditions, crucial for long-term daily patient monitoring.Artículo Indexación de Colecciones Musicales Beneficiándose de la RepetitividadRomero-Velo, Hilda; Ladra, Susana; Paramá, José R.; Silva-Coira, Fernando. Actas de las XXVII Jornadas de Ingeniería del Software y Bases de Datos (JISBD 2023), 2023-09-12.Con el fin de poder realizar búsquedas por contenido en grandes colecciones de documentos musicales, se realiza un estudio de las últimas iniciativas y se proponen mejoras en eficiencia que explotan la repetitividad intrínseca a cada una de las obras. A diferencia de la búsqueda más común basada en audio, en este artículo se trabaja directamente con las características extraídas de las partituras representadas digitalmente siguiendo una propuesta publicada recientemente. En ella se indexan tales características utilizando el conocido motor de búsqueda Elasticsearch. Aquí presentamos una aproximación alternativa buscando optimizar el espacio utilizando dos técnicas de indexación comprimida de la familia Lempel–Ziv (LZ) centradas en el procesamiento de textos repetitivos. Tras el contraste de los resultados obtenidos frente a una selección de consultas, se constata una clara disminución en los espacios requeridos por nuestra aproximación sin impactar, o incluso mejorando, los tiempos de búsqueda por consulta. Esto abre las puertas a futuras investigaciones y desarrollos en el ámbito informático-musical acercándose a más usuarios gracias a la reducción de recursos computacionales.Artículo Laredo: democratización de análisis de flujos de datos para el mantenimiento predictivoDintén, Ricardo; Zorrilla, Marta Elena. Actas de las XXVII Jornadas de Ingeniería del Software y Bases de Datos (JISBD 2023), 2023-09-12.La llegada del IoT y la IA a las fábricas permitirá optimizar sus procesos productivos. Pero la complejidad del proceso de minería de datos, la escasez de profesionales cualificados y la falta de herramientas dirigidas a no expertos, frena su despliegue en el sector industrial. Por ello, en este trabajo se analiza la literatura científica relacionada con herramientas para el análisis de flujos de datos y se plantea una propuesta de servicio, dirigido a usuarios no expertos (no científicos de datos), que permita acercar la construcción de workflows científicos escalables y distribuidos enfocados al mantenimiento predictivo y prescriptivo para su despliegue sobre la arquitectura industrial RAI4.0.Artículo Metodología para identificar reglas de negocio de calidad de datos basada en ISO 25012Galera, Ramón; Gualo, Fernando; Caballero Muñoz-Reja, Ismael; Rodríguez Monje, Moisés. Actas de las XXVII Jornadas de Ingeniería del Software y Bases de Datos (JISBD 2023), 2023-09-12.En la actualidad, las organizaciones generan y manejan extensas cantidades de datos de forma continua con un fin particular, como puede ser la toma de decisiones adecuadas o la monitorización de ciertos parámetros. No solo es importante obtener los datos; el cómo se obtienen y el cómo se almacenan y mantienen tiene tanto o incluso más valor. La calidad de los datos es un factor clave para cualquier organización ya que, si sus datos no presentan un nivel de calidad adecuado, su uso no permitirá obtener los mejores resultados. Para mantener niveles de calidad adecuados es necesario que las organizaciones identifiquen los requisitos de datos o reglas de negocio que sus datos deben cumplir para el fin que se les va a dar. En esta línea, existe un modelo basado en ISO/IEC 25012 que permite realizar una evaluación de la calidad de datos a partir de los requisitos de una organización. En este artículo se presenta una metodología para facilitar la identificación y clasificación de las reglas de negocio para una organización, así como su asociación a cada una de las características de calidad de datos respecto al estándar ISO/IEC 25012.Artículo Onto-CARMEN: un enfoque basado en ontologías para el razonamiento y el metamodelado de requisitos de seguridad de los sistemas ciberfísicosBlanco Bueno, Carlos; Garcia Rosado, David; Varela Vaca, Ángel Jesús; Gómez-López, María Teresa; Fernandez-Medina, Eduardo. Actas de las XXVII Jornadas de Ingeniería del Software y Bases de Datos (JISBD 2023), 2023-09-12.En los últimos años, los sistemas ciberfísicos (CPS) están atrayendo una gran atención, especialmente en el sector industrial, ya que se han convertido en el foco de los ciberataques. Los CPS son sistemas complejos que engloban una gran variedad de componentes de hardware y software con un número incontable de configuraciones y características. Un requisito de seguridad no válido puede producir una configuración parcial o incompleta, incluso errónea, con las consiguientes consecuencias catastróficas. Por lo tanto, es crucial garantizar la validación en la especificación de los requisitos de seguridad desde las primeras etapas de diseño. Con este fin, se propone Onto-CARMEN, un enfoque semántico que proporciona un mecanismo para la especificación de los requisitos de seguridad en la parte superior de las ontologías, y el diagnóstico automático a través de axiomas semánticos y reglas SPARL. El enfoque se ha validado utilizando los requisitos de seguridad de un caso de estudio real.