Motor de inferencia paralelo en una arquitectura heterogénea (multinúcleo y GPGPU) para la optimización en la deducción de información implícita en las bases de datos
Resumen
El objetivo fue optimizar la deducción de información implícita en las bases de datos, mediante el uso de un motor de inferencia paralelo en una arquitectura heterogénea (multinúcleo y GPGPU). Se ideó, diseñó e implementó una propuesta de un modelo de un motor de inferencia paralelo en una arquitectura heterogénea; en base a sentencias lógicas expresadas en forma normal conjuntiva (FNC), soportadas en estructuras de datos unidimensionales. La validación se realizó mediante la implementación de un prototipo, con el que se experimentó ejecutando procesos de inferencia y disminuyó tiempos de ejecución. Se logró una optimización de hasta en un 72.42% en una arquitectura multinúcleo y de hasta 93.01 en una arquitectura GPGPU; lo que, permitió incrementos de eficiencia (medida con la métrica SpeedUp), superior a 3 veces en una arquitectura multinúcleo y superior a 14 veces en una arquitectura GPGPU. Para la proyección de tiempos de procesamiento se logró correlacionar a funciones polinómicas de grado 3, con un coeficiente de determinación de 0.99. En conclusión, los porcentajes de optimización e incrementos de eficiencia obtenidos con la propuesta del motor de inferencia paralelo, son bastante aceptables, que viabilizan su inclusión como parte de los sistemas de gestión administrativa.