Introducción
La aparición de la Explicabilidad de la IA (XAI), ha supuesto durante los últimos años, un gran avance a la hora de hacer que los modelos de Inteligencia Artificial (AI) sean más entendibles y explicables para los seres humanos. Dentro de la XAI, durante los últimos años, muchos de los esfuerzos se han enfocado en el desarrollo e investigación de las Explicaciones Contrafácticas (CFE) ya que estas permite describir que cambios son necesarios para que la predicción de una observación pueda verse modificada. Este impulso de las CFE se ve en parte realizado ya que los usuarios obtienen facilidades para entender los black-box models mediante la construcción de explicaciones a través de respuestas a preguntas del tipo: “¿Que cambios tendría que hacer en X para cambiar la predicción de la clase A a la clase B?”. Para la construcción de este tipo de preguntas, las CFE hacen uso de los Ejemplos Contrafácticos (CF) que pueden ser definidos conceptualmente como una recomendación del conjunto más pequeño de cambios que un usuario debería hacer para obtener un cambio en la predicción. Para poder obtener los cambios en la predicción, los CF buscan que el resultado de su predicción sea lo más cercano posible a la predicción sobre las que se están generando las CFE debido a que esto permite obtener explicaciones realistas y plausibles.
El uso de los CF para la obtención de explicaciones que permitan aproximar los black-box models a los usuarios ha provocado un gran desarrollo de su uso en problemas de clasificación. Muestras de este desarrollo encontramos frameworks como MACE que realiza la búsqueda de CF mediante garantizar que estos cumplen restricciones estructurales, DiCE que realiza la búsqueda de varios CF para una misma predicción haciendo uso de distintos métodos de optimización o FACET que realiza la búsqueda de CF mediante la división del espacio de respuesta en regiones contrafactuales. Sin embargo, cuando se trata de afrontar problemas de regresión, el desarrollo de frameworks propios de este tipo de problema no se ha visto tan desarrollado. Esto puede observarse en que la mayoría de propuestas se basan en la adaptación de frameworks aplicados a la clasificación como DiCE o CARE en el que utiliza un agente de refuerzo para aprender a generar CF, la conversión del problema de regresión en un problema de clasificación binario mediante la división del espacio de respuesta a través de un umbral, o la conversión del problema de regresión en un problema de optimización.
Ante esta falta de frameworks propios para la generación de CF en los problemas de regresión, en este artículo se propone FUCO. Este framework permite la generación de CE en problemas de regresión a través de conjuntos de observaciones cuya predicción es similar. Estas agrupaciones son definidas en el espacio de respuesta mediante la división de este en regiones según las restricciones y limitaciones que pueden definir los usuarios del modelo mediante umbrales. Dentro de estas regiones se encuentra el espacio de negociación que es la zona en la que se encuentran los CF que pueden ser utilizados para producir un cambio en la predicción.
En este Jupyter-Book se reúne toda la información que ha sido utilizada para la construcción del framework y que ha sido utilizada para la escritura del artículo científico enviado al congreso IDEAL.