El recurso ofrece una forma de verificar y certificar los resultados de modelos complejos para que sean comprensibles y justos.
Un equipo internacional elaboró un manual sobre inteligencia artificial (IA) diseñado para mejorar la transparencia y la confianza en esta tecnología disruptiva, especialmente cuando se aplica a campos como la salud, las finanzas y el ámbito legal.
Este recurso, que coordinó la Universidad española de Granada (UGR), ofrece una forma de verificar y certificar los resultados de modelos complejos y contribuye al desarrollo de sistemas de IA que no solo sean efectivos, sino también comprensibles y justos.
En los últimos años, el uso de sistemas automáticos de apoyo a la toma de decisiones, como las Redes Neuronales Profundas (DNNs), ha crecido de manera significativa por su capacidad de predicción, pero su naturaleza opaca dificulta la interpretación detallada de su comportamiento y plantea riesgos éticos y de legitimidad.
Para abordar esta problemática, un equipo coordinado por la UGR presentó un manual exhaustivo de técnicas de inteligencia artificial explicable (XAI).
Le puede interesar: Jóvenes revolucionan la educación bilingüe con evaluaciones basadas en videojuegos e Inteligencia Artificial
Este recurso pretende convertirse en una guía esencial para profesionales de la informática que busquen comprender y explicar los resultados de modelos de Machine Learning.
Cada capítulo describe técnicas de IA aplicables en situaciones cotidianas, con ejemplos y cuadernos de trabajo, además de un manual de ayuda a los usuarios para conocer los requisitos necesarios para cada técnica y los beneficios de esta tecnología.
La directora de esta guía es la profesora del Departamento de Ciencias de la Computación e Inteligencia Artificial de la UGR Natalia Díaz Rodríguez, y una de las integrantes del Instituto Andaluz Interuniversitario en Ciencia de Datos e Inteligencia Computacional (Instituto DaSCI).
Sugerimos: Anthropic anuncia una IA que puede usar un computador por sí sola
“Es importante que seamos conscientes de las capacidades y limitaciones, tanto de los modelos avanzados de IA como de las técnicas de explicabilidad que tratan de argumentar y validar. En ocasiones, las explicaciones no son satisfactorias o fácilmente validables”, dijo Díaz.
El trabajo fue realizado durante la estancia de la profesora Díaz en el Instituto Politécnico de París y es una colaboración internacional con expertos del Reino Unido, Francia y Austria, entre otros países.
EFE