La gestión de esta transformación digital implica, entre otras cosas, hacer frente a un reto ético y regulatorio: ¿Qué principios queremos que rijan las relaciones entre las personas y las máquinas? y ¿Con qué normas vamos a proteger dichos principios?
La Unión Europea está impulsando diferentes propuestas regulatorias con el objetivo de lograr una IA que sea robusta, confiable y que promueva los derechos de las personas.
Entre ellas, destacan el
Libro blanco de la IA (2020), el
AI Act (2021) o el
Data Act (2022), que pretenden facilitar una serie de directrices a las organizaciones acerca de cómo emplear la IA.
La
explicabilidad y la
equidad son dos paradigmas recurrentes en estos documentos. En la sesión, profundizamos en cada uno de ellos y sus implicaciones para las compañías.
La
explicabilidad se refiere a comprender las decisiones de los modelos de IA, garantizando que son seguros, imparciales y respetuosos con la privacidad.
En ocasiones, la complejidad de algunos algoritmos hace que sea imposible descrifrar cómo han tomado sus decisiones (black box). Dicha complejidad se relaciona con la explicabilidad y con la precisión o capacidad para hacer predicciones exactas del algoritmo.
En función de estas dos variables, los modelos pueden clasificarse en
interpretables (sencillos de comprender, pero menos exactos en sus resultados) y
modelos explicables (más precisos, pero requieren técnicas específicas para su comprensión).
Es importante escoger el modelo más adecuado para cada caso según nuestros objetivos y crear
metodologías de auditoría que permitan conocer las decisiones del sistema. Contar con procesos de documentación es clave para facilitar la trazabilidad y auditabilidad.
La equidad busca abordar los sesgos y errores de los modelos de IA para mejorar la calidad de los datos y garantizar que las decisiones que toman son justas.
A lo largo de su ciclo de vida, los algoritmos pueden generar sesgos que hacen que tomen decisiones discriminatorias hacia ciertos grupos de personas. Estos sesgos pueden clasificarse en función de la fase en la que se generan:
Fase 1: Oportunidad de negocio o conceptualización del modelo
Sesgo de confirmación: Seleccionar únicamente datos que respalden la oportunidad de negocio, mientras se ignoran aquellos que la contradicen.
Desalineamiento de la iniciativa: Distanciamiento del objetivo original con el que se crea el modelo, que podría dar lugar a resultados no éticos.
Fase 2: Adquisición y descubrimiento de los datos que entrenarán el modelo
Sesgo de calidad de los datos: Uso de bases de datos desactualizadas o poco precisas.
Sesgo de muestreo: Los datos utilizados no son representativos de la población.
Sesgo histórico: Los datos reflejan desigualdades históricas.
Fase 3: Creación y desarrollo del modelo
Fase 4: Evaluación y despliegue del modelo
Fase 5: Monitorización del modelo
Establecer medidas de mitigación en cada una de las fases del modelo de vida y garantizar que los datos que se utilizan tienen en cuenta multitud de expresiones culturales es clave para mitigar sesgos.