En 1818, Mary Shelley publicó Frankenstein, una obra que, más allá de su apariencia gótica, anticipó una de las tensiones estructurales que hoy resurgen con fuerza en el ámbito de la inteligencia artificial: la disociación entre la capacidad de crear y la capacidad de asumir responsabilidad por lo creado. Víctor Frankenstein no fracasa por insuficiencia técnica, sino por ausencia de gobernanza sobre su propia innovación.
Dos siglos después, el desarrollo acelerado de sistemas de inteligencia artificial reproduce, en clave contemporánea, ese mismo dilema. Y el compliance de la IA en las empresas se impone.
La cuestión ya no reside en si somos capaces de diseñar sistemas autónomos, predictivos o generativos, – formas diversas de IA- sino en si nuestras empresas disponen de estructuras de control, supervisión y rendición de cuentas adecuadas para gestionar los riesgos derivados de su desarrollo. El debate ha dejado de ser meramente tecnológico para convertirse, de forma nítida, en un debate de compliance, ética y gobernanza corporativa.
La interpretación de esa realidad tan artificial como real no puede ser obstáculo al progreso, sino precisamente un indicador de gestión del riesgo regulatorio y del impacto reputacional.
En las empresas la inteligencia artificial se ha consolidado como una herramienta clave. Nos aporta como empresas eficiencia, agilidad y capacidad de análisis. Aunque también introduce riesgos jurídicos, éticos y operativos relevantes.
Riesgos en materia de protección de datos personales —derivados de tratamientos masivos o no suficientemente legitimados—, generación de sesgos algorítmicos con potencial impacto discriminatorio, opacidad en la toma de decisiones automatizadas que dificulta la trazabilidad y la rendición de cuentas, así como los riesgos asociados al uso de proveedores tecnológicos sin garantías adecuadas. A ello se suma el impacto reputacional y la posible responsabilidad de la persona jurídica en caso de incumplimiento normativo.
La gestión compliance de la IA en las empresas demuestra que la innovación sin un marco interno de control y gobernanza no solo incrementa la exposición al riesgo, sino que debilita la confianza de clientes, empleados y reguladores.
El reto de integrar la inteligencia artificial en las empresas exige articular modelos compliance de IA específicos que permitan identificar, evaluar y mitigar riesgos desde una lógica preventiva, alineada con estándares internacionales y con el marco regulatorio emergente, singularmente el Reglamento Europeo de Inteligencia Artificial.
En este sentido, la función de compliance de la IA deja de ser reactiva para convertirse en un elemento estructural de diseño tecnológico responsable.
Porque, como ya intuía Shelley, el problema nunca fue la criatura, sino la ausencia de un sistema capaz de responder por ella.