Aunque los avances en inteligencia artificial (IA) han mejorado la ciberseguridad, su rápido desarrollo y creciente uso introducen riesgos inherentes. Estos sistemas permiten escala, velocidad y calidad de los servicios, pero necesitan procesar datos sensibles y tomar decisiones rápidamente a menudo sin supervisión humana directa. La cuestión crucial es cómo garantizar una protección adecuada, una gobernanza efectiva y un uso responsable de los sistemas de IA.
Los sistemas de IA pueden aprender y predecir información, aunque carecen de un juicio similar al humano, como el pensamiento crítico, la comprensión y la intuición. Son sistemas que solo reflejan su arquitectura y sus datos de entrenamiento. Esas limitaciones hacen tan importante incorporar una responsabilidad y una ética. Estas consideraciones deben estar muy presentes a la hora de desarrollar e implantar sistemas de IA, mejorando la protección del usuario contra los riesgos de ciberseguridad y mitigando los posibles daños.
Teniendo en cuenta esa responsabilidad y ética, deben abordarse los fallos en los conjuntos de datos de entrenamiento en los que se basan los sistemas de IA, ya que pueden dar lugar a la reproducción o la amplificación de sesgos, provocando daños colectivos e individuales.
En ciberseguridad se ha utilizado este concepto de IA responsable para elaborar seis principios que integran toda acción emprendida en relación con el uso de esta tecnología.
1. Garantías de supervisión y responsabilidad humanas
Quienes participan en el desarrollo, despliegue y uso de los sistemas de IA deben asumir la responsabilidad del impacto que puedan tener dichos sistemas. Esto incluye explicar y justificar tanto las decisiones como las acciones clave tomadas durante el ciclo de vida del modelo.
A través de una gobernanza establecida, se pueden aplicar mecanismos para ayudar a garantizar la evaluación de los sistemas de IA y contar con oportunidades de reparación en caso de que haya consecuencias negativas.
2. Claridad y honestidad en su uso
Esta transparencia debe garantizarse mediante una comunicación clara sobre los sistemas de IA a lo largo de todo su ciclo de vida, tomas de decisiones y detalles algorítmicos, siendo comprensibles y accesibles para las personas interesadas pertinentes.
3. Explicabilidad
Se refiere a la capacidad de los sistemas de IA para explicar claramente sus procesos de toma de decisiones de forma fácilmente comprensible con un funcionamiento interno lo más transparente posible. Para mantener este principio, hay que ayudar a los usuarios, las partes interesadas y los organismos reguladores a comprender los factores que influyen en los resultados del sistema mediante datos de apoyo cuando sea necesario.
4. Privacidad y seguridad
Proteger la privacidad y mantener la seguridad de los sistemas de IA exige que los datos personales y la información confidencial se mantengan a salvo, así como que el diseño y la arquitectura de despliegue ayuden a proteger los sistemas de las amenazas a la ciberseguridad. Los programas establecidos de privacidad por diseño y de seguridad de la información pueden reflejar ese compromiso en todos los aspectos del negocio.
5. Prueba y evaluación de riesgos
El diseño y el despliegue de los sistemas de IA debe hacerse teniendo en cuenta los riesgos potenciales de su uso para minimizar los daños y las consecuencias imprevistas. Se consigue aplicando rigurosos protocolos de prueba y evaluación de riesgos para identificar y mitigar los posibles daños asociados. Este compromiso con la seguridad incluye el despliegue de sistemas de IA que permitan una rápida intervención humana.
6. Imparcialidad
Esta equidad consiste en mitigar la discriminación involuntaria en sistemas de IA. Defender este principio pasa por abordar activamente los sesgos inherentes en datos y algoritmos, reconociendo que existen en el panorama cibernético. En esos casos, se analizará la información y las implicaciones de estos sesgos para moderarlos o disminuirlos en lo posible.
A medida que evolucione el uso de los sistemas de IA, también lo harán sus riesgos asociados. Por eso, es necesario tener en cuenta el papel de los sistemas de IA en todas las fases de diseño, desarrollo e implantación de productos con las salvaguardas adecuadas, además de apoyar a los equipos de IA en el cumplimiento de este enfoque.