SEGURIDAD E INTELIGENCIA ARTIFICIAL: RETOS PARA LA
ESTRATEGIA ESPAÑOLA EN INTELIGENCIA ARTIFICIAL
En el entorno de estrecha colaboración de ADSI con la FUNDACIÓN ESYS, invitamos a nuestros asociados y amigos a que participen en este seminario on line.
España, como el resto de los países de la Unión Europea, debe presentar en 2020 su estrategia en Inteligencia Artificial. En la estrategia España Digital 2025, presentada por el gobierno el pasado 23 de Julio, se incide tanto en los aspectos de ciberseguridad como de inteligencia artificial, señalando específicamente como objetivos:
- Reforzar la capacidad española en ciberseguridad, consolidando su posición como uno de los polos ciberseguridad, IA y Datos).
- Favorecer el tránsito hacia una economía del dato, garantizando la seguridad y privacidad y aprovechando las oportunidades que ofrece la Inteligencia Artificial (meta 2025: 25% de empresas que usan IA y Big Data).
En este plan transversal el Gobierno de España elabora una Estrategia Nacional de Inteligencia Artificial con el objetivo de situarse en la línea de los países líderes en la investigación y uso de una IA confiable al servicio del desarrollo económico y social. Estrategia concebida como un compromiso entre la ciudadanía española, la iniciativa privada y el sector público, alineada con los principios europeos, respetuosa con los valores compartidos y que ayude a mejorar la productividad del sector privado, las condiciones de vida de las personas, la prestación más eficiente de servicios públicos y la resolución de algunos de los grandes retos a los que se enfrenta nuestra sociedad actual, como el medio ambiente, la movilidad o el envejecimiento.
El seminario contribuirá a la reflexión y desarrollo de uno de los aspectos clave en el diseño de la estrategia de Inteligencia Artificial: la seguridad, bajo estos aspectos:
- Estrategia Unión Europea en Inteligencia Artificial
- Estrategia España en Inteligencia Artificial
- Plan del gobierno español
- Papel de la seguridad en la Inteligencia Artificial
La Comisión Europea definió en abril de 2019, las Directrices Éticas en el uso Inteligencia Artificial. En este documento la Comisión definió siete requisitos esenciales para lograr una inteligencia artificial fiable: Supervisión humana, Robustez y seguridad, Privacidad y control de los datos, Transparencia, Diversidad, no discriminación y equidad, Bienestar social-ambiental y Responsabilidad y rendición de cuentas.
El requisito Robustez y Seguridad aborda los aspectos de seguridad en la inteligencia artificial. La fiabilidad de la inteligencia artificial requiere que los algoritmos sean suficientemente seguros, fiables y sólidos para resolver errores o incoherencias durante todas las fases del ciclo de vida útil de los sistemas de inteligencia artificial, así como protegerse frente a posibles ataques o manipulaciones. Con ello se abre un nuevo campo en la relación entre seguridad e inteligencia artificial. Son muchos los aspectos que deben abordarse, entre los cuales pueden señalarse:
- Esquemas de Certificación – Garantías de Seguridad
- Relación Seguridad y Transparencia – Trazabilidad
- Relación Seguridad y Responsabilidad – Rendición cuentas
El objetivo del seminario será debatir sobre la relación entre seguridad e inteligencia artificial, y su incorporación en la estrategia nacional de Inteligencia Artificial.
Inscripción en el siguiente enlace: