Navegando por la IA: consideraciones legales, de ciberseguridad y éticas para juntas directivas y líderes

Grupo de ejecutivos reunidos en una sala de juntas

La IA se está convirtiendo rápidamente en parte de la vida cotidiana y los reguladores están prestando mucha atención a sus posibilidades y ramificaciones. Esta edición de Diligent Minute, escrita por Phil Lim, director de gestión de productos y defensor global de la IA en Diligent, explora las medidas activas que los directorios deben implementar para garantizar el uso responsable de la IA. 

La IA está revolucionando varios sectores y es imperativo que los consejos directivos supervisen el uso ético y legal de las tecnologías de IA. Las responsabilidades de los consejos van más allá de la salvaguarda de los activos de la organización; también deben mantener su reputación de cumplimiento e integridad ética, al tiempo que fomentan el uso seguro de la IA para aumentar la productividad y crear valor.

5 pasos para que las juntas directivas creen un entorno seguro y ético para el uso de la IA 

1. Invertir en formación y educación sobre ética de la IA 

Los directorios reconocen la necesidad de contar con conocimientos especializados sobre las normas, regulaciones y obligaciones de cumplimiento de la IA para supervisar con éxito el uso de la IA en sus organizaciones. Por ello, deberían tener en cuenta su propia experiencia colectiva en la materia, mejorar sus habilidades con cursos de ética de la IA y mantenerse al día de los últimos avances. Al fomentar su propio conocimiento de la IA, los directores estarán preparados para tomar decisiones informadas que se ajusten a las normas legales y las expectativas de las partes interesadas.

2. Incorporar nuevas perspectivas 

Dada la complejidad e importancia de la ética de la IA, muchas juntas directivas están considerando incorporar expertos externos para supervisar mejor las estrategias de IA. Esté abierto a nuevos conocimientos y perspectivas, tanto internas como externas. Si bien sus directores de tecnología (CTO) y directores de seguridad de la información (CISO) tienen conocimientos valiosos y están familiarizados con los sistemas de la organización, lo cual es clave para comprender los riesgos y las oportunidades asociados con la IA, es posible que tengan puntos ciegos. Los consultores externos pueden brindar una perspectiva independiente y objetiva, así como las mejores prácticas para ayudar a la junta directiva a mantenerse al tanto del uso responsable de la IA.

3. Cuidado con el “lavado de imagen con inteligencia artificial”

El reciente auge de la IA ha dado lugar a casos de lavado de imagen, es decir, empresas que exageran o utilizan un lenguaje vago o engañoso en relación con sus capacidades de IA. El lavado de imagen puede ser intencional o no, ya que las empresas se enfrentan a la presión de atraer inversiones o de adoptar rápidamente la IA. 

Cuando las empresas se presentan falsamente como si utilizaran tecnologías avanzadas de inteligencia artificial sin implementarlas de manera efectiva, pueden violar las regulaciones que exigen transparencia y precisión en la información sobre las capacidades tecnológicas, además de que corren el riesgo de dañar la confianza de los clientes y los inversores.

Por eso es importante que los directores comprendan plenamente cómo interactúa su empresa con la IA, así como los distintos riesgos y oportunidades. Además de mejorar sus conocimientos mediante la formación y las certificaciones, los directores deben incorporar la IA en el panorama general de gestión de riesgos de su organización. Además, al desarrollar y mantener políticas en torno a la IA, los directores pueden garantizar el cumplimiento de las normas y mantener la credibilidad, lo que en última instancia salvaguarda la reputación y la fiabilidad de su organización.

4. Abordar las vulnerabilidades de la IA en materia de ciberseguridad

Los directorios deben considerar los riesgos de la IA en el contexto de la ciberseguridad, la seguridad de TI y la gestión general de riesgos empresariales. Dado que el 36 % de los directores de los directorios identificaron la IA generativa como el problema más difícil de supervisar , es fundamental que los directorios inviertan en capacitación y educación especializadas para comprender los riesgos asociados a la IA. Incorporar expertos externos y reuniones periódicas con los directores de seguridad de la información (CISO) pueden ayudar a descubrir riesgos y vulnerabilidades que los equipos internos podrían pasar por alto. Además, los directorios deben establecer comités dedicados a la IA y la ciberseguridad, y sus organizaciones deben utilizar herramientas avanzadas para monitorear el riesgo de manera integral. Las auditorías y evaluaciones periódicas son esenciales para garantizar que la IA no presente riesgos imprevistos.

Persona que inicia sesión en la cumbre virtual sobre riesgos cibernéticos

5. Aplicar un enfoque basado en principios para supervisar la IA

Los consejos directivos y los líderes deben reconocer que la forma en que las personas se sienten respecto de la IA es diversa; incluso los evangelistas más dedicados de la IA pueden sentir miedo a la tecnología. Con la IA generativa, puede resultar tentador crear rápidamente una “política de uso aceptable de la IA” y pegarla en el sistema de gestión de políticas, marcar la casilla y dar por hecho el proceso.

Pero esto inevitablemente lleva a que la política no sea leída o malinterpretada por la población general de empleados. Es mucho más eficaz derivar un conjunto básico de principios críticos que sienten las bases para políticas de IA significativas.

Por ejemplo, en Diligent, se ha elaborado estos principios que guían todo el uso de la IA en todas las aplicaciones de Diligent:

Principio 1: Nunca coloque datos confidenciales de clientes u organizaciones en ninguna herramienta de IA no aprobada

Los servicios de IA no autorizados, incluidas herramientas gratuitas como ChatGPT, pueden regurgitar datos confidenciales ingresados ​​en ellos; los usuarios solo deben utilizar herramientas de IA aprobadas y protegidas que hayan sido evaluadas para detectar riesgos de seguridad.

Principio 2: Los humanos son responsables y deben rendir cuentas de los resultados de la IA.

Las respuestas de la IA pueden ser inexactas o sesgadas, por lo que es esencial revisar y validar exhaustivamente la información antes de confiar en ella para tomar decisiones o acciones.

Principio 3: No utilizar la IA con fines poco éticos o potencialmente dañinos

La IA no debe emplearse de formas que puedan causar daño (por ejemplo, generando spam) o en áreas sensibles donde los riesgos sean demasiado grandes (por ejemplo, tomando decisiones relacionadas con el personal).

Para ver el impacto de la IA ética y diseñada específicamente en sus procesos de GRC, solicite una demostración gratuita de la plataforma Diligent One hoy.

Últimos noticias

La nueva edición 2024 ya está aquí con los temas más relevantes para líderes y especialistas.

¿Te gustaría volver a disfrutar de las charlas más destacadas del evento?
Escríbenos a: marketing@interop-la.com