Contenido
Introducción | Responsabilidades | Supervisión | Agenda | Recursos | Notas finales
Consulte este módulo como PDF aquí
Otros módulos:
Página de Inicio | Ciberseguridad | Comité de Auditoría | Desarrollo Sostenible | Estrategia del Cliente | Estrategia Competitiva | Estrategia de Marca | Estrategia de Operaciones | Estrategia Tecnológica | Ética | Gobernanza | Personas y Cultura | Responsabilidad | Riesgos | Glosario
Introducción
La inteligencia artificial (IA) es una tecnología de alto riesgo. Los analistas estiman que la IA generará trillones de dólares de valor a través de nuevos procesos y modelos de negocio, y a través de productos y servicios innovadores.[1] Pero las consecuencias no deseadas de la IA pueden tener resultados perjudiciales para la reputación, reduciendo el valor de la marca y causando tensiones con las partes interesadas y con el consumidor cada vez más consciente e informado en cuanto a lo ético. Además, los sistemas de IA de bajo rendimiento provocan retrasos costosos, ya que deben ser reexaminados y corregidos. Según una encuesta realizada en julio de 2018 por SAS, Accenture Applied Intelligence, Intel y Forbes Insights, el 24% de los encuestados replantearon por completo un sistema de IA debido a resultados inconsistentes, falta de transparencia y/o resultados sesgados.[2]
Entonces, la pregunta es: ¿Cómo supervisan las juntas a los líderes que toman decisiones importantes sobre la IA? La respuesta debe aclarar quién tiene la responsabilidad de la supervisión y la toma de decisiones, y cuáles son esas responsabilidades. El proceso de supervisión debe dar como resultado una IA que haya pasado por una revisión ética rigurosa sin frenar la innovación, y que sea efectiva, eficiente e inclusiva.
Este es el campo de gobernanza de la IA a nivel de junta. La gobernanza de IA requiere atención porque:
- La inteligencia artificial crea nuevos desafíos de gestión tecnológica y amplifica los existentes. La IA presenta un nuevo problema para el mundo de la gobernanza: Cómo supervisar los sistemas que pueden aprender y tomar decisiones complejas de manera independiente, pero que son vulnerables a las debilidades humanas, como el sesgo y la criminalidad. Además de establecer estándares éticos (consultar el módulo de Ética), los líderes deben decidir cómo seleccionar los modelos de toma de decisiones en el centro de los sistemas de aprendizaje automático y tomar decisiones sobre la transparencia y el control humano. Al mismo tiempo, la IA incrementa la importancia de la gobernanza de datos porque la formación de los sistemas de aprendizaje automático requiere enormes conjuntos de datos, y gestión del personal, ya que muchos empleados verán cómo los sistemas de IA van reemplazando o eliminando su trabajo. Las juntas también deben considerar si los procesos y las responsabilidades de gobernanza actuales pueden abordar las inquietudes que la IA plantea para la estrategia, el riesgo y otros asuntos de control.
- Para cumplir con un panorama regulador cambiante. Las leyes se están moviendo rápidamente para proteger la privacidad y la libertad de las personas contra el mal uso de los datos. Dado el amplio alcance de la inteligencia artificial y la tecnología de aprendizaje automático, las organizaciones se beneficiarán de adoptar un enfoque proactivo para la gestión ética de la inteligencia artificial, en lugar de rediseñar y desarrollar tecnologías para cumplir con las normas legales en una fecha posterior. (Consulte la página siguiente sobre normativas en Europa y América del Norte).
- Para alinear la IA con los valores y la ética. La explicabilidad, la transparencia, las responsabilidades, la imparcialidad, el manejo responsable de los datos, la protección contra el uso indebido delictivo, la alineación de la IA con los valores y el conocimiento de las implicaciones sociales de la IA son pilares esenciales para garantizar el uso responsable de los datos y la IA.
Para permitir que los sistemas de IA se utilicen mejor mientras permanecen anclados a los valores fundamentales de una empresa, las empresas deben crear el marco adecuado para gestionar de manera ética la tecnología de inteligencia artificial. El marco debe establecer los derechos de toma de decisiones y las responsabilidades de la junta y el equipo de gobernanza con respecto a cómo se establecen las normas éticas y quién las aplica. El marco también debe extender la gobernanza al diseño y operación de los sistemas de IA.
Este módulo está destinado a ayudar a las juntas corporativas a decidir qué responsabilidades de gobernanza deben asignarse para la IA, qué comités de la junta, ejecutivos y juntas éticas participan en el proceso de gestión y cómo se compartirán las responsabilidades.
En Europa
- El Reglamento General de Protección de Datos (RGPD) es un marco normativo que establece protecciones legales con respecto al uso de los datos de todos los sujetos de la UE, independientemente del país en el que residen o la plataforma en la que residen sus datos.
- El Grupo de expertos de alto nivel en IA de la UE (IA HLEG) se formó para asesorar a la Comisión Europea y hacer recomendaciones sobre las pautas de ética de la IA, así como las políticas de financiación e infraestructuras para IA en Europa.
- En Reino Unido, el gobierno lanzó un "Acuerdo del Sector de IA", que incluye el establecimiento de una oficina gubernamental de IA para supervisar la gestión. Además, el Comité Selecto de Inteligencia Artificial de la Cámara de los Lores elaboró un informe exhaustivo sobre inteligencia artificial.
En Norte América
- La Ley de Privacidad del Consumidor de California (CCPA) entrará en vigencia en 2020. Debido a que no existe una norma federal de privacidad, California puede convertirse en la ley de privacidad de facto para Estados Unidos a menos que el Congreso apruebe su propia norma.
- El 16 de mayo de 2018, el alcalde de Nueva York, Bill de Blasio, anunció la creación del Grupo de Trabajo de Sistemas de Decisión Automatizados. El grupo de trabajo recomendará criterios y procedimientos para revisar y evaluar las herramientas algorítmicas compradas e implementadas por la ciudad. Estas recomendaciones pueden incluir procedimientos para explicar decisiones algorítmicas, apelaciones públicas de tales decisiones, asegurar que los algoritmos no estén sesgados en contra de ciertos grupos altamente sensibles y cómo hacer pública la información técnica sobre el algoritmo que se está implementando.
Responsabilidades
Las juntas tienen la responsabilidad de garantizar que su organización tenga una estructura sólida de gobernanza para establecer objetivos y monitorear el desempeño. Esa estructura debe prever cómo la junta, la gerencia, los accionistas y otras partes interesadas participan en la toma de decisiones, y garantizar que la junta tenga la información requerida para proporcionar supervisión, y que las partes interesadas tengan información sobre la estrategia, los riesgos y el desempeño de la empresa. Las juntas también son responsables de asegurarse de que los planes, acciones y políticas de la gerencia que involucren el uso de IA sean responsables y consistentes con las normas éticas y las obligaciones legales de la empresa.
De acuerdo con los Principios de Gobierno Corporativo de la OCDE y del G20:
- El gobierno corporativo... proporciona la estructura a través de la cual se establecen los objetivos de la empresa y se determinan los medios para alcanzar esos objetivos y monitorear el desempeño. (Acerca de los Principios, p. 9)
- La junta juega un papel fundamental en el establecimiento del tono ético de una empresa, no solo por sus propias acciones, sino también en el nombramiento y supervisión de los principales ejecutivos y, en consecuencia, de la gerencia en general. (Principio VI: C)
- La junta debe cumplir ciertas funciones fundamentales, incluyendo la revisión y orientación de la estrategia corporativa, los principales planes de acción, [y] las políticas y procedimientos de gestión de riesgos. (Principio VI.D.1)
- Los derechos básicos de las partes interesadas deben incluir el derecho a ... obtener información relevante y material sobre la empresa de manera oportuna y regular... [y] elegir y eliminar miembros de la junta. (Principio II.A)
Existen algunas áreas clave que una junta corporativa puede examinar para determinar si existen estructuras de gobernanza adecuadas para la IA:
- Supervisión de la junta – aclarar qué comité(s) de la junta proporcionan supervisión, qué actividades de IA supervisan y si la IA exige establecer un nuevo comité de la junta.
- Junta ética – decidir sobre las responsabilidades de la junta ética que supervisa la IA, cómo mantendrá su independencia y seleccionará y confirmará a sus miembros.
- Evaluación de riesgos – identificar los riesgos específicos de la IA que deben tenerse en cuenta al proporcionar la gestión de IA.
- Monitoreo, auditoría y respuesta – evaluar la efectividad de los programas de cumplimiento y garantía ética, y la respuesta a las denuncias de violaciones.
- Capacitación – brindar educación a empleados, contratistas y otros terceros sobre el riesgo y los programas de cumplimiento.
- Informar a las partes interesadas – como lo exige la ley, asegurar que los informes a las partes interesadas y las presentaciones a los supervisores incluyan información sobre los riesgos de la IA. También deben informar sobre el uso de la IA en la información financiera y la auditoría, como parte de la verificación de la exactitud de los estados financieros.
El análisis de esta sección se basa en los principios generales de gobierno corporativo, incluyendo los Principios de Gobierno Corporativo de la OCDE y del G20 del 2015. No constituye asesoramiento jurídico y no tiene por objeto abordar los requisitos legales específicos de ninguna jurisdicción o régimen reglamentario. Se alienta a las juntas a consultar con sus asesores legales para determinar la mejor manera de aplicar los principios discutidos en este módulo a su empresa.
Supervisión
Esta sección incluye una sola herramienta:
La herramienta de responsabilidades de gobernanza de IA ayuda a las juntas a crear una estructura de gobernanza para la IA. Enumera las actividades de IA que pueden requerir gobernanza, ayuda a los directores a decidir si mantienen o reasignan las responsabilidades de gobernanza y proporciona una hoja de trabajo para asignar responsabilidades específicas de supervisión a los comités de la junta y a la alta gerencia. La herramienta también incluye el establecimiento de las responsabilidades y calificaciones de un comité de ética independiente.
Mientras usa la herramienta, considere estas preguntas:
El proceso de establecimiento de la gobernanza:
- ¿Capta una amplia gama de vistas?
- ¿Brinda oportunidades para que personas ajenas al liderazgo hagan aportes?
- ¿Sigue los principios éticos de la organización?
- ¿Protege la innovación y la ética?
- ¿Incluye a personas con la experiencia necesaria para asesorar sobre políticas de gobernanza?
- ¿Tiene en cuenta las motivaciones para cumplir con los procesos de gobernanza?
La estructura de gobernanza resultante:
- ¿Apoya los principios éticos de la organización?
- ¿Sigue la estructura organizacional?
- ¿Se mantiene a la par con los rápidos cambios tecnológicos?
- ¿Apoya la innovación?
- ¿Proporciona supervisión de las aplicaciones?
- ¿Proporciona directrices sobre la frecuencia con que se actualiza la gobernanza?
Agenda
Antes de la primera reunión
Antes de establecer el programa de la primera reunión de la junta sobre la gobernanza de la IA:
- Estudiando los temas: Familiarícese con los asuntos de gobernanza y ética creados por la IA, y los asuntos más urgentes que debe abordar la junta. La sección Fuentes proporciona fuentes sobre la IA y las normas y códigos éticos en materia de tecnología, ejemplos de comités de ética y otros materiales útiles. Hable con los ejecutivos, en particular el alto ejecutivo de TI, el director de operaciones y los altos ejecutivos responsables de la gobernanza de datos y la ética, sobre los asuntos de gestión que tienen en mente.
- Evaluando el interés de los miembros de la junta en la gobernanza de IA: Hable con otros miembros de la junta. Aprenda qué importancia le dan al desarrollo de un marco de gobernanza de IA y qué inquietudes tienen. Identifique a los miembros de la junta que están más interesados en avanzar rápidamente para abordar los asuntos de ética y gobernanza de la IA, y aquellos que tienen inquietudes o carecen de interés.
- Establezca objetivos: Identifique los resultados deseados de la discusión de la junta.
Los temas para considerar para el programa inicial incluyen:
- La necesidad de gobernanza: Discuta por qué el establecimiento de principios éticos para la IA, la garantía de su cumplimiento y la supervisión de las decisiones de la IA requieren un mecanismo de gobernanza en su empresa.
- Análisis de deficiencias: Revise los programas existentes de cumplimiento, ética y gobernanza tecnológica. ¿Son adecuados para gestionar la IA y controlar sus desafíos éticos y de riesgos?
- Principios y marcos: Iniciar el proceso de establecimiento de principios éticos rectores y de actualización de las estructuras de gobernanza. La sección de Supervisión proporciona preguntas para hacer.
Otros temas sugeridos para las discusiones incluyen:
- Actitudes de los empleados: Los empleados tienen un sentido personal y prevaleciente de lo que está bien y lo que está mal, perfeccionado y ajustado por la experiencia. ¿Cómo encajan las directrices éticas y de gobernanza con el sentido moral de los empleados?
- Garantías para los empleados: Revisar si existen foros y canales apropiados que permitan a los empleados identificar y plantear cuestiones o inquietudes en torno a asuntos éticos.
- Herramientas de gestión y ética: Revisar las formas de facilitar a los empleados la obtención de orientación ética y de gestión, tales como chatbots y líneas de atención.
- Marcos vs. realidades: ¿La forma en que se toman las decisiones de IA en realidad coincide con el marco? ¿Los incentivos de gestión están alineados con el marco? ¿El marco resuelve los problemas para los que está diseñado?
Recursos
(Enlaces a partir del 03/08/19)
Artículos e informes
- “AI Governance and Its Future,” The Aspen Institute.
- “A Proposed Model Artificial Intelligence Governance Framework”, Personal Data Protection Commission, Singapore, enero de 2019.
- “Perspectives on Issues in AI Governance,” Google.
- Rumman Chowdhury, “An AI Governance Approach to Support Innovation”, 1776.vc, 5 abril de 2019.
- Urs Gasser and Virgilio A.F. Almeida, “A Layered Model for AI Governance”, IEEE Internet Computing, 2017.
- “Wresting with AI Governance around the World, “ Forbes.com.
Centros de investigación
- Center for the Governance of AI, Future of Humanity Institute and the University of Oxford.
- Ethics and Governance of Artificial Intelligence Initiative, Berkman Klein Center for Internet & Society at Harvard University and the MIT Media Lab.
Herramientas de evaluación de la ética y la gobernanza de datos
- European Commission – Independent High-Level Expert Group on Artificial Intelligence, “Ethics Guidelines for Trustworthy AI”, abril de 2019.
- NYU Governance Lab, “Introducing Contracts for Data Collaboration”.
- “The Ethics of Data Sharing: A Guide to Best Practices and Governance”, Accenture, 2016.
- “Universal Principles of Data Ethics: 12 Guidelines for Developing Ethics Codes”, Accenture, 2016.
Evaluación de riesgos y privacidad
- Centre for Information Policy Leadership, “A Risk-Based Approach to Privacy: Improving Effectiveness in Practice”, 2014 (contiene un borrador de matriz de riesgos para los datos).
- Data Protection Impact Assessment (DPIA) by UK Information Commissioner’s Office.
- Privacy Impact Assessment (PIA) by US Federal Trade Commission.
Ejemplos de juntas y paneles de ética de la IA
- Australian Computer Society’s AI Ethics Committee.
- Axon’s AI Ethics Board.
- DeepMind’s Ethics & Society fellows (AI research arm of Alphabet).
- DeepMind’s Health Advisory Board, Clinical Advisers and Patient Advisers.
- Lucid’s Ethics Advisory Board.
Notas finales
(Enlaces a partir del 03/08/19)
- [1] McKinsey Global Institute, “Notes from the AI Frontier: Applications and Value of Deep Learning”, abril de 2018; PwC, “Sizing the Prize: ¿Cuál es el valor real de la IA para su negocio y cómo puede capitalizar?”, 2017.
- [2] SAS, Accenture Applied Intelligence and Intel with Forbes Insight, “AI Momentum, Maturity & Models for Success”, 2018.
Otros módulos:
Página de Inicio | Ciberseguridad | Comité de Auditoría | Desarrollo Sostenible | Estrategia del Cliente | Estrategia Competitiva | Estrategia de Marca | Estrategia de Operaciones | Estrategia Tecnológica | Ética | Gobernanza | Personas y Cultura | Responsabilidad | Riesgos | Glosario