View Static Version
Loading

Ética Empoderando el liderazgo de la IA

Introducción

El potencial de la inteligencia artificial (IA) para causar daño y crear un bien mayor ha despertado un gran interés en el campo de la ética y lo ha convertido en una de las áreas más difundidas, así como un tema emergente de enfoque dentro de las responsabilidades de supervisión de una junta.

Cualquier tecnología de la información puede ser utilizada para bien o para mal. Pero la IA requiere atención especial porque aumenta los riesgos en la TI al ampliar tanto su alcance como la escala de su impacto. Además, la IA no es solo una cuestión de uso una vez que se implementa un producto, ya que el uso de un sistema de IA está estrechamente vinculado a su diseño. Establecer estándares éticos para los sistemas de IA es necesario para evitar daños y aumentar el bienestar. Los estándares incluyen los principios que los sistemas de IA y sus desarrolladores, operadores y gerentes deben seguir a medida que desarrollan, operan y usan los sistemas de IA y los datos de los que dependen. Los estándares también incluyen la expectativa de cumplimiento de esos principios por parte de las organizaciones y la ley. Los estándares éticos de la IA son necesarios, pero no son suficientes: los estándares deben enseñarse, facilitarse, asumirse y posiblemente aplicarse en la cultura y el flujo de trabajo de una organización.

Este módulo proporciona herramientas e información para ayudar a las juntas a supervisar la implementación de estándares éticos y el establecimiento de una junta ética. Para obtener información sobre quién y cómo las juntas supervisan la ética y otras decisiones en materia de IA, revise el módulo de Gobierno.

Riesgos éticos de la IA

La IA presenta nuevos riesgos porque tiene capacidades que los sistemas de TI anteriores carecían. Los falsificadores ahora pueden crear videos falsos realistas y las compañías pueden crear chatbots que son casi indistinguibles de las interacciones humanas. Los sistemas autónomos pueden tomar decisiones de vida o muerte sin supervisión humana. En general, los sistemas de IA tienen la habilidad de tomar o recomendar decisiones a operadores humanos, algunos con riesgos muy altos.

Debido a que los sistemas de IA aprenden, estos son vulnerables a ser entrenados por datos sesgados deliberada o involuntariamente y a desarrollar y seguir modelos de toma de decisiones con sesgos implícitos. Por ejemplo, los sistemas de IA han sido acusados de rechazar a las candidatas para puestos de trabajo y de recomendar sentencias penales desproporcionadas y vigilancia de grupos minoritarios debido a tales prejuicios.[1]

Muchas técnicas de IA resisten la explicabilidad, lo que hace difícil determinar las razones de una decisión específica y también evaluar si el proceso de decisión cruzó una línea ética. Ciertos tipos de sistemas de IA basados en el aprendizaje automático pueden tomar decisiones sin supervisión humana, basándose en patrones complejos más allá de la comprensión humana, y así tomar decisiones que no se pueden predecir. Los humanos pueden no ser capaces de anular tales sistemas de IA cuando toman decisiones instantáneas en tiempo real, como con vehículos y aviones autónomos.[2]

La forma en que se producen las interacciones hombre-máquina afecta el proceso de gestión de riesgos. La precisión mejora a medida que los sistemas de IA aprenden. Sin embargo, existe el riesgo de que las decisiones tomadas únicamente por la tecnología sean aceptadas por los usuarios sin una supervisión humana adecuada.

Definición de imperativos éticos

Las compañías de tecnología, asociaciones profesionales, agencias gubernamentales, ONGs y grupos académicos ya han desarrollado muchos códigos de ética y conducta profesional en materia de IA. Si bien estos pueden ser recursos útiles para las organizaciones que desarrollan sus propios códigos, no proporcionan una solución universal. Las organizaciones deben desarrollar las suyas.

Si bien las personas pueden estar de acuerdo con conceptos amplios, los detalles de esos conceptos pueden diferir. Los códigos éticos para los sistemas de IA pueden centrarse en la transparencia, la privacidad y beneficiar a la sociedad en general, pero nuestra revisión de los códigos existentes muestra que las definiciones o lo que se incluye bajo estos términos, puede variar.

Los códigos públicos proporcionados por las compañías de tecnología son a menudo pautas de aspiración más que útiles. Algunos omiten compromisos específicos o definen lo que significa una aspiración establecida. De otra manera los códigos académicos son a menudo aspiracionales: se comprometen específicamente con el bienestar público, sin explicar cómo.

A medida que las organizaciones luchan con el desarrollo de códigos, descubrirán lo que los filósofos morales ya saben: Frecuentemente, la toma de decisiones éticas es difícil. Lo que se considera correcto e incorrecto puede diferir notablemente según la cultura. Las personas pueden ver los derechos e intereses legítimos desde perspectivas muy diferentes y, a veces, conflictivas, según su experiencia y entorno. Algunos dilemas éticos pueden presentarse como una elección entre males menores y no entre lo correcto y lo incorrecto.

Los códigos éticos pueden consistir en tomar decisiones informadas dentro de las barreras que establecen límites de comportamiento aceptable, y no simplemente en hacer lo correcto.

Los códigos se dirigen a diferentes audiencias con diferentes necesidades. Internamente, los códigos deben ser el núcleo de los mecanismos de orientación para tomar decisiones éticas a medida que las organizaciones desarrollan, implementan y usan la IA, como los códigos de conducta y las causas de despido. También deben ser garantes de los derechos y protecciones de los empleados, así como de sus responsabilidades. Externamente, sirven como aseguramiento para el público, como garantías para los clientes y pautas para proveedores y socios. Los códigos éticos efectivos de la IA cumplen todas estas funciones.

La definición de los principios éticos que los sistemas de IA y sus creadores y usuarios humanos deben seguir requiere un análisis reflexivo y la creación de consenso. También lo hace la implementación de esos principios.

Estos problemas deben ser pensados por los líderes de cada organización que implementa la IA. Si bien se encuentran ciertos principios generales en casi todos los códigos, ningún código es suficiente y apropiado para cada organización.

Los valores del fracaso ético

Cualquier falla al considerar y abordar estas cuestiones y preocupaciones podría alejar a los clientes, socios y empleados. Su confianza tanto en la tecnología como en la compañía se puede disminuir y perder fácilmente si la compañía no tiene claras sus políticas sobre los problemas de IA y si la tecnología entregada actúa como una "caja negra".

Además, también puede haber consecuencias legales y regulatorias. Muchos dominios de aplicaciones de IA, como los sistemas financieros, están fuertemente regulados en lo que respecta a la equidad, diversidad e inclusión. Las empresas deben asegurarse de mantener el cumplimiento de estas regulaciones cuando implementan sistemas de inteligencia artificial en estos dominios. Las empresas deben comprender el origen de los datos utilizados para capacitar los modelos de IA y lo que es posible hacer con ellos. Varias regulaciones, como el Reglamento General de Protección de Datos (GDPR) en Europa, imponen restricciones sobre cómo tratar los datos, especialmente los datos personales. Además, es probable que la rendición de cuentas, la reparación y la responsabilidad de los sistemas de IA se presenten en futuros litigios. Los litigantes y los encargados de tomar decisiones legales requerirán claridad en torno a estos problemas.

Responsabilidades

La supervisión de los estándares éticos para la IA es una responsabilidad fundamental de la junta.

Nuestro análisis de los Principios de Gobierno Corporativo del G20/OCDE proporciona tres razones principales:

La junta se asegura de darle importancia a la ética mediante la contratación de ejecutivos éticos y haciéndolos responsables.

De acuerdo con el Principio VI.C: “La junta tiene un papel clave en establecer el tono ético de una empresa, no solo por sus propias acciones, sino también en la designación y supervisión de ejecutivos clave y, en consecuencia, en la administración en general. Los altos estándares éticos se encuentran en los intereses a largo plazo de la compañía como un medio para hacerla creíble y confiable, no solo en las operaciones diarias sino también con respecto a los compromisos a más largo plazo.”[3]

Las juntas no pueden ejecutar sus responsabilidades sin tener en cuenta los estándares éticos.

Las juntas no pueden decidir de manera efectiva si la estrategia, los planes y el desempeño de la IA de la compañía están alineados con los valores centrales y los estándares éticos de sus compañías, a menos que esos estándares estén articulados. Sin saber qué estándares éticos deberían guiarlas o los peligros de incumplirlos, las juntas no pueden “actuar de manera consistente sobre una base plenamente informada, de buena fe, con la debida diligencia y cuidado" (Principio VI.A). Tampoco pueden "revisar la estrategia corporativa, los principales planes de acción, políticas y procedimientos de gestión de riesgos" para la alineación con los estándares éticos, ya sea "estableciendo objetivos de desempeño" incluye cumplir con los estándares éticos, o si se cumplen los estándares éticos al "monitorear la implementación y el desempeño corporativo, y supervisar los principales gastos de capital, adquisiciones y desinversiones" (Principio VI.D.1). Por lo tanto, las juntas deben asegurarse de establecer estos estándares.

Para obtener más detalles sobre las responsabilidades éticas relacionadas con un tema de estrategia específico, consulte las secciones de responsabilidad de los módulos individuales. Para las responsabilidades éticas que son relevantes en todos los módulos, consulte el módulo de Responsabilidad.

Las juntas protegen a los denunciantes.

Los estándares éticos no tienen sentido si los empleados y otras partes interesadas no pueden denunciar las violaciones a las autoridades superiores. "Las partes interesadas, incluidos los empleados individuales y sus organismos representativos, deben poder comunicar libremente sus preocupaciones sobre prácticas ilegales o poco éticas a la junta y a las autoridades competentes y sus derechos no deben verse comprometidos por hacerlo" (Principio IV.E). Para proteger la capacidad de las partes interesadas de comunicar las inquietudes éticas con respecto a la IA y las prácticas de datos, la junta debe asegurarse de que la empresa establezca procedimientos y puertos seguros para las quejas de los empleados, sus organismos representativos y otros fuera de la empresa, en relación con el comportamiento ilegal y poco ético. La junta también debe darle acceso directo y confidencial a un miembro de la junta independiente.

El análisis en esta sección se basa en los principios generales de gobierno corporativo, incluidos los Principios de Gobierno Corporativo del G20/OCDE, 2015. Esto no constituye asesoramiento legal y no pretende abordar los requisitos legales específicos de ninguna jurisdicción o régimen regulatorio. Se fomenta a las juntas solicitar orientación con sus asesores legales para determinar la mejor manera de aplicar en su empresa los principios discutidos en este módulo.

Supervisión

Esta sección incluye cinco herramientas:

La herramienta de desarrollo de principios de ética de la IA ayuda a las juntas directivas y a las juntas éticas de IA a desarrollar un código ético de IA. También se puede usar para guiar las discusiones de la junta sobre los principios éticos. Esta herramienta contiene ocho principios generales, con principios más específicos que se derivan de ellos y una forma de evaluar su relevancia.

Vea la herramienta de desarrollo de principios en el Apéndice 1

Los objetivos y la orientación de la junta ética de IA proporcionan preguntas a considerar antes de establecer una junta ética de IA. Contiene sugerencias sobre los objetivos que debe cumplir la junta ética de IA y las instrucciones a seguir. También contiene cuestiones que la junta directiva debe considerar por adelantado.

Vea la herramienta de orientación y objetivos de la Junta ética de IA en el Apéndice 2

La selección de los miembros de la junta ética de AI sugiere ciertos requisitos a tener en cuenta al nombrar miembros para esta junta. Contiene cuatro requisitos principales, junto con preguntas para hacer y acciones para emprender durante el proceso de búsqueda y evaluación.

Vea la herramienta de selección de miembros de la Junta ética de IA en el Apéndice 3

La evaluación de la propuesta del código ético de IA proporciona preguntas para ayudar a los directores a evaluar la propuesta del código presentado por la junta ética de IA.

Vea la herramienta de evaluación del Código ético de IA en el Apéndice 4

La evaluación de implementación, monitoreo y aplicación del código ético de IA incluye preguntas para ayudar a las juntas a evaluar si están recibiendo la información que requieren para llevar a cabo sus responsabilidades de supervisión, y si el equipo administrativo de la junta ética de IA está cumpliendo efectivamente estas responsabilidades.

Vea la herramienta de Implementación, Monitoreo y Aplicación en el Apéndice 5

Agenda

Las siguientes sugerencias pueden ayudar a las personas que preparan las discusiones de la junta y que establecen el programa de la junta sobre ética e Inteligencia Artificial:

Antes de dirigir la primera reunión

  • Prepárese: Familiarícese con los problemas éticos creados por la IA y los problemas éticos más urgentes para que la junta los aborde. La sección 'Recursos' proporciona lecturas sobre problemas éticos. Hable con los ejecutivos, en particular los directivos principales de TI y los oficiales de seguridad, sobre los problemas éticos que les conciernen.
  • Evalúe el interés de los miembros de la junta sobre los riesgos de la IA: Hable con otros miembros de la junta. Aprenda qué importancia le dan a la ética de la IA y qué preocupaciones tienen. Identifique a los miembros de la junta que están más interesados en lograr un progreso rápido en el tratamiento de los problemas éticos de la IA, y aquellos que tienen inquietudes o carecen de interés.
  • Establezca objetivos: Piense con anticipación sobre los resultados deseados provenientes de la discusión de la junta.

Establecer los puntos iniciales del programa

Estos pueden comprender:

Creación de un código ético de IA. Estos pasos incluyen:

  • Discusión: Revise los problemas éticos de la IA que son relevantes para su empresa y la disposición de su organización para abordarlo (la herramienta de desarrollo de principios éticos puede ayudar a iniciar la discusión). La discusión debe estar informada no solo por las responsabilidades y riesgos legales de la organización, sino también por sus valores éticos y las expectativas de los empleados.
  • Estructurar: Discuta cómo se creará el código ético de la IA: ya sea por una junta o comité de ética nuevo o existente, los recursos que se le otorgarán y cómo asegurar su independencia.
  • Establecer objetivos: Considere los objetivos y pautas para la junta que desarrollará las directrices éticas de la IA.
  • Delegar: Discuta en la junta quién será responsable de establecer una junta ética de IA, las calificaciones de los miembros de la junta ética de IA y las metas y directrices para establecerlas ante ellos. Estos resultados deberían ayudar a cumplir con las responsabilidades de la junta, según lo recomendado por los Principios de la OCDE del G20.
  • Participar: Discuta cómo la junta apoyará el proceso de creación del código ético sin comprometer la independencia de la junta ética de IA.

Establecer los puntos de seguimiento del programa

Estos pueden incluir:

  • Progreso de la revisión: Discuta el trabajo de la junta ética de IA, incluida la evaluación de la propuesta del código ético de IA, su implementación y su impacto.
  • Acceso a la información: Discuta con otros miembros de la junta qué información requieren para mantenerse al día con los problemas éticos emergentes de la IA.
  • Mecanismos de protección de los empleados: Discuta qué medidas tomar para garantizar que la junta conozca las prácticas ilegales o poco éticas.
  • Revisar programas de ética: Revise periódicamente la efectividad del código ético y si este necesita ser actualizado.
  • Conciencia de los problemas éticos: Revise periódicamente los problemas éticos emergentes y potencialmente significativos en su organización, los socios en los que se basa la empresa y en toda su industria.
  • Ampliar el pensamiento de la junta: Invite a un experto en ética de IA para que lo presente en la junta. Estos podrían ser académicos o líderes de las organizaciones que se dedican a los problemas éticos de la inteligencia artificial.

Recursos

(Enlaces a partir del 18/8/19)

Libros

  • Anastassia Lauterbach, The Artificial Intelligence Imperative: A Practical Roadmap for Business, Praeger, 2018.
  • H. James Wilson and Paul R. Daugherty, Human + Machine – Reimagining Work in the Age of AI, Harvard Business School Press, 2018.
  • Paula Boddington, Towards a Code of Ethics for Artificial Intelligence, Springer, 2017.

Instrumentos

Artículos e informes

Ética de la IA para juntas o comités

Ética de la IA para juntas o comités

Foros y juntas

  • Australian Computer Society’s AI Ethics Committee.
  • Axon’s AI Ethics Board.
  • Comité AETHER de Microsoft.
  • DeepMind’s Ethics and Society fellows (AI research arm of Alphabet).
  • Lucid’s Ethics Advisory Board.

Notas finales

(Enlaces a partir del 18/08/19)

Otros módulos:

Página de Inicio | Ciberseguridad | Comité de Auditoría | Desarrollo SostenibleEstrategia del Cliente | Estrategia Competitiva | Estrategia de Marca | Estrategia de Operaciones | Estrategia Tecnológica | Ética | Gobernanza | Personas y Cultura | Responsabilidad | Riesgos | Glosario