Loading

Estrategia de Marca Empoderando el liderazgo de la IA

Contenido

Introducción | Ejemplos | Responsabilidades | Supervisión | Agenda | Recursos | Notas finales

Consulte este módulo como PDF aquí

Ver este módulo en Inglés

Otros módulos:

Página de Inicio | Ciberseguridad | Comité de Auditoría | Desarrollo SostenibleEstrategia del Cliente | Estrategia Competitiva | Estrategia de Marca | Estrategia de Operaciones | Estrategia Tecnológica | Ética | Gobernanza | Personas y Cultura | Responsabilidad | Riesgos | Glosario

Introducción

Fomentar marcas de confianza será un requisito vital para las empresas que deseen utilizar la inteligencia artificial (IA).

En la era de la IA, la oportunidad de fortalecer una marca es enorme. La IA permite a las empresas ofrecer servicios y productos basados en relaciones profundas y personalizadas. El beneficio de operar como si fuera "por arte de magia" creará marcas muy apreciadas; no es casualidad que participantes fuertes de IA como Google se encuentren entre las marcas más valiosas del mundo. Además, se están creando una serie de herramientas impulsadas por la IA para que los equipos de marketing puedan desarrollar, apoyar y supervisar mejor las iniciativas de creación de marcas. El uso de la IA como una fuerza para el bien social, si forma parte de un modelo coherente de apoyo al bienestar público y al comportamiento ético, será una de las formas en que las empresas que utilizan la tecnología puedan crear un buen nombre.

Pero, aunque la IA ofrece una oportunidad sin precedentes para construir un nuevo orden de relación con el cliente, también crea grandes riesgos que podrían destruir las marcas a una velocidad aterradora. En caso de que la IA funcione mal y, por ejemplo, ponga en peligro vidas humanas o se considere que se utiliza de forma poco ética, la reacción puede ser grave. Los asuntos que no tienen que ver necesariamente con la IA (privacidad de los datos de los clientes, violaciones de datos y gestión ética) serán objeto de un contraste aún mayor por parte de la tecnología. Un creciente número de medios de comunicación, supervisores y grupos de campaña estarán dispuestos a intervenir y tomar posiciones públicas.

Esto significa que la capacidad de una empresa para operar en el mundo de la IA va a depender de la creación y el mantenimiento de una profunda confianza pública.

Las propuestas impulsadas por la IA dependen de datos personales a menudo muy delicados, y las partes interesadas discernirán cada vez más con quién comparten dichos datos y para qué los utiliza la empresa. Tener una marca de confianza se convertirá en un claro diferenciador - sin una confianza sostenible será difícil persuadir a los clientes u otros socios en la cadena de valor para que acepten compartir datos con la empresa.

La junta, como custodio del enfoque ético a largo plazo de la empresa y supervisor de la estrategia, tiene un papel fundamental en la elaboración de la agenda y la supervisión en esta área.

Para equilibrar los beneficios y los riesgos, las empresas necesitan cultivar sus marcas:

  • Invirtiendo y probando nuevas herramientas de gestión de marcas: La IA es la fuerza detrás de una nueva generación de herramientas para ayudar a las empresas a monitorear y hacer crecer sus marcas. Algunos ejemplos incluyen el uso del reconocimiento de imágenes para asegurar el uso apropiado del logotipo a nivel mundial o el uso del procesamiento de lenguaje natural (PNL) para hacer un seguimiento de las conversaciones en las redes sociales y la opinión acerca de la marca en tiempo real.
  • Teniendo un enfoque absoluto en la construcción de la confianza pública: Esto requiere que se establezcan, comuniquen y supervisen altos estándares éticos. Es crucial estar atento a los cambios en las expectativas externas: La naturaleza horizontal de las tecnologías de IA (por ejemplo, la PNL o el reconocimiento de imágenes) significa que los problemas atravesarán rápidamente las barreras sectoriales dentro de una industria. Comportarse bien, y que los demás perciban este buen comportamiento, requerirá la voluntad de responder a los errores con un grado de transparencia y humildad. En ciertas situaciones de crisis, los miembros de la junta pueden ser requeridos para ayudar a establecer el enfoque.
  • lA para el bien común: Hay muchas maneras de utilizar las herramientas y los recursos de la IA para obtener mejores resultados para el bien común en general, incluyendo la educación, el medio ambiente, la salud y el hambre, la igualdad y la inclusión, y la respuesta a las crisis. Las empresas con una gran capacidad de IA pueden asociarse con ONGs y organizaciones humanitarias para aportar su experiencia en el desarrollo de proyectos basados en la inteligencia artificial con un enfoque en el bien común.

Ejemplos

US Open Tennis

El US Open Tennis utilizó el aprendizaje automático para analizar la actividad de las redes sociales en torno a las marcas asociadas al US Open 2017. Esto les permitió determinar el valor generado por cada patrocinador, colocación y red. Alcanzó más de 3 millones de dólares de valor total para los medios de comunicación y más de 18 millones de compromisos, siendo Mercedes-Benz y Emirates los que más valor recibieron.[1]

Una importante empresa de tecnología

Una importante empresa de tecnología puso a prueba un chatbot que tenía como objetivo experimentar con el aprendizaje a través de conversaciones. Dirigido a estadounidenses de entre 18 y 24 años de edad, el bot fue diseñado para interactuar con personas en plataformas de redes sociales. Sin embargo, el bot recibió datos conversacionales discriminatorios, socialmente inapropiados y ofensivos por parte de los usuarios en línea, con los que posteriormente aprendió a responder. El chatbot se desconectó rápidamente y el experimento se cerró, una respuesta rápida que probablemente limitó un daño para la marca a largo plazo.

Una importante empresa de tecnología de venta al por menor

Recientemente se reveló que una importante empresa de tecnología de venta al por menor tuvo que dejar de lado un sistema automatizado de selección de currículos cuando se puso de manifiesto que los solicitantes eran discriminados debido a prejuicios históricos de género en los datos de formación. Esto suponía un claro riesgo para la marca y la posición social de la empresa. Sin embargo, al dejar de usar el sistema rápidamente, la empresa pudo evitar daños a largo plazo para la marca.

AI for Earth de Microsoft

El programa AI for Earth de Microsoft ofrece subvenciones facilitando el acceso a las herramientas y servicios de IA de la empresa para proyectos de sostenibilidad medioambiental. Este es parte del paquete AI for Good de Microsoft – un compromiso creciente de 115 millones de dólares, a cinco años para trabajar en el desarrollo de soluciones para algunos de los mayores desafíos de la sociedad mediante el uso de la IA. La inversión en responsabilidad social corporativa beneficia a las marcas a través de asociaciones públicas positivas y aumenta la penetración en el mercado de las herramientas y el know-how de la IA.[2]

Responsabilidades

Si bien los Principios de Gobierno Corporativo de la OCDE y del G20 no especifican la tecnología en la lista de responsabilidades, las juntas no pueden llevar a cabo sus funciones de supervisión sin considerar cómo afectará a la marca el uso de la IA por parte de su empresa y la gestión de sus consecuencias.

Muchas de las responsabilidades que se aplican a otros módulos pertenecen a la gestión de la marca y la reputación:

  • Para actuar de buena fe, con la debida diligencia y cuidado, las juntas deben estar plenamente informadas sobre los planes para aplicar la IA en su estrategia, la alineación de la IA con los valores fundamentales y las normas éticas, los riesgos asociados con su estrategia de IA y las normas que afectan al uso de la IA. Los directores deben tener acceso a información precisa, relevante y oportuna.
  • Para supervisar la estrategia corporativa, los principales planes de acción, la gestión de riesgos y los presupuestos y los planes de negocio, las juntas deben revisar y guiar la visión, los objetivos, las acciones y los gastos de la gerencia en materia de IA, su apoyo a la innovación y el uso de nuevos recursos de IA, la concienciación de la gerencia y los planes para el cumplimiento legal y la mejora del riesgo de IA, así como el uso y los planes de la competencia para la IA.
  • Para supervisar el desempeño corporativo, los gastos y las adquisiciones, las juntas deben revisar y guiar la alineación de la IA con la estrategia, los valores de las partes interesadas, la ética, los indicadores de desempeño y riesgo, la implementación de los planes de IA, la efectividad de la IA para acelerar los procesos y mejorar la productividad, las principales inversiones en sistemas y talento de IA y las adquisiciones.

Para llevar a cabo estas responsabilidades, las juntas también deben revisar y guiar estas preocupaciones específicas de la marca:

Actuar de buena fe, con la debida diligencia y cuidado.

En lo que concierne a la IA, los miembros de la junta deben hacer esfuerzos de buena fe para estar plenamente informados sobre:

  • La importancia de la confianza en la marca: sin ella, los clientes y socios comerciales podrían no estar dispuestos a compartir la información, a menudo delicada, de la que dependen los sistemas de IA para ser eficaces.
  • El uso de la IA para el bien común y su potencial impacto en la marca de la empresa.
  • El riesgo de que la IA impacte negativamente a la marca de la empresa en caso de que la IA proporcione una mala experiencia al cliente o cause daños a personas o propiedades.
  • El riesgo de un escándalo público en caso de que se acuse a la empresa de usar la IA de manera poco ética o irresponsable.
  • El uso de la IA para ayudar a crear, medir y monitorear el desarrollo de la marca.
  • Noticias sobre compañías que sufren daños a su marca debido a los sistemas de IA.
Supervisar la estrategia corporativa, los principales planes de acción, la gestión de riesgos, los presupuestos y planes de negocio.

Los temas de gestión de marca de IA que las juntas deben revisar y gestionar pueden incluir:

Los planes de la gerencia para:

  • Aumentar la reputación de confianza de la marca.
  • Utilizar la IA como herramienta para desarrollar, medir y supervisar el desarrollo y la evolución de la marca.
  • Utilizar la IA para mejorar la experiencia del cliente y ofrecer productos o servicios nuevos o mejorados.
  • Usar la IA para el bien común.

Las principales acciones y políticas de la gerencia para:

  • Minimizar el riesgo de malas experiencias de los clientes que podrían perjudicar a la marca. Los riesgos en cuanto a la experiencia del cliente incluyen asistentes virtuales deficientes, predicciones de IA imprecisas, decisiones erróneas tomadas por sistemas y robots de IA e interacciones humanas inadecuadas con los sistemas de IA.
  • Minimizar el riesgo de que los empleados dañen la marca haciendo caso omiso de las prácticas éticas y responsables de la IA. Esto incluye la prevención de decisiones de IA sesgadas o discriminatorias, la prevención de problemas de seguridad y la gestión del desplazamiento significativo de puestos de trabajo a través de la automatización, garantizando que se sigan buenas prácticas de IA como la transparencia, la explicabilidad y la rendición de cuentas.

Pruebas de nuevas situaciones que podrían surgir de la implementación de la IA, por ejemplo, ¿cómo manejaría la empresa la respuesta a un video impulsado por IA del CEO de la empresa?

Supervisar el rendimiento corporativo, los gastos y las adquisiciones.
  • Seguir la percepción del consumidor y del cliente sobre la marca, especialmente en relación con la confianza y las métricas de probabilidad de recomendación.
  • Asegurar que se sigan las prácticas éticas y responsables de la IA y que se identifiquen los posibles riesgos para la marca.
  • Preparar un plan de respuesta ante una crisis de relaciones públicas en caso de que se considere que la empresa está utilizando la IA de forma negativa, y utilizar el ejercicio para comprobar si la empresa está operando de forma adecuada.
  • Comprobar si alguna adquisición podría poner en riesgo la marca de la empresa debido a una mala experiencia del cliente impulsada por la IA o a la falta de prácticas responsables de IA.

Supervisión

Esta sección incluye tres herramientas para ayudar a los directores a supervisar el compromiso de la gerencia con los aspectos de IA de la marca.

La herramienta de evaluación del conocimiento ayuda a los miembros de la junta a evaluar si poseen o tienen acceso a los conocimientos necesarios de forma independiente para juzgar el conocimiento de la dirección, el liderazgo de la IA y la estrategia de marca.

Consulte la herramienta de evaluación del conocimiento en el Apéndice 1

La herramienta de revisión de desempeño consiste en preguntas que las juntas pueden hacer a la gerencia sobre su conocimiento de la IA, la estrategia competitiva y el progreso y desempeño de sus acciones. Ofrece el marco SCEPTIC para ayudar a los directores a evaluar las respuestas que reciben.

Consulte la herramienta de evaluación del desempeño en el Apéndice 2

La herramienta de orientación ofrece posibles sugerencias para nuevas acciones en un formato "Si, entonces".

Consulte la herramienta de orientación en el Apéndice 3

Agenda

Las siguientes sugerencias pueden ayudar a la persona que prepara la discusión de la junta y establece su programa sobre la ética y la inteligencia artificial:

Antes de dirigir la primera reunión:

  • Prepárese: Asegúrese de estar familiarizado con lo que significa desarrollar una marca de confianza y las oportunidades y riesgos potenciales de la IA para esa marca de confianza de la empresa. Identifique los asuntos más urgentes para que la junta los aborde. La sección de Recursos contiene más información sobre el desarrollo potencial de la marca, los riesgos y las oportunidades. Hable con los ejecutivos, en particular con los altos ejecutivos de TI, ciencia de datos y marcas, sobre los riesgos potenciales para la experiencia del cliente y sobre las próximas cuestiones éticas de la IA que deberán tenerse en cuenta.
  • Mida el interés de los miembros de la junta en la IA y la gestión de la marca: Hable con otros miembros de la junta. Aprenda qué importancia le dan a la IA y a la estrategia de marca y qué preocupaciones tienen. Identifique a los miembros de la junta que estén más interesados en avanzar rápidamente en el tratamiento de la IA y los asuntos de la marca, y a aquellos que tengan preocupaciones o que carezcan de interés (y determine si esto se basa en otros asuntos como la falta de educación).
  • Establezca metas: Piense de antemano en los resultados deseados para la discusión de la junta.
Establezca el punto inicial del programa: crear y proteger la confianza de la marca.

Los puntos del programa pueden incluir:

  • Discutir: Revise la importancia percibida de la confianza para construir y proteger el valor de la marca en la era de la IA. Revise los riesgos y oportunidades para la marca a través del uso de la IA dentro de la empresa. La conversación sobre el riesgo no sólo debe basarse en aspectos y cuestiones internas, sino también considerar ejemplos de mercado importantes (véase la sección de Recursos) para tener una perspectiva más completa. Las oportunidades incluyen el uso de la IA para el bien común y la capacidad de gestionar, medir y supervisar mejor el desarrollo de la marca.
  • Comparar: Determine cómo se está midiendo la confianza y las formas de fortalecerla o mejorarla, dadas las posibles inquietudes que plantea el uso de la IA. Determine qué controles internos existen para gestionar los riesgos que han sido expuestos, así como considerar qué oportunidades podrían afectar positivamente a la medición.
  • Delegar: Verifique que el director de marketing, o el propietario de una marca de primera línea similar, cuente con suficiente apoyo experto y educativo para estar preparado ante los problemas relacionados con la IA que surjan. Sin embargo, en última instancia, garantizar que se construya y mantenga la confianza pública necesaria será una responsabilidad del director ejecutivo.
  • Atraer: Decida cómo participará la junta en el proceso de monitoreo de la marca.

Establezca los puntos del programa de seguimiento. Estos pueden incluir:

  • Acceso a la información: Discuta con otros miembros de la junta qué información desean tener para que puedan mantenerse al día con la posición de la marca y los posibles problemas. Por ejemplo, puede que desee acceder a una investigación más amplia sobre los puntos de vista de los consumidores en cuestiones de confianza en los datos.
  • Garantías para los empleados: Discuta qué pasos debe tomar para asegurarse de que la junta esté al tanto de las prácticas o escenarios que podrían dañar la marca.
  • Revisión de los programas éticos: Revisar periódicamente la eficacia del código ético y si es necesario actualizarlo. Ser ético, y ser visto como tal, es una parte crítica de la protección de la marca.
  • Conocimiento de las cuestiones éticas: Revise periódicamente los asuntos éticos emergentes y potencialmente impactantes relacionados con la IA en su organización, en los socios en los que la compañía confía y en toda su industria. La realidad de las complejas cadenas de suministro significa que los riesgos de marca pueden surgir de diferentes lugares.
  • Ampliar el pensamiento de la junta directiva: Invite a expertos en datos y temas relacionados con la confianza de los consumidores para que los presenten a la junta. Estos podrían incluir académicos o líderes de las organizaciones que se dedican a temas de confianza en los datos de los consumidores.
  • Evitar el "lavado ético": Las empresas que utilizan la IA con fines altruistas pueden ser acusadas de utilizar la IA para el bien como fachada mientras que otras actividades inmorales continúan. Discuta con otros miembros de la junta y con expertos externos por qué el uso de la IA para el bien requiere un comportamiento ético de la IA para generar confianza.

Recursos

(Enlaces a partir del 06/08/19)

Libros

  • Katie King, Using Artificial Intelligence in Marketing, Kogan Page, 2019.
  • Paula Boddington, Towards a Code of Ethics for Artificial Intelligence, Springer, 2017.

Informes y artículos